本文先介绍光线追踪的理论,然后着重一步一步来搭建渲染场景,从最基本的向量类开始.采用的语言是c++,利用面向对象的思想,一些基础的线性代数和空间几何的知识也会用到,编程的框架用的是GLFW,渲染用到的是OpenGL。
光线追踪,简单地说,就是从摄影机的位置,通过影像平面上的像素位置(比较正确的说法是取样(sampling)位置),发射一束光线到场景,求光线和几何图形间最近的交点,再求该交点的著色。如果该交点的材质是反射性的,可以在该交点向反射方向继续追踪。光线追踪除了容易支持一些全局光照效果外,亦不局限于三角形作为几何图形的单位。任何几何图形,能与一束光线计算交点(intersection point),就能支持。
示意图如下:
光线追踪有一些很棒的特性,比如:能够生成高度真实感的图形,特别是对于表面光滑的对象,缺点是所需的计算量大的惊人.
原理其实非常的简单,但具体实现起来的时候会有很多细节的地方.
代码实现
可以表示空上的点(x,y,z).
gvector3.h
#ifndef GVECTOR3_H
#define GVECTOR3_H
#include
#include
#define MIN(x,y) (x)>(y)?(y):(x);
#define MAX(x,y) (x)>(y)?(x):(y);
using namespace std;
class GVector3
{
public:
float x;
float y;
float z;
// 缺省构造函数
GVector3();
~GVector3();
// 用户构造函数
GVector3(float posX, float posY, float posZ);
//输出向量信息
void getInfo();
//矢量加法
GVector3 operator+(GVector3 v);
//矢量减法
GVector3 operator-(GVector3 v);
//数乘
GVector3 operator*(float n);
//数除
GVector3 operator/(float n);
//向量点积
float dotMul(GVector3 v2);
//向量叉乘
GVector3 crossMul(GVector3 v2);
//绝对值化
GVector3 abs();
//获取分量中的最大值
float max();
//获取分量的最小值
float min();
//获取矢量长度
float getLength();
//向量单位化
GVector3 normalize();
//求两点之间的距离
float getDist(GVector3 v);
//返回零向量
static inline GVector3 zero(){ return GVector3(0,0,0); }
//打印向量的分量值
void show();
};
#endif // GVECTOR3_H
#include "gvector3.h"
GVector3::GVector3()
{
}
GVector3::~GVector3()
{
}
GVector3::GVector3(float posX, float posY, float posZ)
{
x=posX;
y=posY;
z=posZ;
}
GVector3 GVector3::operator+(GVector3 v)
{
return GVector3(x+v.x,v.y+y,v.z+z);
}
GVector3 GVector3::operator-(GVector3 v)
{
return GVector3(x-v.x,y-v.y,z-v.z);
}
GVector3 GVector3::operator*(float n)
{
return GVector3(x*n,y*n,z*n);
}
GVector3 GVector3::operator/(float n)
{
return GVector3(x/n,y/n,z/n);
}
void GVector3::getInfo()
{
cout<<"x:"<
点乘,也叫向量的内积、数量积。顾名思义,求下来的结果是一个数。
在物理学中,已知力与位移求功,实际上就是求向量F与向量s的内积,即要用点乘。
叉乘,也叫向量的外积、向量积。顾名思义,求下来的结果是一个向量,记这个向量为c。
向量c的方向与a,b所在的平面垂直,且方向要用“右手法则”判断(用右手的四指先表示向量a的方向,然后手指朝着手心的方向摆动到向量b的方向,大拇指所指的方向就是向量c的方向)。
在物理学中,已知力与力臂求力矩,就是向量的外积,即叉乘。
数值上的计算,将向量用坐标表示(三维向量),
若向量a=(a1,b1,c1),向量b=(a2,b2,c2),
则
向量a·向量b=a1a2+b1b2+c1c2
向量a×向量b=
| i j k|
|a1 b1 c1|
|a2 b2 c2|
=(b1c2-b2c1,c1a2-a1c2,a1b2-a2b1)
(i、j、k分别为空间中相互垂直的三条坐标轴的单位向量)。
首先来看一下光线的表示方法。
当t=0时,p=e, 当t=1时,p=s.0 这个结论在求交的时候会用到。有两个私有成员,原点和方向,数学上可用参数函数来表示:r(t)=o+td;t>=0cray.h#ifndef CRAY_H #define CRAY_H #include
#include "gvector3.h" #define PI 3.14159 using namespace std; class CRay { private: GVector3 origin; GVector3 direction; public: CRay(); CRay(GVector3 o,GVector3 d); ~CRay(); void setOrigin(GVector3 o); void setDirection(GVector3 d); GVector3 getOrigin(); GVector3 getDirection(); //通过向射线的参数方程传入参数t而获得在射线上的点 GVector3 getPoint(double t); }; #endif
cray.cpp#include "cray.h" CRay::CRay() { } CRay::~CRay() { } CRay::CRay(GVector3 o,GVector3 d) { origin=o; direction=d; } void CRay::setDirection(GVector3 d) { direction=d; } void CRay::setOrigin(GVector3 o) { origin=o; } GVector3 CRay::getDirection() { return direction; } GVector3 CRay::getOrigin() { return origin; } GVector3 CRay::getPoint(double t) { return origin+direction*t; }
初试画板
这里用GLFW作为opengl的编程框架。
GLFW是一个自由,开源,多平台的图形库,可用于创建窗口,渲染OpenGL,管理输入。
GLFW的配置见《 GLFW入门学习》.这里主要要做的就是将我们窗口映射成像素的点阵,然后填充颜色。
#include
#include #include #define WINDOW_WIDTH 600 #define WINDOW_HEIGHT 600 void initScene(int w,int h) { // 启用阴影平滑 glShadeModel( GL_SMOOTH ); // 黑色背景 glClearColor( 0.0, 0.0, 0.0, 0.0 ); // 设置深度缓存 glClearDepth( 1.0 ); // 启用深度测试 glEnable( GL_DEPTH_TEST ); // 所作深度测试的类型 glDepthFunc( GL_LEQUAL ); // 告诉系统对透视进行修正 glHint( GL_PERSPECTIVE_CORRECTION_HINT, GL_NICEST ); } //这里进行所有的绘图工作 void drawScene() { float colorSpan=0.0005f; float color=0.0f; float pixelSize=2.0f; float posY=-1.0f; float posX=-1.0f; long maxDepth=20; glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT); glLoadIdentity(); //将原点移动到左下角 glTranslatef(-0.5f,-0.5f,-1.0f); glPointSize(2.0); glBegin(GL_POINTS); double dx=1.0f/WINDOW_WIDTH; double dy=1.0f/WINDOW_HEIGHT; float dD=255.0f/maxDepth; glBegin(GL_POINTS); for (long y = 0; y < WINDOW_HEIGHT; ++y) { double sy = 1-dy*y; for (long x = 0; x < WINDOW_WIDTH; ++x) { double sx =dx*x; float colorR=x*1.0/WINDOW_WIDTH*255; float colorB=y*1.0/WINDOW_HEIGHT*255; glColor3ub(colorR,0,colorB); glVertex2f(sx,sy); } } // 交换缓冲区 glfwSwapBuffers(); } //重置窗口大小后的回调函数 void GLFWCALL resizeGL(int width, int height ) { // 防止窗口大小变为0 if ( height == 0 ) { height = 1; } // 重置当前的视口 glViewport( 0, 0, (GLint)width, (GLint)height ); // 选择投影矩阵 glMatrixMode( GL_PROJECTION ); // 重置投影矩阵 glLoadIdentity(); // 设置视口的大小 gluPerspective( 45.0, (GLfloat)width/(GLfloat)height, 0.1, 100.0 ); // 选择模型观察矩阵 glMatrixMode( GL_MODELVIEW ); glLoadIdentity(); } int main( void ) { //记录程序运行状态 int running = GL_TRUE; //初始化 GLFW if( !glfwInit() ) { exit( EXIT_FAILURE ); } // 创建一个OpenGL 窗口 if( !glfwOpenWindow( WINDOW_WIDTH,WINDOW_HEIGHT,6,6,6,0,32,0,GLFW_WINDOW) ) { glfwTerminate(); exit( EXIT_FAILURE ); } //初始化OpenGL窗口 initScene(WINDOW_WIDTH, WINDOW_HEIGHT); //设置窗口大小发生变化时的回调函数 glfwSetWindowSizeCallback(resizeGL); //主循环 while( running ) { // OpenGL rendering goes here... glClear( GL_COLOR_BUFFER_BIT ); // 当按下ESC键的时候触发 running = !glfwGetKey( GLFW_KEY_ESC ) &&glfwGetWindowParam( GLFW_OPENED ); drawScene(); //延时0.05秒 glfwSleep(0.05 ); } glfwTerminate(); //退出程序 exit( EXIT_SUCCESS ); }
渲染结果:
球体
球面的几何定义是到空间某点距离一定的点的集合。
这里着重需要说明的是球体的isIntersected函数,用于求光线是否与球体相交,并将结果存在result中返回。
中心点为c、半径为r的球体表面可用等式(equation)表示:||x-c||=r
只要把x=r(t)带入,求解即可得交点。具体的运算过程如下(令v=o-c)。
若根号内为负数,即相交不发生。另外,由于这里只需要取最近的交点,因此正负号只需取负号。
而球体在交点的法向量可表示为n=(p - c),单位法向量为(p - c)/R
所以空间球体可以用两个参数来表示:圆心位置和半径。
代码如下。
csphere.h
#ifndef CSPHERE_H #define CSPHERE_H #include "gvector3.h" #include "intersectresult.h" #include "cray.h" class CSphere { public: CSphere(); CSphere(GVector3 center,double radius); CSphere(CSphere& s); void setCenter(GVector3& c); void setRadius(double r); GVector3 getCenter(); double getRadius(); //获取物体表面一点的法线 virtual GVector3 getNormal(GVector3 point); //用于判断射线和该物体的交点 virtual IntersectResult isIntersected(CRay RAY); virtual ~CSphere(); protected: private: GVector3 center; double radius; }; #endif // CSPHERE_H
csphere.cpp
#include "csphere.h" #include "intersectresult.h" CSphere::CSphere() { //ctor } CSphere::CSphere(GVector3 c,double r) { center=c; radius=r; } CSphere::CSphere(CSphere& s) { center=s.getCenter(); radius=s.getRadius(); } CSphere::~CSphere() { //dtor } void CSphere::setCenter(GVector3& c) { center=c; } void CSphere::setRadius(double r) { radius=r; } GVector3 CSphere::getCenter() { return center; } double CSphere::getRadius() { return radius; } GVector3 CSphere::getNormal(GVector3 p) { return p-center; } IntersectResult CSphere::isIntersected(CRay _ray) { IntersectResult result = IntersectResult::noHit(); GVector3 v = _ray.getOrigin() - center; float a0 = v.dotMul(v) - radius*radius; float DdotV = _ray.getDirection().dotMul(v); if (DdotV <= 0) { float discr = DdotV * DdotV - a0; if (discr >= 0) { // result.isHit=1; result.distance=-DdotV - sqrt(discr); result.position=_ray.getPoint(result.distance); result.normal = result.position-center; result.normal.normalize(); } } return result; }
还有一个结构体,用来表示体和光线相交的结果。
#ifndef INTERSECTRESULT_H_INCLUDED #define INTERSECTRESULT_H_INCLUDED #include "gvector3.h" struct IntersectResult{ float distance; bool isHit; GVector3 position; GVector3 normal; static inline IntersectResult noHit() { return IntersectResult(); } }; #endif // INTERSECTRESULT_H_INCLUDED
摄像机
摄影机在光线追踪系统里,负责把影像的取样位置,生成一束光线。
由于影像的大小是可变的(多少像素宽x多少像素高),为方便计算,这里设定一个统一的取样座标(sx, sy),以左下角为(0,0),右上角为(1 ,1)。
从数学角度来说,摄影机透过投影(projection),把三维空间投射到二维空间上。常见的投影有正投影(orthographic projection)、透视投影(perspective projection)等等。这里首先实现透视投影。透视摄影机比较像肉眼和真实摄影机的原理,能表现远小近大的观察方式。透视投影从视点(view point/eye position),向某个方向观察场景,观察的角度范围称为视野(field of view, FOV)。除了定义观察的向前(forward)是那个方向,还需要定义在影像平面中,何谓上下和左右。为简单起见,暂时不考虑宽高不同的影像,FOV同时代表水平和垂直方向的视野角度。
上图显示,从摄影机上方显示的几个参数。 forward和right分别是向前和向右的单位向量。
因为视点是固定的,光线的起点不变。要生成光线,只须用取样座标(sx, sy)计算其方向d。留意FOV和s的关系为:tan(fov/2).
把sx从[0, 1]映射到[-1,1],就可以用right向量和s,来计算r向量。代码实现:
perspectiveCamera.h
#ifndef PERSPECTIVECAMERA_H #define PERSPECTIVECAMERA_H #include "cray.h" class perspectiveCamera{ public: perspectiveCamera(); ~perspectiveCamera(); perspectiveCamera(const GVector3& _eye,const GVector3& _front,const GVector3& _refUp,float _fov); CRay generateRay(float x,float y); private: GVector3 eye; GVector3 front; GVector3 refUp; float fov; GVector3 right; GVector3 up; float fovScale; }; #endif
perspectiveCamera.cpp
#include"perspectiveCamera.h" perspectiveCamera::perspectiveCamera() { } perspectiveCamera::~perspectiveCamera() { } perspectiveCamera::perspectiveCamera(const GVector3& _eye,const GVector3& _front,const GVector3& _refUp,float _fov) { eye=_eye; front=_front; refUp=_refUp; fov=_fov; right=front.crossMul(refUp); up = right.crossMul(front); fovScale = tan(fov* (PI * 0.5f / 180)) * 2; } CRay perspectiveCamera::generateRay(float x,float y) { GVector3 r = right*((x - 0.5f) * fovScale); GVector3 u = up*((y - 0.5f) * fovScale); GVector3 tmp=front+r+u; tmp.normalize(); return CRay(eye,tmp); }
渲染一个球
基本的工具类都准备好之后,我们就可以开始渲染一些东西,这里先把之前定义的球体渲染到窗口之中。
基本的做法是遍历影像的取样座标(sx, sy),用Camera把(sx, sy)转为Ray3,和场景(例如Sphere)计算最近交点,把该交点的属性转为颜色,写入影像的相对位置里。
首先我们来渲染深度,深度(depth)就是从IntersectResult取得最近相交点的距离,因深度的范围是从零至无限,为了把它显示出来,可以把它的一个区间映射到灰阶。这里用[0, maxDepth]映射至[255, 0],即深度0的像素为白色,深度达maxDepth的像素为黑色。
代码实现:
void renderDepth() { glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT); glLoadIdentity(); // Reset The View glTranslatef(-0.5f,-0.5f,-1.0f); glPointSize(2.0); float horiz=0.0; float dep=10; PerspectiveCamera camera( GVector3(horiz, 10, dep),GVector3(0, 0, -1),GVector3(0, 1, 0), 90); long maxDepth=18; CSphere* sphere1 = new CSphere(GVector3(0, 10, -10), 10.0); float dx=1.0f/WINDOW_WIDTH; float dy=1.0f/WINDOW_HEIGHT; float dD=255.0f/maxDepth; glBegin(GL_POINTS); for (long y = 0; y < WINDOW_HEIGHT; ++y) { float sy = 1 - dy*y; for (long x = 0; x < WINDOW_WIDTH; ++x) { float sx =dx*x; CRay ray(camera.generateRay(sx, sy)); IntersectResult result = sphere1->isIntersected(ray); if (result.isHit) { double t=MIN(result.distance*dD,255.0f); int depth = (int)(255 -t); glColor3ub(depth,depth,depth); glVertex2f(sx,sy); } } } glEnd(); // 交换缓冲区 glfwSwapBuffers(); }
渲染结果
接下来我们来渲染一下交点法向量,法向量是一个单位向量,在计算交点的时候们就将其存储在result.normal中了,其每个元素的范围是[-1, 1]。把单位向量映射到颜色的常用方法为,把(x, y, z)映射至(r, g, b),范围从[-1, 1]映射至[0, 255]。
代码实现:
void renderDepth() { glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT); glLoadIdentity(); // Reset The View glTranslatef(-0.5f,-0.5f,-1.0f); glPointSize(2.0); PerspectiveCamera camera( GVector3(0, 10, 10),GVector3(0, 0, -1),GVector3(0, 1, 0), 90); long maxDepth=20; CSphere* sphere1 = new CSphere(GVector3(0, 10, -10), 10.0); camera.initialize(); float dx=1.0f/WINDOW_WIDTH; float dy=1.0f/WINDOW_HEIGHT; float dD=255.0f/maxDepth; glBegin(GL_POINTS); for (long y = 0; y < WINDOW_HEIGHT; ++y) { float sy = 1 - dy*y; for (long x = 0; x < WINDOW_WIDTH; ++x) { float sx =dx*x; CRay ray(camera.generateRay(sx, sy)); IntersectResult result = sphere1->isIntersected(ray); if (result.isHit) { //double t=MIN(result.distance*dD,255.0f); //int depth = (int)(255 -t); //xuanranshengdu //glColor3ub(depth,depth,depth); //xuanran normal glColor3ub(128*(result.normal.x+1),128*(result.normal.y+1),128*(result.normal.z+1)); glVertex2f(sx,sy); } } } glEnd(); // 交换缓冲区 glfwSwapBuffers(); }
渲染结果:
球体上方的法向量是接近(0, 1, 0),所以是浅绿色(0.5, 1, 0.5)。
结语
入门篇就先到这里,通过一步步搭建我们的场景,对光线追踪有了一个基础的理解,接下来我们会一步步深入一些高级的主题,比如材质,光照,雾...
参考:用JavaScript玩转计算机图形学(一)光线追踪入门-http://www.cnblogs.com/miloyip/archive/2010/03/29/1698953.html
光线追踪技术的理论和实践(面向对象)-http://blog.csdn.net/zhangci226/article/details/5664313Wikipedia, Ray Tracing
计算机图形学(第三版)(美)赫恩 著,(美)巴克 著。