光线追踪(RayTracing)算法理论与实践入门

Posted 拳四郎

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了光线追踪(RayTracing)算法理论与实践入门相关的知识,希望对你有一定的参考价值。

提要

本文先介绍光线追踪的理论,然后着重一步一步来搭建渲染场景,从最基本的向量类开始.采用的语言是c++,利用面向对象的思想,一些基础的线性代数和空间几何的知识也会用到,编程的框架用的是GLFW,渲染用到的是OpenGL。


原理

光线追踪,简单地说,就是从摄影机的位置,通过影像平面上的像素位置(比较正确的说法是取样(sampling)位置),发射一束光线到场景,求光线和几何图形间最近的交点,再求该交点的著色。如果该交点的材质是反射性的,可以在该交点向反射方向继续追踪。光线追踪除了容易支持一些全局光照效果外,亦不局限于三角形作为几何图形的单位。任何几何图形,能与一束光线计算交点(intersection point),就能支持。

示意图如下:


光线追踪有一些很棒的特性,比如:能够生成高度真实感的图形,特别是对于表面光滑的对象,缺点是所需的计算量大的惊人.

原理其实非常的简单,但具体实现起来的时候会有很多细节的地方.


代码实现

向量类

可以表示空上的点(x,y,z).

gvector3.h

#ifndef GVECTOR3_H
#define GVECTOR3_H
#include <iostream>
#include <cmath>
#define MIN(x,y) (x)>(y)?(y):(x);
#define MAX(x,y) (x)>(y)?(x):(y);
using namespace std;


class GVector3


public:
    float x;
    float y;
    float z;
     // 缺省构造函数
    GVector3();
    ~GVector3();
     // 用户构造函数
    GVector3(float posX, float posY, float posZ);
    //输出向量信息
    void getInfo();
    //矢量加法
    GVector3 operator+(GVector3 v);
    //矢量减法
    GVector3 operator-(GVector3 v);
    //数乘
    GVector3 operator*(float n);
    //数除
    GVector3 operator/(float n);
    //向量点积
    float dotMul(GVector3 v2);
    //向量叉乘
    GVector3 crossMul(GVector3 v2);
    //绝对值化
    GVector3 abs();
    //获取分量中的最大值
    float max();
    //获取分量的最小值
    float min();
    //获取矢量长度
    float getLength();
    //向量单位化
    GVector3 normalize();
    //求两点之间的距离
    float getDist(GVector3 v);
    //返回零向量
    static inline GVector3 zero() return GVector3(0,0,0); 
    //打印向量的分量值
    void show();

;

#endif // GVECTOR3_H

gvector3.cpp

#include "gvector3.h"

GVector3::GVector3()


GVector3::~GVector3()


GVector3::GVector3(float posX, float posY, float posZ)

    x=posX;
    y=posY;
    z=posZ;


GVector3 GVector3::operator+(GVector3 v)

    return GVector3(x+v.x,v.y+y,v.z+z);

GVector3 GVector3::operator-(GVector3 v)

    return GVector3(x-v.x,y-v.y,z-v.z);

GVector3 GVector3::operator*(float n)

    return GVector3(x*n,y*n,z*n);

GVector3 GVector3::operator/(float n)

    return GVector3(x/n,y/n,z/n);

void GVector3::getInfo()

    cout<<"x:"<<x<<" y:"<<y<<" z:"<<z<<endl;

GVector3 GVector3::abs()

    if(x<0) x*=-1;
    if(y<0) y*=-1;
    if(z<0) z*=-1;
    return GVector3(x,y,z);

float GVector3::dotMul(GVector3 v2)

    return (x*v2.x+y*v2.y+z*v2.z);

GVector3 GVector3::crossMul(GVector3 v2)

 GVector3 vNormal;
  // 计算垂直矢量
  vNormal.x = ((y * v2.z) - (z * v2.y));
  vNormal.y = ((z * v2.x) - (x * v2.z));
  vNormal.z = ((x * v2.y) - (y * v2.x));
  return vNormal;

float GVector3::getLength()

    return  (float)sqrt(x*x+y*y+z*z);

GVector3 GVector3::normalize()

    float length=getLength();
    x=x/length;
    y=y/length;
    z=z/length;
    return GVector3(x,y,z);

void GVector3::show()

    cout<<"x:"<<x<<"  y:"<<y<<"  z"<<z<<endl;

float GVector3::max()

    float tmp=MAX(y,z);
    return MAX(x,tmp);

float GVector3::min()

    float tmp=MIN(y,z);
    return MIN(x,tmp);

float GVector3::getDist(GVector3 v)

    float tmp=(x-v.x)*(x-v.x)+(y-v.y)*(y-v.y)+(z-v.z)*(z-v.z);
    return sqrt(tmp);


着重解释一下向量的点乘和叉乘。

点乘,也叫向量的内积、数量积。顾名思义,求下来的结果是一个数。 
在物理学中,已知力与位移求功,实际上就是求向量F与向量s的内积,即要用点乘。 
叉乘,也叫向量的外积、向量积。顾名思义,求下来的结果是一个向量,记这个向量为c。 
向量c的方向与a,b所在的平面垂直,且方向要用“右手法则”判断(用右手的四指先表示向量a的方向,然后手指朝着手心的方向摆动到向量b的方向,大拇指所指的方向就是向量c的方向)。
在物理学中,已知力与力臂求力矩,就是向量的外积,即叉乘。 
数值上的计算,将向量用坐标表示(三维向量), 
若向量a=(a1,b1,c1),向量b=(a2,b2,c2), 
则 
向量a·向量b=a1a2+b1b2+c1c2 
向量a×向量b= 
| i j k| 
|a1 b1 c1| 
|a2 b2 c2| 
=(b1c2-b2c1,c1a2-a1c2,a1b2-a2b1) 
(i、j、k分别为空间中相互垂直的三条坐标轴的单位向量)。

光线类

首先来看一下光线的表示方法。


当t=0时,p=e, 当t=1时,p=s.0<t1<t2则t1更接近眼睛。
这个结论在求交的时候会用到。
有两个私有成员,原点和方向,数学上可用参数函数来表示:r(t)=o+td;t>=0cray.h
#ifndef CRAY_H
#define CRAY_H
#include <iostream>
#include "gvector3.h"
#define PI 3.14159
using namespace std;
class CRay

	private:
	GVector3 origin;
	GVector3 direction;
	public:
	CRay();
	CRay(GVector3 o,GVector3 d);
	~CRay();
    void setOrigin(GVector3 o);
	void setDirection(GVector3 d);
    GVector3 getOrigin();
	GVector3 getDirection();
	//通过向射线的参数方程传入参数t而获得在射线上的点
	GVector3 getPoint(double t);

;
#endif

cray.cpp
#include "cray.h"
CRay::CRay()


CRay::~CRay()


CRay::CRay(GVector3 o,GVector3 d)

    origin=o;
    direction=d;

void CRay::setDirection(GVector3 d)

    direction=d;

void CRay::setOrigin(GVector3 o)

    origin=o;

GVector3 CRay::getDirection()

    return direction;

GVector3 CRay::getOrigin()

    return origin;

GVector3 CRay::getPoint(double t)

    return origin+direction*t;


初试画板

这里用GLFW作为opengl的编程框架。
GLFW是一个自由,开源,多平台的图形库,可用于创建窗口,渲染OpenGL,管理输入。
GLFW的配置见《 GLFW入门学习》.这里主要要做的就是将我们窗口映射成像素的点阵,然后填充颜色。

#include <GL/glfw.h>
#include <stdlib.h>
#include<stdio.h>
#define WINDOW_WIDTH  600
#define WINDOW_HEIGHT 600
void initScene(int w,int h)

    // 启用阴影平滑
    glShadeModel( GL_SMOOTH );
    // 黑色背景
    glClearColor( 0.0, 0.0, 0.0, 0.0 );
    // 设置深度缓存
    glClearDepth( 1.0 );
    // 启用深度测试
    glEnable( GL_DEPTH_TEST );
    // 所作深度测试的类型
    glDepthFunc( GL_LEQUAL );
    // 告诉系统对透视进行修正
    glHint( GL_PERSPECTIVE_CORRECTION_HINT, GL_NICEST );

//这里进行所有的绘图工作
void  drawScene() 
float colorSpan=0.0005f;
    float color=0.0f;
    float pixelSize=2.0f;
    float posY=-1.0f;
    float posX=-1.0f;
    long maxDepth=20;
    glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);
    glLoadIdentity();
    //将原点移动到左下角
    glTranslatef(-0.5f,-0.5f,-1.0f);
    glPointSize(2.0);
    glBegin(GL_POINTS);
    double dx=1.0f/WINDOW_WIDTH;
    double dy=1.0f/WINDOW_HEIGHT;
    float dD=255.0f/maxDepth;
    glBegin(GL_POINTS);

    for (long y = 0; y < WINDOW_HEIGHT; ++y)
    
        double sy = 1-dy*y;
        for (long x = 0; x < WINDOW_WIDTH; ++x)
        
            double sx =dx*x;
            float colorR=x*1.0/WINDOW_WIDTH*255;
            float colorB=y*1.0/WINDOW_HEIGHT*255;
           glColor3ub(colorR,0,colorB);
           glVertex2f(sx,sy);
        
    
    // 交换缓冲区
    glfwSwapBuffers();

//重置窗口大小后的回调函数
void GLFWCALL resizeGL(int width, int height )

    // 防止窗口大小变为0
    if ( height == 0 )
    
        height = 1;
    
    // 重置当前的视口
    glViewport( 0, 0, (GLint)width, (GLint)height );
    // 选择投影矩阵
    glMatrixMode( GL_PROJECTION );
    // 重置投影矩阵
    glLoadIdentity();
    // 设置视口的大小
    gluPerspective( 45.0, (GLfloat)width/(GLfloat)height, 0.1, 100.0 );
    // 选择模型观察矩阵
    glMatrixMode( GL_MODELVIEW );
    glLoadIdentity();


int main( void )

    //记录程序运行状态
    int running = GL_TRUE;
    //初始化 GLFW
    if( !glfwInit() )
    
        exit( EXIT_FAILURE );
    
    // 创建一个OpenGL 窗口
    if( !glfwOpenWindow( WINDOW_WIDTH,WINDOW_HEIGHT,6,6,6,0,32,0,GLFW_WINDOW) )
    
        glfwTerminate();
        exit( EXIT_FAILURE );
    
    //初始化OpenGL窗口
    initScene(WINDOW_WIDTH, WINDOW_HEIGHT);
    //设置窗口大小发生变化时的回调函数
    glfwSetWindowSizeCallback(resizeGL);
    //主循环
    while( running )
    
        // OpenGL rendering goes here...
        glClear( GL_COLOR_BUFFER_BIT );
        // 当按下ESC键的时候触发
        running = !glfwGetKey( GLFW_KEY_ESC ) &&glfwGetWindowParam( GLFW_OPENED );
	drawScene();
        //延时0.05秒
	glfwSleep(0.05 );
    
    glfwTerminate();
    //退出程序
    exit( EXIT_SUCCESS );


渲染结果:


球体

球面的几何定义是到空间某点距离一定的点的集合。

这里着重需要说明的是球体的isIntersected函数,用于求光线是否与球体相交,并将结果存在result中返回。
中心点为c、半径为r的球体表面可用等式(equation)表示:||x-c||=r
只要把x=r(t)带入,求解即可得交点。具体的运算过程如下(令v=o-c)。



若根号内为负数,即相交不发生。另外,由于这里只需要取最近的交点,因此正负号只需取负号。

而球体在交点的法向量可表示为n=(p - c),单位法向量为(p - c)/R


所以空间球体可以用两个参数来表示:圆心位置和半径。
代码如下。
csphere.h

#ifndef CSPHERE_H
#define CSPHERE_H
#include "gvector3.h"
#include "intersectresult.h"
#include "cray.h"
class CSphere

    public:
        CSphere();
        CSphere(GVector3 center,double radius);
        CSphere(CSphere& s);
        void setCenter(GVector3& c);
        void setRadius(double r);
        GVector3 getCenter();
        double getRadius();
        //获取物体表面一点的法线
         virtual GVector3 getNormal(GVector3 point);
        //用于判断射线和该物体的交点
        virtual IntersectResult isIntersected(CRay RAY);
        virtual ~CSphere();
    protected:
    private:
        GVector3 center;
        double radius;
;

#endif // CSPHERE_H

csphere.cpp

#include "csphere.h"
#include "intersectresult.h"
CSphere::CSphere()

    //ctor

CSphere::CSphere(GVector3 c,double r)

    center=c;
    radius=r;

CSphere::CSphere(CSphere& s)

    center=s.getCenter();
    radius=s.getRadius();

CSphere::~CSphere()

    //dtor

void CSphere::setCenter(GVector3& c)

    center=c;

void CSphere::setRadius(double r)

    radius=r;

GVector3 CSphere::getCenter()

    return center;

double CSphere::getRadius()

    return radius;

GVector3 CSphere::getNormal(GVector3 p)

    return p-center;

IntersectResult CSphere::isIntersected(CRay _ray)

      IntersectResult result = IntersectResult::noHit();
      GVector3 v = _ray.getOrigin() - center;
        float a0 = v.dotMul(v) - radius*radius;
        float DdotV = _ray.getDirection().dotMul(v);


        if (DdotV <= 0) 
            float discr = DdotV * DdotV - a0;
            if (discr >= 0) 
                //
                result.isHit=1;
                result.distance=-DdotV - sqrt(discr);
                result.position=_ray.getPoint(result.distance);
                result.normal = result.position-center;
                result.normal.normalize();
            
        
		return result;


还有一个结构体,用来表示体和光线相交的结果。

#ifndef INTERSECTRESULT_H_INCLUDED
#define INTERSECTRESULT_H_INCLUDED
#include "gvector3.h"
struct IntersectResult
    float distance;
    bool isHit;
    GVector3 position;
    GVector3 normal;
    static inline IntersectResult noHit()  return IntersectResult(); 
;

#endif // INTERSECTRESULT_H_INCLUDED


摄像机

摄影机在光线追踪系统里,负责把影像的取样位置,生成一束光线。
由于影像的大小是可变的(多少像素宽x多少像素高),为方便计算,这里设定一个统一的取样座标(sx, sy),以左下角为(0,0),右上角为(1 ,1)。
从数学角度来说,摄影机透过投影(projection),把三维空间投射到二维空间上。常见的投影有正投影(orthographic projection)、透视投影(perspective projection)等等。这里首先实现透视投影。

透视摄影机比较像肉眼和真实摄影机的原理,能表现远小近大的观察方式。透视投影从视点(view point/eye position),向某个方向观察场景,观察的角度范围称为视野(field of view, FOV)。除了定义观察的向前(forward)是那个方向,还需要定义在影像平面中,何谓上下和左右。为简单起见,暂时不考虑宽高不同的影像,FOV同时代表水平和垂直方向的视野角度。


上图显示,从摄影机上方显示的几个参数。 forward和right分别是向前和向右的单位向量。
因为视点是固定的,光线的起点不变。要生成光线,只须用取样座标(sx, sy)计算其方向d。留意FOV和s的关系为:tan(fov/2).
把sx从[0, 1]映射到[-1,1],就可以用right向量和s,来计算r向量。

代码实现:

perspectiveCamera.h

#ifndef PERSPECTIVECAMERA_H
#define PERSPECTIVECAMERA_H
#include "cray.h"
class perspectiveCamera
    public:
    perspectiveCamera();
    ~perspectiveCamera();
    perspectiveCamera(const GVector3& _eye,const GVector3& _front,const GVector3& _refUp,float _fov);
    CRay generateRay(float x,float y);

    private:
	GVector3 eye;
	GVector3 front;
	GVector3 refUp;
	float   fov;
	GVector3 right;
	GVector3 up;
	float   fovScale;
;
#endif

perspectiveCamera.cpp

#include"perspectiveCamera.h"

perspectiveCamera::perspectiveCamera()



perspectiveCamera::~perspectiveCamera()


perspectiveCamera::perspectiveCamera(const GVector3& _eye,const GVector3& _front,const GVector3& _refUp,float _fov)

    eye=_eye;
    front=_front;
    refUp=_refUp;
    fov=_fov;
    right=front.crossMul(refUp);
    up = right.crossMul(front);
    fovScale = tan(fov* (PI  * 0.5f / 180)) * 2;

CRay perspectiveCamera::generateRay(float x,float y)

    GVector3 r = right*((x - 0.5f) * fovScale);
    GVector3 u = up*((y - 0.5f) * fovScale);
    GVector3 tmp=front+r+u;
    tmp.normalize();
    return CRay(eye,tmp);



渲染一个球

基本的工具类都准备好之后,我们就可以开始渲染一些东西,这里先把之前定义的球体渲染到窗口之中。

基本的做法是遍历影像的取样座标(sx, sy),用Camera把(sx, sy)转为Ray3,和场景(例如Sphere)计算最近交点,把该交点的属性转为颜色,写入影像的相对位置里。

首先我们来渲染深度,深度(depth)就是从IntersectResult取得最近相交点的距离,因深度的范围是从零至无限,为了把它显示出来,可以把它的一个区间映射到灰阶。这里用[0, maxDepth]映射至[255, 0],即深度0的像素为白色,深度达maxDepth的像素为黑色。

代码实现:

void renderDepth()

    glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);
    glLoadIdentity();                                   // Reset The View
    glTranslatef(-0.5f,-0.5f,-1.0f);
    glPointSize(2.0);
    float horiz=0.0;
    float dep=10;
    PerspectiveCamera camera( GVector3(horiz, 10, dep),GVector3(0, 0, -1),GVector3(0, 1, 0), 90);
    long maxDepth=18;
    CSphere* sphere1 = new CSphere(GVector3(0, 10, -10), 10.0);
    float dx=1.0f/WINDOW_WIDTH;
    float dy=1.0f/WINDOW_HEIGHT;
    float dD=255.0f/maxDepth;
    glBegin(GL_POINTS);
    for (long y = 0; y < WINDOW_HEIGHT; ++y)
    
        float sy = 1 - dy*y;
        for (long x = 0; x < WINDOW_WIDTH; ++x)
        
            float sx =dx*x;
            CRay ray(camera.generateRay(sx, sy));
            IntersectResult result = sphere1->isIntersected(ray);
            if (result.isHit)
            
                double t=MIN(result.distance*dD,255.0f);
                int depth = (int)(255 -t);
                glColor3ub(depth,depth,depth);
                glVertex2f(sx,sy);
            

        
    

    glEnd();
    // 交换缓冲区
    glfwSwapBuffers();

渲染结果



接下来我们来渲染一下交点法向量,法向量是一个单位向量,在计算交点的时候们就将其存储在result.normal中了,其每个元素的范围是[-1, 1]。把单位向量映射到颜色的常用方法为,把(x, y, z)映射至(r, g, b),范围从[-1, 1]映射至[0, 255]。

代码实现:

void renderDepth()

    glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);
    glLoadIdentity();                                   // Reset The View
    glTranslatef(-0.5f,-0.5f,-1.0f);
    glPointSize(2.0);
    PerspectiveCamera camera( GVector3(0, 10, 10),GVector3(0, 0, -1),GVector3(0, 1, 0), 90);
    long maxDepth=20;
    CSphere* sphere1 = new CSphere(GVector3(0, 10, -10), 10.0);
    camera.initialize();
    float dx=1.0f/WINDOW_WIDTH;
    float dy=1.0f/WINDOW_HEIGHT;
    float dD=255.0f/maxDepth;
    glBegin(GL_POINTS);
    for (long y = 0; y < WINDOW_HEIGHT; ++y)
    
        float sy = 1 - dy*y;
        for (long x = 0; x < WINDOW_WIDTH; ++x)
        
            float sx =dx*x;
            CRay ray(camera.generateRay(sx, sy));
            IntersectResult result = sphere1->isIntersected(ray);
            if (result.isHit)
            
                //double t=MIN(result.distance*dD,255.0f);
                //int depth = (int)(255 -t);
                //xuanranshengdu
                //glColor3ub(depth,depth,depth);
                //xuanran normal
                glColor3ub(128*(result.normal.x+1),128*(result.normal.y+1),128*(result.normal.z+1));
                glVertex2f(sx,sy);
            
        
    
    glEnd();
    // 交换缓冲区
    glfwSwapBuffers();

渲染结果:


球体上方的法向量是接近(0, 1, 0),所以是浅绿色(0.5, 1, 0.5)。

结语

入门篇就先到这里,通过一步步搭建我们的场景,对光线追踪有了一个基础的理解, 接下来我们会一步步深入一些高级的主题,比如材质,光照,雾...
参考:
javascript玩转计算机图形学(一)光线追踪入门-http://www.cnblogs.com/miloyip/archive/2010/03/29/1698953.html
光线追踪技术的理论和实践(面向对象)-http://blog.csdn.net/zhangci226/article/details/5664313
Wikipedia, Ray Tracing
计算机图形学(第三版)(美)赫恩 著,(美)巴克 著。



以上是关于光线追踪(RayTracing)算法理论与实践入门的主要内容,如果未能解决你的问题,请参考以下文章

计算在基于瓦片的游戏中哪些瓦片被点亮(“光线追踪”)

光线追踪:带有区域光的水平伪影

全局光照:光线追踪路径追踪与GI技术进化编年史

光线追踪、光线投射、光线行进和路径追踪有啥区别?

双目标定与三维计算:从理论到OpenCV实践

Ray Tracing The Next Week 超详解 光线追踪2-7 任意长方体 && 场景案例