Time of Flight是一种主动式深度感应技术,在每个像素点,除了记录光线强度信息之外,也记录下来光线从光源到该像素点的时间(即Time of Flight)。首先让装置发出脉冲光,同时接收目标物的反射光,藉由测量时间差算出目标物的距离。
如上图所示,假设脉冲波形的频率为f,接收与发送脉冲波形的相位偏移是φ,则φ/2πf为脉冲波形往返所经历的时间。用光速c乘以时间则可以得到往返距离。
2)TOF技术实现
TOF的硬件实现方式和结构光类似,区别只是在于算法上,结构光采用编码过的光pattern进行投射,而TOF直接计算相位差。
1.3.3 双目测距,传统的3D感知方法
双目测距原理类似人的双眼,在自然光下通过两个摄像头抓取图像,通过三角形原理来计算并获得深度信息。目前的双摄就是双目测距的典型应用。
1.4 3D成像是开启AI和AR时代的感知钥匙
以AI的机器视觉为例,目前主流在2D图像上通过算法实现智能识别,但是由于2D图像本身包含的信息有限,即使算法再先进,输入信息将成为智能化的短板,如果能够有全面的三维信息,每个对象的三维轮廓、物理特征将更为充分识别,提升导航、轨迹、识别等AI应用能力。同样的,AR应用中3D成像也是必不可少。
2 3D成像即将带动下一轮光学创新浪潮
2.1 交互向三维升级,想象空间巨大
纵观人机交互的历史,打孔指令带、DOS系统+键盘形成了早期一维人机交互;Windows+鼠标的二维交互方式开启了互联网/PC时代,触摸屏和摄像头的二维交互方式则开启了移动互联网/智能手机时代,而到了以AR为代表的下一代计算平台,则需要三维的交互方式。
在移动互联网时代,触摸屏和摄像头成为主要的人机交互媒介。触摸屏可以方便地实现各种操作,相比键盘和鼠标更为自然和顺畅。摄像头实现了大量的内容输入,也是一种重要的人机交互媒介。
但触摸屏和摄像头仍属于2D的交互方式。在触摸屏上,我们只能实现平面