苹果在3月18日正式更新了iPad Pro产品线,除了更新了A12Z处理器之外,最大的看点无疑是新iPad Pro上增加的一个激光雷达,这种目前被用在测绘学、遥感、机器人视觉、无人驾驶等需要精密测量等领域的技术,被用到了一款平板电脑上,而且其体积被缩小到如此程度,不得不佩服苹果在产品研发和工业设计方面的创造力。
一颗激光雷达可以带给iPad Pro什么样全新的功能,它未来将被苹果应用在哪些领域,可能是很多人都想了解的。
知乎答主“甜草莓”认为,苹果在iPad Pro上使用的LiDAR(激光雷达)通过发射/接收红外激光来测量目标距离,同时进行测量成像,这项技术未来将被广泛应用到苹果的AR应用领域。
以下为知乎答主“甜草莓”撰文全文,新闻资讯稍作整理:
对我来说亮点应该是这个新增的LiDAR了,不过等了很久也没有人做详细解释,就去查了一些资料,结合苹果的描述简单单谈我对它的理解。
因为我不是专门研究光学雷达,只是平时科研涉及雷达原理,所以并不一定专业,请读者谨慎看待,也希望我的回答能炸出一些大佬(
1、首先,有必要阐述几个概念 ,LiDAR,Radar和ToF camara
激光雷达(LiDAR,Light Detection and Ranging)和之前在Google Pixel 4上搭载的用于手势识别的毫米波雷达(millimeter wave radar)不一样。虽然都同样归属在雷达范畴,但LiDAR通过发射/接收脉冲激光来测量目标距离,同时进行测量成像。而标准意义上的雷达则通过发射微波或者无线电波等波长较长的电磁波来测量距离。现在手机上普遍采用的ToF摄像头也是利用雷达原理来测距,不同的地方是他们一般发射的是红外线。
OPPO的ToF摄像头,资料来源:SYSTEMPlus,东方财富证券研究所
「注,采用激光光源的ToF相机也属于LiDAR的范畴。其实大胆猜测,苹果使用的正是激光光源的ToF相机,但是为了区分,以下遵循苹果的命名,统一把这类叫LiDAR。下边的ToF特指红外光源的ToF相机。
从毫米波雷达到ToF相机or LiDAR,光源波长正在变得越来越短,频率越来越高。」
根据雷达原理,频率越高角分辨率越高,雷达图像就越清晰,这些成像区别能在下图看得出来。
虽然同属主动探测型的传感器,就成像分辨率来说 LiDAR(可见光or紫外线) 高于红外线的ToF/LiDAR,后两者高于Google Pixel 4上的毫米波雷达应该是没有什么疑问的。也正是因为LiDAR的高分辨率,所以它经常被用作高分辨率地图绘制、三维建模、体积测定等等。
苹果选用的LiDAR估计同样采用的红外线,但是猜测应该是采用的脉冲红外激光,其它用的是连续的红外线。可能是因为工艺改进提高了分辨率/同时可能用了信息融合算法,所以能匹配更好的AR建模?
顺带一提,激光雷达现在一般用在自动驾驶车上,这么小可以集成在手机上的LiDAR模块还是挺少见的,苹果可能又要带领一波风潮。
2. LiDAR采用的直接飞行时间dToF测距是什么?
光也是信号,也可以利用很多种方式调制。和传统的雷达一样,为了利用光的飞行时间(Time of Flight,ToF)测距,LiDAR发射的光波也存在两种调制方式:脉冲调制和连续波调制。
这在LiDAR里分别被叫做直接飞行时间(Direct-ToF)测量和间接飞行时间(Indirect-ToF)测量。
左侧Direct-ToF,右侧Indirect-ToF
dToF因为需要高精密时钟进行测量且需要产生短时间、高频率、高强度的激光,所以对硬件要求比较高。Indirect-ToF对硬件要求比较低,所以目前大多厂商在红外ToF里大多采用后者。
但是实际上这两种测量方式各有优缺点:
Direct-ToF : 发射的是离散激光脉冲,相比之下省电,成像速度高,但是硬件要求高
Indirect-ToF:可以发射低频光(红外),分辨率可以更高,但是成像速度慢,硬件要求低
据我查到的资料来看,很多人认为未来移动设备里,Indirect-ToF相机(红外ToF)会向Direct-ToF (LiDAR)过渡,所以苹果算开了个好头。
3. 应用是什么?
苹果给出了三个典型场景,量身高,AR游戏和宜家的AR家庭装修。
在我看来前两个并不是很有趣,AR家装倒是很有用处,说不定我想拆家的时候会借一个iPad来试试新想法。
不过LiDAR的想象力可能不止于此,如果它的精度足够,原本受限于人体三维数据,无法完美实现的AR试衣,AR试妆是有可能完成的。
或者还能通过连续拍照,导入3D引擎(比如寒霜)来实现快速3D建模环境,这样游戏、动画和玄幻片会更容易制作。
这时候说不定苹果又能养活一个新兴产业了。