リード
iPad Pro(2020年)とiPhone 12 Pro以降に搭載されたLiDARスキャナーは、iPhoneを「空間計測器」に変えた。暗所のオートフォーカス高速化からAR精度向上まで、その仕組みを解説する。
🟢 LiDARとは何か
**LiDAR(Light Detection And Ranging)**は「光で距離を測る」技術だ。レーダーが電波を使うのに対し、LiDARはレーザー光(近赤外線)を使う。
基本原理は**ToF(Time of Flight、飛行時間法)**だ。
- レーザーパルスを発射
- 物体に反射して返ってくるまでの時間を計測
- 距離 = 光速 × 往復時間 ÷ 2
光速(3×10⁸ m/s)で1ナノ秒(10⁻⁹秒)あたり約30cmに相当する。1mの距離なら往復6.7ナノ秒という精度で計測する。
🔵 AppleのiPad/iPhoneのDTOFセンサー
Appleが採用するのは**dToF(direct Time of Flight)**方式だ。
単一のレーザーではなく、多数の点を同時に照射してSPAD(単一光子アバランシェダイオード)アレイで受光する。点ではなく「面」を一度に計測できるため、高速なデプスマップ生成が可能だ。
iPhoneのLiDARスキャナーの仕様:
- 測定距離: 最大約5m
- 精度: 数センチメートル単位
- 測定速度: フレームレートに追従(毎秒数十回)
🔵 3つの主要用途
1. 暗所オートフォーカス
通常のコントラストAFは光がないと機能しない。LiDARは赤外線なので暗所でも動作する。
iPhone 12 Pro以降で、真っ暗な環境でも高速AFが効くのはLiDARがアクティブに距離を測定しているからだ。フォーカス速度は従来比最大6倍と報告されている。
2. ARKit精度向上
ARアプリで仮想オブジェクトを現実空間に配置する際、LiDARのデプスマップがあると:
- オクルージョン(仮想物体が現実の物体の後ろに隠れる)が正確に処理できる
- 平面検出が高速化(ARKitがLiDARデータから即座に床・壁を認識)
- オブジェクトの「床への吸着」精度が上がる
3. 3Dスキャン・空間計測
RoomPlan API(iOS 16+)を使うと部屋全体を数秒でスキャンして3Dモデルを生成できる。LiDARとカメラの組み合わせで、家具・窓・ドアの寸法まで計測する。
🟣 LiDARとToFカメラの違い
一般的なToFカメラ(例:古いAzure Kinect)は解像度が低く(例:640×480ドット)測距専用だ。
AppleのLiDARはカメラ映像とフュージョンされる。Neural EngineがLiDARのデプスデータとカメラの色データを統合し、より密なデプスマップを再構成する。機械学習による「デプス補完」が精度を上げる秘密だ。
🟣 Vision ProへのR1との関係
Vision Proには独自のLiDAR/デプスセンサーと、それを処理するR1チップがある。iPhoneのLiDAR技術が空間コンピューティングへと発展した系譜が見える。
まとめ
LiDARはiPhoneを「写真を撮るカメラ」から「空間を計測する装置」に変えた。暗所AF・AR精度・3Dスキャンという三つの用途は、単一のハードウェアが複数のソフトウェア体験を支えるAppleの垂直統合設計の典型だ。