🔵 標準 約11分で読める

LiDARスキャナーの仕組み — iPhoneが空間を「見る」技術

飛行時間法(ToF)とDTOFセンサーで3D空間を計測するAppleのLiDAR実装

#LiDAR #ToF #3Dスキャン #ARKit #iPad Pro #iPhone 12 Pro #奥行き測定

リード

iPad Pro(2020年)とiPhone 12 Pro以降に搭載されたLiDARスキャナーは、iPhoneを「空間計測器」に変えた。暗所のオートフォーカス高速化からAR精度向上まで、その仕組みを解説する。

🟢 LiDARとは何か

**LiDAR(Light Detection And Ranging)**は「光で距離を測る」技術だ。レーダーが電波を使うのに対し、LiDARはレーザー光(近赤外線)を使う。

基本原理は**ToF(Time of Flight、飛行時間法)**だ。

  1. レーザーパルスを発射
  2. 物体に反射して返ってくるまでの時間を計測
  3. 距離 = 光速 × 往復時間 ÷ 2

光速(3×10⁸ m/s)で1ナノ秒(10⁻⁹秒)あたり約30cmに相当する。1mの距離なら往復6.7ナノ秒という精度で計測する。

🔵 AppleのiPad/iPhoneのDTOFセンサー

Appleが採用するのは**dToF(direct Time of Flight)**方式だ。

単一のレーザーではなく、多数の点を同時に照射してSPAD(単一光子アバランシェダイオード)アレイで受光する。点ではなく「面」を一度に計測できるため、高速なデプスマップ生成が可能だ。

iPhoneのLiDARスキャナーの仕様:

  • 測定距離: 最大約5m
  • 精度: 数センチメートル単位
  • 測定速度: フレームレートに追従(毎秒数十回)

🔵 3つの主要用途

1. 暗所オートフォーカス

通常のコントラストAFは光がないと機能しない。LiDARは赤外線なので暗所でも動作する。

iPhone 12 Pro以降で、真っ暗な環境でも高速AFが効くのはLiDARがアクティブに距離を測定しているからだ。フォーカス速度は従来比最大6倍と報告されている。

2. ARKit精度向上

ARアプリで仮想オブジェクトを現実空間に配置する際、LiDARのデプスマップがあると:

  • オクルージョン(仮想物体が現実の物体の後ろに隠れる)が正確に処理できる
  • 平面検出が高速化(ARKitがLiDARデータから即座に床・壁を認識)
  • オブジェクトの「床への吸着」精度が上がる

3. 3Dスキャン・空間計測

RoomPlan API(iOS 16+)を使うと部屋全体を数秒でスキャンして3Dモデルを生成できる。LiDARとカメラの組み合わせで、家具・窓・ドアの寸法まで計測する。

🟣 LiDARとToFカメラの違い

一般的なToFカメラ(例:古いAzure Kinect)は解像度が低く(例:640×480ドット)測距専用だ。

AppleのLiDARはカメラ映像とフュージョンされる。Neural EngineがLiDARのデプスデータとカメラの色データを統合し、より密なデプスマップを再構成する。機械学習による「デプス補完」が精度を上げる秘密だ。

🟣 Vision ProへのR1との関係

Vision Proには独自のLiDAR/デプスセンサーと、それを処理するR1チップがある。iPhoneのLiDAR技術が空間コンピューティングへと発展した系譜が見える。

まとめ

LiDARはiPhoneを「写真を撮るカメラ」から「空間を計測する装置」に変えた。暗所AF・AR精度・3Dスキャンという三つの用途は、単一のハードウェアが複数のソフトウェア体験を支えるAppleの垂直統合設計の典型だ。