リード
Apple Vision Proには2つのチップが搭載されている。一つはM2(汎用コンピューティング)、もう一つはR1だ。R1はカメラ・センサー・マイクの全入力をリアルタイムで処理し、「現実とデジタルの境界」を人間が違和感なく体験できるようにする専用チップだ。
🟢 R1が解決する問題: モーション・ツー・フォトン・レイテンシ
VRやARの世界で最も重要な指標の一つがモーション・ツー・フォトン・レイテンシだ。
頭を動かしてから、それがディスプレイに反映されるまでの時間。人間の前庭系(平衡感覚)は約20ms以上の遅延を「酔い」として感知する。
従来のMRヘッドセットは12ms前後が限界だった。R1は12msを達成しながら、処理を安定して行う。
🔵 R1の構造 — 何を処理しているか
R1が担当するのは主に以下の3つだ。
1. カメラ入力の同時処理
Vision Proには外部環境を捉えるカメラが複数搭載されている。R1はこれらのカメラ映像を同時にリアルタイム処理し、「今自分がどこにいて、周囲に何があるか」を常時計算する。
2. アイトラッキング
2台のアイトラッキングカメラが眼球の動きを追跡する。R1はこのデータを処理し、視線の向きをvisionOSのUI入力として変換する。指の動作と視線の組み合わせがVision Proの主要インターフェイスだ。
3. LiDARと奥行き推定
ディスプレイに表示されるオブジェクトが現実世界の物体の「前」にあるか「後ろ」にあるかを判断するため、奥行き情報のリアルタイム推定が必要だ。
🔵 M2とR1の分業
| 役割 | チップ |
|---|---|
| visionOSアプリの実行 | M2 |
| レンダリング(GPU) | M2 |
| カメラ入力処理 | R1 |
| アイトラッキング | R1 |
| センサーフュージョン | R1 |
| 低遅延ディスプレイ出力 | R1 |
この分業は重要だ。M2がアプリ処理で忙しくなっても、R1はセンサー処理を独立して実行し続ける。レイテンシが増加することがない。
🟣 なぜ専用チップが必要だったか
M2単独でも処理能力は十分あるように思える。しかしリアルタイムセンサー処理を汎用チップで行う場合、OSのスケジューラやメモリ帯域幅の競合が問題になる。
専用チップにすることで:
- リアルタイム保証(RTOS的な動作) — 他の処理が何をしていても必ず12msで処理する
- 電力効率 — 特定タスクに特化した回路は汎用CPUより大幅に電力効率が高い
- 帯域幅の独立 — M2のメモリバスを使わない
R1はAirPodsの第1世代から搭載されてきたH/Wチップ系譜の延長線上にある。音声処理の専用チップが空間コンピューティングに進化したと言える。
まとめ
R1はVision Proの「縁の下の力持ち」だ。M2が目立つ存在だが、ユーザーが酔いを感じずにMR体験できるのはR1がセンサー処理を分担しているからだ。Appleが「専用チップで特定問題を解く」というアプローチをここでも徹底している。