リード
iPad / iPhoneのUIは「平らな画面に指で触れる」前提で設計されている。Vision Proの前には「空間」がある。visionOSはiOS/iPadOSのUIを流用しつつ、3次元空間での配置・奥行き・視線入力という全く異なるパラダイムに対応した。
🟢 3種類の空間
visionOSのアプリは3つの「空間モード」で動作する。
| モード | 説明 | 例 |
|---|---|---|
| Window | 2Dウィンドウを空間に配置 | ブラウザ、メール |
| Volume | 3Dコンテンツを枠内に表示 | ゲームのキャラクター、地球儀 |
| Immersive Space | 現実世界を完全に置き換え | 映画館体験、宇宙空間 |
ほとんどのアプリは「Window」モードで動く。既存のiPadOSアプリをほぼそのままVision Proで動かせるのはこのためだ。
🔵 入力モデルの変化
iPhoneは「指でタップ」。Vision Proの主な入力は視線 + 指のピンチだ。
- ユーザーが見ているUI要素をR1チップがアイトラッキングで検出
- 親指と人差し指のピンチジェスチャーを下部カメラが認識
- 「見た場所をピンチ = タップ」として解釈
指がディスプレイに触れない。これは空間が大きいほど自然なインタラクションになる。
🔵 SwiftUIの継続性
visionOSのUIはSwiftUIで記述する。既存のSwiftUI知識が直接活用できる。
// WindowGroupは通常のSwiftUIと同じ
WindowGroup {
ContentView()
}
// Volume: 3Dコンテンツ用
WindowGroup {
RealityView { content in
// RealityKitで3Dモデルを配置
}
}
.windowStyle(.volumetric)
RealityKitがVision Proの3D描画エンジンとして機能し、2D UIと3DコンテンツをシームレスにMixできる。
🟣 パススルー映像の品質
Vision Proは「現実を見る」のではなく、外部カメラで撮影した映像をマイクロOLEDに表示する。視野全体をカバーする超低遅延のカメラ映像が「透過して見える」ように感じる。
この仕組みにより、デジタルオブジェクトを現実空間に精密に重ねられる。
ただし、現時点では外部カメラの画質がネイティブ視覚より低い点は制約として残る。今後の世代で改善される分野だ。
まとめ
visionOSは「空間コンピューティング向けに設計し直したiPadOS」に近い。SwiftUIの継続性により開発者コストを下げながら、視線+ピンチという新しい入力と3D空間配置という新しい表現を導入した。完全な新パラダイムというより、iOSエコシステムの3D化だ。