🔵 標準 約12分で読める

Spatial Audioの音響工学 — AirPodsはなぜ「空間」を作れるのか

頭部伝達関数(HRTF)からダイナミックヘッドトラッキングまでの科学

#Spatial Audio #AirPods #HRTF #ヘッドトラッキング #Dolby Atmos #音響工学

リード

AirPods ProのSpatial Audioで映画を観ると、音が「頭の中」ではなく「部屋の中」から聴こえる。なぜイヤホンで「空間」が再現できるのか。

🟢 普通のステレオとの違い

通常のステレオイヤホンは左右2チャンネルの音を直接耳に届ける。音は「頭の中」に定位する感覚になる。

Spatial Audioでは音が「前方2メートルの画面から出ている」ように聴こえる。イヤホンをしながら、まるでスピーカーで聴いているかのような体験だ。

🔵 HRTF(頭部伝達関数)の仕組み

**HRTF(Head-Related Transfer Function)**は、音が耳に届くまでに「頭・耳介・肩」によって受ける変化を数学的にモデル化したものだ。

音が正面から来るとき、側面から来るとき、後ろから来るとき — それぞれ到達タイミング、周波数特性、位相が微妙に変わる。人間の脳はこの違いを学習しており、それで「音の方向」を判断している。

Spatial Audioはこの変化をデジタル信号処理で人工的に再現する。「右後方45度から来る音」に対応するHRTF変換を音声信号に適用することで、脳を「本当にその方向から聴こえる」と錯覚させる。

🔵 ダイナミックヘッドトラッキング

Spatial Audioの重要な機能が頭の動きに追従することだ。

映画を見ているとき頭を左に向けると、画面上の音源(俳優の声など)は相対的に「右から聴こえる」ように変化すべきだ。これがなければSpatial Audioは没入感を失う。

AirPods ProはH2チップ内のIMU(慣性測定ユニット)で頭の動きを毎秒数百回計測し、それに合わせてリアルタイムでHRTFを更新する。

🔵 パーソナライズドSpatial Audio

iPhone 14以降、TrueDepthカメラで耳介の形状をスキャンして個人専用のHRTFを生成できる。

耳の形は個人差が大きく、一般的なHRTFでは最適でないことがある。パーソナライズドHRTFにより、特に「音の前後」「高さ」の知覚が改善する。

🟣 Dolby Atmos + Spatial Audioのレンダリングパイプライン

Apple MusicやApple TV+のコンテンツは、オブジェクト単位で音声を配置するDolby Atmos(3Dオーディオフォーマット)で制作される。

再生時のパイプライン:

  1. Dolby Atmosのオブジェクトデータ(音源の3D座標情報)を取得
  2. 各オブジェクトにHRTFを適用(ヘッドトラッキングと組み合わせ)
  3. 最終的な2ch出力を生成してAirPodsに送信

このリアルタイム処理はiPhone / iPad / MacのチップとAirPodsのH1/H2チップが連携して実行する。

まとめ

Spatial Audioの核心は「耳の錯覚の科学的制御」だ。頭部伝達関数という70年以上の音響研究の成果と、超低遅延のリアルタイム処理をモバイル環境で実現したAppleのエンジニアリングが合わさった技術だ。