飛澤正人が使う「Pro Tools」第1回

クリエイターが使うPro Tools by 飛澤正人 2018年4月27日

tsubasa_top-626x470

さまざまなツールを駆使して作る
Pro Tools×VRサウンド

 本誌1月号のプライベート・スタジオ特集で、私の新しい拠点であるPENTANGLE STUDIOと、そこで取り組んでいる“VRサウンド”についてお話ししました。これから数回にわたって、そのVRサウンドの取り組みについて、AVID Pro Toolsの連載としてお届けすることになります。私もまだ研究の途上にありますが、読者の皆さん(多くはプロの方になると思います)にも関心を持っていただき、この新しい試みに向かっていただけるような内容にしていきたいと思っています。

 

一般的なステレオ・リスニング環境で
立体的な音像を再現する方法を探して

 私が“VRサウンド”と呼んでいるのは、スピーカーやヘッドフォンなど、一般的なリスナーの環境で再生できる立体的な音響です。こうしたことを始めたのは、映像が4KやVRなどどんどん進化をしているのに、音はそれに比べて遅れているという危機感からでした。もちろん、20年ほど前には家庭用5.1chサラウンドのフォーマットも出てきていたのですが、どうしてもスピーカーをそろえるのは敷居が高くなりますし、一般の方のリスニング環境はヘッドフォンが中心となっていることは、私があらためて述べるまでもありません。

 立体的なサウンドをヘッドフォンやステレオ・スピーカーでも再現できる方法はないか……そうやって探し始めたところに、AUDIO EASEから360Pan Suiteというプラグイン・バンドルがリリースされました。もともとは360° VR映像に合わせて、視覚的にトラックを定位できるというツールです。ステレオで言うM/S方式に似たAmbisonics方式を利用しており、最低でも1トラック内で4chが扱える必要があるので、Pro Tools HD| Softwareが必須となりますが、その点、私としては20年も仕事の道具として使っているPro Tools上で立体的な音場が生み出せるというメリットがありました。

▲AUDIO EASEの360Pan Suiteに収録されている360Pan。360° VRムービーを読み込み、そのムービーの位置上で各トラックの定位を決めることができる

▲AUDIO EASEの360Pan Suiteに収録されている360Pan。360° VRムービーを読み込み、そのムービーの位置上で各トラックの定位を決めることができる


 

 360Pan SuiteのようなAmbisonics用プラグインは、本来は360°映像に埋め込むAmbiXやFumaという音声フォーマットにエンコードするものですが、モニター用のプラグインも同梱されていて、これを通すとヘッドフォンでもバイノーラルで立体的な音場を生み出すことが可能になります。私の場合、360°ムービーを前提としたミックスもしますが、多くはこのバイノーラルを利用して、音楽のミックスを立体的にする。それが私のVRサウンドにおける最初のポイントと言えます。

 現在はPro Tools HD|Softwareに、同様のAmbisonics方式を扱うFACEBOOK製のFacebook 360 Spatial Workstationというプラグイン・バンドルも標準付属されるようになりました。

▲Pro Tools|HD 12.8.2 Software以降に付属しているFACEBOOK製のFacebook Spatial Workstationというプラグイン・バンドルも、360Pan Suiteと同様Ambisonicsに対応。画面はそのうちの一つであるSpatialiserで、定位や距離をコントロールできる。なおトラックのルーティングなどはPro Tools|HD Software起動時のダッシュボードで、“FB360 3D Audio”というポストプロダクション向けテンプレートを見ると流れがつかめる

▲Pro Tools|HD 12.8.2 Software以降に付属しているFACEBOOK製のFacebook Spatial Workstationというプラグイン・バンドルも、360Pan Suiteと同様Ambisonicsに対応。画面はそのうちの一つであるSpatialiserで、定位や距離をコントロールできる。なおトラックのルーティングなどはPro Tools|HD Software起動時のダッシュボードで、“FB360 3D Audio”というポストプロダクション向けテンプレートを見ると流れがつかめる

 

Ambisonicsに加え
Dolby Atmosの技術も活用する

 当初は水平軸と上下の移動のみだった360Pan Suiteも、バージョン・アップをし、同社のAltiverbの同様のIR技術を使ったリバーブである360Reverbと組み合わせて、奥行きの表現ができるようになりました。ただ、あくまでリバーブですので、音楽的に欲しい響きとマッチしないこともあります。また、音像が前から横を通って後ろに回る場合は表現しやすいのですが、最初から後ろに定位している音が分かりにくいといったことが、実験を繰り返す中で分かってきました。ここがVR音像を表現する上で最も難しく、今後の課題となる部分です。

 そこで、360° VRムービーと関連したサウンドでない場合の方法として考えついたのが、DOLBYが提唱するDolby Atmos。それまでのサラウンドとは考え方が異なり、“オブジェクト”と呼ばれるソースが再生空間上のどこに定位するかを指示し、それをプロセッサーがサラウンド・スピーカーに振り分けるというシステムです(従来のサラウンドと同様、任意のスピーカーに固定することもできます)。これもDolby Atmos用のパンナーやバイノーラル/Ambisonicsデコードが行えるレンダラーなどがセットになったDolby Atmos Production SuiteがDOLBYからリリースされていて、例えば臨場感あるライブDVD向けミックスなどでこうしたプラグインを使っています。Dolby Atmosの性格を考えると、前面にスクリーンがあって、そこに向かっているようなスタイルのものには適したツールと言えるでしょう

▲Dolby Atmos Production Suiteに収録されているDolby Atmos Monitor。左に並ぶ丸がオーディオ・ソースとなるオブジェクトで、画面右の仮想空間内にこれを配置していく

▲Dolby Atmos Production Suiteに収録されているDolby Atmos Monitor。左に並ぶ丸がオーディオ・ソースとなるオブジェクトで、画面右の仮想空間内にこれを配置していく

▲こちらもDolby Atmos Production Suiteに収録されているDolby Atmos Renderer。これを使ってDolby Atmosのサラウンド・サウンドを2chバイノーラルに変換する

▲こちらもDolby Atmos Production Suiteに収録されているDolby Atmos Renderer。これを使ってDolby Atmosのサラウンド・サウンドを2chバイノーラルに変換する

 こうしたミックスを行ったライブ作品として、3月28日にBlu-ray/DVDがリリースされるDragon Ash“MAJESTIC”ツアーの横浜アリーナ公演があります。私はWOWOWでの中継ミックス(通常のステレオ・ミックス)も担当していたのですが、放送とまた違った楽しみ方をしてもらうために、Blu-ray/DVD向けのミックスを作り直しました。

 具体的なミックスの手法については回を改めますが、Dolby Atmosプラグインを使ってオーディエンス・マイクを実際の会場と同じ位置に定位させれば済むかと言えば、そんなに簡単ではありません。ライブ会場では反射した音がマイクに回り込んで、意図しないピークが起こったりもするので、さまざまな処理が必要となります。この作品では、どうしてもオーディエンス・マイクが使えない部分については、距離計算から導き出したタイムのディレイを組み合わせて、“バーチャルな横浜アリーナの音響空間”を作り、実際のオーディエンス・マイクとうまく切り替えるということもしました。

 そのほか、定位を動かす目的で使うプラグインもさまざまあります。古いといったら失礼かもしれませんが、かなり以前からあるWAVE ARTSのPanoramaは、定位が移動する効果が分かりやすく、ステレオ・ソースの広がりもコントロールできるので使いやすいプラグインです。同様のものではPLUGIN ALLIANCE Dear VR Proを使うこともあり、こちらは後発だけあってより高精度で、内蔵リバーブもさまざまなアルゴリズムが用意されています。また、WAVES NX Virtual Mix Room Over Headphonesを、後ろや横に定位させるバイノーラル・パンナー的な用途で使うこともあります。本来はスピーカー位置をバイノーラルで再現し、サラウンド音場を再現するためのツールなのですが、私の場合はそれを音作りの一環として使っているわけです。

▲頭部伝達関数を使いバイノーラル・サウンドを生み出すWAVE ARTS Panorama。割と古くからあるプラグインだが、効果がはっきりしているので大胆な音の動きを演出したいときなどに使いやすい。また、ステレオ入力して音像の広さをコントロールできる点も便利だ

▲頭部伝達関数を使いバイノーラル・サウンドを生み出すWAVE ARTS Panorama。割と古くからあるプラグインだが、効果がはっきりしているので大胆な音の動きを演出したいときなどに使いやすい。また、ステレオ入力して音像の広さをコントロールできる点も便利だ

▲PLUGIN ALLIANCE Dear VR Pro。内蔵リバーブの種類が多いなど、後発だけあってPanoramaよりも細かい音作りが行える

▲PLUGIN ALLIANCE Dear VR Pro。内蔵リバーブの種類が多いなど、後発だけあってPanoramaよりも細かい音作りが行える

▲WAVES NX Virtual Mix Room Over Headphones。名前の通りサウラウンド・モニター環境をヘッドフォンで再現するためのプラグインだが、これを通した音をいわゆる2ミックスとして使う。音を横や後ろに定位させたいときに効果的だと感じている

▲WAVES NX Virtual Mix Room Over Headphones。名前の通りサウラウンド・モニター環境をヘッドフォンで再現するためのプラグインだが、これを通した音をいわゆる2ミックスとして使う。音を横や後ろに定位させたいときに効果的だと感じている

 ということで、初回はほぼツールの紹介に終始しましたので、次回以降で手法のお話もできたらと思います。少しでもVRサウンドに興味を持っていただけた方は、私のWebサイトにあるデモをご覧になってください。では、また来月。 

 
サウンドハウスでAVID Pro Tools関連製品をチェックする

*AVID Pro Toolsの詳細は→http://www.avid.com/ja

飛澤正人:レコーディング・エンジニア。スタジオ所属を経て、1980年代後半からフリーランスとして活躍。1990年代末にDIGIDESIGN(現AVID)Pro Toolsでのミックスを始め、Dragon Ash、GACKT、SCANDAL、yucatなどの作品で手腕を発揮してきた。作編曲やプロデュースなどをエンジニアの枠を超えた活動も行う。www.pentangle.jp

サウンド&レコーディング・マガジン 2018年5月号より転載

TUNECORE JAPAN