アナログとは異なる特徴を持ち、現場によっては非常に便利に使えるデジタルマイク。今回、そのデジタルマイクを使って、2013年4月に幕張メッセにて開催されたニコニコ超会議2、Red Stageでの「オーケストラでお送りする ゲームミュージックLIVE」の収録を成功させた株式会社ongaqのレコーディング・エンジニア、伊藤 隆文さんにインタビューを実施いたしました。RMEのデジタルマイクプリアンプ DMC‒842Mに関する貴重なお話も伺う事ができましたので合わせてお楽しみください。
ーまず最初に、今回のショーの内容に関してお聞かせください。
株式会社ドワンゴコンテンツ様からファミコン30周年ということで広い年齢層にゲームミュージックの面白さを伝えるためオーケストラでライブしたい!とのご相談いただいたのがきっかけで す。 ゲーム会社の垣根を越えてのこともあり、各方面からご支援をいただきながら、オーケストラで演奏して面白そうな楽曲、聴いて欲しい楽曲を選んでいきました。オーケストレーションも含め当日の演奏を楽しんで頂けたのではないかと思っております。
ー当日の演奏を担当されたgaQdanについてお聞かせいただけますか
はい。彼らは録音専門のオーケストラを目指し3年前に発足しました。
普段からトレーニングの日を設定し奏法、表現、技術、感性を高めるべく様々なトレーニングをしております。オーケストラには似つかわしくないような科学的分析をしながら進めている団体ですよ。マネージメントは私が属しているongaqが行なっていまして、gaQdanには演奏の品質管理をお願いしています。
ーgaQdanのコンセプトとして、「録音専門のオーケストラ」というのがあるそうですが、非常にユニークですね。
元々は打ち込みでどこまで生っぽくできるか、という事を作家の方もエンジニアの方もひたすらやっていたと思うんですけど、やっぱりオケは生で録りたいね、ということでスタートしました。よくある
話ですよね。
打ち込んでもヒューマナイズというか細かいエディット作業をするじゃないですか? 生っぽくする為に。でも結構な時間がかかりますよね? 作家が表現したい事を汲み取って演奏するオケが欲しいね、という事からgaQdanは生まれました。ただ最初はなかなか思い通りのサウンドにならなくて(笑) その中でも「あ、この人いいね」という人に残っていってもらい、ある程度のメンバーが揃ってきたところで、改めて第一回のオーディションを行いました。その後仕事をするためのトレーニングを行い、2011年3月からgaQdanとして仕事を始めました。その後は、メンバーも増えたり減ったり、団体としても試行錯誤していました。編成が今の倍以上いたときもありましたね。
今は少数精鋭といいますか、バランス的に落ち着きました。人数が多くてもスケジュール的に動きにくい時もありますからね。あとは大きければいいかというと、そうでもなくてあまり人数が多いと入れるスタジオが限られてきますので。それと作家さんが要望しているオーケストラの音は、実は、そこまで人数が多くなくても、録音に適した音の出し方をすれば、十分伝える事が出来るとわかってきました。この事をわかって演奏しているのがgaQdanで、それゆえに録音専門オーケストラと命名しました。
ーなるほど、普段はあまりレコーディングに参加されないような演奏家より、gaQdanさんにお願いした方が録音自体がスムーズに進むというメリットがあるということですか?
そうですね、普段のトレーニングでも様々なパターンを練習していますし、団体としての引き出しはどんどん増えていっていますので様々な要望にお応え出来ると思います。gaQdanで録音するという時は何かしらのコンテンツと合わさる事の方が多いんです。つまりゲーム音楽だったり映画だったりしたら映像と合わせる。つまり全部が合わさって表現したい事になるわけじゃないですか。だからこそどのような演奏の方が効果的かを研究する必要があると思うんです。そのような研究をgaQdanの場合普段から固定メンバーでしているので様々な引き出しをメンバーが共有して いるんです。録音に対して研究をしている面白いオケだと思ってます。
ー今回、結構反応よかったんですよね?
好評いただきまして、翌日から事務所の電話が良く鳴る様になりました(笑)。数万人規模で動くイベントなので反応自体も早かったですね。
ー私も何曲か知っている曲があって、とても楽しかったです。
ありがとうございます。今回も楽曲をセレクトしている段階で作家の方々へ「この楽曲を演奏させてください」とお願いすると皆様本当に快く「どうぞ」と言っていただけまして、とても助けて頂きました。
これだけでもgaQdanとしても嬉しい事だったのですが、演奏した評判も良かったと聞くと、なおさら今回は本当にやってよかったと関係各社の皆様へ感謝しているところです。 原曲に対し最大限の敬意をもってオーケストレーションから当日の演奏まで取り組めた仕事だったと思います。
ーでは、次に機材についてお聞かせいただいてもよろしいでしょうか?
まずマイクですが、今回はデジタルのマイクとアナログのマイク、両方を使っています。 アナログマイクから説明させてもらいますとDPAの4099というピックアップマイクをストリングス用に16本準備しました。アナログのマイクプリはRMEのOctamic IIとPreSonus D8を選定しました。
次にデジタルマイクですが、SENNHEISERの8040とNeumann KM184Dを合わせて12本を用意しました。
木管のFl.Oboe,Cla, FagのスポットマイクとしてKM184Dを4本。 それから、パーカッションのトップマイクとして、KM184Dのステレオを2セット。そのほかオーディエンス収録用として4本を準備しました。(当日1ペアのみの収録にしました)これらの信号をRMEのADI-648を使いMADIに変換しています。(RMEのOctamic IIとPreSonus DigiMax D8からAdatオプティカルケーブルでADI-648に入力してMADI変換)そしてこのMADI信号は、そのままカスケード接続されたデジタルマイクプリRME DMC-842Mの2台に入力され全チャンネルをMADI統合したのち、1系統はJOECOのレコーダーで収録、もう1系統はRMEHDSPe MADIfaceに送られ、Pro Toolsにて収録していました。
現場ではできるだけ早く正確にと思っているので、やはりすべてをラックマウントしておいて、電源をつないで後ろの主となるケーブルをつなげば準備完了というのが理想ですね。このような形にしておかないとトラブルの元なんですよね。スタジオ収録だけでなく、ホールなどでの収録も多いので、この部分はすごく気を使っています。MADIfaceはラックの隙間にマジックテープで固定してThunderbolt を接続すれば準備完了となるように設置しています。ちなみにMADIfaceとMacBook Proの接続は、ECHO PROのE34というSonnet社のThunderbolt変換アダプターを使っています。
それから今回は普段のレコーディングと同じ条件でライブに望むのも面白いかと思いモニターを全員ヘッドホンとしました。CUEボックスへの分配用I/FとしてMOTU896HDを使い、MADI信号をADI-648経由でオプティカル変換し896に送り、896でDAしアナログアウトからCUEボックスに送っています。(896に送る8chにまとめるのもTotalMixにて行いました)
今回の様な入れ替わりのあるイベントにおいてオーケストラのPAで何が一番困るのかというと、回線数が多い事だと思います。つまり全員にピックアップマイクをつけてということになると「そんなチャンネル数を確保できないよ」っていう話になると思ったんです。なのである程度まとめてPAの方へお渡しした方が良いだろうと思い、8ステレオの16chのステムとしてお渡しする事にしました。しかし録音は全てMADIで運用しているのでPAへ送るアナログアウトをどこから出すかが問題になったわけです。本来であれば単にMADI受けの出来るI/Fを増やせば良い話なのですが、調べてみるとDMC-842MはMADI上の信号をTotalMix経由してアナログアウト出来る事がわかりました。つまり録音とは別にInput信号を含めTotalMixで混ぜた信号をDMC-842Mのアナログアウト(AESなどのデジタルアウトでも可能)からバランスを決めて出す事が出来るんです。
そこで今回はINPUT信号を842のアナログアウト経由でFOH用のコンソールに送りました。
ポイントは、DMC-842Mの場合、MADIで出すのとは別に(収録とは無関係に)TotalMixでミックスしたものをアナログでもデジタル(AES、Adatオプティカル)でも出せることです。
FOHへ送る8chステレオも元々は32ch分ある信号をTotalMixで混ぜて送っています。またこれと同時にTotalMixのサブMIXを使い、Playerのモニター用にADI-648経由で896へも送っています。
要するにTotalMix内で収録とは別に2系統のミックスを作っているという事になります。1系統は、CUEボックスへ、もう1系統は、FOH用のStemMixとして。
あと問題になったのは私のモニターに関してです。
CueBox用のMOTU896HDはヘッドホンモニターが可能ですが今回使用したRME製品の場合はまだヘッドフォンアウトを搭載しているもの無かったので、JOECOのレコーダーについているモニター回路路を使用しモニターインプットを切り替えながらFOHへのバランスを聴いていました。
ーその部分は、HDSPe MADI FXや、先日発表された新製品であるMADIface XTを使えばモニタリングも可能になるのですが、今回はそのように工夫されていたんですね。
ーちなみにデジタルマイクプリとMADIを導入する前はどのようなセッティングで録音をおこなっていたのですか?
皆さんと同じようにアナログのマイクを毎回選定しながら収録していました。I/FはPrism Dream ADA-8XRを使い、HAはGRACEなどが多かったかと思います。しかしホールなどで客席後方までマイクを引き回すとなると50〜60mは確実に必要で、そうするとかなりS/Nが悪いんです。正直あとで使用したいと思っても使い辛い状況ではありました。
ーそれは、ケーブルが⻑くなるから、ですか?
はい、そうですね。マイクのすぐ後でマイクレベルの信号をラインレベルに上げて転送すればいいんですが、機材や会場の関係上そのようにできない事もありますよね。それで、結局マイクレベルで延ばす事になり、そうなると微弱な信号を無理矢理引き上げることになるので、全然ゲインは上がってこないし上がって来てもSNが悪い。 そこがデジタルマイクだとそのような心配が無いんです。
あとはデジタルマイクの特徴としてアナログマイクに比べて距離を取った時の高い周波数のロールオフ感が違うので、マイクを離して設置しても、そんなに離れた感じがしないんです。
アナログマイクの場合、ちょっと遠くなって音が滲んでゆく事によって聞いた時に距離を感じていたんだと思うんですけど、デジタルマイクの場合、マイクを離して設置しても、「離れました」という情報はあるんですが、それが、ハイが落ちてゆくということではない。これは、私たちが実際に耳で聞いている感覚に近いとおもいます。
ーMADIは今回から導入されたのですか?
MADIは1年前くらいから使っています。それまでは200〜300人規模のホールで収録を行なう事が多くて、引き回すといってもそれほどの距離がなく、何とかなっていたんですが、とある案件で大きな会場が必要になり目黑のパーシモンホールで収録する事になったんです。
ここでもホールの残響が欲しいと思って場所を探したらなんと2階席だったんですね。ここから普通にアナログで引っ張ったら良い音は録れないね、ということになって、じゃあ、やっぱりデジタルマイクを使おう、と。
さらに、全体のセッティングを考えていたときに、少しでも収録の時間を⻑く取るためにセッティングの時間は出来るだけ短くしたい。そして同時に安全性も確保したい、となりました。もうこうなるとMADIの出番ですよね。モニタールームと、DMC-842Mが並んでいる舞台袖をMADIのオプティカルケーブルを2本結線するだけでモニター系統も録音系統もOK。これが、今後、ホール録音やライブ録音する時のスタンダードになるんじゃないかと思い、導入を決定しました。その時使ったオプティカルケーブルは40mくらい引く必要があり御社のMADIケーブルのドラムをお借りしたのですがほんとに設置は早かったですよ。 それこそ、機材を机の上に組んで、あとはオプティカルケーブルを延ばして2本つなぐだけですからね。(笑)とても便利でした。
ーMADIの音質ってエンジニアさんにはどのように受け止められているのでしょうか?
まだ、MADIの音質を知らない人の方が多いかもしれませんね。アナログで良い音というのは、やはりアナログの心地よい歪みであったりとか、なにか変化があって良くなるわけですよね?
だからそれを必要とするような芸術作品の制作にはもちろんいいんですが、どんどんレイヤーや行程が積み重なっていくようなワークフローの場合は、収録の段階からデジタルでノイズレスの方が最終結果が良いと思うんです。アナログとデジタル(MADI)は作業によっての棲み分けでいいのかな、と思ってます。
好きなアナログのマイクで好きな形で収録するのもいいし、逆にデジタルで元の音をスパっとキャプチャーしていて、そこから彫刻の様に作業を始めても良いと思うし、本当にこれらはどちらでもいいですよね。
ただ弊社の作業内容を考えたときにどちらが結果を残せるかを考えMADIという選択をしました。
ーそれで、実際にMADIで収録を行ってみて、何か音質的に足りないものとか感じましたか?
最初の頃は、何かもの足りない感はありましたが、それは結局自分のマイキングでしたね。
収録した結果として今までと聞こえるものが違うのに、いままでと同じようにマイクを立ててもしょうがないな、という事を感じたので、考え方を変え修正してみたんです。そうしたら納得のゆく音質になりました。
良くも悪くも、音が滲んだりよどみが無い分、結果がとてもシビアで、マイクがずれてたら音像もずれます。なので、スタジオではあまりやらなかったんですが、今では目視だけではなくレーザーポインターを使って距離を測ったり角度を調整したりしています。数センチはもちろん数ミリのマイキングの違いまで明確に解ります。 なので今では特になんの不満もありません。
ー最後に、今回使用したデジタルマイクのモデルを教えてください。
Neumann KM184Dを ウッドウィンドとパーカッションのトップで計8本、それから、オーディエンスのマイクに、SENNHEISERの8040Dを2本使っています。
ー今日は色々とお話を聞かせていただきありがとうございました。
1972年山形県生まれ。5歳より兄の影響で電子オルガンとJazzに興味を持ち始める。専門学校卒業後は老舗レコーディングスタジオ「音響ハウス」へ入社。その後数々のレコーディングセッションを重ねながら著名プロデューサーに鍛えられる日々がつづく。1995年レコーディングエンジニアリングとして活動が始まり、最後のアナログ世代としてアナログテープレコーダーでの録音からDSDレコーディングまで幅広くレコーディングテクニックを学ぶ。アーティストのレコーディング、CM音楽、サウンドトラック、インディーズバンドのレコーディング・プロデュースとあらゆるところにクビを突っ込みながら現在に至る。
18年間のスタジオ修行を経て、2011年3月より活動の場をongaqへ移し、エンジニアとしてさらに幅広く活動をはじめる。録音専門オーケストラ「gaQdan」にもレコーディングエンジニアとして参加。
近年参加した映画「東京公演」は第64回ロカルノ国際映画祭<金豹賞(グランプリ)審査員特別賞>を受賞(監督・脚本 青山真治 音楽 山田勳生)
参加音楽作品
佐野元春/谷村新司/坂本サトル/ロリータ18号/カーネーション /鈴木和朗/岡崎倫倎/ciccaroll/Jef Neve/Quipu/ 鈴木勳/佐藤允彦/ヤーノシュ・バーリント/Benoit Fromanger
参加映像作品
関⻄テレビ放送(KTV)DRAMADA-J『いつかの友情部・夏。』 サウンドトラック,DVD(2009)
映画『ミロクローゼ』 サウンドトラック(2012公開予定)監督:石橋義正/主演:山田孝之
カナダ・モントリオール,ファンタジア映画祭2011にて以下の四賞受賞 [⻑篇劇映画部門 最優秀監督賞
/観客賞部門 ⻑篇アジア映画 銀賞/最も革新的な⻑篇劇映画部門 金賞/Guru賞 最もエネルギッシュな
⻑篇劇映画部門 銀賞]
米米テキサス,ファンタスティック・フェス2011にてファンタスティック映画部門最優秀作品賞受賞
WOWOWミッドナイトドラマ『人間昆虫記』 サウンドトラック(2011)監督:白石和彌・高橋泉
映画『東京公園』(2011公開) 監督.脚本:青山真治 音楽:山田勳生
(第64回ロカルノ国際映画祭<金豹賞(グランプリ)審査員特別賞>受賞作品)
ゲーム
三国之天" サウンドトラック制作(2011〜)
SCE TOKYO JUNGLE (2012)
LEVEL5 クリムゾンシュラウド(2012)
その他CM、イベント音楽多数。
★演奏オーケストラ gaQdan
http://www.gaqdan.com
2010年10月に東京デザイナーズウィーク環境省ブースにおいてのメインコンテンツ、25台のiPadの使ったアプリ「iProject25」の音楽を担当した事をきっかけに、録音に特化することを目的とした、まったく新しいタイプオーケストラとして2011年3月1日に誕生。 テレビ、映画、ゲームなど幅広い分野で活躍するongaqの指導のもと、映像との連携やゲームミュージックで必要な正確性など、一般的な演奏技術だけでは なく、あらゆる録音分野で必要とされる技術を持つ。
今回ご紹介した事例も含め、最小限の機材での高品質なコンサート収録から中継などを含む大規模な収録システム、さらには、放送局やスタジオへのMADIシステム導入まで、システム設計のお手伝いをさせて頂きます。お気軽にお問い合わせください。