いつも寝起き?って聞かれます。。

表じゃ書けないDAW関連本音レビュー とMixテクニックをつらつらと書いていきます。

「DAWでマニピレートをするってよ」Vol.1 そもそもの話から下準備編

ご無沙汰だか、ここらでマニュピレーターのシステムの構築方法に触れていこうかなと。
 
なんでいきなり?と思う人も多いと思うんだけど、最近のこの類の相談がむっちゃ多いので筆者なりの一例をご紹介してみようと思う。
 
そもそも、マニピレート(マニュピレーター)って何よという方に簡単に説明すると、ライブ会場等でバンドの生演奏以外の音をコントロールして流すいわゆる同期ってやつね。専業の人もいれば、メンバーが兼任することも多い。同期って難しそうだけど、演るだけだったら実はそんなことなくて、iPhoneなどでオケを流しながら歌ってる人がいればそれはもうすでに同期演奏のスタートとも言える。
 
実際にはじめはマニピの仕事だったのにギターが弾けるからマニピの立場でギターは生演奏してという一人二役でツアーを回ったこともあるんだけど、まあ荷物が多かったこと。
 
最近はこのマニュピレーターというポジションがかなり重要になってきており、職業マニピュレーターの方もかなり増えてきてるよね。プロはプロでとことん機材にこだわり、自分で作り出した門外不出のシステムを駆使して仕事をしているわけだけども、そのレベルとはいい意味で一線を画してサクッと考えて行こうと思う。

 

前述の通り多種多様のスタイルがあるので、いろんなことは言いっこなしで。


まずは1台のMac or Windows(以降、マシン)で行う場合。

 

マシントラブルをも回避する為にバックアップで2台のマシンを同期するようなプロレベルのお話は次回ということで、まずはDAWをやってる限り1台は必ず持ってるマシンで行うスタイルから。
 
まず同期演奏に絶対に必要なのがアウトプットが4ch(2ステレオ)以上あるインターフェイスかな。何故かと言うと、同期する音=つまり外に流すオケ自体は2mixでもいいんだけど、それに合わせて演奏をするにはリズムを支えるプレイヤー(特にドラマー)がその音声に合わせて演奏をする必要があり、そのために「オケ to PA」と「オケ&クリック to プレイヤー」をバラバラに出す必要がある。
 
これが2outしかないと、クリックが入ったオケ音 or クリック無しのオケを聴いて演奏しか出来ない。まあ、2outしかないなりにオケをLch振り切り、クリックをRchに振り切るという荒業で出来なくもないけど、外に流すオケはモノラルになるからで、せっかく細かく決めたPANとか空間系が気持ち悪くなるのと、クリックを受けるプレイヤーがかなり聞きづらいね。実際に演奏もしてる音も聞こえるから、余計に聞こえづらいし。やっぱ、作ったときのイメージを可能な限り残すには最低でもステレオで出したい。
 
実際にどういう作業にするかというと以下のような下準備が必要。
 
①仕上がった楽曲をすべてオーディオ化する。
 
制作の段階でソフトシンセやプラグインを使ってると思うんだけど、これらのトラックをすべてオーディオファイルにする。何故かと言うと、プロだろうとアマだろうと同期が止まることは一番起きてほしくないトラブルだから、そのセッションファイルを可能な限り軽くすることがトラブル回避の基本。ハードディスクは振動で止まるのでSSDが必須。その昔、代々木体育館レベルで四つ打ちを爆音でだしてたら、その振動でハードディスクやMIDIコンが反応したことある。Angelbirdってとこの小さいSSDを製作も含めてずっと愛用している。

 

話が脱線したが、この際に同時に行いたいのが、楽器の種類ごとにBusなりにまとめて外部に出力するファイルを何個かにまとめるいわゆるステムを作る作業。ステムの分け方は相対的にバランスを調整したいグループごとにまとめると後々も作業がやりやすくなる。このブログの読者の人なら多分すでにこういうふうにまとまってると思いたい(笑)
 
例えば、こんな感じ。
 
「リズム」:いわゆるビートをつかさふどるものをまとめたトラックです。ジャンル等によってはキックやスネアなどを細分化して別トラックにすることもよくある。
 
「ベース」:ベースも演奏する場所によって聞こえ方が変わってくるので、なるべく調整出来るようにしておいたほうが◯。
 
以下のウワモノ類はライブの演出の問題なので、各自のこだわりどころだね。
 
「ギター類」:ベース同様ですが、ギターが一人しかいなくて、ソロのときにバッキング無いと寂しいなんてことも回避出来るし。

 

賛否両論だとは思うが、製作時はトラックが別なんで出来てるけど、ライブで実際に演奏するには難易度が高い踏み変えや再現が難しい偶発的なトラックなどは当て振りしてしまうなんてこともありだね。どこにプライドを持つかだから、自分たちで決めてくださいな。
 
「シンセ類&鍵盤類」:ここもリズムに似た考え方で、特に目立たせないリードを別にするとか、シンセと生ピアノを分けるなど、バツに一つにまとめなきゃいけないわけではないので、最小限かつ調整しやすい単位でまとめるのコツです。
 
「コーラスやハモリ」:ほぼ同上です。曲の最後にフェイクに行きたい!実際にメンバーもコーラスするけどもっと人数感を出したいなど、演出の一環ですね。
 
細分化すればするほど現場調整しやすいけど、それだけ当日の少ない時間に触ることや配線が増えるので、普段のリハやライブ前の通し練習の際にしっかりと打ち合わせて仕込むことが最も重要なポイントだね。

 

本番はスタートを押したら止まらないことを祈る以外何もできないに等しいから。

 

自宅やリハで一回も止まらなくても止まることあるから本番は怖い。湿気、振動、熱、スタッフやメンバーが引っかかるなどなど何が起こるかわからないから、システムやアイテム類のバックアップが大事になって来る。

 

実際に天幕が開く直前にステージからはけるスタッフが俺の机に引っかかってヘッドホンを落として、片chがら聞こえなくなるというトラブルもあった。DJっぽくSEをいじりまくるイントロでかつDVDの撮影ときたもんだ。いっかい冷やっとすると、システムが豪華になってくるもんだね。


②まとめたファイルを並べてバランスを取る。
 
これらをステムファイルにしたら、元のセッションファイルとは別のライブ用のセッションに並べて行く。
 
まずAUXトラックを一つ作り、そのトラックに全部のトラックからプリセンド(ここが分からない人は別の機会に)で送る。「別に各トラックのボリューム触ればよくない?」って思う人が居ると思うんだけど、こうするメリットとして各トラックからのセンド量と各トラックのフェードとの2種類のバランスが作れるワケ。

 

なんでそうするかというと、PAに送る音はもちらん必要な全部なんだけど、プレイヤーがクリックと一緒に聴く音(聴きたい音)は、本人が必要な音でだけでいい訳。例えば「クリックのみが良い」って人も居るし、「ギターやシンセは返さなくていい」って人も居るなど、人それぞれなのでこの方式の方が融通が効く。
 
アウトプットがもっと多いインターフェイスを使ってステムごと別々に出力をすれば、バラバラにだしてPAなりで個別に調整してもらえるなどのメリットは広がってくるけど、最小限の4chアウトでもこういった工夫でなんとかなる。
 
DAWによってクリックの出力先がメインアウトから変更できないなどもあるので、クリックもオーディオにしちゃうってのも有り。

 

クリックをオーディオ化するメリットがもう一つあって、ライブで演奏する曲が全部同じBPMってことは珍しいと思うので、曲ごとにDAWBPMをオートメーションで変える等の手間が省けたり、プレイヤーにだけ曲が始める切っ掛けになる目印のようなクッリクを貼ってあげるなど、いろいろ仕込めたりするのでお薦め。
 
プロの現場なればなるほど、PA側にで調整する(したほうがいい?)トラックが増えてくるので、多チャンネルの出力をするシステムが必要になり、言葉ではよく聞くDANTE、MADIといった方式を取るのが定番化して来ている。この辺も次のタイミングで書く予定。
 
長文になってきたので、VOl.1はこんな感じ。思ったよりハードルが高くないよってのと、下準備がとっても大事だよってことが伝わればOK。

 

次回は実際のシステムの組み方を何パターンか書いてみるつもりです。