いつも寝起き?って聞かれます。。

自称日本で一番詳しい方の業界人の表じゃ書けないDAW関連本音レビュー とMixテクニックをつらつらと書いていきます。

プロでも使えるMIXテクニック 実際のMixの流れ編 Vol.9:ボーカル編 Vol.1 そもそもそのボーカルのデータが適正かから

リズム、ベースときて、ギターかと思いきやボーカル。

 

前に書いたトラックのレベルの積み方で書いた通り、この3つでオケのバランスが出来てないとそのミックスは絶対に上手く行かない。

 

ボーカルが主軸なのに先にギターとかの上物に手をつけるとオケが強すぎて歌がはまらないし、歌が聞こえるところまでに大体レベルオーバーになって、結局他のトラックをいろいろ触らなきゃいけないから、大幅に時間の無駄。今回のテーマをちゃんとやれれば、基本ここまでに触ったトラックは全体を見ながら各バスにまとめたトラックを微調整するだけで良い。

 

何度も行き来してる人はそもそもが出来てないから、過去のデータでも良いから数をこなしておくれ。

 

経験上、「自分たちで録りました!」ってデータがこっちでレーコディングしたデータより良かったことはほぼない。

 

大手のレーコディングスタジオだとしても、予算がない案件だとボーカルのバックグラウンドなんと分かって無いし、定番セットが準備されるだけでその人の本質に合わせてくれない。

 

言いたいことは、ボーカルの声質、過去の曲、仕上がりのニーズ等は録る前にちゃんと調べて、録る側もしっかりと準備をしろってことね。

 

初めてのレーコディングでも、自分の事を知ってくれてた方が嬉しいし楽しいでしょ?心のガードが少し下がるというか。お互いの意見も素直に聞けるし、新しいアイデアだって出やすい。

 

つまり、レーコディングの基本は機材や環境よりも「いかにその人の魅力を引き出してそれをそのまま録りきる」に尽きると思ってる。

 

ここが分かって無い人が200万くらい掛けて機材で録ったデータだったとしても、インターフェースのマイクプリと10万以下のマイクでも負ける気がしない。

 

まず言えるのが、マイクとの距離が近すぎる事が多い。これはアコギの録音とかでも多いんだけど、拾える音にレベル差が付きやすいから粗が目立ってプレイヤー側がしんどいと思う。

 

トラックの波形が極端に大きくなったり小さくなったり、マイクから離れたのが分かる様な距離で録ってると既にダメミックスの始まり。吸音がある程度されている部屋なら、いつもよりもうコブシ1個分離れてプリのゲインを上げよう。吸音があまい部屋なら、自分やマイクの後ろや近くに毛布を置くなどして、すこしでもアンビ感(反射音)を減らそう。こんな感じだけでも、テイクの音のムラが減るから、声に感情をつける方に集中できる。

 

マイク(コンデンサー)とマイクプリは手持ちのもので良いから、掛け録り出来るコンプは可能な限り用意しよう。最近のインターフェースに付いてるのでも良いよ。これは大きい音を下げるよりは、小さい音を持ち上げてちゃんと拾う為だから、特に色付けを求めてない。

 

小さく入った音(=抜けが悪く何を言ってるか分からない)はクリップした音と同レベルでどうにもならないんだ。後から出来ることは、小さい音のまま音量が上げることだけだから、傷が広がるだけ。録り直しが出来ない状態なら他のテイクから持ってくるしかないけど、そう簡単には上手く繋がらないよ。時間掛かるし。

 

そうそう、レーコディングの際のボツテイクとかは取り敢えず全部部品取りにとって置こう。

 

一瞬脱線するけど、情報社会だから無駄な情報も多いのがこのレコーディング関連よね。よくあるのがさっきのマイクとの距離。プロモとか写真の見過ぎね。

 

歌い手、環境、機材、曲に合わせて録りたい音によって、適切なセッティングが出来るのがプロね。高い機材持ってるのがプロじゃないから。

 

次にあるのが、レコーディングは切り貼りで直せるってやつ。

 

まあ。直せるよ。

 

でも、食べ物でいう鮮度っていうか熱意やテンション感ってのがどんどん失われて行くからね。せめて納得行くまでワンコーラス丸々は録ろう。言葉単位で作業は空気感も繋がらないし。

 

音源って一度リリースしたらずっと聞かれるのよ。今のご時世、世に出たものは永久に消せないから。現場の状況なんて聞く側からしたらどうでも良い話で、その出した側の結果だけで聞く側も判断する。

 

ボーカルも録る人もミックスする人も誰だって最初は下手だけど、予算やしがらみがない分時間を掛けれるでしょ。この日リリースしなきゃ損失が生まれるとかもないわけだから。

 

例えば、ライブで売る為に3曲入りを出す事を目標にしたとして、気力や時間が3曲分に分散してクォリティーが下がるなら2曲にするとかね。これは自分達だけの話だから、自分達で判断出来る。

 

自分達の未来に繋がる一曲一曲に全力を尽くした方が良い。これはクリエイターもプレイヤーもエンジニアも一緒ね。

 

自分でもコンペとかで通る曲って、細部までアレンジやメロディーこだわり切った(切れたかな)モノが多い。たまに2、3時間で出来る会心の一撃もあるけどね。

 

まとめると、曲を出す事にこだわり過ぎてその曲のこだわりを忘れないようにって事かな。

 

次から実作業に入ります。

 

プロでも使えるMIXテクニック 実際のMixの流れ編 Vol.8:Bass編 後編 シンべ関連

またあっという間に時間が経ってしまったね。

 

いつの間にか上手いこと見つけてくれる人も増えて嬉しいもんだね。作者不明のままどこまで読んでもらえるかが、自分的なメインテーマなのでどこまで行けるかな。

 

ということで、ベース編の最後はシンべだね。アコベはね、特定のフレーズで膨らんだりするとこをマルチバンドで狙えばいいから、それよりは元音のレコーディングの方の話だね。

 

シンべを分けた理由は、シンべって何って話ところから。

 

シンセでつくったベースの音域にあるもの。つまりシンセで低音を弾いてるだけだから、これと言った定義がなく種類が多すぎるし、シンセは生楽器じゃないので、倍音の帯域を下手に触ると、音色自体ががっつり変わることが多い。

 

昨今、1音色のみでベースを担うってのも珍しい。オシレーターを2つ以上使ってれば1音色とみなさない感じで話を進める。

 

所詮シンセだからかなりの領域を簡単に埋めてしまう(カブりまくる)ので、オケの中で聴こえない部分はバッサリ切りまくる必要がある。そこで大事なのが、アレンジの時点でのシンべの作り込みなのね。

 

例えば、こんな感じの組み合わせで作ってあって欲しい。

 

①センターで低音を支える音=所謂ベースの役割

②中高域の音=エッジや音色を色付けるような役割

③サイドの低音を支える音=空間を埋める役割

 

もちろんジャンルによるけど、昨今のベースが主流のダンスミュージックなら、最低でもこれくらい。それぞれを個別にうまく処理をすることで上から下まで揃っている強いベースラインが作れる。

 

経験上、一個の音をああだこうだ処理するよりもこっちのほうが自由にできる。

 

元が1トラックしか無ければ、それを複製してそれぞれをさっきのイメージで処理するとか、MelodyneとかでMIDIを抽出して足りない要素を別のシンセで足してあげるとかすることが多い。

 

ちなみにMassiveとか音が太めなシンセで作った音も含め、シンべはオーディオにしてから処理した方がもっと凶暴(図太く)になる。ソフトシンセのままMixしない方が断然いいので、オーディオ化を強く薦める。

 

①の音は②にエッジを任せる事で低音のみに集中する。KICKとの兼ね合いはサイドチェーン等で逃げながらの低音をしっかりと支配しよう。だから思い切ってハイカットしてOK。②はその逆だから、印象がかわらない所までローカットしよう。

 

①のセンター低音に空間系を掛けるとボヤけるけど、②の中域より上のみの音は空間系を上手く使うと今っぽいので、やはり切り分けて作り込むメリットがこういう所にもで出て来る。

 

最近だとトラップとかのサブローってのもあるけど、これはアレンジの話だな。リリースの位置と長さの方が問題だし。

 

③の音はジャンルによる。トラック数が少ない場合は、この低音があった方がオケが寂しくならない。ちなみにサイドの音だからセンターの音は①と②に任せる様な処理が必要。

 

序盤で書いた通り、どの音もシンセなのでEQでの帯域整理がポイントだね。その後はいつも通りBUSにまとめて、軽いコンプ。この時のコンプはアタックもリリースも遅めかつ真空管系が浮きやすいシンセ感をなじませてくれる。

 

なんでもそうだけど、軽く歪ませるほうが抜けも良くなるから、②の音だけプリセンドで歪ませる専用のトラックを作ってBUSに混ぜてみるのも面白いね。

仕上げは、他のトラックとの兼ね合いをこのBUSトラックに対するマルチバンドコンプで整えて行けばいいと思う。WAVESのMV2とかも簡単だし良い結果になりやすい。

 

まとめると、低音の支配がオケの安定感と印象を決めるから、レベル感を一定に保つことと、目立たせながらも、他の音より一歩退くことが重要だと思う。

 

ベース編終わり。 

 

何か質問とかあればコメント下さいませ。

プロでも使えるMIXテクニック 実際のMixの流れ編 Vol.7:Bass編 中編 ベースが占める音域とその他の要因の整理&実際の音の処理に関して

前回はベースの楽曲における立ち位置の話だったから、今回はどうすればそこにうまく居られるかをテーマにしていこう。

 

ベースの周波数のポイントの1つが、100hzから300hzにあると思う。この帯域は曲者中の曲者で、どんな楽器でも存在してて、しかも聴感上分かりやすい。つまりここの整理がミックスにおける1つのポイント。

 

ベース自体を触る前にベースのこの帯域と被るものを整理していこう。

今の所、この流れで存在して居るのはドラムトラックだからまずはキックの処理をしよう。

 

キックはこの帯域はほぼ重要な要素が無いので広いQで、5〜600hzまでざっくり切ってしまおう。キックは100~150hzまでと1Khz以上以外はあんまり要らないかな。

 

次にスネア、スネアのTOPは正に200hz前後に溜まる音があって、太さにも繋がる。ベースの為に少し削りながら、その上の帯域を少し持ち上げるイメージでいい感じ。で、Bottomはキックのカブりが多いのでエグ目にローカットして、スナッピーの音を中心に目立たせる感じのEQで。コンプでよりスナッピー感を強くすると、ゴースト感も上がってグルーヴがよくなる。

 

ここまで書いたから少しずれるが、OHのEQに関しては、キックとスネアの音が薄くなるまでローカットでOK。OHが拾った音で使いたいのはシンバルとタムとキット感なので、ここではキックやスネアの音がちょっと邪魔かな。なんでかって言うとマイクからの距離が遠いから混ざるとボヤけるんだよね、ルーム感だアンビ感だはそれ用のマイクで作れるから。

 

次にギターとの兼ね合いなんだけど、経験上ギターのパームミュートとかでグンっ!って来る低音感って、ギターやアンプの種類、プレイヤーの技量でもちろん違うんだけどが、120~250hzら辺にいる。ここはそれより下をベースに任せて、がっつり被るところはギターよりに配分してみると、上手く収まることが多い。どのみちギターはPANがどセンターのことも無いと思うから、パンで逃げながらもこの帯域はギターを贔屓しよう。

 

同じセンターにいるボーカルは、音域のカブりはあんまり気にならないけど、被る感じがするなら、前に書いたマルチバンド&サイドチェーンで時間軸で逃げるか、自称お家芸のインサートリバーブでボーカルよりも気持ち後ろに立ってるようにすればいいかな。なんでも周波数で逃げないのが出来ないと、少し前に流行ったクリアで分離良いけどパワー感の薄いThe 2000年代のスカスカな感じになる。

 

少し前の流行りが一番ダサいのはMIXでも一緒ね。

 

さて、ここまででざっくり住み分けを書いてきたので、実際のベース自体の音の処理についてに行こう。

 

まずエレベなのか、シンベなのか、エレベならアンプなのかDIなのか、ベース音源なのかで全部変わってくる。

 

長くなるから今回はエレベでシンべは次回にしよう。

 

まず、実際のレコーディングしたベースに関して把握できれば、ソフトシンセの場合でも応用は聞くと思う。ただ、同じ処理をすると大抵失敗しやすい。前にも書いた気もするけど、雑誌やmixテクニック本の類の値を鵜呑みにしない方が良い。むしろ一切数字は無視していいと思う。俺の数字も目安程度に自分で探して見ればよくて、経験上似たような感じなるってだけね。つまりやり方とその意味を身につければ、自分でいくらでもセッティングが作れるし、その次のタイミングで来たデータに対しての経験則で作業スピードがあがるからね。仕事早い人はそんだけの量を経験してるんじゃないかな。

 

出来れば、アンプ録りのときでもベースはDIを使おう。自分が録りの時はギターでも100%ラインの音は押さえる。その理由は、DIの音とアンプの音は役割が違うからなんだね。

 

DIの音は所謂ラインの音=竿自体の音。

 

直ぐ思いつく用途はReampの為の保険だよね。それ以上が書けないと、俺の筆記試験だと50点。実はハッキリとした低音やベースラインの動いてる感じが見えるのは、DIの音なんだよね。

 

イメージ&体感上、アンプの方が低音出てそうでしょ?勿論出てるんだけど、EQで切る余分な低音が多くて、MIXで言う中の使える低音ではない。

 

逆にアンプの音は、歪感や膨よかさとか、エッジ感とか、人間で言うと外見のイメージ。DIが本人で、アンプが外見(服装、髪型)で、スタイルがいい人が、何来てもオシャレな感じなって、本人が垢抜けてないと人気ブランドが余計にダサく見えるのに近い(のか?)この流れで行くと、Reampは一旦家に帰って着替える感じだね。

 

こんな訳で可能な限りDIでラインは押さえた方がメリットが多い。

 

さて、DIの音の処理に行こう。

 

ギターでもアコギでもそうだけど、クリーントーンの方が難しいよね。それはダイナミクスが大きいから、プレイヤーの技量が低いとそのバラ付きが目立つ。歪みはコンプの一種なので、そこがない分誤魔化しが効くからそんなに気にならない。

 

つまりDIの音もクリーンと同様なので音量の変化が大きいから、それに対する対応が必要。そうなるとEQとCOMPってなるんだけど、ここはマルチバンドコンプで行こう。その音階を弾いた時やフレーズ上太い弦に降りた時にメーター(波形)は大きくなるから、マルチバンドでそこだけを狙って潰すってこと。

 

普通のコンプは他の帯域自体にも掛かってるし、強い音の時になおさら音色全体に影響が出てしまうし、問題の瞬間のためだけに演奏の抑揚を潰すのはちょっと低レベルの話というか手法が古い。。

 

アンプの音は、余計なローをカットした後は、DIの音を芯に覆う様な音を作るイメージで行こう。DIの音の高域をつくとあんまり音楽的にエッジにならないから、アンプの方の歪みとかで作ると作りやすい。DIしか録ってないなら、DIのトラックからプリセンドでAMPのトラックを作ってそこでシミュレーターでも掛ければ同じ感じ。もちろんその時にのアンシュミの設定はAMP100%だね。言うまでもないか。

 

その後にそれらのトラックを1つのBUSにまとめて、軽くコンプを掛けてくっつけよう。この辺はドラムの時と一緒。

 

ついでに書くと、A==のTakeshiくらいベースをブリブリに歪ませたい時は、原音を歪ませると低音感や輪郭がなくなるからプリセンドで歪み専用のトラックを作って混ぜるのが正解。人気あるベースの歪みエフェクトがドライを混ぜれる理由も同じって訳だね。

 

まとめると、低音ががっつりくる曲って他の曲よりも低音が多いんじゃなくて楽器の縦が綺麗に揃ってる。それぞれの楽器の必要な帯域を綺麗に同じタイミングで出すことでああいう音圧有る音になるから、キックやベース単体の低音だけで考えない方が良い。無駄な低音の付加は、余計に低音が聴こえなくなるってのがポイントだね。

 

プロでも使えるMIXテクニック 実際のMixの流れ編 Vol.6:Bass編 前編 実際に作業に入る前に 

リズムトラックをまとめたら次はベースだね。

 

実際の処理の前に、アンサンブルの中でのベースの意義に軽く触れていこう。もちろんこれも持論だから、解釈はお好きな様に。

 

前回の最後に書いたけど、ベースは難しいと思う。

①シンプル

②実はかなり音量を占める割合が大きい

③他の楽器に被らないよう抜けさすのなかなか大変

 

①シンプル故に難しい

バンド経験やレコーディング経験の少ない人だと、比較的地味なイメージのベースの役割を舐めてる(笑)ギターやドラムとかはかなりこだわるくせに、ベースの打ち込みが雑な人多いよね。

 

ベースの役割を改めて考えてみよう。低音を支える。リズムをキープする。この辺は誰でも言えるよね。じゃあ、その先へ。

 

ルートのピッチを決める=決まっちゃう。

 

鍵盤でもギターでもコードがあって、それの根底になる音がルートなわけで、そこのピッチがあまいとそこから上に積んでいく音と和音が汚くなる。特に同じセンターにいる主役のボーカルが下手に聴こえちゃうわけだ。

 

ボーカルのピッチが悪いなって思ったとき、原因はベースから始まるオケのピッチの悪さだったりすることもある。打ち込みも音源のサンプリンレートをちゃんと確認しよう。生の場合は開放弦のチューニングはもちろん、弦を押さえた時のチューニングにかなり気をつけよう。適度な力加減が出来てないと簡単にピッチがあがっちゃう。ギターはコード楽器だったからごまかしが効くんだけど、ベースはそういうところを気を付けないと全体に迷惑を掛ける楽器なんだよね。指かピックかでもかなり音の出方が変わるし。だからベースが上手いバンドは音が良いし、バンマスにベーシストが多いのはそういうことなんだろう。

 

②実はかなり音量を占める割合が大きい/p>

低音を支えるっていうくらいだから、ドラムと一緒でオケの中での音量はかなりでかい。EQが下手だと抜けないのにメーターがガンガンにあがる。

そういうのって大体、低音ってことばに囚われすぎて、無駄な低音を足してることが多いよね。どんどん埋もれるよ。実は200hz〜1Khzくらいの作り込みがポイント。倍音の2khzだ4Khzだは、エッジの領域なので別問題かな。音量感に関しては前のレベルの積み方を参考にしてきてね。

 

③音がシンプルで、立ち位置が地味だけど役割が大きい。プロとアマの差、邦楽と洋楽の音像のデカさの問題とかやっぱり低音の作り込みのうまさの差だと思う。。

 

ここまで脅せばもう一度真面目にベースに向き合う気になれたかい(笑)

 

でだ、この処理をとことん難しくさせているのが日本の一般的な宅録環境なんだよね。ここからは音響の話になってくるんだけど、今回の本題。

 

普通の一軒家やマンションとかだと、あっても天井は2mちょい。作業スペースは6〜8畳間の一部くらいって感じのスペースな人が多いと思う。

 

天井がそれくらいの高さだと、床と天井からの反射で100〜300hzが以上にブースとかされてたり、200hzよりちょい上くらいに変なディップが生まれてる。さっき触れた">2khzだ4Khzの辺りも同様にいびつになっちゃうんだよね。さらに壁との距離が取れないこともあって、低音の回り込みでさらに低音ブースト。。左右の壁との距離や左右のスピーカーの後ろの空間が均一じゃないとセンターも完全にずれるし。

部屋鳴りの無いヘッドフォンで作業だ!ってなるけど、ヘッドフォンにもセンターが強く聴こえるととか、サイドが広く聴こえるとかの弊害もある。だからヘッドフォンのみでミックスは失敗しやすい。

 

ここが冒頭のベースが難しいって話に繋がる。

 

じゃー、どうするりゃいいのさってなるよね。

 

お薦めは同じ環境で数をこなすこと。

 

ある程度のモデルを持ってる人は、ヘッドフォンやスピーカーのせいにして買い換えずに、その機種でいろんな音楽を聞いて、どう聴こえるかを身につけることが何よりも大事。

 

で、それでやった結果をいろんな環境(機種じゃなくて場所ね)で聞くことかな。

 

良く複数のスピーカーを切り替えるってのを見るけど、作業場の環境が良くないのにそれをやっても余計に判断に迷うだけだから、俺は一切お薦めしない。カッコいいけどね。やっても2SETくらいで、真面目系と派手系の2種類で良いかな。それそれのデメリットを補う感じ。

 

ミックスが上達しない原因のひとつに自分の明確な基準が無いことだと思ってる。

 

未だにプロがNS-10Mを使う人が多いのは、それで育った世代のプロが多いからそれが基準なんだよね。初めてのところでもその基準があるから作業に自信が持てるってことだ。

 

どんなにベテランでも、初めての部屋で初めて使うスピーカーで作業するのはかなり厳しいと思う。だから、今度はリファレンス音源ってのが出て来る。聞き慣れてる音源がどう聴こえるかで、その環境の癖を図ってるってわけだね。

 

俺の場合、某民生スピーカー(10万以下)と某スピーカーメーカーのヘッドフォンと、データをDropboxにいれて、移動時にiPhoneで聴いて感じ。今のところこれだけなんだけど、スタジオに持っていっても違和感がほぼ無いから、後はクライアントの多種多様なこのみ合わせて調整するくらい。それでいつもOKだから、間違えて無いと思う。

 

モニタースピーカーに関しては、ムジークとかも二回買って手放してるし、ADAMだGenelecDSP付きとか、FocalのTwin6とかも持ってたけど、今のスピーカーがMix作業には最適だな。ぐるっと回ってのこれでいいやって感じ。

 

最後に小さな音でミックスや音決めしちゃダメよ。

 

ヘッドフォンでも良いから可能な限りの音量を出したほうがよい。小さい音だとそのスピーカーやヘッドフォンの特性が出なくて、音量で周波数特性がかなり変わっちゃうから、常に同じ音量ってのも基準の重要要素だね。

 

 

プロでも使えるMIXテクニック 実際のMixの流れ編 Vol.5:ドラムのトラックの積み方の後編

いや〜。間が空いてしまった。。。毎年この時期はあっという間なんだね〜。嬉しいことにきりが無い(笑)

 

前回の最後に次回はサチュレーション(真空管、TAPE、コンソール系)やTrigger、トランジェントデザイナーを効果的に使っていく方法を覚えていこう。

 

と書いてあるからそれで行こう。ドラム編は終わりかもしれない。

 

まず、最近良くセリフで「すぐにTrriger挿すから、元音は別に良くなくてもいい」あるけど、その割にクォリティー低いよね。ダイナミクスも空間感も出せてない。CLAの拡張の音ばっか聞こえるしね〜。更にそれにWAVESのSignatureシリーズなんて使ってたら、ドラムの生感なんて出るわけないよね。

 

自分で出来ないから人任せってにしてると成長はしないどころか劣化するよ。

 

「レトルト食品を温めて自炊してます!」ってのに近いかな。

 

そういう大味に慣れてくると、舌が馬鹿になってくるわけで、その人のオリジナル料理は多分しょっぱいしコクがなさそう(笑)そんな人に自分の大切な会の料理を任せるわけ無いでしょ。

 

でだ、そんなになる背景に、本格的なドラムの録音をしたことがない人が多いのではないかなと。行動的なバンドマンなら経験あるけど、宅録育ちはほぼないんじゃない?

 

言いたいことは、Triggerのサンプルの音がどういう事の結果にあの音になってるかを理解できるようになると、リハスタでもいいところまで行ける。もちろん予算の差はかなりでるけど、思っている以上のクオリティになるよ。V-DrumやV-Drum&ソフトシンセより全然マシ。

 

なんなら一回渋谷あたりでオフ会でもしようか(笑)誰かはわかると面倒くさいからやらないけど。

 

はい。本線に戻ります。

 

Triggerを上手に使うコツは、今までにも何回か出てきてるパラレルだね。ざっくり言うと、それそれの元のトラックからプリセンドでAUXに送りそこにTriggerを挿すってこと。こうすると元の音とTriggerの音の処理が別にできるので、原音を差し替えるのではなくて、補強するために使う感じ。それらを前回までの流れのように混ぜて一体感をだすと、洋楽感かつ自分たちの音になるんだよね。キックやスネアみたいなコアなパーツは別に複数パラレルを作っても良いから、原音+Trigger+原音をがっつり歪ませたものを混ぜて、ひとつのスネアBusに送るなんてこともOK。実際の予算と時間のあるレコーディングでアナログ領域で本当にやってることだから、それの再現してるだけなんだけどね。

 

次はサチュレーションね。グルーブと並んで歪っていう都合のいいふわっとした言葉の代名詞だ。

 

とりあえず代表的なのがこの3つよね。真空管、TAPE、コンソール系。

 

先に言うと歪みなんて言ってるけど、プラグインの歪みなんてただのEQだから、裏ではすごいプログラムかも知れないけど、効果的には同類なので特徴を抑えれば良い。

 

一番簡単な真空管からいこう。ギタリストのイメージする歪みって言葉とレコーディング業界で意味するところは大分差があるよね。行っても軽いクランチだよね。

 

高域を柔らかくしながら伸ばすってイメージのみで大丈夫かな。だから金物やシンセ臭さをなまらすのに向いてる。歌にも合うよね。

 

次にTAPEは見た目上パラメーターが多いけど、重要なのはテープスピードで、それ以外はキャラクター違いと割り切って良し。テープの種類やマシンのメーカーの違いも同様。

 

先ずは、7.5、15、30ipsの切り替えのみ。スピードが早い=数字が大きくて、スピードが速い方が解像度も上のヌケがよい。スピードを落とすと、ハイがなまって下が太くなる。

 

後は、TAPEに対する漠然とイメージである少しむっちり太くなるってのを基本に、ソースをどうしたいかで選べばOK。何個かプリセットを見てみると、VUの値が数字で書いてあると思うんだけど、それに合わすようにインプットゲインを決めると、そのプリセットを作った人の意図が見えてくから、最初は真似して理解出きてからオリジナルの設定に行こう。

 

最後はコンソール系だね。これももはやプリセットイコライザーだよね。各メーカーの違いなんてネットにいくらでも書いてあるから割愛すると、実験して欲しい事はそのモデルのインプットを突っ込んだときと突っ込まないときのキャラクターの変化。

 

TAPEにも言えるだけど、モデルを選んだ後にここで更に変わるから、適当にダイナミクスのあるドラムループとかで試してみて欲しい。メーカー名でイメージされるキャラクターは、どんなときにちゃんと出るかってことがわかると更にうまく使えるじゃないかな。同じ系のプラグインを増やすより、理解した上で一個のプラグインを使う方が仕上がりに統一感もある。

 

実際のそれらが現役だった頃を考えると、複数のモデルを混ぜて使ってないというか、物理的に出来ない訳で、でもみんなその頃のその環境で作られた音に憧れてるから、ここまでいろんな製品が出てくるんだよね。

 

なんでもそうなんだけど、基本や作法を知らずにオリジナリティは生まれないかなと。個性やグルーブって言葉に逃げる作業はただの雑な運任せに過ぎないと思う。

 

個性的なプロになりたい人ほど、UADとかWAVESみたいな王道のマニュアルやプリセットを一周することを強くお薦めする。プロは基本も出来て応用も出来るから仕事が続いて、その中で個性は後から生まれてると思う。 

 

個性は付けるじゃなくて勝手に付くってことだな。

 

あー。後、トランジェントデザイナー系か、、

 

はなっからその音が気に入らなくて、リリースをがっつり弄るって以外は、普通にちゃんとミックスして、それでも最後に他のトラックとの兼ね合いを強調する時に使えば良いかな。

 

まあ音が気に入らないなら、違うサンプルを選ぶとか、もはやアレンジに戻れよって思うし。

 

ドラム編も大体書いたんだけど、なんか質問あればコメント下さいませ。失礼じゃない感じでこなければ、可能な限り答えようかなと。

 

ここまでのって読んでるだけだと机上の空論だし、自分なりの基本を話してるに過ぎないから、固有のケースによってやっぱ対応方法は変わるよね。そのジャンルならではってのもあるし。

 

特にないなら次回からベース編に行くとしよう。実際ベースが日本の宅録環境だと、かなり難しい部類だと思う。プロの作品でもダメなあるし。自分の過去のでも今ならもっと行けるのにって思う事があるし。

 

低音の使いこなしが、プロとアマ、邦楽と洋楽の差になってると勝手に思ってるくらい重要。

<

 

脱線コラムVol.5:iPadとIOSアプリで擬似ハードウェアを本気で楽しむ

前回の流れを組んで、ソフトじゃなくてハードを組み込んでいこうよって話の延長なんだけど、iPhoneiPadは持ってるかな?この記事を呼んだ半分以上の方が「YES」でしょ?

 

じゃあ、それを制作ツールとして使っている人は居る?一気に10%くらいまで人数が減るだろう。iOSに音楽系のアプリが出始めて注目を浴びた数年前の時に1~2個買ったけど、今は使ってないな。。。そんな人も多いんじゃないかなと。

 

個人的な感想では、業界的にはそんなに浸透しなかったし、真剣に使っている人も珍しくなってるよね。使ってもDAWのフィジカルコントローラーくらいかなと。正直、俺もいつの間にか、ネットと読書専用になっており、たまに先述DAWのコントローラーとして触ってみるも別に無くても良いって思ってたし。

 

そんな感じだったのに敢えてこんなコラム的なのを書く理由は、最近のアクセサリーとかアプリの最新版とかがかなり使える事に気づくきっかけがあり、そこからいろいろ試した結果、手放せなくなって来たんだよね。

 

色々買い漁ってみて、ほんとに気に入って使っているのはこの辺かな。

 

・PositiveGrid AI Drummer

・PositiveGird Bias AMP

・Arturia iMINI

・IK Multimedia Amplitube CS (フルオプション)

KORG Gadget、ARPMS-20

 

録音、打ち込み、編集&Mixなどは、慣れしたしんだDesktop用のDAWがあるので、無理してまでGaregebandやCubasisなどのiOSDAWでやる必要は無い。

 

まとめると、iPhone or iPad & iOSアプリを外付けのハードウェア音源&アンプシミュレーターとして使ってしまおう!ってことだね。

 

ハードウェア音源としてのみ使うなら KORG/KEYPLUG、アンプシミュレーターなどのハードウェアのエフェクターとして使うなら、IK Multimedia iRig Proシリーズ等があればそれだけでOK!

 

常々ソフトシンセより、ハードシンセの方が音も使い勝手も良いなと思っており、Moog系のハードとか、RolandのBoutiqueシリーズ、KORGのVOLCAシリーズ辺りを何台か足そうかなと思っていろいろ試してときに、なんとなく購入してみたArturia iMINIと KORG KEYPLUGの組み合わせが個人的にヒットし、これはアリだなと(笑)

 

ハードウェア一台買うと、場所も配線などいろいろ手間とお金が掛かる訳ですが、iOSアプリならiOS系のI/Oを普通のハードウェア同様にAudio&MIdiインターフェースと繋ぐのみでOK!簡単。

 

特に先ほど上げた、Arturia iMINI、KORG Gadget、ARPMS-20あたりは本当に音がよく、配線の都合上一度アナログで外に出てるからか、同じようなソフトをDAW内で立ち上げたよりも音の輪郭や太さを感じるんだ。

 

またレイテンシー関してもiPad側で最速設定にしておけば、DAWへの負担がないままレーテンシーを詰めることが出来るので、ここもハードウェアライクな感覚。

 

BiasもAmplitubeもDAW版を持っており多用しておりましたが、やはり先述の理由からかiOSシステムの方が音もレーテンシも1つ上な気がする。ハードウェア的な仕様になるので、プラグインとは違い後から設定を細かく調整することは出来ないけど、逆に音をしっかりと決めてオーディオとして録音するので、雑な言葉で言えば「一回一回のTAKEに魂が入る」感じが、いつの間にか手放せなくなってきた理由かも。

 

この先は、ちょっと興味が湧いてきたお客様にお薦めなハードウェアご紹介。

 

打ち込み用のキーボード:KORGBluetoothシリーズ

 

カメラコネクターを介してUSB接続が出来る製品も多いけど、そうすると肝心な出音がiPhone/iPadのヘッドフォン端子のみになるからあんまり。出来ればI/O用にあけておきたいので、Bluetooth接続ができるモデルがお薦め。Bluetooth接続時は電池駆動という、若干のデメリットもあるけど、だんだんハマってくると普段のモバイル環境でも使いたくなるんだよね〜。

 

 

インタフェース:KORG KEYPLUG、IK Multimedeia iRIg Pro or Pro Duo

前者のKEYPLUGは音源としてしか使わない人にはシンプルなのでお薦め。

 

IK MultimedeiaのiRIg Proシリーズは、Audio&MIdiインターフェースのどちらにもなるので、積極的にいろいろ使ってみようって人には一番のお薦め。iRIg Pro Duoになると少し大きくなるけど、アウトプット端子がTRS x 2ch(他はモノラルアウトかステレオミニが主流)になるので、もう普通のインターフェイス感覚だね。

 

これ以外にも、Mac & iOSで共用できる本気なモバイル環境を構築しようと思うと、ApogeeのOne/Duetとかの頑張ってる系と、やはりKORGやCMEのXkeyシリーズでBluetooth接続の出来るモデルがお薦めかな。

 

 最近、Mac版も発売になったKORGのGadget for Macは本当によく出来ていて、音楽を作ることに集中が出来るのでかなりお薦めできる。移動中にGadgetでメモって、家でGadget for Macで続きを作ったりその逆もできるので、それぞれ別売りだけど今回のiOSの世界にハマるきっかけにもなるかもね〜。

 

俺の家では、iPadがFractal AudioやKEMPERであり、MoogARPでもあり、リズムマシンであり、書きぐせから逃げるためのハードウェアシーケンサーでもあるわけだな。中古でいいからもう一台くらいあってもいいかなと。なにかしらのハードウェアを買うよりはマシだろうね。飽き性だから(笑)

 

ちなみにこれくらいの用途だったら、iPad mini2 くらいのレベルで全然充分だね。無理して最近の買う必要は全く無い。

 

まあ、本物ハードの方が自然につまみに手が伸びるからやっぱり良いんだけど、こういった感じもありだなと。MS-20とGadget for Macは既に某楽曲で使ったしね〜。<

 

最近脱線ばかりだから、そろそろ本編の続き書かなきゃな。。

脱線コラムVol.4:結局得しないソフトシンセの買い漁り。。

まず、製作の現場(本テーマではプレイヤーの視点は除く)でハードウェアの人気があまり高くない所からスタートしよう。

 

ソフトシンセ全盛の現在に「音源として複数台のハードウェアを使ってる!」という人はどれくらいいるのかな?俺のような30代半ばなら多少なりともいるけど、一世代下のクリエイターはどうかな?

 

「モジャラーシンセが大好き」とか、「もともと鍵盤出身なので良い感じの鍵盤は持ってたい」といった人を除いて、音源に関しては何から何までソフトシンセだって言う人数がほとんどだと思う。

 

その理由として、ハードウェアには以下の様な敷居の高さがあって、それがそのままソフトウェアのメリットなわけでしょ。

 

①そもそも金額が高い→ハードの値段で複数のソフトを購入できる。

②大きくて場所をとるから置けない。→ソフトは物理的な場所を取らない。

③マルチティンバーの機種を除き1台につき1音色→ソフトの方が何台も立ち上がるからいっぱい使える。

トータルリコールが複雑で面倒→セッションデータをセーブすれば、直ぐに続きができる。

 

極端に言えばこの10年は正にこの流れであり、音源ラックを積み上げるのがステータスだったところから、PCとインターフェースと鍵盤あればOKなシンプルの極みまで来てるわけで、製作を始めたタイミングで既にソフトシンセが全盛の世代は特にこの傾向が強い。

 

確かに生楽器系のソフトシンセやUAD-2を始めとするプラグインのクォリティーはかなり上がってきたのは否めないし、やっぱり便利なんだよね。

 

で、この業界で10年以上この流れを見てる中、ここ数年で多く耳にするようになった言葉がこれ。

 

「海外勢にどうしても音で勝てないから、もっと太い音が欲しい。」

 

グローバル化した業界の中で、競合相手に海外勢が出現したことによって出てきた疑問というか恐怖感というか。。そして、そこに気づいた人によく相談されるんだよね。

 

「最新のソフトシンセ等をいっぱい使ってるのに何でこんなに違うの?何か日本に入ってきてないソフトを使ってるの?電圧の問題?」

 

それも一理あるんだけど、日本に入って来ている(パッケージとして店頭に並んでいる)製品は、世界で売ってる半分くらいでしょ。実際。

 

それでも情報通の人はとっくにNEXUS、Sylenth、Zebra、Serum、SynthMaster、Spitfireといったブランドのソフトを直接購入して使用しているんだろうけど、そういった人の作品でもちゃんとした環境で聞き比べると、音像がかなり小さくごちゃごちゃしている様に聴こえんだよね。

 

とある劇伴作家と違いの正体を探そうと、いろいろYoutube等でアップされている有名な劇伴作家のスタジオと使用機材をインタビューするシリーズを見続けたことがあって、共通するのがスタジオに新旧のハードウェア音源がいっぱいあって、音源としてハードウェアの方が音の存在感が強く、埋もれずしっかりとした音であることを再確認して集め直したというコメントが多い。

 

先ほどのハードウェアには以下の様な敷居の高さがデメリットであり、ソフトウェアのメリットを強調していた事と反対の事が起きてしまってる訳。

 

①そもそも金額が高い

→ハードの値段で複数のソフトを購入できる。

→みんなと同じ音源ばっかになり明確な差は選んだプリセットくらい。

→いろんなソフトシンセを買い漁る 。

→それでも勝てないかをプラグインを買い漁る。

 

 

②大きくて場所をとるから置けない。

→ソフトは物理的な場所を取らない。

→ここは変わりませんがラック音源やデスクトップサイズも増えてきました。

 

 

③マルチティンバーの機種を除き1台につき1音色

→ソフトの方が何台も立ち上がるからいっぱい使える。

→音が細いからいろんなソフトを重ねて使って、余計なトラック数が多い。

→予算もマシンパワーも掛かってばっかりのプラグインゾンビ。

 

 

トータルリコールが複雑で面倒

→セッションデータをセーブすれば直ぐに続きができる。

→ハードウェアでもエディターがプラグイン化されているものが増えてきている。

 

さて、答えは見えてきたんじゃない?

 

「人に勝ちたいならソフトウェアと同じ感覚でつかえるハードウェアを使え!」ってこと。

 

ソフトウェア感覚で使えるハードってどんな感じなのかをラフにまとめてみたよ。手元にあった「Moog/SubPhatty」を使って説明してみよう。

 

例えば、MoogのPhattyシリーズはUSB端子を装備してて、コンピューター側からコントロール可能。今までもこんな感じでエディターがソフトウェア化されているものは多数発売されてたけど、ほとんどエディターがスタンドアローンで、DAWとの連携が出来ずに個別に管理する必要があって、この煩わしさが一気にソフトウェアの時代を推し進めてしまった原因の1つだと思う。

 

俺自身も音が良いのは分かっていながらも面倒だし高いと思ってけど、その面倒だったエディターがAU/VST/AAXと言ったプラグインに対応するメーカーが増えてきたことで一気に話が変ってきて、プラグインならではのその楽曲自体とともに音色の管理がトータルリーコルが出来るようになってきた機種が増えたんだよね。

 

つまり、場所と金額の問題以外はクリア。予算の面は個人の懐事情もあるけど、細かくプラグインを買い続けてるのもかなりの出費でしょ?場所は高さを使うとか各自工夫すればいいし。

 

ハードの方が圧倒的に音に密度があるし、使い勝手も良いからによって、ソフトウェアを買い集める必要がなくなることによって、人によってはクリアとも言える。

 

エディターがプラグインに対応したことのもう一つのメリットが、実機自体がそのエディター専用のハードウェアコントローラーにもなるので、打ち込んだ後にループ再生しながら両手でツマミをいじることもでき、さらにそれらのオートメーションを書くことも出来るわけだね。

  

手を出すか手を出さないかは自己責任で。でも、一回でも試せば言いたいことはわかると思うよ。