VJシステムについて考えてみる。
年末進行に追われるデザイン業界の人間にとって、自社年賀状のデザインは良い気分転換になる。ということが理解できた今日この頃。
さて、先日のON-FLOでの勉強を元に、VJセットの見直しをしようかと妄想中。
まず、現在セットのおさらい。
- MBP/motiondive.tokyo
- motiondive.tokyo console
- Xacty(MBP/motiondive.tokyoへ接続)
- ダウンスキャンコンバーター
- LCD(ダウンスキャンコンバーターから分岐、出力映像確認用)
現状での問題点。
- リアルタイムでの音声への自動同期が難しい。
- リアルタイム映像の取り込みが1系統しか使えない。
- 映像処理資源確保のためのLCDの運搬が大変。
- 適度に休憩できる仕組みがないとしむ。
それに対して、先日のON-FLOでのVJチームさんのシステムを見たところ以下のような感じでした。
- MacBook(白)/motiondive.tokyo
- WindowsNotePC/FUSE?
- ダウンスキャンコンバータ
- EDIROL V-4
CG素材中心で2台のコンピュータからの出力をV-4でミックスしてたんですが、一番びっくりしたのは、MacBook上のmotiondive.tokyoで、出力映像のプレビューまでしてたんだけど、処理落ちをしてる様子がなかったところ、これは素材の再生時間とかリアルタイム映像を使ってないからかな?とは思うものの、どういう理由か気になる。あとは、2台のVJツールのミックスをしてるので、素材の展開が細かくて面白かった。
というのが、感想。
そこから妄想を膨らませます。
- リアルタイムの音声取得によるCGパターン生成ツール搭載したコンピュータ
- ビデオミキサー/V-4 or V-8
- 多彩な出力のためのプロジェクター
- 小型モニター/NUMARK VM03MKII
- ビデオカメラ
んー50万とか超えますな。(笑)
ということで、CG・アニメ・実写の各分野の素材を増やすのが、一番費用がかからず効果があるということが良くわかった。DJさんもお金かかるけど、VJは基本全部持ち込みだし、ハードウェア系は値段がシャレにならないんだよねー。ソフトもそれ自体はそんなでもないけど、それ動かすコンピュータまで含めると結構な話になる。
んー、ていうか、ぜんぜんまとまった文章にならない。(涙
最近のコメント