コロナ禍で進化したライブ配信 Moment TokyoとREZが追求するアンリアルな映像表現

Topics
ライブ配信における映像表現を追求し、新たな体験を生み出しているMoment TokyoとREZ。彼らのコラボのきっかけや今後の展開について話を聞いた。

コロナ禍で急速に成長したライブ配信業界。有料チケット制、オンラインフェスなど今までにない新たな音楽の楽しみ方はこの短期間で多くの人に浸透した。

その中でも、ライブ配信における映像表現の追求を試みたのが配信&映像プロダクション・Moment Tokyo株式会社だ。最近では、先日開催された<Spotify presents Tokyo Super Hits Live 2020>のバーチャルステージを担当するなど、活躍の場を広げている。

彼らは、『MOMENT RAVEROOM』という自社プラットフォームのオウンドライブ配信プロジェクトを4月にスタートさせ、8月には渋谷の中心にライブ配信スタジオを設立。毎日のライブ配信と同時に、VJチーム・REZの協力のもとCG技術の開発に取り組み、その成果としてライブ配信シリーズ『EXPERIMENTAL VIRTUAL LIVE』では、被写体の合成からVR空間内のカメラ、照明まで全てリアルタイムでおこない、今までにないライブ体験を届けてくれた。

あの映像表現を実現させた技術は、一体どのようなものなのか。今回はCEO 伊東孝俊氏に、ライブ配信に取り組み始めたきっかけから今後の展開まで話を聞いた。

コロナ渦で始めたライブ配信

ーまず、Moment Tokyoとはどんな会社なのでしょう。

イベントの瞬間、高揚をデジタルで形にすることを追求したいと思い始めた会社で、主にイベントのアフタームービーを制作し、新しい動画・PR表現を提案してきました。

僕自身、音楽フェス・海外フェスがすごく好きで、昔からよく行っていたんです。中でも<Coachella>はフェスの雰囲気だけでなく、デジタルマーケティングの強さなど仕事視点でもすごく影響を受けていると思います。

これはMoment Tokyoが2019年に手掛けた音楽フェスをまとめたものです。

ーDIGLE主催イベント<PARA->の映像も入れていただき、ありがとうございます。

<PARA->のムービーはおしゃれに出来たなと思っています(笑)。

ーしかし、今年は新型コロナウイルスの影響でイベント自体が行えない状況でしたよね。

そうですね。これまでのように、音楽フェスやライブイベントの映像制作は行えない。そこで何をするかとなった時に、社内の人間から「音楽配信をやりたい」という声が上がったんです。単純に周りのDJがプレイする現場がないからという理由なんですが、「これぐらいお金かかるんですけどやっていいですか」って言われたので「分かった、いいよ」って(笑)。それから会社の中にグリーンバックのスタジオを作りだして、ほぼ毎日3人ぐらいずつDJを呼んで配信を始めたんです。

ー社内のメンバーからの発案だったんですね。4月頭から毎日配信されてましたよね。

配信は4月1日から始めました。マンションオフィスの中のグリーンバックなんですけど、毎日フライヤーもしっかり作って続けていたら、その時期に場があること自体が珍しかったのもあり、じわじわと人が集まってきて。

ーその時期はイベントの相次ぐ中止や緊急事態宣言もあり、ライブ配信は音楽ファンにとって救いでした。

そうやって2週間ほど続けた頃に、今年のゴールデンウィークは緊急事態宣言で完全に自粛期間になるということで何か働きかけをしたくて、オンラインフェスを開催することにしました。当時、色んな人が色んな配信を行っていて、これをまとめるだけで一個の需要が生まれると思ったんです。そこで仲間内に声をかけて<366VILLAGE>を開催しました。

ー反響はいかがでしたか。

1回目はすごく反響がありました。ウェブだけでも50メディアに取り上げて頂いて。しかし、緊急事態宣言が開けてすぐの6月にもう2回目を開催しましたが、自粛疲れや外に出たいモードでもあったせいか、反響は3分の2くらいになりましたね。

アンリアルな世界を創る

ー2回目のオンラインフェスが開催される6月頃にはライブ配信の数も増えましたよね。

そうですね。やはり、その瞬間瞬間にみんなが「わ、面白い!」と思っていただけることを作っていたかったので、オンラインフェスの動きはそこで一旦止めました。しかし、そのオンラインフェスで「VJ概論」というVJについてのトークイベントを開催していて。

元々「VJ概論」というVJのコミュニティがあって、その主宰であるREZというVJチームのNOBUAKI KAZOEを呼んだんです。十年前から友人ではあったんですけど、自社でグリーンバックの映像を始めていたし、VJ概論と組んでもっと映像表現の可能性を広げたいと思っていて。でも、4月頃は全く連絡が取れなかったんですよ。

ー何かあったんですか?

死んだんじゃないかってくらい誰も連絡取れなかったんですけど、5月末ぐらいにようやく連絡が取れて、聞いたら『どうぶつの森』をひたすらやってただけみたいで(笑)。

ーみんなハマってましたからね(笑)。

そして、Moment Tokyoの配信で何か協力してもらえないか話したんですが、最初REZチームはグリーンバックをすごく嫌がっていたんです。「ダサくない?面白くなくない?」って。でも、面白いか面白くないかは置いといて、新しい撮り方を模索しながら一回やってみようということになって、まず試したのが人に照明を当てることです。

グリーンバックだけどより生っぽい、“背景の映像”と“人”ではない馴染んだ質感を作りたくて。その結果グリーンバックでもかっこいいと思えるものが完成したので、そこからさらに拡張表現を試していくために、CG制作の環境としてUnreal Engineを使用していくことにしました。

ゲームエンジンを用いたリアルタイムレンダリングでの制作は大きくUnityとUnreal Engineという2つがあって、Unreal Engineは『Fortnite』などのゲームエンジンとして使われているものです。Unreal Engineを使ってライブ配信をやってるところはまだまだなかったんですよね。そもそもは休眠してた間REZチームがずっと『どうぶつの森』をやりこんで、ガチフェス・VJエリア的な村を作ってたことに起因してるんですけど(笑)。

ーまさか『どうぶつの森』がそんなところで活躍してくるとは(笑)。

そこで8月には、音をしっかり出せて開発にも力が入るような、クリエイターの求心力が集まる場所を作るため、ライブ配信スタジオの契約をして、バーチャルVRライブ配信とCG環境の開発を同時に始めました。

ーその成果となったのが第1回目にTJOさんが出演したライブ配信<MOMENT EXPERIMENTAL VIRTUAL LIVE>ですね。

一発目はジョンさんとやりたいなと思っていました。

ーステージのデザインもとてもかっこよかったです。一瞬agehaかどこかのステージかと思いました。

この開発はプログラマーの技術と同じくらいアートディレクションが重要なポイントになっています。というのも、本物と全く同じリアルなステージを作るだけではダメで、大事なのは“ギリギリ本物では再現できない要素”なんです。

映像をよく見ると光るドローンが空間を飛んでいたり、下が水浸しになっててかさが増してきたり…。これは本来の場所ではあり得ない演出なんです。“あり得そうだけど、よく見たらあり得ない”というアンリアルな感覚を大事にしてます。

ーそれはこれまで多くのフェスやイベントを見てきたからこそのアートディレクションですね。こちらの反響はいかがでしたか?

第1回を配信した時点で、1週間に20件くらい見積もりの相談がきました。

ーすごい数ですね。

しかし、当時まだ自分たちは成長途中の段階だったんです。出来ることも毎週レベルアップして、目線が変わる。だから1回全てを断って、8・9月は修業期間にしました。その間はオウンドで発信していくのみで、スポンサーもついていないので、DJのギャランディは全て自社から出していました。

トライ&エラーで得たノウハウ

ー思い切った決断でしたね。2ヶ月での変化はいかがでしたか。

目線はだいぶ上がったと思います。2回目はDJ YUMMYさん、DJ KYOKOさんに出演してもらい、空中で光るブロックが動きながら移り変わっていく世界観を作りました。中国のクラブではありそうかもしれないけど(笑)。

3回目はREMO-CONさんを呼ん「スペースジャーニー」というテーマで宇宙ステーションを作り、4回目はアフロマンスさんと☆Taku Takahashiさんを呼んで、「無人島と深海」という初めてのネイチャー系のテーマでしたね。

5回目はMorley Robertsonさんを呼んでダブステップでゲーム的な世界観を作り、6回目はVtuberの星宮ととさんとのヴァーチャルライブ。

ーグリーンバックの映像とCG世界とのギャップにびっくりしました。配信中、特に不具合はありませんでしたか

1回目はプログラムに負荷がかかって落ちてしまったりしましたが、落ちたら2DのVJ素材が出るようにして、あまり違和感がないようなバックアップはしていました…。 2回目以降は改善されて以降落ちることはなくなりました。同じようなことをやってる人が世界にほとんどいないから、リファレンスがなくてトライ&エラーをするしかないんですよね。

ー配信は常にリアルタイムなんですか?今は事前に制作した映像を配信するパターンもよくありますが…。

完全にリアルタイムの配信です。僕らの映像の凄さはオンラインで「これ生なんだ!」って感じるインタラクティブなところにあると思っています。もしアーカイブならもっと精度を求められますから。

もっとやる人が増えればいいなと思っているので、CGの作り方も全部公開しています。Unreal Engineに手を出せて、VJのようなステージ演出の感覚があって、照明を作るTouchDesignerというプログラムを書けて…という人は相当少ないと思うので。僕らも少しずつチームを増やしていく予定です。

ビジネスとして成り立たせるために

ーこれまでアフタームービーを作っていたことで今に活きていることはありますか?

毎回アフタームービーでも使用していた、実写の手持ちカメラの要素ですかね。色んなオンラインフェスがありますが、アングルを切り替える際にカットが分かれているじゃないですか。僕らの場合は、カット割りをしてないんです。ビューンと寄ったり引いたり、ワープするようカメラを動かしていて。そこは生感を出すためにも大事にしています。

ー確かに動きのあるカメラワークはすごくリアルな感覚を生みますよね。それは配信を始めた頃からイメージされていたんですか。

そうですね。しかし、ライブ配信スタジオにカメラが1台しか入らなかったので、VIVEトラッカーというものでトラッキングして視点を動かしているんです。この環境を逆手にとって生まれた案でもありますが、今後スタジオの広さが2倍になったからといって、一気に何台もカメラを増やすかというとまだわかりません。今のやり方は、これはこれで面白いので。

ー配信のプラットフォームとしてTwitchを利用されていたのはどんな理由からですか?

一番はDJライブストリーミングとの相性です。YouTubeやFacebookはリアルタイムでコンテンツIDが各保有者へ通知されるので、使用不可の楽曲を使用するとライブ配信でも止まってしまうことがあるんです。

Twitchに関してはリアルタイムで止まることはなく、コンテンツID的にアウトな楽曲はアーカイブで自動ミュートされる仕様なので、そこがDJライブ配信と相性がよかったんですよね。DJライブ配信の権利の問題は様々にありますが、権利自体はTwitchが処理してくれているので、これを採用しています。

ー9月で一旦ライブ配信スタジオはクローズし、新たな場所へ移るそうですね。

DJ界隈が一番カルチャーとして身近にあったので、そこをまず拡張させたかったんですよね。

ー今後はどのような展開を予定していますか?

これからはダンスミュージックやDJを超えた領域にも展開していきたいと思っています。バンドやラッパーとの配信も増やしたいですし、いくつか音楽イベントの話も進んでいます。

ー技術的な面での次の課題はなんでしょうか。

ヒップホップのライブなどで想定されるんですが、“動く被写体をどこまで精度高く追えるか”というところのですね。

ーそこはDJと大きく違う点ですね。少しずつリアルのイベントも増えてきていますが、会社として何か新しい動きは考えていますか?

今後イベントやフェスが復活してくれば、今までの実写の仕事も戻ってくる。その際に何ができるかすね。リアルな現場にグリーンバックを置いて配信しても中途半端になってしまうし、どんな面白い表現ができるかはこれから模索しないといけないなと思っています。

SNSで記事をシェア

SNSフォローで
最新カルチャー情報をゲット!

閉じる