近年、VTuberの中でも特に注目を集めている「にじさんじ」。彼らの3Dライブや収録、ダンスパフォーマンスがどのように実現されているのか、その裏側に迫ります。3Dの動きの仕組みや、実際のライブパフォーマンスでどのような技術が使われているのかを詳しく解説していきます。
にじさんじの3Dモデルはどう動かしているのか?
にじさんじの3Dモデルは、リアルタイムで動かすために「モーションキャプチャー技術」を使用しています。この技術は、出演者の動きをセンサーやカメラで読み取り、そのデータを3Dモデルに反映させるものです。
具体的には、出演者が「モーションキャプチャースーツ」を着用することが多いですが、このスーツには体の各部位にセンサーが取り付けられています。これにより、腕や足、顔の表情まで細かくトラッキングされ、リアルタイムで3Dキャラクターが動くわけです。
モーションキャプチャー以外の技術
モーションキャプチャー以外にも、3Dモデルを動かすために必要な技術があります。特に「フェイシャルキャプチャー」技術を使うことで、表情や口の動きまで細かく再現されます。この技術では、カメラを使用して顔の動きを追い、そのデータを基に3Dモデルの表情が変化します。
これにより、視聴者はキャラクターがリアルに感情を表現しているように見えるわけです。これらの技術が組み合わさることで、まるで生身の人間のように動き、感情が伝わるパフォーマンスが可能になります。
ライブパフォーマンスや収録は本人達が行っているのか?
ライブパフォーマンスや収録で行われるダンスや歌は、基本的にVTuber本人たちが実際に行っています。彼らはモーションキャプチャーを使って、リアルタイムで自分自身の動きや歌声を3Dキャラクターに反映させています。
ただし、ダンスや歌に関しては、事前に振り付けや練習が必要です。これらの練習を行い、最終的にライブ配信や収録で披露されるパフォーマンスは本人たちによるものです。よく「なわけない」と疑問に思う人がいますが、実際にはライブ中に動く3Dキャラクターは、出演者自身が動かしているものです。
ライブパフォーマンスの裏側:歌いながら踊るには?
ライブパフォーマンスでは、歌いながら踊ることが求められることがありますが、このパフォーマンスも3D技術を駆使して実現されています。歌いながらダンスをするためには、動きに合わせて音声と同期させる必要があります。
これを実現するために、音楽と動きのタイミングを事前に合わせる作業が行われます。例えば、音楽のテンポや振り付けに合わせて、モーションキャプチャーを調整し、そのデータを3Dモデルに反映させるのです。こうして、歌いながら踊るパフォーマンスが実現できるのです。
まとめ
にじさんじの3D技術は、モーションキャプチャーやフェイシャルキャプチャー技術を駆使し、VTuber本人たちが直接パフォーマンスを行うことで、リアルで感情が伝わる演出を可能にしています。ライブや収録、ダンスなども本人たちによるものであり、その技術と努力が合わさることで、視聴者に圧倒的なクオリティのパフォーマンスを届けています。
コメント