AI画像生成やメタバースにおけるUGCをゲーム開発に活用したいエンジニア、ディレクター、ビジネスプロデューサー、IPホルダーなど。
生成AIによるマテリアル生成、モーション分析、人間のユーザーによる個性あるモーションのUGC化、メタバースエンターテインメントとしてのコミュニケーション設計。
【インタラクティブセッション】
生成AIによるファッションデザインと、モーションによるユーザー生成コンテンツ(UGC)を使って、メタバース内のファッションショーを実現しました。
オンラインでもオフラインでも、生成AIメタバース体験ならではのオリジナルUGCをライブ体験することができます。
メタバース・モードメーカー「mmm」は、スマートフォン向けメタバース「REALITY」における新しいUGC-UXの概念実証プロジェクトです。
モード(ファッションコーディネート)におけるユーザー生成コンテンツ(UGC)に着目し、ジェネレーティブAIによってユーザーのインスピレーションやモーション表現をサポートします。
体験者はHMDを装着し、そのアバターのオリジナルの服とモーションをVRでデザインします。
でもテクスチャを描くのは大変ですね!しかもHMDを装着して…となるとけっこう大変です。
このデモではAI画像生成技術「Stable Diffusion」を活用した「WordToTextile」を使い、簡単にオリジナリティがある新しいファッションコーディネートシステムが体験できます。
1. 体験者は同意書を入力しMeta Quest2を装着します
2. テンプレートとなるアバターを選択し、キーワードを入力することでオリジナルの服デザインを生成できます
3. リズムに合わせて体を動かすと、オリジナルの歩行モーションを演じて録画することができます
4. 生成されたアバター、ファッションと歩行モーションは、クラウドに瞬時に送信され、メタバース内ランウェイで分析・評価されます
5. 姿勢評価とともにYouTubeLiveを使ってリアルタイム上映がはじまります。コメントで応援してください!
【見どころ】
・VRの中で画像AIや姿勢評価技術を使った新しいUGC-UXデザインワークフローを体験できます。
・服の生成はStable Diffusionをベースとした「WordToTextile」という新開発の技術によって生成されています。テクスチャだけでなく、服の型紙に沿わせた生成をキーワードだけで行い、多様な色彩を得ることができます。
・公開されたデザインはアバターごとにVRMファイルとして保存され、またデータベースで共有されるので、オリジナリティを保護することができます。
・独自に開発したモーションキャプチャーツール「QueTra」とモーション圧縮技術「MuscleCompressor」を使い、歩行アニメーションを狭い空間で生成することができます。
・この技術は「AIFusion」という自動生成とユーザーによるモーションの自然な融合技術を応用しています。
・アルゴリズムによる姿勢評価とYouTubeLiveによるオンライン投票により、オンライン・オフライン同時に世界中から応援を受けることができます。
このプロジェクトは、アバター主導のUGCを実現し、メタバースの未来価値を高めるとともに、人々の創造性を高め、パーソナルブランドや非言語・異文化コミュニケーションを発展させることを目的としています。
プロジェクトWebサイト https://vr.gree.net/lab/uxdev/mmm/
フランス Laval Virtual 2023 ReVolution Research採択
https://www.youtube.com/watch?v=x8gqQ2UFx78 (2023年3月公開版ティザー動画)