音声合成を用いるインタラクティブなキャラクター


講演形式
インタラクティブセッション
資料公開
予定あり
受講スキル

インタラクティブなキャラクターの作り方のヒント、音声合成の使い方のヒント

得られる知見

よりインタラクティブなキャラクターの実装方法、音声合成の使い方

セッションの内容

本セッションではプレイヤーとゲームキャラクター間の自然なコミュニケーションを体験できます。仮想現実でプレイヤーがキャラクターに果物を上げたり、くすぐったりするインターアクションがとれます。そのインターアクションはキャラクターの感情にも影響し、身振り手振りと顔つきだけではなく、感情表現を伴う発声をリアルタイムに合成し反応します。

シディーク サジャード

Square Enix, Co., Ltd.

テクノロジー推進部

サウンド研究者

もっと見る

<講演者プロフィール>

ウィーン大学で音響学の修士号を取得し、ゲーム業界に入る前に楽器の音響の研究を行いました。2012年にスクウェア・エニックスに入社し、プロシージャルオーディオをはじめ、音合成、残響、音情報検索、音声認識、信号処理といったさまざまのテーマで研究を担当します。GDC、AES、DAFxなどの国際学会で講演実績も多くあります。

<受講者へのメッセージ>

音の作成でも、サウンドのワークフローでも最新鋭の技術を用いて、ゲームオーディオを推進しましょう!
閉じる

ボエダ ゴティエ

SQUARE ENIX CO., LTD.

テクノロジー推進部

AIエンジニア

もっと見る

<講演者プロフィール>

Force Field VR社でインターンとして、VRゲーム「TERM1NAL」の開発に取り組む。コンピュータサイエンスの修士号を取得。"Vulcanus In Japan" プログラム(ヨーロッパと日本の間のインターンシップ)の参加者に選ばれ、スクウェア・エニックスのAIエンジニアとして来日。その後正式に入社し、現在はキャラクターインタラクションとVRについてさらに研究に取り組んでいる。
仕事以外に、ゲームジャムに参加することによって自由な時間を楽しんでいます。最新技術に触れるのが好きです。

<受講者へのメッセージ>

日本語で発表しますので、みなさんぜひ来てください。質問も日本語で大丈夫です。
SIGGRAPHAsia2018のRealTimeLive!イベントでリアルタイムデモをご紹介いたしました。レギュラーセッションの方はその実装について発表となります。(https://youtu.be/mNrzXkESHFQ 11:54と28:00)
インタラクティブセッションの方は「音声合成を用いるインタラクティブなキャラクター」のデモを紹介します。
たくさんの方にお会いできるのを楽しみにしております。
閉じる

ニコラス フールネル

Tsugi合同会社

代表社員

もっと見る

<講演者プロフィール>

これまで30年に渡って、ゲーム業界向けオーディオツールとエンジンの開発経験を持つ。(Factor5、Konami、EA、SCE)2011年、日本でゲームオーディオツールの開発に特化したTsugi合同会社を立ち上げ、世界中のゲームスタジオに、サウンドに関する研究開発サービスを提供。
GDC、Develop、AESといった国際カンファレンスでの講演実績も多数あり。DSP技術、プロシージャルオーディオ生成に関する特許も複数保有する。

<受講者へのメッセージ>


リアルタイムで音声を生成することで、より没入感のあるゲーム体験が可能になります。 これは、ゲームのキャラクターとコミュニケーションをする際に、より高い効果を発揮します。Kobunとやり取りし、実際にその耳でプロシージャルオーディオを聞いてみてください!
閉じる

ウィンサン ウォン 

Tsugi合同会社

オーディオR&Dエンジニア

もっと見る

<講演者プロフィール>

2017年ニューヨーク大学音楽技術学部研究生卒業、同年Tsugi合同会社に入社。DSP技術、MIR、機械学習、プロシージャルオーディオ生成に関する開発経験を持つ。

<受講者へのメッセージ>

リアルタイムで音声を生成することで、より没入感のあるゲーム体験が可能になります。 これは、ゲームのキャラクターとコミュニケーションをする際に、より高い効果を発揮します。Kobunとやり取りし、実際にその耳でプロシージャルオーディオを聞いてみてください!
閉じる