7/23 第4会場 公募 16:50-17:15 25 ショートセッション

「使える!」不適切投稿自動摘発AIモデルを作る - トレーニングデータをどう作成するか

村上 宰和

横島 太志

セッション分野
ENG(エンジニアリング)
セッション関連分野
PRD
キーワード
AI/ML
GaaS
対象プラットフォーム
コンシューマ
モバイル
PC
セッション難易度
求められるスキル
・ ゲーム運営経験またはソーシャルメディア運営経験
・ 自然言語モデルに関する一般知識, 高卒程度の数理処理知識があればbetter
得られる知見
・ 不適切投稿自動摘発AIモデルの構築に必要なプロセス
・ サービスに合ったモデルに仕立てるためのトレーニングデータの作成方法
・ トレーニングデータ作成作業をサポートする方法
写真撮影 / SNS投稿
お気に入り登録

セッション内容

オンラインゲーム等での不適切なユーザ投稿を自動摘発するAIモデルを作る、古典的でシンプルな題材を扱います。
なお、現実は思ったほどシンプルではないです。昨今のAI(自然言語モデル)の判断は概ね優れているものの、ゲーム運営担当としばしば判断基準がずれており、このままでは本サービスに適用できません。特に、運営がOKと断じたものをAIがNGと判定する「冤罪」ケースは極力避ける必要があります。そこで、ファインチューニング(FT)等で改善を図ることになりますが、ではモデルが望む判断基準を持つように、適切なトレーニングデータをどう作成すれば良いでしょうか?
本セッションではトレーニングデータの作成に焦点を当て、運営と共に実際に苦心した点, 効果的・効率的にデータ作成を行う技術的サポート等について詳説します。不適切投稿のチェックに悩む運営担当者のみなさま、必見です!

講演者

  • 村上 宰和

    村上 宰和

    株式会社セガ

  • 横島 太志

    横島 太志

    株式会社セガ

共同研究・開発者

林 洋人(株式会社セガ)
平石 泉貴(株式会社メンバーズ)