「使える!」不適切投稿自動摘発AIモデルを作る - トレーニングデータをどう作成するか
村上 宰和
横島 太志
- セッション分野
-
ENG(エンジニアリング)
- セッション関連分野
-
PRD
- キーワード
-
AI/MLGaaS
- 対象プラットフォーム
-
コンシューマモバイルPC
- セッション難易度
- 求められるスキル
- ・ ゲーム運営経験またはソーシャルメディア運営経験
・ 自然言語モデルに関する一般知識, 高卒程度の数理処理知識があればbetter - 得られる知見
- ・ 不適切投稿自動摘発AIモデルの構築に必要なプロセス
・ サービスに合ったモデルに仕立てるためのトレーニングデータの作成方法
・ トレーニングデータ作成作業をサポートする方法 - 写真撮影 / SNS投稿
セッション内容
オンラインゲーム等での不適切なユーザ投稿を自動摘発するAIモデルを作る、古典的でシンプルな題材を扱います。
なお、現実は思ったほどシンプルではないです。昨今のAI(自然言語モデル)の判断は概ね優れているものの、ゲーム運営担当としばしば判断基準がずれており、このままでは本サービスに適用できません。特に、運営がOKと断じたものをAIがNGと判定する「冤罪」ケースは極力避ける必要があります。そこで、ファインチューニング(FT)等で改善を図ることになりますが、ではモデルが望む判断基準を持つように、適切なトレーニングデータをどう作成すれば良いでしょうか?
本セッションではトレーニングデータの作成に焦点を当て、運営と共に実際に苦心した点, 効果的・効率的にデータ作成を行う技術的サポート等について詳説します。不適切投稿のチェックに悩む運営担当者のみなさま、必見です!
講演者
-
村上 宰和
株式会社セガ
-
横島 太志
株式会社セガ