AIによる人狼ゲームの進化とその限界

2024.03.24

WorkWonders

GDC 2024では、GoogleのAIチームが行った人狼ゲームの実験成果を発表しました。大型言語モデル(LLM)を使って、村人と人狼の役割ごとに異なるパーソナリティや戦略を持った対話を生成するAIチャットボットが訓練されました。
AI同士、または人間とAIが対戦し、嘘を見抜く能力や他者にそそのかされる傾向を分析したのです。完全な推理と記憶能力を備えた時、AIは10回中9回正しい結論に至ったものの、これらの能力を削除すると正答率は著しく低下しました。

また、人間が率直に評価したAIは、推理に関して2/5または3/5とされ、実際には沈黙しているのが最善の戦略であることが判明しました。
AIがゲームにおける個性や対話の多様性を生み出せる一方で、現実の人狼ゲームのように行動や話し方の微妙な変化を捉えることはできていないことが認められています。

Google AIの取り組みは、プレイヤーからのフィードバックにリアルタイムで反応するAIビデオゲームや、覚えて対応する何十万ものNPCを有する将来像を示しています。
しかし、これらの実験はAIがまだ実際のゲームプレイや対話を置き換える準備が整っていないことも浮き彫りにしています。
ゲームデベロッパーがLLMの個性を構築・教育することにより機械学習研究に貢献できるという点で、これらの実験は有益であると言えます。
将来的な可能性がある一方で、AIがトランスフォーマティブなゲーム体験を提供するには、まだ道のりはあります。

出典 : https://www.androidcentral.com/apps-software/gcd-2024-google-ai-tested-llm-chatbots-with-werewolf

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください