人工知能の「でたらめ回答」を見破る方法

2024.06.22

WorkWonders

大規模言語モデル(LLM)は、問いに対して誤った回答を自信を持って提供することがあります。その理由として、誤った情報に基づく訓練、正解を導くための情報が不足していること、訓練中に誤りを学習してしまうことなどがあります。
しかし、最もシンプルな説明は、LLMが正確な答えを認識できずに作り上げてしまう「作話(confabulation)」です。オックスフォード大学の研究者たちは、LLMが作話しているときを見分ける方法を見つけたと言います。

彼らの定義する作話とは、ランダムな要素に敏感な間違った主張をLLMが流暢に生成することを指します。研究者たちは、正確さではなく大量のテキストから人間らしい文章を生成することを学ぶLLMの性質を利用しています。
正解のフレーズがたくさんある場合、LLMはどれを選んでよいか不確かになりますが、セマンティックなエントロピーを分析することで、作話をしている可能性がある場合を特定することができるのです。

出典 : https://arstechnica.com/ai/2024/06/researchers-describe-how-to-tell-if-chatgpt-is-confabulating/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。