最先端AIモデルが誤った回答をする「ハルシネーション」を防ぎ、その信頼性を向上させるための新しい手法がDeepMindによって開発されました。この手法では、AIが自らの回答の類似性を評価し、誤答の可能性が高いときは回答を控えることを提案しています。
新しい手法「一致予測法」を採用し、誤答率を厳密に制限し、実際の誤りを防いでいます。実験により、長い回答が求められるデータセットでは保守的な回答を控えつつ、短い回答を必要とするデータセットでも同等の性能を保持していることが確認されました。
この研究は、世界中の専門家が安心してAIを活用できるようにするため、その確実性を高める新たな方策を提供します。
出典 : https://techxplore.com/news/2024-05-method-mitigate-hallucinations-large-language.html