GoogleのAIスペシャリストチームは、ChatGPTなどの大量言語モデル(LLM)の結果を事実確認するAIシステム「SAFE」を開発しました。この新しい取り組みでは、LLMが提供する回答に含まれる主張や事実を分析し、Google検索を利用して確認し、正確性を自動的に評価します。
約16,000件のLLMの回答が含む事実を検証したところ、SAFEは72%の確率で人間のチェッカーの結果と一致し、意見の相違があった場合でも、SAFEが正しいことが76%でした。このコードはGitHub上で公開され、誰もが利用可能です。
出典 : https://techxplore.com/news/2024-03-deepmind-safe-ai-based-app.html