Google DeepMind開発の AI による事実確認システム「SAFE」

2024.03.31

WorkWonders

GoogleのAIスペシャリストチームは、ChatGPTなどの大量言語モデル(LLM)の結果を事実確認するAIシステム「SAFE」を開発しました。この新しい取り組みでは、LLMが提供する回答に含まれる主張や事実を分析し、Google検索を利用して確認し、正確性を自動的に評価します。

約16,000件のLLMの回答が含む事実を検証したところ、SAFEは72%の確率で人間のチェッカーの結果と一致し、意見の相違があった場合でも、SAFEが正しいことが76%でした。このコードはGitHub上で公開され、誰もが利用可能です。

出典 : https://techxplore.com/news/2024-03-deepmind-safe-ai-based-app.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください