AI診断の落とし穴:オックスフォード大学が人間介入の影響を解明

2025.06.16

WorkWonders

オックスフォード大学の研究で、人間が医療AIを使うと診断精度が著しく落ちることが明らかになりました。
研究では、大規模言語モデル(LLM)による診断テストを1,298人の参加者で行い、LLMを独立して使った場合は約95%の高精度だったものが、人間が操作すると約35%まで低下。
人の介入で情報が不完全になったり、LLMの回答を誤解することが要因とされ、AIを完全に信頼すべきではないとの指摘があります。
一方、AI同士のコミュニケーションでは、より良い結果が出ることも判明し、これからのAIの活用法について、さらなる検討が求められています。

出典 : 医療AI診断の盲点:GPT-4o・Command R+を人間が使うと精度が3分の1に低下、1,298人実験で判明 – イノベトピア https://innovatopia.jp/ai/ai-news/57656/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓