AIチャットボットが短い回答を返すよう指示された際、間違った情報を出力するリスクが高まるという新たな問題が、フランスのAI品質評価企業Giskardの研究で明らかになりました。
この調査では、世界の主要なAI言語モデルが分析され、特に間違った前提を含む質問への「短い回答」は事実誤認を引き起こしやすい傾向があることが指摘されています。
例えば、GoogleのGemini 1.5 ProやOpenAIの新型推論モデルでは、誤答率が大幅に上昇しました。
これは、AIの応答速度やデータ使用量の削減などの効率化が、正確さとどうバランスを取るかという課題を突き付けています。
AI技術の発展が進む中で、医療や金融などの分野でAIを使う際には、十分な検証が必要であることが示されています。
今後のAI開発には、回答の動的調整や透明性の向上が求められています。
出典 : GPT-4o・Claude・Geminiで「簡潔な回答」指示がハルシネーション増加 – Giskard最新研究が示す生成AIの新リスク – イノベトピア https://innovatopia.jp/ai/ai-news/54065/