最先端のAIは答えを持たないことを認めにくい傾向があります。バレンシア人工知能研究所が、OpenAIのGPTシリーズやMetaのLlama、BigScienceのBLOOMといった大規模言語モデルを調査した結果、性能が高いほど誤った答えを与えやすいことが判明しました。
これらのAIは、複雑な質問にもかかわらず、多くの場合答えを出そうとしますが、簡単な質問でさえ10%、難しい問題では40%の誤答率があります。エキスパートはAIが難問には「わからない」と答えるようガイドする必要性を説きます。
特定分野のチャットボットは、未知の答えに対して無回答を選ぶ改良が施されることもですが、汎用チャットボットではこうした対応は一般ユーザーに必ずしも望ましいわけではありません。高度なAIの利用には注意が必要です。
出典 : OpenAIのGPTシリーズ・MetaのLlama・BigScienceのBLOOMのような新しくて大きなバージョンの大規模言語モデルを使ったAIは無知を認めるよりも間違った答えを与える傾向が強い https://gigazine.net/news/20240929-advanced-ai-wrong-answers/