人工知能Claudeがまさかの失態。
日本の822年の出来事について聞いたところ、実際とは全く異なる「承和の変」という事件を説明してしまった。
しかし実際は842年の出来事であり、詳細も異なる。
このように、AIは時に事実ではない情報を事実として語ってしまうことがあるという現象に注意が必要です。
答えが滑らかで理にかなっているように見えても、それが正確である保証はないのです。
情報を鵜呑みにせず、正確な知識を身につけることの重要性を、このエピソードは教えてくれます。
出典 : プロンプトに対するClaude回答が全くのデタラメ……「嘘」をつくときほど説得力を増す生成AIの厄介な能力 【生成AI事件簿】人間には回避困難な生成AIのハルシネーション、回答が腹落ちする内容であればあるほど危険 | JBpress (ジェイビープレス) https://jbpress.ismedia.jp/articles/-/82785