LLM(Large Language Models)という言語モデルや、その代表例であるChatGPTに関するコミュニケーションの中で、「幻覚」という言葉がしばしば使われます。
これはモデルが出力する誤った情報を指すもので、まるでLLMが真実を意識し、時には不合理な状態にあるかのように扱われています。
しかしこれは全くの誤解で、LLMに認識や意図は存在せず、単なる巨大な言葉予測アルゴリズムとして機能しているに過ぎません。
Michael Townsen Hicks氏らの議論では、LLMが事実とは無関係に即席で言葉を生成する「bullshitting」を行っているとしています。
これはすぐに状況に役立つことだけを意図するもので、作り手の意図が絡む場合には、さらに意図的なbullshittingが行われていると言えるでしょう。
そして、そのような性質が結果的にLLMの部分的な退潮を招き、言葉予測アルゴリズムが検索機能を追加したRAG(Retrieval Augmented Generation)へと移行している現状があります。
出典 : https://hackaday.com/2024/07/01/chatgpt-and-other-llms-produce-bull-excrement-not-hallucinations/