LLMの「幻覚」とは? モデルの真実と誤解

2024.07.02

WorkWonders

LLM(Large Language Models)という言語モデルや、その代表例であるChatGPTに関するコミュニケーションの中で、「幻覚」という言葉がしばしば使われます。

これはモデルが出力する誤った情報を指すもので、まるでLLMが真実を意識し、時には不合理な状態にあるかのように扱われています。

しかしこれは全くの誤解で、LLMに認識や意図は存在せず、単なる巨大な言葉予測アルゴリズムとして機能しているに過ぎません。

Michael Townsen Hicks氏らの議論では、LLMが事実とは無関係に即席で言葉を生成する「bullshitting」を行っているとしています。

これはすぐに状況に役立つことだけを意図するもので、作り手の意図が絡む場合には、さらに意図的なbullshittingが行われていると言えるでしょう。

そして、そのような性質が結果的にLLMの部分的な退潮を招き、言葉予測アルゴリズムが検索機能を追加したRAG(Retrieval Augmented Generation)へと移行している現状があります。

出典 : https://hackaday.com/2024/07/01/chatgpt-and-other-llms-produce-bull-excrement-not-hallucinations/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。