最近、GPT-03やDeepSeek-R1といった大規模言語モデルによる誤った情報の生成が増加しています。この現象は「幻覚」と呼ばれ、モデルが現実には存在しない内容を正しいと出力することが原因です。
幻覚は主にメモリの圧縮、学習の欠陥、不確かな推論の連鎖が原因で起こります。これまでは、モデルとトレーニングセットが大きくなると減少する傾向がありましたが、最新のモデルでは逆に増えています。
特に、改良された強化学習によるものと考えられており、生成される出力量に関わらず、旧来のモデルよりも多くの幻覚を引き起こしています。幻覚を減らすためには、ツールやエージェントの改良、トレーニング方法の進化が必要です。
これにより、技術の信頼性を高め、幻覚の原因を解消することが、AIの未来にとって鍵となります。
出典 : AI Hallucinations Are Getting Worse. What Can We Do About It? https://builtin.com/articles/ai-hallucinations-worsening-solutions