AppleのAI研究者たちが、「思考の錯覚:問題の複雑さと推論モデルの限界」という論文を発表しました。
彼らの研究では、大規模言語モデル(LLM)と大規模推論モデル(LRM)が数学問題を解く際に、本当の論理的推論よりも、訓練データのパターンに依存している可能性があることを指摘しています。
ハノイの塔やチェッカージャンプなどのパズルを例に、推論モデルの分析を行い、問題の複雑さが一定の限界を超えると、これらのAIモデルの精度が大幅に落ちることが明らかになりました。
研究者たちは、AIの現在の枠組みでは一般化可能な推論能力の開発が困難であると結論づけ、改善には長い道のりがあることを示唆しています。
出典 : 「LRM(大規模推論モデル)の推論能力に限界」──Appleが論文発表 https://www.itmedia.co.jp/aiplus/articles/2506/09/news077.html