先週、アップルの研究者たちが「The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity」という挑発的なタイトルの論文を発表しました。
AI界に衝撃を与え、大議論を引き起こしています。伝統的なLLM(Large Language Model)は、巨大なテキストデータを学習して人間のような出力を行いますが、最新のLRM(Large Reasoning Model)は、より複雑な問題解決を可能にしています。
研究者たちは、数学的なパズルを使ってLLMとLRMの性能を比較し、それらが複雑性が増すと「完全に崩壊」するという結果を見出しました。また、簡単な問題ではLLMがLRMを上回ることも明らかにしました。しかし、AIに肯定的な見方を持つ人々は異なる解釈をし、AIの限界に挑む研究も続いています。
この論争は、人工知能の進歩に関する楽観主義が、株式市場や資本投資に大きな影響を与えているため、非常に大きな意味を持っています。AIやAGI(Artificial General Intelligence)の困難さと限界を伝えつつも、今後の展望を探るための研究と議論は続けられています。
出典 : Did Apple’s Recent “Illusion of Thinking” Study Expose Fatal Shortcomings in Using LLM’s for Artificial General Intelligence? https://economistwritingeveryday.com/2025/06/16/did-apples-recent-illusion-of-thinking-study-expose-fatal-shortcomings-in-using-llms-for-artificial-general-intelligence/