AIの限界か実験デザインの問題か?議論を呼ぶ新たな研究結果

2025.06.15

WorkWonders

最新のAI研究「The Illusion of Thinking」の衝撃的な結論、最先端の大規模推論モデル(LRMs)ですら複雑な課題に直面すると崩壊する、という見解に対し、議論が巻き起こっています。
Open Philanthropyの研究者Alex Lawsenはこの結論に反論する詳細な論文を発表しました。彼は、Appleの実験デザインに欠陥があるため、推論能力の本質的限界ではないと主張します。
Lawsenの指摘する主要な問題点は、テストの代替方法の提案です。彼は、15枚のディスクを持つハノイの塔のテストで、モデルにLua言語で再帰関数を書かせることで、複雑な課題に対しても問題なく解を生成できることを示しました。
この議論が大きな問題である理由は、AIのスケーラブルな推論能力が根本的に欠けているとされるAppleの研究が広く引用されているためです。しかしLawsenの反論は、LRMが真に汎用的なアルゴリズムを一般化することが課題であることを認めつつ、結論に至る前に評価基準を再確認する価値があることを示唆しています。

出典 : New paper pushes back on Apple’s LLM ‘reasoning collapse’ study https://9to5mac.com/2025/06/13/new-paper-pushes-back-on-apples-llm-reasoning-collapse-study/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓