Appleの研究者達が人工知能(AI)の推論能力に関する新たな論文を発表しました。
この研究では、AIがどの程度人間の推論を再現できるかを検証した結果、多くのAIは高度な推論タスクで想定ほどの成果を上げられないことがわかりました。例えば、ハノイの塔という有名なパズルで、AIの正答率は複雑さが増すにつれて大幅に低下することが確認されています。
研究では、まるで人間のように複雑な問題の解法を導き出すとされる「推論」を持つAIが、実際はトレーニング中に見たパターンを基に動いているに過ぎないことを指摘しています。これにより、宣伝される「推論」が本当に推論と呼べるのか、という疑問が提起されています。
研究者らは、AIの汎用的な推論能力に疑問を呈し、今のところ、AIは従来のアルゴリズムよりも複雑な問題に対して劣ると結論付けています。AIの進化は止まらず、将来的には様々な分野で活躍が期待されますが、現段階ではその能力には限界があるとの見解を示しています。
出典 : AppleがOpenAI「o3」のようなトップレベルのAIモデルや大規模推論モデルの限界を詳しく説明 https://gigazine.net/news/20250609-ai-thinking-model-limit/