最先端の大規模言語モデル(LLM)は、複雑な数学問題を解決したり、文脈に即した文章を生成するなど、顕著な能力を発揮しています。
しかし、Andrej Karpathyが「Jagged Intelligence」と名付けた概念が示すように、シンプルなタスクでつまずくなど、不規則なパフォーマンスを見せることもあります。
たとえば、数字の比較という基本的な問題で、LLMは間違った答えを出すことがあり、これはGoogle DeepMindの研究やOpenAIの研究エンジニアNoam Brownの実験などによっても裏付けられています。
これらの結果から、LLMが現実世界で適応し信頼性を高めるためには、単なる大量のデータに基づく訓練だけではなく、因果推論のような新しいアプローチが必要だという意見が出ています。
これは、既存のデータに過度に依存せず、未知の状況への適応能力を向上させることができるでしょう。
AIの新たな進化の鍵は、より少ないデータでより賢く機能することにあるかもしれません。
出典 : Andrej Karpathy Coins ‘Jagged Intelligence’ to Describe SOTA LLMs’ Flaws https://analyticsindiamag.com/ai-insights-analysis/andrej-karpathy-coins-jagged-intelligence-to-describe-sota-llms-flaws/