2024年に大規模言語モデル(LLM)を巡る競争が鎮火しつつありますが、わずかな勝者が明らかになりました。中国のオープンソースモデルとして注目されるDeepSeek V3をはじめ、MetaのLlama 3.1やGoogleのGemma 2がダウンロード数でトップを走っています。
ただし、全てのLLMが成功を収めるわけではありません。DatabricksのDBRXは多くのパラメータを有するにも関わらず、ダウンロード数が伸び悩んでいます。
Falcon 2やSnowflake Arcticも優れたパフォーマンスを見せたものの、最新モデルに追い抜かれ残念な結果に終わった模様です。
同様に、Stability AIのStable LM 2やNVIDIAのNemotron-4、AI21 LabsのJamba、そしてAMDのOLMoなどが挑戦しましたが、いずれもコミュニティでの利用は限定的でした。
これらは、AIの開発において、成功するモデルとそうでないモデルを分ける要因を探る良い事例となっています。
出典 : LLMs that Failed Miserably in 2024 https://analyticsindiamag.com/ai-trends/llms-that-failed-miserably-in-2024/