2024年のAI言語モデル・レース:勝者と敗者の全貌

2025.01.04

WorkWonders

2024年に大規模言語モデル(LLM)を巡る競争が鎮火しつつありますが、わずかな勝者が明らかになりました。中国のオープンソースモデルとして注目されるDeepSeek V3をはじめ、MetaのLlama 3.1やGoogleのGemma 2がダウンロード数でトップを走っています。
ただし、全てのLLMが成功を収めるわけではありません。DatabricksのDBRXは多くのパラメータを有するにも関わらず、ダウンロード数が伸び悩んでいます。
Falcon 2やSnowflake Arcticも優れたパフォーマンスを見せたものの、最新モデルに追い抜かれ残念な結果に終わった模様です。
同様に、Stability AIのStable LM 2やNVIDIAのNemotron-4、AI21 LabsのJamba、そしてAMDのOLMoなどが挑戦しましたが、いずれもコミュニティでの利用は限定的でした。
これらは、AIの開発において、成功するモデルとそうでないモデルを分ける要因を探る良い事例となっています。

出典 : LLMs that Failed Miserably in 2024 https://analyticsindiamag.com/ai-trends/llms-that-failed-miserably-in-2024/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓