Metaが革新的な言語モデルの「Llama 4」シリーズを披露しました。
このシリーズには軽量で長文にも対応する「Llama 4 Scout」と高効率で高性能な「Llama 4 Maverick」が含まれています。
双方ともに、一つのコンピュータチップ上で動くという特長があり、複雑な計算もスムーズにこなせます。
特に注目すべきはその設計思想。両モデルとも「Mixture of Experts(MoE)」という先進的な構造を用いており、
異なるサブネットワークから最適なものを選び出し、高い計算効率とパフォーマンスを実現しています。
これにより超巨大なモデルも現実的なコストで運用可能となります。
さらに、超大型の教師モデル「Llama 4 Behemoth」も開発中で、既存のAIモデルを上回る性能が期待されています。
すでにいくつかのMeta AIアシスタントにも利用されており、私たちの生活に大きな影響をもたらすことでしょう。
出典 : Meta、Llama 4シリーズを発表 マルチモーダル対応・10Mトークン対応の新世代LLMを公開 https://codezine.jp/article/detail/21322