Metaが新しい言語モデル「Llama 3.2」を公開しました。
このモデルには、大規模なビジョンモデルである11Bと90Bのほか、スマートフォンやエッジデバイス向けの1Bと3Bの小規模なテキストモデルが含まれています。
事前学習されたバージョンと、より指示に応じた動作をする版が用意されています。
大型のビジョンモデルは、文書や画像の解釈、画像認識を可能にし、小規模ビジネスでの売上推論やハイキングルートの分析など多様な活用が期待されます。
一方、小型モデルは、長文テキストの生成や多言語対応を特徴とし、デバイス上で高速に動作することから、ユーザーのプライバシーを守りながら便利なアプリケーションの開発を可能にします。
性能評価では、Llama 3.2は他の主要モデルと競争力があることが明らかにされており、画像認識や指示に従ったタスク処理において高い評価を受けています。
メタのこの一連の進歩によって、AIの未来がますます明るいことが予期されます。
出典 : Meta、画像推論に対応したLLM「Llama 3.2」 https://www.watch.impress.co.jp/docs/news/1626458.html