リコーが、AIモデルGPT-4oに匹敵する日本語処理能力を有する新型LLM(ラージランゲージモデル)を完成させました。この技術は、複数のAIモデルを組み合わせることでより高い性能を引き出す「モデルマージ」という手法によるものです。
具体的には、東京科学大学が開発した「Llama-3.3-Swallow-70B-v0.4」というモデルが基となり、さらに米MetaによるInstructモデルの「Chat Vector」を統合することで、性能が向上しました。リコーが独自に開発したこのモデルは、70億パラメータを有し、2つの日本語ベンチマークでGPT-4oと同等の結果を出しました。
企業の「プライベートLLM」として、安価でリソースに優しく、かつ顧客データに基づく追加学習が可能です。リコーはこれを企業導入の新たな選択肢として提案しています。
なお、初報の記事で「東工大」と記載されていた部分は間違いで、「東京科学大学」が正しいとの訂正が行われました。
出典 : リコー、“GPT-4o並み”の日本語性能持つLLMを開発 企業の「プライベートLLM」として導入へ https://www.itmedia.co.jp/aiplus/articles/2504/03/news153.html