リコーが米Metaと連携し、高精度な日本語対応大規模言語モデル「Llama-3-Swallow-70B」の開発に成功しました。
最新モデルは、優れた「Meta-Llama-3-70B」を基に、Instructモデルから取り出したChat Vectorにリコー独自の技術を融合させ、追加学習のコストや時間の課題を解決しました。
日本語での対話性能を要求される企業向けに、より効率的なモデル開発の進展となります。
さらに、高い安定性の証として、GPT-4と同等のスコアを「ELYZA-tasks-100」ベンチマークで達成。
リコーの技術力が生み出したLLMは、全てのタスクで日本語に特化した回答を実現しています。
出典 : リコー、モデルマージの手法で700憶パラメータの日本語LLMを開発 https://news.mynavi.jp/techplus/article/20240930-3035270/