日本の最先端技術を結集して開発された新しい言語モデル「Fugaku-LLM」が発表されました。
このモデルは、東京工業大学や東北大学、富士通などの共同研究により、国内で開発された130億パラメータの高性能な大規模言語モデルです。
通常GPUを使用する言語モデルの学習において、富岳の国産CPUを活用し、効率的に学習を行うことができました。
その結果、Fugaku-LLMは、日本語コンテンツを中心とした学習データを用いており、透明性と安全性、そして日本語における高い性能が期待されます。
さらに、GitHubやHugging Faceを通じて研究結果を公開し、富士通では自社の技術を試せる「Fujitsu Research Portal」で無償での利用を開始しました。
この取り組みにより、科学研究やビジネスにおける革新が期待されています。
出典 : https://news.mynavi.jp/techplus/article/20240510-2943135/