2024年5月13日、ドイツ・ハンブルク発 – SambaNova Systemsは、「富岳」、日本最速のスーパーコンピュータで訓練された日本語の大規模言語モデル「Fugaku-LLM」を5月10日にHugging Faceに公開し、その技術をSambaNovaの最先端技術であるSamba-1 Composition of Experts(CoE)に組み込んだことを発表しました。
RIKENの松岡聡所長はこの度の「富岳」による成果が多くの人々に利用されることを喜び、SambaNovaのCoEの柔軟性と拡張性に期待を表明しました。
SambaNovaの共同創設者であるRodrigo Liangは、「Samba-1はオープンソース戦略を採用し、常に世界最高かつ最速のAIモデルへのアクセスを保証している」とコメントし、「富岳」で訓練された「Fugaku-LLM」を組み込むことで、その戦略に適合すると述べました。
SambaNovaの独自のCoEアーキテクチャは、複数の専門モデルを統合し、アプリケーションごとに最適な専門家を選択することで性能と精度を向上させます。「Fugaku-LLM」はCoEアーキテクチャに実装され、SambaNovaのSN40Lチップ上で最適に動作します。
この新技術のデモンストレーションは、ISC24のSambaNovaブースにて行われます。
出典 : https://www.hpcwire.com/off-the-wire/sambanova-integrates-japans-fugaku-llm-into-its-advanced-samba-1-coe-tech/