SB Intuitionsが、新しい大規模言語モデル「Sarashina2-8x70B」を発表しました。これは前モデルに比べてさらに強化されたバージョンで、なんと4000億クラスのパラメータを持ちます。
専門家モデルの集合体であるMoE技術を用いてパワーアップしたこのAIは、推論精度も格段に向上しています。日本語においても最高性能を実現した実績を持っており、その学習成功例は他に類を見ません。
ただし、現段階では人間の意図に完全に沿った形でのチューニングは行われておらず、実用化にはまだ一歩及ばない状態です。商用利用には向かないライセンス形態で公開されています。
人工知能の進化に目が離せない、興味深い展開を見せるSB Intuitionsの挑戦に、是非ご注目ください。
出典 : SB Intuitions、4000億クラスのパラメータを持つ日本語LLMを公開 https://news.mynavi.jp/techplus/article/20241112-3062941/