東京工業大学、東北大学、理化学研究所などの共同チームは、国内外の研究機関と企業の連携により、国産スーパーコンピュータ「富岳」を活用し、130億パラメータを持つ大規模日本語言語モデル「Fugaku-LLM」を開発しました。
このモデルは、国内で収集された独自の学習データを用いており、「富岳」の性能最適化技術による高速化が実現されています。その結果、「Fugaku-LLM」は、日本語モデルで最高性能を記録し、特に人文社会系のタスクで顕著な成果を出しています。
さらに今後、研究者やエンジニアは、GitHubやHugging Faceを通じて公開されるデータを活用して、AI基盤モデルの改善や新たな応用研究に取り組むことができます。これらの進展はAIの発展のみならず、科学シミュレーションや産業界にも多大な影響を与えることが期待されています。
出典 : https://www.titech.ac.jp/news/2024/069217