東京に本拠を構えるストックマーク社は、1000億パラメータの大規模言語モデル「Stockmark-LLM-100b」を独自開発したと発表しました。
この言語モデルはフルスクラッチでの開発により、AI特有の誤情報(ハルシネーション)を抑制しています。事前学習されたビジネス特化の日本語データを使い、日常の会話やビジネスシーン、最新のニュースにも対応できる能力を備えています。
「分からない」ことをはっきり言うことで、厳しいビジネス現場でも信頼性を保証。ベンチマークテストでは他の有名モデルを上回る性能を記録し、計算速度も高速です。
さらに、Hugging Faceでモデルを公開しており、誰もがアクセスできるようになっています。
出典 : https://www.itmedia.co.jp/aiplus/articles/2405/16/news172.html