Ridge-iが開発中の目的特化型大規模言語モデル(LLM)が、日本の常識問題集「JCommonsenseQA」で優れた成績を収めたことが発表されました。
このモデルは、ニュースや時事情報の理解に特化しており、精度60ポイント上を安定して達成。
さくらインターネットのGPU環境を利用し、専門の研究チームとカーネギーメロン大学のGraham Neubig氏の支援を受けながら開発が進められています。
使用されるデータは、Wikipediaやニュースサイトなどから集められ、独自の前処理で最適化されています。
軽量モデルでも国内の主要モデルを上回る成績を達成し、Metaの「Llama2-13B」に次ぐ高い精度を示しています。
この成果は、日本語のAI技術が国際的な水準に到達している証として注目されています。
出典 : https://news.mynavi.jp/techplus/article/20240327-2915401/