ELYZAは新たな大規模言語モデル「Llama-3.1-ELYZA-JP-70B」を開発しました。このモデルは、従来モデルを大幅に進化させ、特に日本語処理能力を高めています。
「ELYZA LLM for JP」シリーズの最新作であり、Metaの「Llama 3.1」というモデルをベースに、700億のパラメータを詰め込んだこのモデルは、日本語の事前学習によって、先代のモデルよりも一層精度を上げています。
長い文章もスムーズに扱えるようになった他、日本語の指示をより正確に理解し、追従する能力が向上しています。企業が安全にAIを活用できるよう、APIサービスや共同開発プロジェクトを通じて順次提供予定です。
出典 : ELYZA、700億パラメータの「Llama-3.1-ELYZA-JP-70B」を開発しデモも公開 https://news.mynavi.jp/techplus/article/20241025-3052334/