ELYZAが、700億パラメーターを誇るLLM「Llama-3.1-ELYZA-JP-70B」を開発したことを発表しました。これは米Metaが開発した「Llama-3.1-70B」を基に、日本語処理を強化するための追加学習を施しています。
新モデルでは、長文処理能力の向上と、自然な対話応答を可能にする「指示追従能力」が高まっています。すでに「ELYZA LLM for JP|デモ版」でもこの新モデルを使用しており、今後さまざまなAPIサービスや企業向けの展開が予定されています。高性能な日本語LLMの発展に期待が高まります。
出典 : ELYZAがLlama 3.1ベースの新LLMを開発、日本語の長文処理などが可能に https://active.nikkeibp.co.jp/atcl/act/19/00012/102801363/?i_cid=nbpnxta_sied_newarticles