中国のAI先端企業「DeepSeek」が新しい大規模言語モデル「DeepSeek-V2」を発表しました。
最新技術「MoE」を採用し、計算量を抑えながら高速推論を可能にしているのが特徴です。236億個のパラメータを有しつつ、利用するのはそのうち9%だけ。
この技術により、巨大モデルの力を維持しながら、推論時のレスポンスを速くしています。
評価ベンチマークでは、最新「GPT-4」を凌ぐ性能を見せ、「GPT-4-Turbo」に迫る成績を収めています。
驚くべきはその料金設定で、AIの民主化を促進する発展が期待されます。
デモが体験できるサイトが公開されており、そのスピードとコストパフォーマンスに注目が集まっています。
出典 : https://ascii.jp/elem/000/004/197/4197480/