中国のAIスタートアップ「DeepSeek」がLLM(大規模言語モデル)の最新ファミリーを発表しました。このモデルは、OpenAIの「GPTシリーズ」に対抗しうる性能を持つと主張しています。驚くべきことに、DeepSeekはアメリカの技術封鎖を乗り越えて、コストのかかるモデル作成に比べて格段に安価に開発に成功しています。
最新の「DeepSeek R1」は、6710億件のパラメータを持ち、チェーンオブソート(CoT)推論を使い、高度な問題解決能力を証明しています。数学問題や計画立案、空間推理など、従来のモデルが苦手としていた課題にも挑戦。しかし、いくつかの問題では不完全な答えを示すこともあるため、まだ完璧ではないようです。
関心があるなら、エンドユーザでも手を出しやすいMITライセンスの下で利用可能なモデルがHugging Faceで公開されており、すぐに試せる機会が提供されています。ただし、DeepSeekのモデルには中国政府による検閲がかけられており、敏感なトピックについては回答を避ける傾向があることに注意が必要です。
出典 : A deep dive into DeepSeek’s newest chain of though model https://www.theregister.com/2025/01/26/deepseek_r1_ai_cot/