eWEEKは、エディトリアルに独立したコンテンツと製品の推薦をしています。
パートナーのリンクをクリックすることで収益を得ることがあります。アリババは、開放型の問題解決や複雑な推論タスクに対応する、先進的な大規模言語モデル「Marco-o1」を発表しました。
このモデルは、OpenAIのo1モデルに対抗し、複数の分野にわたる推論、翻訳、問題解決の能力を向上させています。
「Marco-o1」の大きな特徴は、伝統的なAIモデルが得意とする構造化されたタスク、例えばコーディングや数学とは異なり、明確な答えや評価基準がしばしば存在しない開放型の問題に焦点を当てている点です。
「現在、OpenAI o1は大規模推論モデル(LRM)の研究に多大な関心を集めている」と報告書の一部にはありますが、「Marco-o1」はこの流れを受けて、数学や物理などの標準的な答えが存在する分野だけでなく、より開放的な問題解決に重点を置いています。
「Marco-o1」は、Qwen2-7B-Instructアーキテクチャに基づき、オープンソースのCoTデータと独自の合成データセットをブレンドしてトレーニングされています。
この技術により、抽象的な推論から多言語翻訳まで幅広いタスクに対応します。
さらに、その性能は理論および翻訳のベンチマークで顕著な進歩を示しており、機械翻訳において文化的ニュアンスを含むスラングを解釈する能力などが示されています。
アリババは、この「Marco-o1」モデルをGitHubやHugging Faceなどのプラットフォームで自由に利用可能にし、研究者や開発者がその能力を探求し、向上させることを奨励しています。
これはオープンイノベーションへの賛辞でもあり、中国のDeepSeekラボで発表された「DeepSeek-R1-Lite-Previewモデル」などの類似のイノベーションに続くもので、OpenAIのo1モデルへの挑戦とも言えるでしょう。
出典 : Revolutionary LLM Marco-o1 By Alibaba Achieves 6% Accuracy Boost In Mathematical Problem-Solving Tests https://www.eweek.com/news/alibaba-marco-o1-boosts-math-accuracy/