次世代AI性能向上のカギは「推論時の計算資源」

2024.08.28

WorkWonders

ディープマインドとカリフォルニア大学バークレー校の研究チームが、巨大言語モデル(LLM)の性能向上について新たな手法を提案しています。この研究では、モデルの再学習なしに、推論時の計算資源を最適化することで大幅な性能向上が期待できるとされています。

通常、LLMの性能向上はモデルの拡大と予備学習に多くの計算資源が必要ですが、大きなモデルは訓練にコストが掛かり、実用化が難しい面があります。一方、推論時にさらなる計算を投じることで、小さなモデルでも同等の性能を維持できるかもしれません。

特に、複数の出力から最適な解答を選択する「best-of-N サンプリング」や、モデルが自身のレスポンスを段階的に修正していく戦略など、多様な推論時の計算利用方法が考えられています。

研究チームは、提案された手法を数学問題のベンチマークテストに適用し、小さなモデルでも繰り返し計算を行うことで、大規模なモデルと同等かそれ以上の成果を上げることができることを示しています。

複雑な問題に対処するためには、多くの予備学習を必要とせず、推論時に計算力を集中することが効率的なアプローチとなり得るでしょう。研究チームは、将来的には、推論時の計算の最適化をより高度にすることで、予備学習にかかる計算量を削減し、より効率的なモデルの運用が実現するとしています。

出典 : DeepMind and UC Berkeley shows how to make the most of LLM inference-time compute https://venturebeat.com/ai/deepmind-and-uc-berkeley-shows-how-to-make-the-most-of-llm-inference-time-compute/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

【お知らせ】
弊社ワークワンダース社主催ウェビナーのご案内です。


<2025年1月21日実施セミナー>

生産性を爆上げする、「生成AI導入」と「AI人材育成」のコツ


【内容】
1. 生産性を爆上げするAI活用術(安達裕哉:ワークワンダース株式会社 代表取締役CEO)
2. 成功事例の紹介:他業種からAI人材への転身(梅田悟司:ワークワンダース株式会社CPO)
3. 生成AI導入推進・人材育成プログラム「Q&Ai」の全貌(元田宇亮:生成AI研修プログラム「Q&Ai」事業責任者)
4. 質疑応答



日時:
2025/1/21(火) 16:00-17:30

参加費:無料  
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。



お申込み・詳細 こちらウェビナーお申込みページをご覧ください

(2024/12/11更新)