スタンフォード、UCLA、コーネル大学の教授たちによって設立されたシリコンバレーのスタートアップ、Inception Labsが、従来のモデルよりも高速で低コスト、かつ高品質だとされる新型の大規模言語モデルを開発しました。Inception Labsは、通常画像やオーディオ、ビデオに使われる拡散技術をテキストに応用。この結果、生成速度が5~10倍速く、コストも5~10倍安くなると主張しています。
このモデルは、一度に複数の単語を同時に処理できるため、シーケンシャルに一語ずつ生成する従来のモデルに比べて、トレーニングが迅速かつ効率的です。既にMercuryと呼ばれる拡散LLMの家族が導入され、開発者向けのAIチャットボットやAPIが近くリリースされる予定です。
また、新たなモデルは画像生成時と同様に、テキストやコードにおいてもより精密な制御が可能となっています。フォーチュン500企業の中には、顧客サポートのチャットボットとしてMercuryをテストしている企業もあると言われていますが、具体的な企業名は明かされていません。
Inception Labsは、「将来的にはすべてのLLMが拡散パラダイムに基づくようになる」というビジョンを描いており、これによりAIソリューションはより良質で、より低コストかつ迅速になるとしています。
出典 : Silicon Valley Startup Inception Labs Creates Faster LLM https://www.pymnts.com/artificial-intelligence-2/2025/silicon-valley-startup-inception-labs-creates-faster-llm/