最近の大規模言語モデル(LLMs)では、コストの低減が目覚ましい傾向を見せています。この現象を「LLMflation」と呼び、技術が進歩するにつれて、コストが急速に下がっていることを指します。
たとえば、PC革命の際にはチップの性能向上とコスト低下がMooreの法則やDennardスケーリングで説明されましたが、LLMsの場合、1年ごとに10倍のコスト減という速度で下落しています。
特に、GPT-3が初めて一般に公開されてから、モデルのコスト効率は驚異的に改善され、優れたモデルでも価格が大幅に下がっています。利用可能な最も安いLLMモデルは、数年のうちに1000分の1まで価格が下がりました。
このような低価格化は、新しい用途を生み出し、AIがさらなる進歩をもたらすことを暗示しています。生活やビジネスの場においても、費用が大幅に削減された高性能な言語処理ツールを用いることが可能になるでしょう。
これからの時代は、AIを使ったアプリケーション開発において、先駆者となるチャンスが広がっています。
出典 : Welcome to LLMflation – LLM inference cost is going down fast ⬇️ https://a16z.com/llmflation-llm-inference-cost/