最近の人工知能の分野では、大規模な言語モデル(LLM)だけでなく、小規模な学習モデル(SLM)も重要な役割を果たしています。スタンフォード大学のアーカッシュ・パティル博士によると、これらのSLMはコンパクトで効率的、しかも低コストで高速に処理が可能であるため、特にリソースに制限のある環境に適していると言います。
SLMには20億パラメータ未満のものが含まれますが、その小さいサイズは狭い領域での正確性や効率性を向上させています。例えば、マイクロソフトリサーチのPhi-2はわずか27億パラメータでありながら、コーディング関連のタスクで卓越したパフォーマンスを発揮しています。
カトニックAIのCEOプレム・ナラインダスは、開発者としての立場からSLMがAI開発を民主化し、開発サイクルを短縮していると強調しています。農業から医療氏、金融業界に至るまで、企業は特定分野での能力を持ったAIモデルを求めており、そのニーズに応えるSLMの台頭はAIの将来を形作っているとナラインダスは信じています。
この流れは、AIのアーキテクチャ、トレーニング手法、展開戦略に対する再考を促しており、今後のAI業界の変革をもたらすだろうとパティル博士は結論づけています。
出典 : SLM vs LLM: Why smaller Gen AI models are better https://www.digit.in/features/general/slm-vs-llm-why-smaller-gen-ai-models-maybe-better.html