今までのローカルPCでは、VRAMの制限により34Bクラスまでの試用に留まっていましたが、最近の技術進歩により、メインメモリを駆使して104Bクラスも可能になりました。LM Studioでは、面倒な環境設定不要で、簡単に様々なLLMをチャット形式で試すことができます。
Windowsではセットアップ一発で、macOSやLinux(Beta)にも対応しています。動作対応状況が一眼で分かる便利な表示機能もあり、VRAMが24GB、メモリが32GB以上であれば、大規模な104Bモデルも動かすことが出来ます。
小さなモデルも多く用意されており、自身のPCのスペックに応じた模索が可能です。LM Studioはサーバーとしても機能し、WebUIを通じてChatGPTのような体験も提供します。
興味を持った方は、LM Studioで新しいLLMの世界を体験してみてはいかがでしょうか。
出典 : https://pc.watch.impress.co.jp/docs/column/nishikawa/1595151.html