ローカルPCの限界を超える!104BクラスのLLMを動かす方法を紹介

2024.05.31

WorkWonders

 今までのローカルPCでは、VRAMの制限により34Bクラスまでの試用に留まっていましたが、最近の技術進歩により、メインメモリを駆使して104Bクラスも可能になりました。LM Studioでは、面倒な環境設定不要で、簡単に様々なLLMをチャット形式で試すことができます。
Windowsではセットアップ一発で、macOSやLinux(Beta)にも対応しています。動作対応状況が一眼で分かる便利な表示機能もあり、VRAMが24GB、メモリが32GB以上であれば、大規模な104Bモデルも動かすことが出来ます。
小さなモデルも多く用意されており、自身のPCのスペックに応じた模索が可能です。LM Studioはサーバーとしても機能し、WebUIを通じてChatGPTのような体験も提供します。
興味を持った方は、LM Studioで新しいLLMの世界を体験してみてはいかがでしょうか。

出典 : https://pc.watch.impress.co.jp/docs/column/nishikawa/1595151.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください