今回ご紹介するのは、ローカル実行が可能なLLMツール「Ollama」用の新しいフロントエンド、「Alpaca」です。「Alpaca」はUbuntuで動作する便利なGUIフロントエンドで、使い勝手だけでなく、GPL-3.0の下、自由に使用可能な点も魅力的です。
Ubuntu 24.04 LTSでの動作が推奨されており、特にWaylandセッションでは安定して動作するとされています。NVIDIAやAMDのディスクリートGPUが要件で、特にAMDを使う場合はROCmを導入する必要があります。
インストールはFlatpakパッケージを利用し、容易に行えます。起動後は、GPUで適切に動作しているかを確認し、モデルのダウンロードから始めましょう。今回は具体的なモデルの選び方やインストール方法まで解説しますので、この機会に是非「Alpaca」の導入を考えてみてはいかがでしょうか。
出典 : 第841回 ローカルLLMの実行ツール「Ollama」のGUIフロントエンド、Alpacaを使用して生成AIを使用する https://gihyo.jp/admin/serial/01/ubuntu-recipe/0841