Opera社は、ユーザーがローカルコンピュータ上で大規模言語モデル(LLM)をダウンロードして使用できる新機能を発表しました。
この機能は、開発者向けストリームを受け取る「Opera One」ユーザーを対象に最初に展開され、50以上のファミリーから150以上のモデルの中から選ぶことができます。
MetaのLlamaやGoogleのGemma、Vicunaを含むこれらのモデルは、OperaのAI Feature Drops Programの一環として、AI機能への早期アクセスをユーザーに提供します。
利用可能なモデルは現在、Ollamaのライブラリのサブセットですが、将来的には異なるソースからのモデルを含める予定です。
モデルの各バリアントは、ローカルシステム上で2GB以上のスペースを占めることから、ストレージ不足に陥らないよう注意が必要です。
Operaは今回、モデルのダウンロード時にストレージ節約の取り組みを行っていません。
これらの機能は、さまざまなモデルをローカルでテストする場合に便利ですが、スペースを節約したい場合は、QuoraのPoeやHuggingChatなどのオンラインツールも利用できます。
Opera社は昨年からAI機能を試験的に導入しており、今年、iOS向けに独自のAIエンジンを搭載したブラウザの開発を進めています。
出典 : https://techcrunch.com/2024/04/03/opera-will-now-allow-users-download-and-use-llms-locally/