OperaからAI機能のフィーチャードロップ、ローカルでのLLM使用が可能に

2024.04.04

WorkWonders

Opera社は、ユーザーがローカルコンピュータ上で大規模言語モデル(LLM)をダウンロードして使用できる新機能を発表しました。
この機能は、開発者向けストリームを受け取る「Opera One」ユーザーを対象に最初に展開され、50以上のファミリーから150以上のモデルの中から選ぶことができます。
MetaのLlamaやGoogleのGemma、Vicunaを含むこれらのモデルは、OperaのAI Feature Drops Programの一環として、AI機能への早期アクセスをユーザーに提供します。

利用可能なモデルは現在、Ollamaのライブラリのサブセットですが、将来的には異なるソースからのモデルを含める予定です。
モデルの各バリアントは、ローカルシステム上で2GB以上のスペースを占めることから、ストレージ不足に陥らないよう注意が必要です。
Operaは今回、モデルのダウンロード時にストレージ節約の取り組みを行っていません。

これらの機能は、さまざまなモデルをローカルでテストする場合に便利ですが、スペースを節約したい場合は、QuoraのPoeやHuggingChatなどのオンラインツールも利用できます。
Opera社は昨年からAI機能を試験的に導入しており、今年、iOS向けに独自のAIエンジンを搭載したブラウザの開発を進めています。

出典 : https://techcrunch.com/2024/04/03/opera-will-now-allow-users-download-and-use-llms-locally/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。