OperaはローカルAI LLMをサポートする最初のブラウザです

OperaはローカルAI LLMをサポートする最初のブラウザです
OperaはローカルAI LLMをサポートする最初のブラウザです

膨大な量のテキストでトレーニングされた大規模言語モデル(LLM)は、Google の ChatGPT や Gemini などの生成 AI チャットボットを動かす超スマートなエンジンです。そして、Opera は LLM のローカル統合を可能にした最初の Web ブラウザになりました。

LLMをローカルにインストールする方法については、すでに読んだことがあるかもしれません。つまり、AIモデルはコンピュータに保存されるため、クラウドに送信する必要はありません。動作させるにはかなり高性能なハードウェアが必要ですが、プライバシーの観点からは優れています。誰もあなたのプロンプトを盗聴したり、会話をAIトレーニングに利用したりすることはありません。

Operaはすでに様々なAI機能を導入してきましたが、今ではそれがローカルLLMにも拡張され、150以上のモデルから選択できるようになりました。

Opera でローカル LLM を使い始める前に、いくつか考慮すべき点があります。まず、これはまだ実験段階なので、バグがいくつかある可能性があります。次に、ある程度の空きストレージ容量が必要になります。LLM の中には 2GB 未満のものもありますが、リストにあるものの中には 40GB を超えるものもあります。

LLMのサイズが大きいほど、より良い結果が得られますが、ダウンロードと実行に時間がかかります。モデルのパフォーマンスは、使用しているハードウェア構成にある程度依存するため、古いマシンをお使いの場合は、結果が返されるまで数秒かかる場合があります(繰り返しますが、これはまだベータテストです)。

Operaブラウザ

OperaはすでにAriaチャットボットを搭載しており、今ではローカルLLMも利用可能になりました。 クレジット:Lifehacker

これらのローカルLLMは、大手企業(Google、Meta、Intel、Microsoft)がリリースしたモデルと、研究者や開発者が作成したモデルを組み合わせたものです。インストールと使用は無料です。LLMは自分のコンピューターで動作するため、開発チームに運用コストがかからないのもその理由の一つです。

これらのモデルの中には、コーディングなどの特定のタスクに特化したものがあり、ChatGPT、Copilot、Gemini のような一般的な知識に基づいた回答が得られない場合があります。それぞれのモデルには説明が付属していますので、インストールする前に必ず読んで、どのような機能が得られるか理解しておきましょう。

これまでのところどう思いますか?

自分でテストしてみる

この機能は、執筆時点ではOperaの初期テスト版でのみ利用可能で、今後の展開に先立って提供されています。試してみたい場合は、Opera Oneの開発者版をダウンロードしてセットアップする必要があります。セットアップが完了したら、Ariaボタン(小さな「A」の記号)をクリックして左側のサイドパネルを開き、指示に従って組み込みのAIボットを設定してください(無料のOperaアカウントを作成またはサインインする必要があります)。

Aria の準備が整うと、上部に「ローカル AI モデルを選択」ボックスが表示されます。これをクリックし、 「設定に移動」を選択すると、利用可能な LLM のリストとそれぞれの情報が表示されます。LLM を選択すると、バージョン(ファイルサイズを含む)のリストと、ローカルにインストールするためのダウンロードボタンが表示されます。

Operaブラウザ

すでに150以上のLLMから選択可能です。 クレジット:Lifehacker

Opera では、必要に応じて複数の LLM を設定できます。Aria ウィンドウ上部のドロップダウンメニューから、各チャットで使用する LLM を選択してください。ローカル LLM を選択しない場合は、デフォルトの(クラウドベースの)Aria チャットボットが代わりに使用されます。チャットウィンドウの右上にある大きな+ (プラス) ボタンをクリックすれば、いつでも新しいチャットを開始できます。

これらのローカルLLMは、クラウドで実行されるものと同じように活用できます。あらゆるトピックやスタイルでテキストを作成させたり、人生、宇宙、その他あらゆるものについて質問したり、好きなことに関するヒントを得たりできます。これらのモデルはクラウドにアクセスできないため、比較的新しい情報や話題の情報をWebで調べることはできません。