生成AIをローカルのコンピュータ上で実行できる

生成AIをローカルのコンピュータ上で実行できる
生成AIをローカルのコンピュータ上で実行できる

ChatGPTやGoogle Bardといった生成AIエンジンを既に試したことがあるかもしれません。これらのツールはクラウドで利用するのが一般的ですが、自分のコンピューターにローカルインストールすることも可能です。そうすることで、プライバシーが確保され、AIの容量オーバーや利用不可に関する警告が表示されることもありません。それに、とにかくクールなんです。

始めるには、AIを実行するプログラムと、応答を生成する大規模言語モデル(LLM)が必要です。これらのLLMはAIテキストジェネレーターの基盤となります。ChatGPTを支える最新のLLMはGPT-4で、GoogleはGoogle Bardの基盤として新たに改良されたLLMとしてGeminiをリリースしました。

LLMという言葉を聞いたことがなければ、私たちの究極のAI用語集を読んでいないのは明らかです。LLMを完全に理解するには、ある程度の科学的および数学的知識が必要ですが、簡単に言えば、LLMは膨大なサンプルデータで訓練され、単語と文の関係(つまり、どの単語が一般的に続くか)を認識するように学習します。

LLMモデル

ローカルにインストールできるAIモデルがいくつかあります。 クレジット:Lifehacker

できるだけ簡単に言えば、LLMは強力なオートコレクトエンジンです。実際には何も「知っている」わけではありませんが、自然で意味が通るように単語をどのように組み合わせるべきかを認識します。十分に高度なレベルに達すると、まるで生身の人間と話しているかのように聞こえてきます。実際にはもっと多くの機能がありますが、要点はご理解いただけたと思います。

独自のLLMを運営する場合、大企業や研究機関でなくても利用できます。Metaが公開しているLLaMaをはじめ、公開されているLLMはいくつかあります。他にも研究者やボランティアによって開発されたLLMがあります。公開LLMは、イノベーションを促進し、透明性を向上させるという考え方に基づいています。

このガイドでは、LM Studioを使用してLLMをローカルにインストールする方法を説明します。LM Studioは、この作業に最適な選択肢の一つです(他にも選択肢は数多くありますが)。無料で使用でき、Windows、macOS、Linuxシステムでセットアップできます。

ローカルLLMのインストール方法

最初のステップは、公式ウェブサイトからLM Studioをダウンロードすることです。最小システム要件に注意してください。LLMの動作は非常に高い負荷がかかるため、実行するにはかなり高性能なコンピューターが必要です。AVX2をサポートするWindowsまたはLinux PC(通常は新しいマシン)、またはmacOS 13.6以降を搭載したApple Silicon Macで動作します。RAMは16GB以上が推奨されます。PCの場合は、VRAMも6GB以上が推奨されます。

ソフトウェアを起動したら、ダウンロードして使用するLLMを見つける必要があります。LLMがないと、ほとんど何もできません。LM Studioの魅力の一つは、アプリケーションのフロント画面に「新着・注目」のLLMがおすすめ表示されることです。どのLLMが必要か分からない場合は、ここから選ぶことができます。

LLMは、サイズ、複雑さ、データソース、目的、速度など、多岐にわたります。どれを使うべきかという正解や不正解はありませんが、RedditやHugging Faceなどのサイトでは、調査に役立つ情報が豊富に掲載されています。ご想像のとおり、LLMは数ギガバイトにもなるため、ダウンロードを待つ間に背景情報を読むのも良いでしょう。

LMスタジオ

LM Studioは、LLMを見つけるのに役立ちます。 クレジット:Lifehacker

気に入ったLLMがフロント画面に表示されたら、「ダウンロード」をクリックしてください。見つからない場合は、検索を実行するか、上部のボックスにURLを貼り付けてください。各LLMのサイズが表示されるので、ダウンロード時間を概算できます。また、最終更新日も確認できます。結果をフィルタリングして、最もダウンロードされているモデルを表示することも可能です。

これまでのところどう思いますか?

LLM は(空き容量がある限り)いくつでもインストールできますが、システムに少なくとも 1 つインストールされていれば、[My Models] パネルに表示されます。(左側のフォルダーアイコンをクリックすると表示されます。)ここから、インストールした各モデルに関する情報を確認したり、更新を確認したり、モデルを削除したりできます。

プロンプトを開始するには、左側の吹き出しアイコンからAIチャットパネルを開きます。上部で使用するモデルを選択し、下部のユーザーメッセージボックスにプロンプ​​トを入力してEnterキーを押します。ChatGPTなどのLLMを使用したことがある方なら、返される出力は馴染みのあるものになるはずです。

LMスタジオAI

プロンプト&レスポンスシステムはChatGPTやBardに似ています。 クレジット:Lifehacker

右側では、LLMに関する様々な設定を制御できます。例えば、長い応答の処理方法や、システムのGPUにオフロードする処理量などです。また、「事前プロンプト」用のボックスもあります。例えば、LLMに常に特定のトーンや言語スタイルで応答するように指示できます。

新しい会話を始めるには、左側の「新しいチャット」ボタンをクリックしてください。以前のチャットは下に記録されているので、後でいつでも確認できます。特定の回答の生成が完了すると、スクリーンショットを撮ったり、テキストをコピーしたり、同じプロンプトから別の回答を再生成したりするためのオプションが表示されます。

これで完了です!ローカルLLMが使えるようになりました。LLMの開発とプロンプトについては、さらに深く掘り下げたい場合は様々な方法がありますが、基本を理解するのは難しくありません。LM Studioを使えば、全くの初心者でもセットアッププロセスは非常に簡単です。