catch-img

【LLM】Ollama+Open WebUIでローカルLLM環境を構築

Ollamaは、様々なLLMモデルをローカルPCで動かすことができる無料のツールです。

この記事では、OllamaとOpen WebUIを使用して、ChatGPTのようなインターフェースでテキストを生成する方法を紹介します。


目次[非表示]

  1. 1.Ollama・Open WebUIとは
  2. 2.ローカルPC(Windows)を使用する場合
  3. 3.クラウド環境(GPUSOROBAN)を使用する場合
  4. 4.環境構築
    1. 4.1.Ollamaコンテナの起動
    2. 4.2.Open WebUIコンテナの起動
  5. 5.Open WebUIにログイン
  6. 6.LLMモデルの設定
  7. 7.テキスト生成
    1. 7.1.プロンプト1
    2. 7.2.生成結果
    3. 7.3.プロンプト2
    4. 7.4.生成結果
    5. 7.5.プロンプト3
    6. 7.6.生成結果
  8. 8.LLMならGPUクラウド
  9. 9.まとめ


Ollama・Open WebUIとは

Ollamaは、LLMモデルをローカルPCで動かすことができる無料のツールです。
MetaのLlama3やGoogleのGemmaなど様々なLLMモデルをOllamaにダウンロードしてローカル環境で利用できます。


Open WebUIは、Ollama用のWebインターフェースです。
Ollama単体ではコマンドラインでプロンプトを入力することになりますが、Ollama+Open WebUIを使用することで、ChatGPTのようなインターフェースでテキスト生成が可能です。

ollama


ローカルPC(Windows)を使用する場合

ローカルPC(Windows)の実行環境は以下のとおりです。


ハードウェア

  • GPU:NVIDIA A4000
  • GPUメモリ(VRAM):16GB


ソフトウェア

  • Windows OS
  • WSL2+Ubuntu
  • NVIDIAドライバ
  • CUDA
  • Docker


詳しくは以下の記事で解説しています。


  Windows+WSL2+DockerでGPUの環境構築 この記事では、Windows PCにWSL2、Docker、NVIDIAドライバ、CUDAをインストールして、GPUを使う方法を紹介します。 業界最安級GPUクラウド | GPUSOROBAN


クラウド環境(GPUSOROBAN)を使用する場合

GPUSOROBANはメガクラウドの50%以上安いGPUクラウドサービスです。

手元のPCにGPUを搭載していなくても、インターネット経由でGPUを搭載したインスタンスを利用できます。


GPUSOROBANの使い方は以下の記事で解説しています。


  会員登録~インスタンス接続手順 | GPUSOROBAN GPUSOROBANの会員登録からインスタンス作成・接続までの手順を詳しく解説する記事です。会員登録、電話番号認証、SSHキー作成、インスタンスの作成、キーの設置、ターミナルからのインスタンス接続までの流れを説明しています。 業界最安級GPUクラウド | GPUSOROBAN


GPUSOROBANの実行環境は以下のとおりです。


インスタンスタイプ

  • s16-1-a-standard-ubs22-o 


ハードウェア

  • GPU:NVIDIA A4000
  • GPUメモリ(VRAM):16GB


ソフトウェア

  • Ubuntu OS
  • NVIDIAドライバ
  • CUDA
  • Docker

GPUSOROBANの場合、ソフトウェアがプリインストールされているので、環境構築にかかる時間を削減できます


※インスタンスの作成時にDockerがプリインストールされているインスタンスを選択してください。

ollama


※インスタンスに接続する際は、7860番にポートフォワードしてください。

ポートフォワードの方法は以下の記事で解説しています。


  インスタンス接続に関するトラブルシューティング | GPUSOROBAN 本記事は、GPUSOROBAN(高速コンピューティング)のインスタンスへの接続に関するトラブルシューティングについて紹介しています。接続できない場合の確認ポイントやSSHセッションの途切れ対策などを詳述しています。VScodeを使用してSSH接続を簡略化する方法も紹介しています。 業界最安級GPUクラウド | GPUSOROBAN


環境構築

ローカルPCもしくはGPUSOROBANにおいてDockerの構築が完了したら、OllamaおよびOpen WebUIの環境を構築します。


Ollamaコンテナの起動

Ubuntuのターミナルで次のコマンドを実行し、ollamaのdockerコンテナを起動します。

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:0.1.27

ollama

Ollamaの最新のバージョンではモデルをpullするときに以下のエラーが発生するため、Ollamaのバージョンを0.1.27に指定しています。

ollama


Open WebUIコンテナの起動

Ubuntuのターミナルで次のコマンドを実行し、Open WebUIのdockerコンテナを起動します。

docker run -d -p 7860:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

ollama


コマンドの実行が完了したら、ブラウザの検索窓にlocalhost:7860を入力し、Enterを押すとOpen WebUIの画面が表示されます。

localhost:7860


Open WebUIにログイン

サインインの画面が表示されますので、Open WebUIのアカウント未登録の場合は[Sign up]をクリックして、アカウント登録後にログインしてください。

既にアカウント登録済みの場合は、認証情報を入力し、[Sign in]をクリックしてログインできます。

ollama


LLMモデルの設定

ログインが完了したら、右上の[歯車]アイコンをクリックします。

ollama


サイドバーの[Models]を選択し、[Pull a model from Ollama.com]にダウンロードする”モデル名”を入力し、[ダウンロード]アイコンをクリックします。

この記事ではモデル名を”gemma:7b”と入力しています。ollama


他のモデル名はGithubから参照できます。

  GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models. Get up and running with Llama 3, Mistral, Gemma, and other large language models. - ollama/ollama GitHub


[Download]列のollama runnの右側に表示されているものが入力するモデル名になります。

入力するモデル名の例

  • llama3
  • llama3:70b
  • mistral
  • dolphin-phi
  • phi

ollama


テキスト生成

モデルのダウンロードが完了したら画面上の[Select a model]をクリックし、ダウンロードしたモデルを選択します。

この記事ではgemma:7bを選択しています。

ollama


画面下の[Send a Message]に”プロンプト”を入力し、[上矢印]ボタンを押すと、テキストが生成されます。

ollama

ollama


プロンプト1

Please tell me the sour component of coffee.
日本語訳)コーヒーの酸味成分を教えてください。


生成結果

Citric acid is the primary sour component of coffee.
It contributes to the fruity and acidic taste of coffee beans.
日本語訳)
クエン酸は、コーヒーの主要な酸味成分です。コーヒー豆のフルーティーで酸味のある味わいに貢献しています。


プロンプト2

Please tell me one recommended tourist spot in Japan. Please also tell me the reason.
日本語訳)日本のおすすめの観光スポットを一つ教えてください。その理由も教えてください。


生成結果

Nara:
Nara is highly recommended for its rich cultural heritage and abundance of historical and natural landmarks.
Reasons:
Historic significance: Home to the Todai-ji Temple, housing the colossal bronze Buddha statue, and numerous other ancient temples and shrines.
Deer population: Known for its roaming deer population, which allows for unique encounters and photo opportunities.
Nara Park: A vast green space filled with cherry blossom trees, temples, and historical monuments.
Ancient capital: Former capital of Japan, offering glimpses of its rich history and traditions.
Culinary delights: Renowned for its traditional Japanese cuisine and local delicacies.

日本語訳)
奈良:
奈良は豊かな文化遺産と歴史的・自然的な名所の豊富さで高く評価されています。
理由:
歴史的重要性: 東大寺には巨大な銅造の仏像を収めており、他にも多くの古代寺院や神社があります。
鹿の集団: 散策する鹿で知られ、ユニークな出会いや写真撮影の機会があります。
奈良公園: 桜の木、寺院、歴史的な建造物が豊富な緑豊かな広場です。
古都: 日本の元の首都であり、その豊かな歴史と伝統を垣間見ることができます。
グルメ: 伝統的な日本料理と地元の名物で知られています。


プロンプト3

日本で2番目に人口が多い県を教えて下さい。


生成結果

Kanagawa Prefecture is the second-most populous prefecture in Japan, after Tokyo.
日本語訳)神奈川県は東京に次いで日本で2番目に人口の多い県です。

※Gemmaは日本語の学習率が低いため、英語もしくは不完全な日本語でテキストが生成されています。


LLMならGPUクラウド

LLMを使用する際には、モデルサイズやタスクに応じて必要なスペックが異なります。

LLMで使用されるGPUは高価なため、買い切りのオンプレミスよりも、コストパフォーマンスが高く柔軟な使い方ができるGPUクラウドをおすすめしています。

GPUクラウドのメリットは以下の通りです。

  • 必要なときだけ利用して、コストを最小限に抑えられる
  • タスクに応じてGPUサーバーを変更できる
  • 需要に応じてGPUサーバーを増減できる
  • 簡単に環境構築ができ、すぐに開発をスタートできる
  • 新しいGPUを利用できるため、陳腐化による買い替えが不要
  • GPUサーバーの高電力・熱管理が不要


コスパをお求めなら、メガクラウドと比較して50%以上安いGPUクラウドサービス「GPUSOROBAN」がおすすめです。


  生成AIに最適なGPUクラウド「高速コンピューティング」|GPUSOROBAN GPUSOROBANの高速コンピューティングは、NVIDIAの高速GPUが業界最安級で使えるクラウドサービスです。NVIDIA A100を始めする高速GPUにより、画像生成AI、画像認識、機械学習を高速化します。 業界最安級GPUクラウド | GPUSOROBAN


大規模なLLMを計算する場合は、NVIDIA H100のクラスタが使える「GPUSOROBAN AIスパコンクラウド」がおすすめです。


  LLMに最適なH100が業界最安級「AIスパコンクラウド」| GPUSOROBAN AIスパコンクラウドはNVIDIA H100を搭載したGPUインスタンスが業界最安級で使えるクラウドサービスです。HGX H100(H100 x8枚)を複数連結したクラスタ構成により、LLMやマルチモーダルAIの計算時間を短縮します。料金はAWSのH100インスタンスと比較して75%安く設定しており、大幅なコストダウンが可能です。 業界最安級GPUクラウド | GPUSOROBAN


まとめ

この記事では、Ollamaを使用して、ローカル環境でLLMモデルを実行する方法を紹介しました。

OllamaとOpen WebUIを併せて使用することで、ChatGPTのようなインターフェースでテキスト生成できます。

MORE INFORMATION

GPUでお困りの方はGPUSOROBANで解決!
お気軽にご相談ください

10日間無料トライアル
詳しい資料はこちら
質問・相談はこちら