プリインストールの利用方法(Docker、PyTorch、TensorFlow、JupyterLab)| GPUSOROBAN

本記事では、GPUSOROBAN(高速コンピューティング)のプリインストールの利用方法を説明します。

高速コンピューティングは、画像生成AIやLLMの計算に最適なGPUインスタンスが低コストで使えるクラウドサービスです。

サービスについて詳しく知りたい方は、GPUSOROBANの公式サイトをご覧ください。


  生成AIに最適なGPUクラウド「高速コンピューティング」|GPUSOROBAN GPUSOROBANの高速コンピューティングは、NVIDIAの高速GPUが業界最安級で使えるクラウドサービスです。NVIDIA A100を始めする高速GPUにより、画像生成AI、大規模言語モデルLLM、機械学習、シミュレーションを高速化します。 業界最安級GPUクラウド | GPUSOROBAN


初めてGPUSOROBANを利用される場合は、事前に以下の記事をご覧ください。


  会員登録~インスタンス作成手順 | GPUSOROBAN GPUSOROBANの会員登録からインスタンス作成・接続までの手順を詳しく解説する記事です。会員登録、電話番号認証、SSHキー作成、インスタンスの作成、キーの設置、ターミナルからのインスタンス接続までの流れを説明しています。 業界最安級GPUクラウド | GPUSOROBAN


目次[非表示]

  1. 1.プリインストールとは
  2. 2.Dockerの利用方法
  3. 3.NVIDIAドライバ、CUDA、Pythonの利用方法
  4. 4.TensorFlow、PyTorch、JupyterLabの利用方法
  5. 5.JupyterLabの利用方法
  6. 6.TensorFlowの利用方法
  7. 7.PyTorchの利用方法
  8. 8.venv環境から抜ける場合


プリインストールとは

高速コンピューティングでは、ソフトウェアがプリインストールされたインスタンスを選択することができ、環境構築の手間を削減することができます。

インスタンスの末尾の記号がプリインストールされているソフトウェアを示しています。


instance-type


次の表はプリインストールのバージョン一覧になります。

インスタンス
末尾の記号
NVIDIA
ドライバ
CUDA
Python
Docker
Tensor
Flow
PyTorch
Jupyter
Lab
a
455
10.1
3.6

-

-
-
-
b
515
11.2
3.8

-

-
-
-
c

515

11.2

3.8

-
2.6
1.8
4.0
d

515

11.3

3.8

-
-
-
-
e

515

11.3

3.8

-
2.6
1.1
4.0
f

515

11.3

3.8

-
-
-
-
g

515

11.3

3.8

-
2.10
1.1
4.0
h

515

11.7
3.10
-
-
-
-
i

515

11.7

3.10

-
2.11
1.1
4.0
o

515

-
3.10

24.0
-
-
-


インスタンスタイプは、コントロールパネルのインスタンス管理から確認できます。

instance-type


インスタンスのリストはインスタンス一覧のページをご参照ください。


  インスタンス一覧(高速コンピューティング) GPUSOROBANの高速コンピューティングで提供するインスタンスの一覧を紹介しています。インスタンスのスペック、価格、プリインストールされているソフトウェアのバージョンを確認できます。 業界最安級GPUクラウド | GPUSOROBAN


Dockerの利用方法

Dockerをプリインストールしたインスタンスの利用方法は以下の記事をご覧ください。


  Dockerの使い方(Ubuntu)【GPUSOROBAN】 の記事では、GPUSOROBANでDockerを使う方法を紹介しています。 業界最安級GPUクラウド | GPUSOROBAN


NVIDIAドライバ、CUDA、Pythonの利用方法

インスタンスにはNVIDIAドライバ、CUDA、Pythonが共通でインストールされています。(※Docker対応インスタンスは除く)

NVIDIAドライバのバージョンは、インスタンスに接続後、次のコマンドで確認ができます。

nvidia-smi

driver


CUDAは次のコマンドで確認ができます。

nvcc -V

cuda


Pythonは次のコマンドで実行できます。

python

python


TensorFlow、PyTorch、JupyterLabの利用方法

TensorFlow、PyTorch、JupyterLabを使用する場合は、venv環境をアクティベートする必要があります。

TensorFlow、PyTorchは、プリインストールされているバージョンによって、venv環境をアクティベートするコマンドが異なりますので、ご注意ください。

一方でJupyterLabのvenv環境のアクティベートコマンドはどのインスタンスも共通です。

 

JupyterLabの利用方法

JupyterLabを使用する際は、ポートフォワードの設定をする必要があるため、一度インスタンスに接続しているターミナルからログアウトします。 ※アクセスサーバに接続しているターミナルはログアウトする必要はありません。

インスタンスに接続するターミナルにおいて、次のコマンドを実行します。(ポート8888のポートフォワード)

ssh -L 8888:localhost:8888 user@localhost -p 20122 -i .ssh\mykey.txt


プリインストール


インスタンス接続の際、デフォルトで(base)のvenv環境ログインしています。この(base)にJupyterLabがプリインストールされているため、基本的にアクティベートは不要です。
もしログインしているvenv環境が(base)でない場合、次のコマンドで(base)に切り替えることができます。

※JupyterLabの場合、どのインスタンスタイプにおいても、同じコマンドでvenv環境のアクティベートが可能です。


source ~/.venv/base/bin/activate​​​​​​​

プリインストール


(base)に切り替わったら、アクティベート完了です。

アクティベートした状態で、次のコマンドを実行し、JupyterLabを起動します。

jupyter lab --ip='*' --port=8888 --NotebookApp.token='' --NotebookApp.password='' --no-browser

プリインストール


次に接続元PCからブラウザを開き、ブラウザの検索窓にlocalhost:8888を入力し、Enterを押すと、ブラウザにJupyterLabが表示されます。


localhost:8888

プリインスト―ル

プリインストール


JupyterLabのUI上で、TensorFlowやJupyterLabのvenv環境を選択することができます。

プリイントール



TensorFlowの利用方法

TensorFlowのvenv環境をアクティベートします。

次のコマンドを使用して、.venv環境にプリインストールされているTensorFlowのバージョンを確認した後に、アクティベートコマンドを実行します。


ls .venv
source ~/.venv/tf***_py***/bin/activate

プリインストール


(tf***_py***)に切り替わったら、アクティベート完了です。

※プリインストールしているバージョンによってtf***_py***の値が異なりますので、ご注意ください。

アクティベートした状態で次のコマンドを続けて実行します。

Pythonを実行します。

python

tensorflow


TensorFlowをインポートします。

import tensorflow as tf

tensorflow


TensorFlowのバージョンを確認します。

tf.__version__

tensorflow

TensorFlowのバージョンは、2.11.0がインストールされていることが分かります。


TensorFlowからGPUを確認します。

print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))

tensorflow

  

Num GPUs Available: 1が表示された場合、TensorFlowからGPUが適切に認識できています。


PyTorchの利用方法

PyTorchのvenv環境をアクティベートします。

次のコマンドを使用して、.venv環境にプリインストールされているTensorFlowのバージョンを確認した後に、アクティベートコマンドを実行します。


ls .venv
source ~/.venv/torch***_py***/bin/activate

プリインストール

(torch***_py***)に切り替わったら、アクティベート完了です。


※プリインストールしているバージョンによってtorch***_py***の値が異なりますので、ご注意ください。


アクティベートした状態で次のコマンドを続けて実行します。

Pythonを実行します。

python

pytorch


PyTorchをインポートします。

import torch

pytorch


PyTorchのバージョンを確認します。

torch.__version__

pytorch


PyTorchからGPUを確認します。

torch.cuda.is_available()

pytorch


exit

jupyter


venv環境から抜ける場合

venv環境から抜ける場合は、ターミナルで次のコマンドを実行します。


deactivate

deactivate


(base)の表示が消えて、venv環境から抜けていることが分かります。


ここまでがGPUSOROBAN(高速コンピューティング)のプリインストールの利用方法の説明になります。


高速コンピューティングは高性能なGPUインスタンスが低コストで使えるクラウドサービスです。
サービスについて詳しく知りたい方は、GPUSOROBAN(高速コンピューティング)の公式サイトをご覧ください。


  生成AIに最適なGPUクラウド「高速コンピューティング」|GPUSOROBAN GPUSOROBANの高速コンピューティングは、NVIDIAの高速GPUが業界最安級で使えるクラウドサービスです。NVIDIA A100を始めする高速GPUにより、画像生成AI、大規模言語モデルLLM、機械学習、シミュレーションを高速化します。 業界最安級GPUクラウド | GPUSOROBAN



MORE INFORMATION

GPUでお困りの方はGPUSOROBANで解決!
お気軽にご相談ください

10日間無料トライアル
詳しい資料はこちら
質問・相談はこちら
ページトップへ戻る