2022.04.05

PyCudaの使用例:CPUとGPUにおけるPyTorchの処理時間比較

はじめに

GPUとはGraphics Processing Unitの略で、描画処理用のCPUのことを指しています。元々はGraphic用途だったのを汎用的な計算に拡大することをGPGPUと呼ばれています。General Purpose Graphics Processing Unit(GPGPU)はGPUを画像処理ではなく、他の用途(ex. 暗号解読、音声処理)に使用するときに使用されています。今回Nvidia社が作ったCUDAを機械学習の裏でどのように実行されているかを紹介いたします。CUDAとはGPU並列を扱うためのプログラミング言語です。C言語を拡張したものはPyCUDAです(CUDAのPython Wrapper API)。Kaggleや研究などでは、CUDAをPythonから扱えば、メモリ管理が楽になります。

実行環境:conda_torch17_py36, PyCuda version : 2021.1

いかがでしたでしょうか。
弊社クラウドGPUサーバのご利用をご検討中の方はhttps://soroban.highreso.jp/から
お気軽にお申込みやお問い合わせください。

初回インスタンス作成から
3日間は無料利用可能!

新規申し込み