生成AI・機械学習に最適な
業界最安級GPUクラウド

高速コンピューティング

gpusoroban-logo
IT業界・製造業・建設業・大学 で実績多数
10日間無料トライアル実施中!
compute

詳しい資料はこちら

10日間無料トライアル

USE CASE

画像生成AI・機械学習を高速化

画像生成AI

compute_usecase

Stable Diffusionなどの画像生成AIを高速に処理できるGPUクラウドを業界最安級の1時間50円からご利用いただけます。

画像認識

compute

画像認識などモデルのトレーニングに「NVIDIA A100」を搭載した大容量GPUメモリのインスタンスを選択できます。

機械学習

compute

PyTorch、TensorFlow、JupyterLabなど機械学習で人気のソフトウェアがプリインストールされているため、すぐに開発に取りかかれます。

SOLUTION

GPUでお困りではありませんか?

  • GPUサーバーのコストを抑えたい
  • GPUのスペックが足りない
  • クラウドのGPUは設定が大変

GPUSOROBAN
高速コンピューティングで
全て解決できます

業界最安級

solution

AWS・GCP・AzureのGPUクラウドと比較して、50%以上安い業界最安級の料金で利用できます。データ転送料の追加コストもかかりません。

生成AIに最適なGPU

solution

NVIDIA A100など機械学習に最適な高速・大容量GPUを用意しています。GPUメモリは16GB~640GBまで選択できます。

クラウド経験不要

solution

3分で設定が完了する手軽なサービスです。他社GPUクラウドと比較して設定項目が少なく、クラウドインフラ未経験の方でも簡単に利用できます。

ABOUT

GPUSOROBAN
高速コンピューティングとは

画像生成AI、画像認識などの機械学習に最適なGPUクラウドサービスです。ローカルPCからクラウドのGPUサーバー(インスタンス)にSSH接続し、リモート操作します。インスタンスに必要なソフトウェアをインストールし、生成AIなどのプログラムを実行することができます。

インスタンスにはNVIDIAの高速GPUを搭載し、計算時間を大幅に短縮します。料金はAWS・GCP・AzureのGPUクラウドと比較して50%安く、業界最安級の1時間50円から利用できます。インスタンス停止中は課金されないため、オンプレやGPUレンタルと比べてもコストを最小限に抑えることができます。
about

詳しい資料はこちら

10日間無料トライアル

REASON

選ばれる5つの理由

POINT
01

高速GPUが業界最安級で使える

高速コンピューティングは、NVIDIAの高性能GPUを業界最安級の料金で提供しています。AWS・GCP・AzureなどのGPUクラウドと比較して50%以上安く、初期費用やデータ転送料の追加コストもかかりません。サーバールームや電源、空調設備を必要とせず、サーバーの管理コストも削減できます。

 

reason
POINT
02

コストを最小限に抑えられる

高速コンピューティングでは、NVIDIAのGPUを搭載したインスタンスを1時間50円から利用できます。インスタンスの起動中のみ料金がかかります。インスタンスの停止中は料金がかからないため、停止期間中はデータも保持されます。純粋に使った分だけ課金がされるため、オンプレやGPUレンタルと比べてもコストを最小限に抑えることができます。
POINT
03

たった3分で設定完了

他社GPUクラウドと比較して、設定項目が非常に少ないため、初めての方でも簡単に利用できます。インスタンスには、OSからNVIDIAドライバ、CUDA、Docker、PyTorchなどのソフトウェアまで事前にプリインストールされています。オンプレやGPUレンタルと比べても、すぐに開発に取りかかれます。画像生成AIモデルのStable Diffusionや大規模言語モデルのLlamaなど自由にインストールして使用することができます。
reason3
reason
POINT
04

タスクに応じてGPUを変更できる

インスタンスには「NVIDIA A100」など高速GPUを採用しており、画像生成AIや大規模言語モデル(LLM)などの機械学習の処理を高速化します。クラウドでは、タスクに応じてGPUインスタンスを簡単に切り替えられるため、オンプレのようにGPUを買い替えたり、GPUレンタルで借り換える必要がありません。
POINT
05

インスタンスを簡単に増やせる

オンプレの場合、繁忙期に物理マシンが不足することがあります。高速コンピューティングの場合、すぐにインスタンスの追加ができ、リソース不足による機会損失を回避します。複数インスタンスを起動し、複数のタスクを同時に実行することもできます。閑散期にはインスタンスを削除して、コストを抑えるなど、クラウドでは柔軟な運用が可能になります。
reason

詳しい資料はこちら

10日間無料トライアル

COMPARE PRICES

他社より2倍速く、50%以上安い

AWS・GCP・AzureのGPUクラウドとの料金比較

price-compare

AWS・GCP・AzureのGPUクラウドとの料金・性能比較

サービス

GPUSOROBAN
高速コンピューティング

Azure GCP AWS GCP Azure AWS
NVIDIA T4搭載 NVIDIA T4搭載 NVIDIA T4搭載 NVIDIA V100搭載 NVIDIA V100搭載 NVIDIA V100搭載
プラン s16-1-a-standard-ubs Standard_NC4as_T4_v3 n1-standard-8,T4 g4dn.2xlarge n1-highmem-8,V100 Standard_NC6s_v3 P3.2xlarge
従量課金の場合(1h) ¥50 ¥103 ¥128 ¥147 ¥423 ¥515 ¥608
月額費用の場合 ¥33,000 ¥75,213 ¥94,102 ¥107,585 ¥315,496 ¥377,191 ¥444,547
GPU NVIDIA A4000×1枚 NVIDIA T4×1枚 NVIDIA T4×1枚 NVIDIA T4×1枚 NVIDIA V100×1枚 NVIDIA V100×1枚 NVIDIA V100×1枚
GPUメモリ 16GB 16GB 16GB 16GB 16GB 16GB 16GB
vCPU 11コア 4コア 8コア 8コア 8コア 6コア 8コア
システムメモリ 50GB 28GB 30GB 32GB 52GB 112GB 61GB
演算性能(FP32) 19.2TFLOPS 8.1TFLOPS 8.1TFLOPS 8.1TFLOPS 14TFLOPS 14TFLOPS 14TFLOPS
リージョン 日本 日本 日本 日本 米国 日本 日本
スクロールできます
※AWS・GCP・AzureのGPUクラウドとの料金・性能を比較しています。
※初期費用はかかりません。月額費用は従量課金の1ヶ月(30日間)の積算値になります。
※税込価格になります。2023年4月時点の金額になります(1USD=132JPY)。
※GPUSOROBAN以外のGPUクラウドサービスではデータ転送料が別途加算されます。
DOWNLOAD

資料ダウンロード

WEBINER


【生成AIウェビナー】
生成AI/LLMに最適なGPUクラウドの使い方

webiner
ウェビナーでは、生成AI/LLMをコストを抑えて実現する方法をデモンストレーションを交えてご紹介します。

1.生成AI/LLMに最適な業界最安GPUクラウド「GPUSOROBAN」のサービスの使い方・事例紹介

2.無料で使えるMicrosoftの軽量LLMモデル「Phi-3」のデモンストレーション

3.高性能でオープンなMetaの最新LLM「Llama3」のデモンストレーション


開催日時:2024/06/26(水)14:00~15:00

参加費用:無料

詳細は登録ページよりご確認ください。
PLAN

高速コンピューティングの料金プラン

インスタンス
ファミリー

s16-1-a s16-1-b t40-1-a t80-1-a t40-8-a t80-8-a
特徴 NVIDIA A4000 16GBx1枚
GPUメモリ 16GB
Ubuntu OS

NVIDIA A4000 16GBx1枚
GPUメモリ16GB
Windows OS

NVIDIA A100 40GBx1枚
GPUメモリ 40GB

NVIDIA A100 80GBx1枚
GPUメモリ 80GB

NVIDIA A100 40GBx8枚
GPUメモリ 320GB

NVIDIA A100 80GBx8枚
GPUメモリ 640GB

従量課金の場合
 [1h・台]

¥50 - ¥361 ¥398 - -

月額課金の場合
[月・台]

¥33,000 ¥54,450 ¥223,133 ¥243,631 ¥1,320,184 ¥1,985,940
GPU NVIDIA A4000 16GBx1枚 NVIDIA A4000 16GBx1枚 NVIDIA A100 40GBx1枚 NVIDIA A100 80GBx1枚 NVIDIA A100 40GBx8枚 NVIDIA A100 80GBx8枚
GPUメモリ 16GB 16GB 40GB 80GB 320GB 640GB
vCPU 11コア 20コア 15コア 20コア 254コア 254コア
システムメモリ 50GB 96GB 115GB 220GB 1TB 2TB
ストレージ

standard:100GB
容量UPはお問い合わせ

standard:500GB
容量UPはお問い合わせ

standard:100GB
500GB・1TBは別途料金

standard:100GB
500GB・1TBは別途料金

15TB
容量UPはお問い合わせ

15TB
容量UPはお問い合わせ

OS

Ubuntu
バージョン詳細

Windows
バージョン詳細

Ubuntu
バージョン詳細
Ubuntu
バージョン詳細
Ubuntu
バージョン詳細
 Ubuntu
バージョン詳細

プリインストール

Docker,CUDA,PyTorch等
プリインストール詳細

NVIDIAドライバ等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

Docker,CUDA,PyTorch等
プリインストール詳細

演算性能(FP32) 19.2TFLOPS 19.2TFLOPS 19.5TFLOPS 19.5TFLOPS 156TFLOPS 156TFLOPS
演算性能(TF32) 153TFLOPS 153TFLOPS 312TFLOPS 312TFLOPS 2.5PFLPOS 2.5PFLPOS
演算性能(FP64) - - 9.7TFLOPS 9.7TFLOPS 77TFLOPS 77TFLOPS
スクロールできます
  • 料金には消費税、インスタンス利用料、データ転送料、ストレージ(standard)が含まれます。
  • large、exlargeサイズのストレージは、別途料金がかかります。詳細はこちらをご覧ください。
  • 初期費用無料。従量課金もしくは月額課金のいずれかを選択いただけます。
  • 演算性能(TF32)は、スパース性機能有効時の値になります。
FREE TRIAL

10日間無料トライアル

初回インスタンス作成から10日間無料トライアルをご利用いただけます。会員登録後にインスタンスの作成が可能になります。無料トライアルの対象インスタンスはs16-1-a-standard-ubs系に限られます。その他のインスタンスの無料トライアルを希望の場合はお問い合わせください。

詳しい資料はこちら

10日間無料トライアル

OTHER PLANS

NVIDIA H100が業界最安級
「AIスパコンクラウド」

aispacon

「AIスパコンクラウド」は、NVIDIA H100を搭載したGPUインスタンスが業界最安級で使えるクラウドサービスです。

LLMやマルチモーダルAIの計算時間を短縮します。料金はAWSのH100インスタンスと比較して75%安く設定しており、大幅なコストダウンが可能です。

GPUインスタンス構成は1台のスタンドアロン構成から、複数連結したクラスタ構成まで選択でき、必要なリソースだけ利用可能です。

PERFORMANCE

画像生成AI・言語生成(LLM)に最適なGPU

POINT
01

高コスパモデル「NVIDIA A4000」

NVIDIA A4000は、機械学習に特化したTensorコアを搭載しているため、画像生成AIのタスクに適しています。A4000インスタンスは、他社GPUクラウドのNVIDIA T4インスタンスと比較して、2倍以上の演算性能を持ちながら50%以上安い料金になります。さらにA4000は他社GPUクラウドのV100インスタンスと比較しても、同等以上の演算性能を備えながら、約80%~90%安い料金となり、圧倒的なコストパフォーマンスを発揮します。
gpu

NVIDIA A4000とV100、T4のスペック比較

GPU NVIDIA A4000 NVIDIA V100 NVIDIA T4
世代 Ampere Volta Turing
GPUメモリ 16GB 16GB 16GB
演算性能(FP32) 19.2TFLOPS 14TFLOPS 8.1TFLOPS
演算性能(TF32) 153.4TFLOPS 112 TFLOPS 37.4TFLOPS
POINT
02

高速・大容量GPU「NVIDIA A100 80GB」

NVIDIA A100は前世代V100と比べて5倍の「GPUメモリ80GB」であり、大容量GPUメモリを必要とする画像生成AIや大規模言語モデル(LLM)などの機械学習に最適です。さらにA100はV100と比べて2倍の「GPUメモリ帯域幅」を持ちます。GPUメモリ帯域幅は、計算時のデータ転送を高速に行うために重要な要素であり、特に大規模なデータセットや複雑な計算を必要とするタスクでは、高い帯域幅がパフォーマンスの向上に直結します。
gpu

NVIDIA A100と前世代V100のスペック比較

GPU NVIDIA A100 80GB NVIDIA V100 16GB
世代 Ampere Volta
GPUメモリ 80GB 16GB
GPUメモリ帯域幅 1,935GB/秒 900GB/秒
演算性能(FP32) 19.5TFLOPS 14TFLOPS
演算性能(TF32) 312TFLOPS 112 TFLOPS
演算性能(FP64) 9.7TFLOPS 7TFLOPS
POINT
03

GPUメモリ640GBの大規模モデル「NVIDIA HGX A100」

NVIDIA HGX A100は8枚のNVIDIA A100を搭載した、GPUメモリ640GBの大容量GPUサーバーです。マルチGPUを使用による深層分散学習が可能になり、大規模な言語モデル(LLM)や画像生成AIなど機械学習のワークロードを高速化します。マルチGPUではGPU間通信の速度が重要になります。HGX A100はNVLinkを採用し、GPU間の通信帯域幅は 600 ギガバイト/秒 (GB/s) です。これはPCIe接続(Gen4)の帯域幅と比べて10倍となり、マルチGPUのパフォーマンスを大幅に向上します。
gpu

NVIDIA HGX A100とDGX-1 V100のスペック比較

GPUサーバー NVIDIA HGX A100 NVIDIA DGX-1 V100
GPU NVIDIA A100 80GB x8枚 NVIDIA V100 32GB x8枚
GPUメモリ 総計640GB 総計256GB
GPUメモリ帯域幅 2,039GB/秒

1,134GB/秒

GPU間の通信帯域幅

600GB/秒 300GB/秒
演算性能(FP32) 156TFLOPS 120TFLOPS
演算性能(TF32) 2.5PFLOPS 1PFLOPS
演算性能(FP64) 77TFLOPS 60TFLOPS

詳しい資料はこちら

10日間無料トライアル

EXPERIENCE

累計1000件を超える利用実績

GPUSOROBANは、累計1000件を超えるご利用実績があります。IT業界、製造業、建設業、大学研究機関まで幅広くご利用いただいています。画像生成AIやLLMなどの機械学習や、流体解析や電磁界解析などのシミュレーションの用途で使われています。
  • 自動車業界
  • SIer

  • AIベンチャー

  • 電機メーカー

  • 光学機器メーカー

  • 食品メーカー

  • ゼネコン/サブコン

  • インフラ(通信・水道) 

  • 学術研究機関

千寿製薬様

- 導入目的

薬効薬理の研究にAIを用いた解析・予測

- コメント
薬効薬理の基礎研究において、AIを用いたデータの解析や予測をしてます。眼底年齢評価モデル「JOIR」やタンパク質の構造を予測する「AlphaFold」などのAIを活用しています。GPUSOROBANの高速コンピューティングを使用し、計算リソース不足の課題を解決しました。

エネルギア・コミュニケーションズ様

- 導入目的

画像AIモデルのトレーニング

- コメント
GPUSOROBANは画像データを対象としたトレーニングのため利用させていただきました。画像はデータ量が大きく学習時間と実行メモリが課題となっておりましたが、GPUSOROBANを利用することで課題は解消し快適に利用することができました。

スカイマティクス様

- 導入目的

自治体向け農業管理DXソリューション「いろはMapper」における作物判定AI推論およびオルソ画像生成

- コメント
作物判定AI推論およびオルソ画像生成の用途で利用しました。GeForce2080Ti搭載のローカルPCと比較して、GPUSOROBANは約2倍高速にAI推論を実行できました。元々GPU端末の維持コストに課題を抱えていましたが、GPUSOROBANを使用することで端末の維持コストを4割程度削減することができました。

合同会社TYS様

- 導入目的

TensorFlowとOptunaを使ったLSTMモデルのハイパーパラメータの最適化

- コメント
TensorFlow2.8とOptunaを使い、1200ケースのLSTMモデルのハイパーパラメータのチューニング計算を行いました。
利用前はGPUマシンを新たに購入する場合と、GPUクラウド利用する場合のコストを比較検討していました。
その中でも十分に安価なGPUSOROBANを利用しました。今後、GPU計算を行う際はGPUSOROBANの利用を検討しています。

NTTPCコミュニケーションズ様

- 導入目的

NVIDIA A100 GPUの「MIG分割」による性能差検証

- コメント
今までいくつもレンタルサーバーを使ってきましたが、このサーバーほど安定しているサーバーはありませんでした。ストレスや不具合もなく、快適に使えていますので、すごく重宝しています。

電マーク様

- 導入目的

ヒヨコの雌雄鑑別AIの運用テスト

- コメント
GPUサーバーと複数クライアント装置との接続負荷試験に使用させていただき、低価格のレンタルで試せたことは大変よかったです。試験では物理USBドングルをGPUサーバに接続する必要があったのですが、物理キーの接続も対応していただき、サポートの連絡対応もスムーズでした。国内で対応ができることは、管理者としても安心です。

全国高校AIアスリート選手権

- 導入目的

画像判定のAIモデル作成

- コメント
全国高校AIアスリート選手権大会「シンギュラリティバトルクエスト2021」において、画像判定のAIモデルを作成する競技でGPUSOROBANを利用しました。高速かつ安定したGPUクラウドサービスを使うことで、競技を円滑に進めることができました。日本の次世代を担うAI人材の発掘と育成に寄与していただいた事に感謝しております。

東北大学様

- 導入目的

より精緻な地震の断層を推定するための手法開発

- コメント
私たちは地震の断層を観測データから推定する手法の高度化を行っています。膨大な計算量をこなすためにNVIDIA A100グラフィックボードの導入を検討しましたが、コストが高いことに加え、手持ちのマザーボードが合わなかったり陳腐化するかもしれない等の懸念もありました。GPUSOROBANは月単位で最新モデルを必要なだけ使え、また国内サービスのため為替の影響を受けない料金体系であることが選択の理由となりました。

京都大学様

- 導入目的

量子コンピュータのシミュレーションと結果の解析

- コメント
我々のチームは、量子コンピュータのシミュレーションとその解析に、GPUSOROBANを使用しています。特に、量子コンピュータのシミュレーションに必要な行列積の計算や、量子回路の解析に必要な大規模対称行列の対角化や特異値分解を、GPUインスタンスを使って行っています。

早稲田大学様

- 導入目的

膨大な量の音響データ学習

- コメント
短時間で膨大な音響データを学習するためにGPUSOROBANを利用しました。物理マシンを用意するには時間、設置スペースの点で問題があり、期間内に実験を終えることが困難な状況でしたが、GPUSOROBANを使うことで必要な時に必要な数のGPUを確保することができました。また他社と比較しても圧倒的に安く利用できました。

立命館大学様

- 導入目的

岩石試料の形状分析における大容量の三次元画像処理

- コメント
計算機を導入するほど頻繁に画像処理を行わないため、計算機のレンタルサービスを検討していました。業界大手の同業サービスでは十分な能力の計算機が割り当てられず困っていましたが、GPUSOROBANでは満足のいく計算機に即日接続することができました。また私たちのデータは国内での取り扱いが望ましいため、安心して利用できました。
PARTNER

コラボレーションパートナー

TUSIC
北陸電力
NOW
新生企業投資
NVIDIA
splashtop
Tekwind
PALTEK
クレスコ
アプライド
アストマックス
RELIABLE

安心して使える国産GPUクラウド

POINT
01

技術サポートが無料

高速コンピューティングは、石川県に所有するGPU専用データセンターからサービスを提供しており、累計10,000枚以上のGPUの運用実績があります。GPUのプロフェッショナルによる技術サポートが無料で受けられます。基本的なレクチャーから、環境構築に関するアドバイスまで幅広く対応しています。
 

reliable
reason4
POINT
02

総合的なセキュリティ対策

ハイレゾはISMS認証(ISO27001)およびISMSクラウドサービスセキュリティ認証(ISO27017)、Pマークを取得済みで、総合的なセキュリティ対策を実施しています。通信経路はSSH接続によって暗号化することで安全に保護しています。物理サーバを専有する形でインスタンスを提供しているため、他のユーザーからの影響を受けません。

POINT
03

NVIDIAのクラウドパートナー

ハイレゾはNVIDIAのクラウドパートナー「NVIDIA Partner Network Cloud Partner」に認定されています。

NPN Partner Award 2022においては「Best CSP Partner Of the Year」を受賞しています。

reason5

詳しい資料はこちら

10日間無料トライアル

HOW TO USE

使い方

よく読まれる記事

言語生成AI(LLM)

画像生成AI(Stable Diffusion)

FAQ

よくあるお問い合わせ

技術サポートはありますか?

経験豊富な日本人スタッフによる技術サポートを無料でご利用いただけます。
使い方のレクチャーから環境構築のアドバイスまで対応いたします。
技術サポートに関しては内容によって対応できかねることがありますので、予めご了承ください。

ストレージの容量を増やすことは可能でしょうか?

可能です。ストレージの容量を増やす場合は、お問い合わせください。

NVIDIA A100を搭載したインスタンスも他社より安いのでしょうか?

NVIDIA A100を搭載したインスタンスもハイパースケーラーの40%~50%安い料金で提供しています。

詳しい資料はこちら

10日間無料トライアル

COMPANY

会社情報

社名 株式会社ハイレゾ
設立

2007年12月

本社

東京都新宿区市谷田町3丁目24−1

資本金

10億7498万円(資本剰余金を含む)

社員数

40名(非常勤およびパートタイマー含む)

役員

代表取締役 志倉 喜幸

取締役   小林 稔

取締役   小堀 敦史

監査役   片寄 裕市(TUSIC代表取締役)

株主

志倉喜幸/東京理科大学イノベーション・キャピタル㈱/北陸電力㈱/NOW㈱/新生企業投資㈱/

㈱シフラ/㈱神宮館/㈱佐銀キャピタル&コンサルティング/九州電力㈱/誠宏印刷㈱/役員

認証

ISO27001認証(ISO/IEC 27001:2013 / JIS Q27001:2014)

ISO27017認証(JIP-ISMS517-1.0)

Pマーク認証

主要取引先 エヌビディア合同会社、北陸電力株式会社、豊田通商株式会社、
株式会社エヌ・ティ・ティピー・シーコミュニケーションズ、テックウインド株式会社、
株式会社クレスコ、株式会社PALTEK、アプライド株式会社、株式会社サードウェーブ
その他取引先多数

詳しい資料はこちら

10日間無料トライアル