FEATURES
選ばれる理由 01 |
最新のNVIDIA H200をはじめとする高性能GPUを、申し込み後すぐに利用可能。AI開発やシミュレーションに最適な環境を、待ち時間なく提供します。
選ばれる理由 02 |
国内に自社運営のデータセンターを構築し、安定した稼働と高いセキュリティを実現。大切なデータを安心してお預けいただけます。
選ばれる理由 03 |
自社運用によるコスト削減を活かし、国内最適価格を実現。オンプレや他社クラウドサービスと比較して、圧倒的なコストパフォーマンスを提供します。
選ばれる理由 04 |
IT業界、製造業、建設業、大学研究機関まで幅広くご利用いただいています。高い性能とサポート体制で、プロフェッショナルのニーズに応えます。
AIモデルの学習
(ロボット、画像生成など)
ロボットの視覚認識や画像生成AIのトレーニングには、大量のデータと高い計算能力が求められます。GPUSOROBANの高性能GPUは、これらのニーズに応え、迅速なモデル開発を可能にします。
LLMの基盤モデル開発
大規模言語モデル(LLM)のトレーニングには、膨大な計算リソースが必要です。GPUSOROBANは、LLMの開発やファインチューニングを行う企業や研究機関に、必要なGPU環境を提供します。
大学や企業での
短期研究プロジェクト
ロボットの視覚認識や画像生成AIのトレーニングには、大量のデータと高い計算能力が求められます。GPUSOROBANの高性能GPUは、これらのニーズに応え、迅速なモデル開発を可能にします。
専有可能な
生成AIインフラの構築
大規模言語モデル(LLM)のトレーニングには、膨大な計算リソースが必要です。GPUSOROBANは、LLMの開発やファインチューニングを行う企業や研究機関に、必要なGPU環境を提供します。
PCOMPARE PRICES
HGX H200とH100インスタンスの料金比較
COMPARISON
HGX H200とH100インスタンスの料金比較
※金額は税込みです。
※オンプレミス購入費用1,100,000円+ハウジング費用1,342,000円。オンプレミスの月額費用は、5年償却で計算しています。ハウジング費用には、ラック利用料・電力コスト・回線費用・保守費用を含みますが、ルーターやスイッチなどのネットワーク機器は含まれておりません。
※AIスパコンクラウドの月額費用は、5年割引適用後の金額です。ラック利用料・電力コスト・データ転送料・追加コストは発生しません。
PLAN
構成 |
シングルノード構成 |
クラスタ構成 |
---|---|---|
特徴 | HGX H200 x1ノード | HGX H200 x複数ノード |
月額費用(税込み) | ¥2,783,000 | お問い合わせ |
GPU/ノード | NVIDIA H200(SXM) x8枚 | NVIDIA H200(SXM) x8枚 |
GPUメモリ/ノード | 総計1128GB | 総計1128GB |
GPUメモリ帯域幅 | 4.8TB/秒 | 4.8TB/秒 |
GPU間通信 | NVLink・NVSwitch | NVLink・NVSwitch |
vCPU/ノード |
112コア |
112コア |
システムメモリ/ノード | 2TB | 2TB |
ストレージ/ノード | 30TB | 30TB |
演算性能/ノード (FP16 Tensorコア) |
15.8PFLOPS | 15.8PFLOPS |
ノード数 | 1ノード | 複数ノード(ノード数指定) |
ノード間通信 | - | 1600Gbps |
OS | Ubuntu OS | Ubuntu OS |
リージョン | 日本 | 日本 |
TRIAL DETAILS
対象ユーザー | 法人のお客様限定 |
利用期間 | お申し込みから30日間 |
対象GPUサーバー | HGX H200 |
対象インスタンス構成 |
GPU:NVIDIA H200(SXM)×8基 GPUメモリ:合計 1128GB CPU:112コア システムメモリ:2TB ストレージ:30TB |
サポート内容 | 環境構築・技術サポート付き
CUDA・NVIDIAドライバ・Dockerプリインストール済み |
H200無料トライアル ご利用条件 |
・トライアルのご利用は、1社につき1回までとさせていただきます。 ・トライアル期間終了の5営業日前までに、継続利用のご希望についてご連絡をお願いいたします。 ・貸し出し用サーバーの在庫状況により、トライアルのご利用時期のご希望に沿えない場合がございます。 |
SECURITY SUPPORT
FAQ
Q.
A.
無料トライアル期間終了後に自動で課金されることは一切ありません。
ご希望の場合のみ、有料プランへの切り替え手続きを行っていただきます。
Q.
A.
ブラウザからマウス操作でインスタンスに接続できます。
ローカル環境~プロキシサーバ間をHTTPS接続し、プロキシサーバ~インスタンス間をSSH接続する方式になっております。
Q.
A.
Dockerをプリインストールして提供可能です。
他にもUbuntu OS、CUDA、NVIDIAドライバ等のバージョンを指定してプリインストールが可能です。
Q.
A.
変更可能です。
Q.
A.
経験豊富な日本人スタッフによる技術サポートを無料でご利用いただけます。
使い方のレクチャーから環境構築のアドバイスまでベストエフォートで対応いたします。
Q.
A.
GPUSOROBANは国内の自社データセンターから提供しているため、国外への情報漏洩のリスクが抑えられます。
通信経路はSSH接続によって暗号化することで安全に保護しています。(公開鍵認証)
物理サーバを専有する形でインスタンスを提供しているため、他のユーザーからの影響を受けません。
ABOUT
「GPUSOROBAN」は、株式会社ハイレゾが提供するAI開発専用のGPUクラウドサービスです。
大量のデータを処理し、複雑なAIモデルを高速にトレーニング・実行できる、“スパコン並み”の計算性能をクラウドで手軽に使えるのが最大の特徴です。
1 |
最新のNVIDIA製GPU「H200」を搭載しており、複数GPUによる並列処理にも対応しています。そのため、大規模なモデルにも柔軟に対応することが可能です。
2 |
データサイエンス、LLM、生成AIなどに特化した構成となっており、自社で管理する香川のデータセンターにて運用を行っています。これにより、信頼性とセキュリティを確保しています。
3 |
「使いたいときに使える」定額制のため、予算管理がしやすくなっています。AWSなどと比較してもコストの最適性が高い点も魅力です。
MERIT
01 |
02 |
03 |
H200は、H100に比べて「1.7倍のGPUメモリ」を搭載しているため、
膨大なパラメータをもつLLMモデルに対応可能です。
LLMで重要視される「GPUメモリ帯域幅」も、H100と比較して1.4倍に向上しています。
これによりデータ転送がさらに高速化し、計算速度が向上しています。
04 |