GMOインターネットグループの、GMOインターネット株式会社(代表取締役 社長執行役員:伊藤 正 以下、GMOインターネット)は、NVIDIAテクノロジで構築した高性能GPUクラウドサービス「GMO GPUクラウド」において、「NVIDIA Blackwell Ultra GPU」(URL: https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/)を搭載した「NVIDIA HGX B300 AI インフラストラクチャ(以下、HGX B300)」を導入したクラウドサービスを、2025年12月16日(火)より国内最速クラスで提供開始いたしました。
サーバー1台を専有するベアメタル構成により、AI推論モデルに最適化されたHGX B300 AIインフラストラクチャの性能を引き出し、大規模言語モデルの高速推論やエージェント型AI開発など、最先端AIワークロードに最適な高性能環境を国内から提供します。GMOインターネットでは、AI・ロボティクス時代の研究開発のみならず、その利活用を支える新たな計算基盤として展開してまいります。
【サービス提供の背景】
近年、企業による独自LLM(大規模言語モデル)の開発や、産業分野におけるAI・ロボティクスなどの急速な進化に伴い、高度な演算処理を可能にする大規模な計算資源の需要が高まっています。AIモデルの巨大化、推論のリアルタイム化、多様な生成形式への対応といった要求に応えるため、クラウドインフラも日々進化し続ける「動的な技術基盤」として、アップデートすることが技術革新の鍵となります。
GMOインターネットは、2024年4月15日に経済安全保障推進法に基づく特定重要物資「クラウドプログラム」(※1)の供給確保計画に関する経済産業省の認定を受け、同年11月22日から国内最速クラスでNVIDIA Hopper GPU(https://www.nvidia.com/ja-jp/data-center/h200/)を提供(※2)しています。こうした市場環境や技術的要請を踏まえ、当社は2025年5月14日公表のBlackwellアーキテクチャの最新世代「HGX B300」への切り替えを決定いたしました。
これにより、「GMO GPUクラウド」は、今後のAI開発・運用に求められる高い計算性能・拡張性・低レイテンシ通信に対応し、さらに進化したインフラ基盤として展開してまいります。
(※1)経済安全保障推進法に基づく特定重要物資の安定的な供給の確保参照 https://www.meti.go.jp/policy/economy/economic_security/cloud/index.html
(※2)プレスリリース「GMOインターネットグループ、スパコンランキングTOP500ランクインの
「GMO GPUクラウド」を提供開始」 https://internet.gmo/news/article/27/
【「GMO GPUクラウド(NVIDIA B300)」について】
1.GMO GPUクラウド概要
| サービス名 | GMO GPUクラウド ベアメタルプラン |
|---|
| 提供開始日 | 2025年12月16日 |
|---|
| GPU構成 | NVIDIA Blackwell Ultra GPU |
|---|
| GPUメモリ | 2.3 TB |
|---|
| CPU構成 | Intel Xeon 6767P x2 |
|---|
| メインメモリ | 3 TB |
|---|
| ローカルストレージ | 3.84TB NVMe Gen5 SSD x8 |
|---|
| ネットワークストレージ | NFS ファイルストレージ・オブジェクトストレージ(近日提供予定) |
|---|
| グローバル・ローカル・ストレージ回線(共用) | NVIDIA BlueField-3 DPU 200Gbps x2 |
|---|
| インターコネクト | NVIDIA ConnectX-8 SuperNIC x8 合計 6,400Gbps |
|---|
| ユースケース | ・大規模言語モデルの高速学習とファインチューニング ・AI のリコーミングと推論処理の高速化 ・コンピュータビジョンモデルの大規模データセットを用いた学習など |
|---|
| 価格 | 各社ごとにお見積り |
|---|
2.NVIDIA Blackwell Ultra GPU(GPUメモリ)の特徴
スペック(NVIDIA H200比)
・メモリ容量は288GB(H200比204%)
・新たにFP4演算精度に対応
・FP8 Tensor Core性能も最大2.25倍に向上
3.NVIDIA B300の特徴
大規模学習の効率化
•学習性能は最大4倍(前世代比:H200)へ向上
•GPUメモリ容量や帯域幅など、主要性能が大幅に強化
•ワットあたりの性能も向上
推論がより強化
•推論性能11 倍(前世代比:H200)へ向上
•FP4対応により、VRAM使用量を削減しつつスループットを改善
•GPUメモリ容量が過去最大
これにより、大規模モデルの学習をより高速かつ省電力で実行可能にします。
4.ネットワーク構成
HGX B300 AIインフラストラクチャは、8基のNVIDIA ConnectX-8 SuperNICs、合計6,400Gbps(https://www.nvidia.com/ja-jp/networking/products/ethernet/supernic/)と複数のGPUを接続および拡張させるNVIDIA Spectrum-X Ethernetスイッチ( https://www.nvidia.com/ja-jp/networking/spectrumx/ )により超高速通信を実現します。低レイテンシ設計により、大規模なAI学習時のデータ転送を高速化し、複数サーバーを組み合わせた分散学習環境でも安定した高性能を発揮します。
(左)NVIDIAConnectX-8 SuperNIC
(中央)NVIDIA BlueField-3 DPU
(右)NVIDIA Spectrum-4
5.NVIDIA B300とNVIDIA H200の比較
| NVIDIA HGX B300 | NVIDIA HGX H200 |
|---|
| GPU メモリ | 計 2.3TB(288GB HBM3e ×8) | 計 1.1TB(141GB HBM3e ×8) |
| FP4 Tensor コア | 144PFLOPS / 108PFLOPS | - |
| FP8 Tensor コア | 72PFLOPS | 32PFLOPS |
| FP16 Tensor コア | 36PFLOPS | 16PFLOPS |
| FP32 | 600TFLOPS | 540TFLOPS |
| 最大インターコネクト帯域 | 6,400Gbps | 3,200Gbps |
| NVLINK(GPU間帯域/GPU1基ごと) | 第5世代(1,800GB/s) | 第4世代(900GB/s) |
【ベアメタルプランについて】
今回、国内最速で提供を開始する「GMO GPUクラウド ベアメタルプラン」では、仮想化レイヤーを介さずGPUに直接アクセスすることで、演算性能を最大限に引き出す完全専有環境を実現します。AI推論処理に特化した演算能力を活かし、大規模言語モデルの高速推論や、エージェントAI開発など、多様なワークロードにも適しています。
また、ベアメタルならではの自由度を保ちつつ、初期設定やネットワーク構築の手間を軽減する仕組みを備えています。
■主な特徴:
•Ubuntu OS初期セットアップ済みで提供
•インターコネクトネットワーク設定済み(ローカルNWも利用可能)
•管理ダッシュボードによるサーバー管理機能
•追加ストレージの利用が可能
これにより、ユーザーは構築工数を抑えながら、高いパフォーマンスと柔軟なチューニング性を両立したGPU環境を利用できます。
■NVIDIA B300 におけるサーバー構成イメージ
<代表取締役 社長執行役員 伊藤 正のコメント>
「GMO GPUクラウド」は、2024年11月のサービス開始以来、先端のAI開発のインフラを支えてまいりました。最先端で高性能な技術への取り組みと、安定した運用環境、きめ細かな技術サポートに一貫してこだわり続け、お客様のAI開発を支援することに挑み続けてまいりました。NVIDIA B300を国内最速で提供することは、日本発のAIイノベーションを次のステージへ加速させる取り組みにつながると確信しています。今後もNVIDIA様との技術連携を深め、エンジニアの挑戦を支えるAI開発基盤を磨き上げ、世界に通用する次世代AIの創出を力強く後押ししてまいります。
<エヌビディア 日本代表 兼 米国本社副社長 大崎 真孝 氏のコメント>
日々、AI開発に挑む開発者・研究者にとって、莫大な計算資源にアクセスできる高性能かつ拡張性の高いコンピューティング環境は不可欠です。高効率な学習と高速推論を可能にするNVIDIA HGX B300を搭載した「GMO GPUクラウド」を国内で提供されることは、日本のAIインフラストラクチャをリードする大きな一歩と言えます。
【今後の展開】
GMOインターネットは、「GMO GPUクラウド」を中核としたAIインフラ戦略により、急速に進化するAI・ロボティクス分野の技術革新に貢献してまいります。今後も最新のAI計算基盤の提供と、お客様のニーズに応じた柔軟なクラウド環境の構築により、日本のAI産業に不可欠な国産AI基盤として、社会と産業のAIイノベーション創出に貢献してまいります。
【「GMO GPUクラウド」について】
NVIDIAテクノロジ上で構築された国内最速クラスのGPUクラウドサービス「GMO GPUクラウド」は、2024年11月に高性能な「H200 GPU」を採用したサービスを開始しました。今回、NVIDIAの最新アーキテクチャ「Blackwell Ultra」を導入したGMO GPUクラウドの「NVIDIA B300」インスタンスは、「NVFP4」(※3)に対応した第5世代Tensor Core、2.3TBに達するHBM3eメモリ(※4)、そして第5世代のNVIDIA NVLink とNVLink Switchによる高速通信を備えた超大規模AIファクトリー構築向けGPUです。これにより従来のH200より大規模言語モデルの学習時間を大幅に短縮することで、さらにAI開発の効率を大幅に向上させます。
GMOインターネットは、本サービスを通じて、生成AI分野に取り組む企業や研究機関に対し、最適化されたインフラ基盤と、お客様のワークロードに応じた柔軟でカスタマイズ可能な計算環境を提供し、開発期間の短縮とコスト低減に貢献、国内AI産業の発展を促進します。
(※3) 「NVFP4」は NVIDIA が設計した 4 ビット浮動小数点フォーマットで、他の FP4 フォーマットよりも高い精度を実現。
(※4)「HBM3e」高帯域メモリの最新規格。従来比で帯域幅が向上し、大規模AIモデルの学習・推論処理を高速化。
■過去参考リリース
【GMOインターネット株式会社について】
GMOインターネット株式会社は、GMOインターネットグループのインターネットインフラ事業と広告・メディア事業の強みを融合すべく、2025年1月1日に新体制で始動しました。
インターネットインフラ事業の強固な収益基盤と、インターネット広告・メディア事業のそれぞれの強みを最大限に活かし、「すべての人にインターネット」というコーポレートキャッチのもと、関わるすべての方に「笑顔」と「感動」をお届けし、AIで新たな未来を創る価値創造に挑戦してまいります。