2024/03/18

大規模言語モデルや生成AI開発に特化したGPUカード『NVIDIA H100 NVL』を販売

HPCシステムズ 株式会社 

2024 年 3 月 18 日

HPC システムズ株式会社

HPC システムズ、大規模言語モデルや生成 AI 開発に特化した GPU カード
『NVIDIA® H100 NVL』を販売

HPC システムズ株式会社(本社:東京都港区、代表取締役 小野 鉄平、以下 HPC システムズ)は、大規模言語モデルや生成 AI の開発に特化した最新の GPU カード『NVIDIA® H100 NVL』を販売します。

HPC システムズは、NVIDIA 社パートナー認定制度「NVIDIA Partner Network (NPN)」 において、最上位パートナーレベルである 「ELITE PARTNER」の企業に認定されており、NVIDIA 社の各製品を熟知しています。加えて、長年培ってきた高度な AI インテグレーション技術を有しております。こうした強みを掛け合わせることで、HPC システムズは『NVIDIA® H100 NVL』の性能を最大限に引き出し、お客様が抱える研究・開発上の様々な課題に対する最適解を提供します。

『NVIDIA® H100 NVL』は、現行世代 GPU アーキテクチャ「Hopper」を採用した最新の GPU カードです。94GB HBM3 メモリ、第 4 世代の NVIDIA® H100 Tensor コア GPU 、前世代の NVIDIA® A100 GPU の約 1.5 倍にあたる 800 億個のトランジスタを搭載しています。 注目すべき特長は、94GB HBM3 メモリ搭載の『NVIDIA® H100 NVL』2 枚を NVLink™で接続することによって、188GB の大容量メモリと 7.8TBps のメモリ帯域の拡張を可能にする点です。その推論パフォーマンスは、OpenAI 社が Chat GPT-3 の開発に使用した前世代 NVIDIA® A100 GPU と比較すると、データセンター規模で最大 12 倍もの高速化を実現するものです。

また、『NVIDIA® H100 NVL』の最大熱設計電力(TDP)は、NVIDIA® H100 PCIe 80GB より大きな 350W-400W であるものの、設定によって NVIDIA® H100 PCIe 80GB と同等の消費電力で利用することができるため、ご利用中のシステムをスケールアップしたいユーザー様にとっても最適な選択肢になり得ます。

公式ページ(続き・詳細)はこちら
https://contents.xj-storage.jp/xcontents/AS98099/f30ed424/a8f6/4842/bf4a/0b8a3d3a164d/140120240318555275.pdf

この企業のニュース

業界チャネル Pick Upニュース

注目キーワード