全てのカテゴリ

閲覧履歴

サーバーハードウェア NVIDIA H200 Tensor Core GPU NVL-株式会社トゥモロー・ネット
🚗 自動車・輸送用機器業界用 💊 製薬・医薬品業界用 🧪 化学業界用

株式会社トゥモロー・ネットの対応状況 返信のとても早い企業

返答率

100.0%

返答時間

2.4時間

全型番で同じ値の指標

FP64

34 TFLOPS

FP64 Tensor コア

67 TFLOPS

FP32

67 TFLOPS

TF32 Tensor コア

989 TFLOPS²

BFLOAT16 Tensor コア

1,979 TFLOPS²

FP16 Tensor コア

1,979 TFLOPS²

FP8 Tensor コア

3,958 TFLOPS²

INT8 Tensor コア

3,958 TFLOPS²

GPU メモリ

141GB

GPU メモリ帯域幅

4.8TB/秒

デコーダー

7 NVDEC 7 JPEG

コンフィデンシャル コンピューティング

サポート対象

最大熱設計電力 (TDP)

最大 600W (構成可能)

マルチインスタンス GPU

各 18GB で最大 7 個の MIG

フォーム ファクター

PCIe

相互接続

2 ウェイまたは 4 ウェイの NVIDIA NVLink ブリッジ: 900GB/秒 PCIe Gen5: 128GB/秒

サーバー オプション

GPU を 4 基または 8 基搭載の NVIDIA HGX H200 パートナー製品および NVIDIA-Certified Systems

NVIDIA AI Enterprise

同梱

この製品について

生成 AI と HPC のための GPU。NVIDIA H200 Tensor コア GPUは、革新的なパフォーマンスとメモリ機能を備え、生成AIおよびHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200は、大容量かつ高速なメモリを提供し、科学コンピューティングによるHPCワークロードの推進と、生成AIや大規模言語モデル (LLM) の高速化を実現します。 製品の特長と利点

■大容量で高速なメモリによる高いパフォーマンス

NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、毎秒4.8テラバイト (TB/s) の帯域幅を持つ141ギガバイト (GB) のHBM3eメモリを搭載した初のGPUです。これは、従来のNVIDIA H100 TensorコアGPUと比較して、約2倍のメモリ容量と1.4倍のメモリ帯域幅を実現します。 H200は、生成AIや大規模言語モデル (LLM) の高速化を支援し、エネルギー効率の向上、総所有コストの削減、さらにHPCワークロードにおける科学計算の進化を加速します。

■ハイパフォーマンス コンピューティングを加速

ハイパフォーマンス コンピューティング (HPC) アプリケーションにおいて、メモリ帯域幅は高速なデータ転送を可能にし、複雑な処理のボトルネックを解消する重要な要素です。シミュレーションや科学研究、人工知能といったメモリ集約型のHPCワークロードでは、NVIDIA H200の圧倒的なメモリ帯域幅がデータへのアクセスと操作を劇的に効率化します。 これにより、CPUと比較して最大110倍の速さで結果を導き出すことが可能になります。

■エネルギー効率と TCO を劇的に削減

NVIDIA H200 は、H100 Tensor コア GPU と同じ電力プロファイル内で、かつてないパフォーマンスを実現します。これにより、AIファクトリーやスーパーコンピューティング システムは、これまで以上に高速かつ環境に配慮した運用が可能となります。 また、エネルギー効率の向上と運用コスト (TCO) の削減を通じて、AIや科学分野のコミュニティにとって経済的な優位性を提供します。

  • 型番

    NVL

この製品を共有する


70人以上が見ています

最新の閲覧: 6時間前


返答率: 100.0%

返答時間: 2.4時間


無料
見積もり費用は無料です、お気軽にご利用ください

電話番号不要
不必要に電話がかかってくる心配はありません

GPUサーバー注目ランキング (対応の早い企業)

返答時間が24時間以内の企業の中での注目ランキング

電話番号不要

何社からも電話が来る心配はありません

一括見積もり

複数社に同じ内容の記入は不要です

返答率96%

96%以上の方が返答を受け取っています


サーバーハードウェア NVIDIA H200 Tensor Core GPU NVL NVLの性能表

商品画像 価格 (税抜) FP64 FP64 Tensor コア FP32 TF32 Tensor コア BFLOAT16 Tensor コア FP16 Tensor コア FP8 Tensor コア INT8 Tensor コア GPU メモリ GPU メモリ帯域幅 デコーダー コンフィデンシャル コンピューティング 最大熱設計電力 (TDP) マルチインスタンス GPU フォーム ファクター 相互接続 サーバー オプション NVIDIA AI Enterprise
サーバーハードウェア NVIDIA H200 Tensor Core GPU NVL-品番-NVL 要見積もり 34 TFLOPS 67 TFLOPS 67 TFLOPS 989 TFLOPS² 1,979 TFLOPS² 1,979 TFLOPS² 3,958 TFLOPS² 3,958 TFLOPS² 141GB 4.8TB/秒 7 NVDEC
7 JPEG
サポート対象 最大 600W (構成可能) 各 18GB で最大 7 個の MIG PCIe 2 ウェイまたは 4 ウェイの NVIDIA NVLink ブリッジ: 900GB/秒
PCIe Gen5: 128GB/秒
GPU を 4 基または 8 基搭載の NVIDIA HGX H200 パートナー製品および NVIDIA-Certified Systems 同梱

全1種類の型番を一覧でみる

類似製品

GPUサーバーの中でこの商品と同じ値をもつ製品
使用用途が機械学習の製品

フィルターから探す

GPUサーバーをフィルターから探すことができます

使用用途

#機械学習 #深層学習 #画像解析 #動画処理 #数値解析 #医用解析 #金融解析 #シミュレーション #3DCG制作 #自然言語処理

ストレージ最大容量 TB

0 - 20 20 - 50 50 - 100 100 - 150 150 - 500

電源ユニット W

0 - 500 500 - 1,000 1,000 - 1,500 1,500 - 2,000 2,000 - 2,500 2,500 - 3,000

最大消費電力 W

0 - 500 500 - 1,000 1,000 - 1,500 1,500 - 2,000 2,000 - 2,500 2,500 - 3,000 3,000 - 3,500 3,500 - 4,000 4,000 - 5,500 5,500 - 6,000 6,000 - 6,500

筐体タイプ

ラックマウント型 タワー型 フルタワー型

この商品を見た方はこちらもチェックしています

GPUサーバーをもっと見る

この商品の取り扱い会社情報

返答率

100.0%


返答時間

2.4時間

会社概要

トゥモロー・ネットは「ITをもとに楽しい未来へつなごう」という経営理念のもと、感動や喜びのある、より良い社会へと導く企業を目指し、最先端のテクノロジーとサステナブルなインフラを提供しています。設立以来培ってきたハードウェ...

もっと見る

  • 本社所在地: 東京都

この商品の該当カテゴリ

Copyright © 2025 Metoree