NVIDIA、毎秒2テラバイト超のメモリ帯域幅GPUと同GPUを搭載可能なペタスケールワークグループサーバーを発表

  • Tweet
  • このエントリーをはてなブックマークに追加

NVIDIAは、2020年11月16日、同社の「Ampere」アーキテクチャーをベースとした初のGPUである「NVIDIA A100」の40GB高帯域幅メモリを、80GBに倍増した「NVIDIA A100 80GB GPU」を発表した。A100 80GB GPUはHBM2e技術を搭載しており、業界で初めて毎秒2テラバイトを超えるメモリ帯域幅を可能にした。

高性能計算(HPC)やAIの研究には、ますます大きなモデルの構築が求められるようになっているが、それには非常に多くのメモリ容量と帯域幅が必要だ。A100 80GB GPUを用いることで、データの読み込みが速くなるため、アプリケーションを大幅に高速化し、これまでにない規模のモデルやデータセットに挑戦できるようになる。例えば、DLRMのようなレコメンダーシステムモデルでは、何十億人ものユーザーと何億もの製品データを含むテーブルがあるが、A100 80GBは最大3倍高速化できるので、モデルを素早く再トレーニングできるようになり、ユーザーに適した製品を非常に正確に薦めることができるようになる。

デル、HP、Lenovo、富士通など複数のトップ企業が、同GPUを4台あるいは8台搭載したHGX A100 統合ベースボードを使って構築したシステムを、2021年上半期に提供開始する予定だ。

また、同時に、世界唯一のペタスケール統合型AIワークグループサーバーで、2.5PFLOPSのAI性能を持つ「NVIDIA DGX Station A100」も発表された。A100 Tensor コア GPU4基(80GBまたは40GB)と最大320GBのGPUメモリを搭載している。

DGX Station A100は、AIデータセンターの機能と性能をワンボックスで提供するもので、データセンターのような電力または冷却性能を必要としない。企業のオフィスや研究施設、自宅のホームオフィスなど、あらゆる場所に組み込むことができ、データセンター以外でもAIの活用を可能にする。

BERT -Largeの推論のような複雑な対話型AIモデルに対応するために、処理速度は前世代のDGX Stationから4倍以上速くなった。また、BERT-LargeのAIトレーニングのための性能は3倍近く向上している。

さらに、新しい「NVIDIA DGX A100 640GB」システムでは、DGX A100システムに新しいA100 80GB GPUを搭載でき、システム当たりのGPUメモリ容量が640GBへと倍増した。DGX Station A100、DGX A100 640GBともに、2020年年末までに発売される予定だ。

関連リンク

NVIDIA、メモリを倍増したA100 80GB GPU を発表、世界で最も強力な AI スーパーコンピューティング用 GPU を大幅に強化
NVIDIA DGX Station A100 は、研究者にAI データセンターの機能と性能をワンボックスで提供

関連記事

アーカイブ

fabcross
meitec
next
メルマガ登録
ページ上部へ戻る