業界初の8層で24GBを達成したHBM3 Gen2メモリのサンプル出荷を開始 マイクロン

Micron Technologyは2023年7月26日、業界初となる8層(8-High)で24GBに大容量化した「HBM3 Gen2メモリ」のサンプル出荷を開始した。全体の帯域幅で毎秒1.2テラバイト(1.2TB/s)、ピン当たりの帯域幅で毎秒9.2ギガビット(9.2Gbps)を超え、HBM3ソリューションと比べて50%高速化している。

HBM3 Gen2メモリは、ワット当たりの性能が前世代製品と比べて2.5倍向上しており、GPT-4やこれに続く大規模言語モデル(LLM)の学習時間を短縮できる。また、AI推論向けにも高効率なインフラを構築できる。

同社の広帯域メモリ(HBM)ソリューションの基盤は、1β(1ベータ)DRAMプロセスノードで、業界標準のパッケージサイズ内でダイ当たり24GbのDRAMを8層キューブ(立体構造)で組み立てられる。さらに、2024年第1四半期に12層積層の36GB製品をサンプル出荷する予定がある。

同社は、積層の高さが同一の既存の競合ソリューションと比べ、容量を50%以上増大させる。また、競合のHBM3製品の倍となるシリコン貫通電極(TSV)の数、金属密度の5倍化による熱抵抗の改善、エネルギー効率の高いデータパス設計などにより、電力効率を改善している。

HBM3 Gen2メモリは、マルチモーダルAIモデルなどの生成AIの需要に対応でき、単一キューブで24GBに達する大容量化とピン速度9.2Gbps超の高速化によって、LLMの学習時間を30%以上短縮し、総所有コスト(TCO)を低減する。さらに、一日当たりのクエリ実行数を大幅に増大させている。

HBM3 Gen2製品開発の一環として、TSMCと協業を進めているが、これはAIと高性能コンピューティング(HPC)用途のコンピューティングシステムの円滑な導入と統合の基盤になる。TSMCでは、次世代HPCアプリケーション用途として、HBM3 Gen2メモリのサンプルを使用した評価とテストを進めている。

マイクロンは、1αノードによる24GbのモノリシックダイのDRAMを実装した大容量サーバー・ソリューション向けの96GB DDR5モジュール、1βノードによるダイ当たり24Gbの24GB HBM3製品を発表しているほか、2024年上半期に1βノードによるモノリシックダイ当たり32GbのDRAMを実装した128GB DDR5モジュールの提供を予定している。

関連情報

マイクロン、業界最速・最高容量のHBMを提供し、生成AIのイノベーションを促進|マイクロンメモリジャパン株式会社のプレスリリース

関連記事

アーカイブ

fabcross
meitec
next
メルマガ登録
ページ上部へ戻る