Samsung Electronics Co., Ltd,(本社:韓国)は2026年2月12日、HBMインターフェイスを採用するAIコンピューティング向け最新メモリ
「HBM4」の量産、および出荷を開始した。 第6世代10nmクラスDRAMプロセス(1c)や4nmロジックプロセスなどの最先端ノードを採用し、ピンあたりの処理速度は業界標準の8Gbpsを約46%上回る11.7Gbpsを安定して発揮できる。さらに最大ピン速度は13Gbpsまで向上する予定で、AIモデルのスケールアップによって深刻化するデータボトルネックを緩和できるという。 第1弾モデルの容量は12層スタッキング技術により24GB~36GBまでラインナップし、16層スタッキングを採用することで、最大48GBまで拡張予定。単一スタックあたりの合計メモリ帯域幅は最大3.3TB/sで、HBM3Eから2.7倍向上している。 またデータI/Oピン数が1,024ピンから2,048ピンへと倍増したことによる消費電力と熱の問題に対処するため、高度な低消費電力設計ソリューションを統合。低電圧シリコン貫通ビア技術と電力分配ネットワークの最適化により、電力効率は40%、熱抵抗は10%、放熱性は30%改善した。 なお同社ではHBMの売上高が2026年には2025年比で3倍以上に増加すると予測しており、HBM4の生産能力を積極的に拡大している。さらに「HBM4E」のサンプル出荷は2026年後半、カスタムHBMのサンプル出荷も2027年に開始する予定だ。
Samsung Ships Industry-First Commercial HBM4 With Ultimate Performance for AI Computing
https://news.samsung.com/global/samsung-ships-industry-first-commercial-hbm4-with-ultimate-performance-for-ai-computing