業界最高レベルの最大192GB HBM3を実装
AMD(本社:アメリカ)は2023年12月6日(現地時間)、CDNA 3アクセラレータアーキテクチャを採用したGPU「AMD Instinct MI300X」およびAPUの「AMD Instinct MI300A」から構成される、データセンターの生成AI向けソリューション
「AMD Instinct MI300」シリーズを正式発表した。
「AMD Instinct MI300X」は、次世代のCDNA 3アクセラレータアーキテクチャを採用するGPUで、従来のAMD Instinct MI250Xに比べ約40%多いCU(Compute Unit)を搭載。複雑さを増す大規模言語モデル(LLM)に対応するため、メモリ容量は従来の1.5倍、メモリ帯域幅は1.7倍に向上している。主な仕様は、CUが304基、メモリは192GBのHBM3を実装、メモリ帯域幅は5.38TB/s。競合であるNVIDIA HGX H100との比較では、LLMでの推論実行時にスループットを最大1.6倍向上させることが可能という。
「AMD Instinct MI300A」はCDNA 3アクセラレータアーキテクチャのGPUに加えて、Zen 4アーキテクチャのCPUを1チップに統合したAPU。CUは228基でメモリは128GB HBM3を実装、メモリ帯域幅は5.38TB/s。FP32演算およびAIワークロードにおいて、従来のAMD Instinct MI250Xに比べて最大1.9倍のワットパフォーマンスを発揮するとされる。