Micron, Nvidia’nın yen AI GPU’ları için HBM3E üretimine başladı
Micron, HBM3E belleklerde seri üretime başladı
Micron’un 1β (1-beta) sürecinde üretilen 24GB 8H HBM3e bellekleri Nvidia’nın “H200” Tensor Core GPU’larının bir parçası olacak ve SK Hynix’in H100 GPU’lardaki tek tedarikçi olarak boy göstermesini sonlandıracak. Micron’un yeni belleğiyle birlikte Nvidia H200, 9,2GT/s veri aktarım hızlarına ve GPU başına 1,2TB/sn‘nin üzerinde bellek bant genişliğine sahip 141GB bellek kapasitesine sahip olacak. HBM3 ile karşılaştırıldığında bu, bellek bant genişliğinde yüzde 44’lük bir artış anlamına geliyor.
Micron’un yapay zekaya yönelik bellek yol haritası, Mart 2024’te 36 GB 12-Hi HBM3E ürününün piyasaya sürülmesiyle daha da güçlenecek. Ancak rekabet halen çok yüksek. Samsung, halihazırda 12 istifli/katmanlı 36 GB HBM3E belleklerini müşterilere örneklemeye başlamış durumda.