Das sogenannte High Bandwidth Memory, kurz HBM, nervt zurzeit viele Leute. Denn weil die Nachfrage extrem hoch ist, sind andere Speicherchips wie DDR5-SDRAM wahnsinnig teuer.
Der Zusammenhang mag überraschen, weil nur sehr wenige Menschen jemals ein Gerät mit HBM in die Finger bekommen. HBM kommt ganz überwiegend in KI-Rechenbeschleunigern in Rechenzentren zum Einsatz, also zur Verarbeitung großer KI-Modelle. HBM ist pro Gigabyte nämlich so viel teurer als andere DRAM-Typen, dass es sich nur für solche Anwendungszwecke rechnet. Es gibt noch ein paar andere Einsatzbereiche, etwa superschnelle Netzwerkchips und Hochleistungsversionen von programmierbaren Logikchips, also FPGAs.
In dieser Podcast-Folge geht es darum, wie sich HBM von DDR5-, LPDDR5X- und GDDR7-SDRAM unterscheidet. Aber auch darum, wie es hergestellt wird (und von wem), welche Versionen bereits im Einsatz sind, was das kommende HBM4 besser kann als HBM3E und wieso HBM5 vielleicht nur noch mit direkter Flüssigkeitskühlung nutzbar ist.
Der c’t-Redakteur Christof Windeck erklärt HBM im Gespräch mit seinem Kollegen Carsten Spille: Folge 2026/9 von Bit-Rauschen, der Prozessor-Podcast von c’t.
Podcast Bit-Rauschen, Folge 2026/9 :
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Podcasts immer laden
Wir freuen uns über Anregungen, Lob und Kritik zum Bit-Rauschen. Rückmeldungen gerne per E-Mail an bit-rauschen@ct.de.
Alle Folgen unseres Podcasts sowie die c’t-Kolumne Bit-Rauschen finden Sie unter www.ct.de/Bit-Rauschen
Weitere Podcasts aus unserem Team finden Sie unter heise.de/podcasts.
(ciw)












English (US) ·