Flüssigkeitskühlung: Der nächste Engpass in der KI-Infrastruktur

Das explosionsartige Wachstum der künstlichen Intelligenz (KI) bringt Rechenzentren an ihre thermischen Grenzen. Während GPUs und CPUs für eine optimale Leistung größtenteils auf Flüssigkeitskühlung umgestiegen sind, hinken Speichersysteme hinterher, wodurch eine ineffiziente Hybridarchitektur entsteht, die die Vorteile moderner Kühllösungen zunichte macht. Dabei handelt es sich nicht nur um ein Kostenproblem; Es handelt sich um eine grundlegende strukturelle Belastung, die sich auf die Rackdichte, die Nachhaltigkeit und letztendlich auf die Fähigkeit zur Skalierung von KI-Bereitstellungen auswirkt.

Die Ineffizienz der Hybridkühlung

Derzeit basieren viele KI-Einsätze auf einem Patchwork-System: flüssigkeitsgekühlte Prozessoren neben luftgekühltem Speicher. Dieser Ansatz ist operativ ineffizient. Am Ende unterhalten Unternehmen zwei völlig getrennte und teure Kühlinfrastrukturen – Flüssigkeitskreisläufe für die Rechenleistung und herkömmliche CRAC-Einheiten für die Speicherung –, ohne die Vorteile der Gesamtbetriebskosten (TCO) eines einheitlichen Systems voll auszuschöpfen.

Das Problem wird durch physische Einschränkungen verschärft. Sperrige Flüssigkeitskühlungskomponenten behindern die Luftzirkulation im Servergehäuse und konzentrieren die thermische Belastung auf luftgekühlte Laufwerke, Speicher und Netzwerkhardware. Ventilatoren haben Schwierigkeiten, die Wärme rund um die Flüssigkeitsleitungen ausreichend abzuleiten, wodurch die hitzeempfindlichsten Komponenten in die schlechteste thermische Umgebung gezwungen werden.

Wasserverbrauch: Eine übersehene Krise

Über Kosten und Leistung hinaus sind die Auswirkungen auf die Umwelt erheblich. Luftgekühlte Systeme sind stark auf Verdunstungskühltürme angewiesen, die im Laufe der Zeit Millionen Gallonen Wasser verbrauchen können. Mit zunehmender Leistungsdichte im Rack wird dieser Wassernachteil nicht mehr tragbar. Laut Hardeep Singh, Teammanager für thermisch-mechanische Hardware bei Solidigm, ist die derzeitige Abhängigkeit von Verdunstungskühlung auf lange Sicht „umwelttechnisch und wirtschaftlich nicht vertretbar“.

Der Übergang zum thermischen Design auf Systemebene

Moderne KI-Infrastruktur wird nicht Server für Server aufgebaut; Es ist als eng integriertes System auf Rack- und Pod-Ebene konzipiert. Stromversorgung, Kühlverteilung und Komponentenplatzierung sind jetzt untrennbar miteinander verbunden. Das bedeutet, dass Speicherarchitekturen, die für luftstromabhängige Rechenzentren konzipiert sind, zu einem limitierenden Faktor werden. Da GPUs auf vollständig flüssigkeitsgekühlte, lüfterlose Designs umsteigen, muss sich der Speicher anpassen, sonst wird er zum Engpass.

Speicherung: Vom passiven zum aktiven Teilnehmer

Historisch gesehen wurde die Speicherung als passives Subsystem behandelt. Dies ist nicht mehr realisierbar. Die Skalierung der KI hängt nun davon ab, ob sich der Speicher sauber in flüssigkeitsgekühlte GPU-Systeme integrieren lässt, ohne die Kühlarchitekturen zu fragmentieren oder das Design auf Rack-Ebene einzuschränken.

Scott Shadley, Director of Leadership Narrative und Evangelist bei Solidigm, betont, dass es beim Wettlauf um die Skalierung der KI nicht mehr nur um die Anzahl der GPUs geht. Es geht darum, wer diese GPUs kühl, zuverlässig und effizient halten kann. Techniken wie KV-Cache-Offload, bei dem Daten zwischen GPU-Speicher und Hochgeschwindigkeitsspeicher verschoben werden, machen Speicherlatenz und thermische Leistung für die Effizienz der Modellbereitstellung von entscheidender Bedeutung.

Der Weg zur integrierten Flüssigkeitskühlung

Der Wechsel zu vollständig integrierten flüssigkeitsgekühlten Racks verbessert die Stromverbrauchseffizienz (PUE) und senkt die Betriebskosten. Außerdem entfällt der Bedarf an lauten Computerraum-Luftbehandlungsgeräten (CRAHs) und diese werden möglicherweise durch moderne, effiziente Flüssigkeitskühlverteilungseinheiten (CDUs) ersetzt, die Racks bei Temperaturen von bis zu 45 °C kühlen können.

Eine nahtlose Integration erfordert jedoch eine grundlegende Neugestaltung des Speichers. Herkömmliche SSD-Designs setzen einen Luftstrom für das Wärmemanagement voraus und verteilen die Komponenten häufig auf beide Seiten einer Leiterplatte – Annahmen, die in einer flüssigkeitsgekühlten Umgebung nicht zutreffen. Auch die Wartungsfreundlichkeit ist entscheidend; Die Flüssigkeitskühlung darf beim Einsetzen oder Entfernen des Laufwerks keine Leckagerisiken mit sich bringen.

Die Zukunft der Lagerung: Neu gestaltet für Flüssigkeiten

Solidigm hat mit NVIDIA zusammengearbeitet, um diese Herausforderungen anzugehen, wobei der Schwerpunkt auf Hot-Swap-Kompatibilität und einseitigen Kühllösungen liegt. Das Unternehmen plädiert für die Neugestaltung von SSDs mit Wärmeübertragungspfaden mit geringem Widerstand, um die Wärme effizient an eine spezielle Kühlplatte zu leiten.

Die Branche arbeitet an Standards, um die Interoperabilität sicherzustellen. Solidigm ist führend und arbeitet mit der SNIA und dem Open Compute Project (OCP) zusammen, um serienreife Designs zu entwickeln, die sich sauber in flüssigkeitsgekühlte GPU-Plattformen integrieren lassen.

Der Wandel ist klar: Speicher ist kein isoliertes technisches Problem mehr. Es ist eine direkte Variable für die GPU-Auslastung, die Systemzuverlässigkeit und die Betriebseffizienz. Die Zukunft der KI-Skalierung hängt davon ab, diese Realität zu akzeptieren.