De explosieve groei van kunstmatige intelligentie (AI) drijft datacenters naar hun thermische grenzen. Hoewel GPU’s en CPU’s grotendeels zijn overgestapt op vloeistofkoeling voor optimale prestaties, blijven opslagsystemen achter, waardoor een inefficiënte hybride architectuur ontstaat die de voordelen van moderne koeloplossingen ondermijnt. Dit is niet alleen een kostenprobleem; het is een fundamentele structurele aansprakelijkheid die van invloed is op de rackdichtheid, de duurzaamheid en uiteindelijk op het vermogen om AI-implementaties te schalen.
De inefficiëntie van hybride koeling
Momenteel zijn veel AI-implementaties afhankelijk van een lappendekensysteem: vloeistofgekoelde processors naast luchtgekoelde opslag. Deze aanpak is operationeel inefficiënt. Organisaties onderhouden uiteindelijk twee volledig gescheiden en dure koelinfrastructuren – vloeistoflussen voor rekenkracht en traditionele CRAC-eenheden voor opslag – zonder de voordelen van de totale eigendomskosten (TCO) van een uniform systeem volledig te realiseren.
Het probleem wordt verergerd door fysieke beperkingen. Volumineuze vloeistofkoelingscomponenten belemmeren de luchtstroom in het serverchassis, waardoor de thermische belasting zich concentreert op luchtgekoelde schijven, geheugen en netwerkhardware. Ventilatoren hebben moeite om de warmte rondom vloeistofleidingen adequaat af te voeren, waardoor de meest warmtegevoelige componenten in de slechtst mogelijke thermische omgeving worden gedwongen.
Waterverbruik: een over het hoofd geziene crisis
Naast de kosten en prestaties is de impact op het milieu aanzienlijk. Luchtgekoelde systemen zijn sterk afhankelijk van verdampingskoeltorens, die in de loop van de tijd miljoenen liters water kunnen verbruiken. Naarmate de stroomdichtheid in het rack toeneemt, wordt deze waterstraf onhoudbaar. Volgens Hardeep Singh, teammanager thermisch-mechanische hardware bij Solidigm, is de huidige afhankelijkheid van verdampingskoeling op de lange termijn “ecologisch en economisch onverdedigbaar”.
De verschuiving naar thermisch ontwerp op systeemniveau
De moderne AI-infrastructuur wordt niet server voor server gebouwd; het is ontworpen als nauw geïntegreerde systemen op rack- en podniveau. Stroomafgifte, koelingsdistributie en plaatsing van componenten zijn nu onlosmakelijk met elkaar verbonden. Dit betekent dat opslagarchitecturen ontworpen voor luchtstroomafhankelijke datacenters een beperkende factor worden. Nu GPU’s steeds meer richting volledig vloeistofgekoelde, ventilatorloze ontwerpen evolueren, moet de opslag zich aanpassen of een knelpunt worden.
Opslag: van passieve naar actieve deelnemer
Historisch gezien werd opslag behandeld als een passief subsysteem. Dit is niet langer levensvatbaar. Het schalen van AI hangt nu af van de vraag of opslag netjes kan worden geïntegreerd in vloeistofgekoelde GPU-systemen zonder de koelarchitectuur te fragmenteren of het ontwerp op rackniveau te beperken.
Scott Shadley, directeur leiderschapsverhaal en evangelist bij Solidigm, benadrukt dat de race om AI op te schalen niet langer alleen maar om het aantal GPU’s gaat. Het gaat erom wie die GPU’s koel, betrouwbaar en efficiënt kan houden. Technieken zoals KV cache offload, waarbij gegevens worden verplaatst tussen GPU-geheugen en snelle opslag, maken opslaglatentie en thermische prestaties van cruciaal belang voor de efficiëntie van de modelbediening.
De weg naar geïntegreerde vloeistofkoeling
De overstap naar volledig geïntegreerde vloeistofgekoelde racks verbetert de energiegebruiksefficiëntie (PUE) en verlaagt de operationele kosten. Het elimineert ook de behoefte aan luidruchtige computerruimte-airhandlers (CRAH’s), en vervangt deze mogelijk door moderne, efficiënte vloeistofkoelingdistributie-eenheden (CDU’s) die rekken kunnen koelen bij temperaturen tot 45 ° Celsius.
Naadloze integratie vereist echter een fundamenteel herontwerp van opslag. Traditionele SSD-ontwerpen gaan uit van luchtstroom voor thermisch beheer en verdelen componenten vaak over beide zijden van een PCB – aannames die niet opgaan in een vloeistofgekoelde omgeving. Onderhoudsgemak is ook van cruciaal belang; vloeistofkoeling mag geen lekkagerisico’s met zich meebrengen tijdens het inbrengen of verwijderen van de schijf.
De toekomst van opslag: opnieuw ontworpen voor vloeistoffen
Solidigm heeft samengewerkt met NVIDIA om deze uitdagingen aan te pakken, waarbij de nadruk ligt op hot-swap-compatibiliteit en enkelzijdige koelingsoplossingen. Het bedrijf pleit voor het herontwerpen van SSD’s met warmteoverdrachtspaden met lage weerstand om warmte efficiënt naar een speciale koude plaat te geleiden.
De industrie bundelt zich rond standaarden om interoperabiliteit te garanderen. Solidigm leidt de leiding en werkt samen met de SNIA en Open Compute Project (OCP) om productieklare ontwerpen te ontwikkelen die netjes kunnen worden geïntegreerd in vloeistofgekoelde GPU-platforms.
De verschuiving is duidelijk: opslag is niet langer een geïsoleerd technisch probleem. Het is een directe variabele in het GPU-gebruik, de systeembetrouwbaarheid en de operationele efficiëntie. De toekomst van AI-schaling hangt af van het omarmen van deze realiteit.
