Koeling in Nederlandse datacenters: houd ook het hoofd koel

78527058_15

Als we het over datacenters hebben, hebben we het vandaag de dag al snel over het energieverbruik. Met mooie rekensommen over hoeveel ton CO2-uitstoot geproduceerd wordt door populaire filmpjes op YouTube, wordt de ‘duistere kant’ van de datacenterwereld onthuld. En als we het over energieverbruik van datacenters hebben, hebben we het al snel over de Power Usage Effectiveness. Want aangezien multitenant datacenters niet zoveel over het energieverbruik van de apparatuur te zeggen hebben die in hun racks worden geplaatst, ligt hun taak vooral in het beperken van het energieverbruik van de fysieke omgeving van het datacenter. En daar speelt koeling een glansrijke hoofdrol.

Het hanteren van de PUE als maatstaf voor de energiezuinigheid kent zijn beperkingen, maar is als stuurcijfer zeker waardevol. Zo rapporteren veel datacenters de zogenaamde ‘design PUE’, wat vergelijkbaar met het door de fabriek afgegeven benzineverbruik van een nieuwe auto. In het ‘Dutch Datacenter Report 2015’, een onderzoek dat Pb7 Research in opdracht van de Dutch Datacenter Association heeft uitgevoerd, komt de gemiddelde PUE volgens eigen opgave uit op 1.31. Dat is bijna gelijk aan de ‘strenge’ richtlijn die de Gemeente Amsterdam met de lokale datacenters heeft afgesproken. De gerealiseerde gemiddelde PUE kan echter een stuk hoger liggen, doordat de ideale situatie voor de design PUE zich niet zo snel voordoet. Ook dat heeft weer voor een belangrijk deel met de koeling te maken, waar het altijd nog wat efficiënter kan.

Om de stroomkosten voor de koeling omlaag te brengen, begint het uiteraard bij het ontwerp van het datacenter en vervolgens met de selectie van energiezuinige apparatuur. Op het moment dat het datacenter wordt opgeleverd, ziet dat er meestal prima uit, maar na enkele jaren heeft de techniek de praktijk toch meestal wel weer ingehaald. Op dat moment staat een datacenter voor een keuze: niets doen, nieuwbouw of nieuwe apparatuur. Aangezien datacenters meestal toch wel meer dan een decennium meegaan, is nieuwbouw zelden een optie. Zelfs bij multi-tenant datacenters denkt maar de helft dat ze binnen vijf jaar een nieuw datacentrum gaan bouwen (zie Dutch Datacenter Report). Maar aangezien ook het vervangen van de koelsystemen in een datacenter geen sinecure is en gepaard gaat met behoorlijke kapitale investeringen, zijn de meeste datacenters terughoudend en doen ze vaak uiteindelijk zo lang mogelijk niets.

Dat zien we ook terug in ‘Datacenter Transformatie 2015’, een onderzoek dat Pb7 Research in opdracht van SPIE-ICS heeft uitgevoerd. In dat onderzoek zegt maar 1 op de 10 datacenters dat de huidige koeling niet voldoet. De meesten zeggen zelfs dat ze meer dan voldoende hebben: logisch, want de bezettingsgraad van de meeste datacenters ligt beduidend onder de 100%. Maar het idee dat een koelsysteem gemiddeld tien jaar op vervanging moet wachten is zorgelijk (en waarschijnlijk ook wat overdreven). Als datacenters vooruit kijken, naar de komende 5 jaar, neemt het aantal datacenters toe dat verandering noodzakelijk acht: 46% geeft aan in koeling te moeten gaat investeren….en de andere helft dus niet.

Maar dat de koeling efficiënter kan, heeft zeker niet alleen met de lange vervangingscyclus van koelapparatuur te maken. In veel datacenters worden bijvoorbeeld racks en zelfs ruimtes (mee)gekoeld, die niet in gebruik zijn. Het structureel inzetten van bijvoorbeeld panels om lege ruimte niet te koelen, is op veel plaatsen niet of niet afdoende ingeburgerd. In de fysieke ruimte valt er dus nog wel het nodige te doen om de koeling efficiënt in te zetten.

Een ander punt is dat je goed moet meten om de juiste mate van koeling aan te bieden. Daarvoor geldt dat op hoe meer plekken je meet, hoe beter je in staat bent om naar behoefte te koelen. Dan wordt het wel belangrijk dat je een goed management systeem hebt, waarin je een goed overzicht hebt en van afstand de koeling – bij voorkeur natuurlijk automatisch – op detailniveau kan bijstellen naar behoefte. Veel leveranciers zijn daarop ingesprongen door het aanbieden van Datacenter Infrastructure Management-oplossingen (DCIM). DCIM-oplossingen kunnen ervoor zorgen dat er meer grip komt op de koeling, maar trap niet in de valkuil om een DCIM-oplossing voor een koelprobleem aan te schaffen. Het is prima als een koelprobleem de aanleiding is om DCIM te onderzoeken, maar houdt er rekening mee dat je waarschijnlijk (uiteindelijk) een DCIM-oplossing wil hebben die de continuïteit van het datacenter waarborgt en dus ook in ieder geval snel diverse infrastructuurincidenten moeten kunnen signaleren. En dat mag geen bijzaak worden in de selectie van de juiste oplossing.

De afgelopen jaren zien we dat beheersystemen na energie efficiëntie bovenaan het investeringslijstje staat van de datacenter beslisser voor de korte termijn. Voor de lange termijn, staat DCIM wat lager. DCIM staat nu hoog op de agenda, omdat veel datacenters nu worstelen met de stuurbaarheid van hun datacenter wat een directe impact heeft op de continuïtsrisico’s. Doordat ze over te weinig realtime stuurinformatie beschikken, duurt het te lang voor problemen worden geïdentificeerd en opgelost. En dan kan het ook nog helpen bij het optimaliseren van het energieverbruik. Dat koeling onderdeel moet zijn vanuit de continïteitsgedachte is meer dan logisch. Als er een probleem is met de koeling, kan de impact immers groot zijn. Maar het biedt ook mogelijkheden om maatwerk in koeling te bieden. Daarmee wordt uiteindelijk die besparing gerealiseerd.

Conclusie

De ontwikkelingen op het gebied van datacenterkoeling gaan snel. Hoewel de tijd van grote energieslagen wel een beetje voorbij is, zijn er nog veel datacenters die deze slag gemist hebben. Wie wel mee is gegaan, merkt dat er na enkele jaren nog efficiëntere apparatuur op de markt is gekomen die ze zouden kunnen gebruiken om de PUE verder te verlagen. Maar heel vaak wordt de business case voor vernieuwing nooit gedaan en wordt er jaren over de goedkeuring van een budget gesoebat. In de tussentijd kunnen datacenters kritisch naar de inrichting van het datacenter kijken. Er zijn vaak voldoende mogelijkheden om met kleine aanpassingen in de computerruimten de koeling efficiënter te maken. Ook is het verstandig om de koeling prominent mee te nemen in de DCIM-exercitie. Zo krijgen we ook de gerealiseerde PUE onder de 1.30.

Peter Vermeulen is Directeur bij Pb7 Research

 
Meer over
Lees ook
Uptime waarschuwt voor te hoge verwachtingen van vloeistofkoeling in datacenters

Uptime waarschuwt voor te hoge verwachtingen van vloeistofkoeling in datacenters

Volgens een recente blog van Daniel Bizo, Research Director bij Uptime Institute Intelligence, moeten de verwachtingen rondom vloeistofkoeling in datacenters bijgesteld worden. Bizo wijst op enkele fundamentele uitdagingen die nog overwonnen moeten worden.

Iceotope, Intel en HPE bundelen krachten voor immersion cooling voor telecom-toepassingen

Iceotope, Intel en HPE bundelen krachten voor immersion cooling voor telecom-toepassingen

Iceotope, Hewlett Packard Enterprise (HPE) en Intel hebben een nieuw immersion pooling-systeem ontwikkeld dat specifiek bedoeld is voor zogeheten Radio Access Network (RAN) telecomnetwerken. Het 2U KUL RAN rack is gepresenteerd tijdens het Mobile World Congress in Barcelona. Het belooft tot 20% energiebesparing op apparaatniveau te bieden.

DE WIT datacenterkoeling wordt METIS

DE WIT datacenterkoeling wordt METIS

DE WIT datacenterkoeling gaat met ingang van 2 februari 2024 verder onder een nieuwe naam: METIS. Vanaf dezelfde datum verlaat het bedrijf - dat in de afgelopen negen jaar een betrouwbare reputatie heeft opgebouwd in het koelen van onder andere datacenters - in goede harmonie de DE WIT groep om zelfstandig verder te groeien.