Wat gebeurt er nu eigenlijk echt in het rack?

Hierbij het afsluitende deel van onze serie ‘verhalen’ over IT-hardware met haar warmte lees koeling. Natuurlijk geen laatste deel, maar wij zijn leeg.

We hebben alles verteld wat we vandaag ‘snappen’. Hieronder de onderwerpen waar we nu mee bezig zijn. Het zal nog wel even duren voor we meer kennis hebben opgedaan, vandaar deze pauze.

Maar eerst iets anders. Onlangs waren we op de IT Room Infra-beurs in Den Bosch. Daar mochten we onze demonstratie opstellen. De hele dag hebben we de server belast met 40 graden Celsius warme koellucht, zonder uitval. Bezoekers kwamen langs om te kijken en voor een praatje. Voor ons was het hartverwarmend. Waarom? Velen bleken onze verhalen te hebben gelezen in DatacenterWorks. Wij kregen geen enkele reactie op onze verhalen en dat hoeft ook niet. Maar het deed ons heel goed te merken dat we worden gelezen.

Lessons learned

Wat hebben wij nu geleerd van al onze noeste arbeid? Vooralsnog iets simpels: geef een server koude lucht en geen warme.

Ons is gebleken dat de hoofdoorzaak van ‘slechte’ koeling of het ontstaan van temperatuuralarmen eenvoudig te herkennen en op te lossen is. IT-hardware met zij-inlaten en/of gemonteerd aan de achterzijde van het rack in plaats van aan de voorzijde. Omdat u allen fysieke scheiding van warme en koude koellucht toepast, ligt de scheiding hiervan aan de voorzijde van het rack. Voor de scheiding de koele koellucht en achter de scheiding dus warme retourlucht, vaak 10 graden Celsius warmer.

Fysieke scheiding

Als je de apparatuur dus warme lucht laat aanzuigen, dan ‘starten’ deze dus al warm. Dat is logisch. Oplossing? Zorg dat ze koele lucht krijgen, door ze om te draaien. Of via zelfgefabriceerde kanalen vanaf de voorzijde. Temperatuurdaling verzekerd en definitief opgelost.

Afdichting van de racks aan de voorzijde, het ‘dicht’ maken van de fysieke scheiding. Niet belangrijk voor correcte koeling van de IT-apparatuur – zo is ons gebleken. 2 graden Celsius verhoging van de koelluchttemperatuur door warme retourlucht die zich naar voren beweegt, is niet bepalend. Geen game changer dus. Voor de efficiëntie van het totale koelsysteem wellicht wel van belang, maar dat is ons (nog) niet helemaal duidelijk (genoeg).

Zaal vol racks

Echter, we hebben natuurlijk alleen maar een rack of zelfs wellicht maar een deel daarvan onderzocht. Hoe zit het dan met de hele zaal met racks? Dat is onze volgende stap. Dat we u kunnen vertellen wat werkt en wat niet voor de hele zaal. Zo ver zijn we nog niet, maar we zijn er mee bezig. Bijzondere effecten zijn er zeker. Onverklaarbare opwarming van de koellucht met 4 graden Celsius in een corridor. Die ook nog eens ‘perfect’ afgedicht is. Of: zonder duidelijke oorzaak een oneerlijke verdeling van koellucht over de zaal naar de racks die het ‘nodig’ hebben. Het blijft bijzonder ‘spul’: lucht. Kan echt rare bewegingen maken, ook in uw datacenter.

We hebben gezien dat in – vaak kleinere – retourkanalen ten opzichte van de aanvoer hogere luchtsnelheden ontstaan die drukverschillen veroorzaken. Het ene rack heeft er geen last van, maar andere racks worden hierdoor duidelijk gehinderd in hun luchtafgifte. Is dat erg? We zijn het aan het uitzoeken.

Ons doel was en is altijd: beter koelen met minder en warmere lucht. Beter koelen hebben we u duidelijk uitgelegd. Met minder lucht toch perfect koelen zijn we nog aan het uitzoeken. Dat volgt dus later. Warmere koellucht of gewoonweg de koelluchttemperatuur omhoog. Niet naar de 40+ graden Celsius van onze demo, maar vooralsnog naar 24+ graden Celsius. En dan nog niet eens altijd. In de winter brengt een hogere temperatuur niet veel op, maar wel als het buiten warm is. Zoals onze laatste zomer.

Tegenstander

Wat blijkt? De bemanning van de datacenters is er niet voor. Elke verhoging van de koelluchttemperatuur verhoogt het risico op temperatuuralarmen van hun klanten, zo is de gedachte. Ze hebben volkomen gelijk. Hun primaire taak is stabiliteit en continuïteit voor de klanten van het datacenter. En daar wordt geen enkel risico mee genomen.

Wat is de feitelijke situatie eigenlijk? Datacenters hebben veel temperatuursensoren geïnstalleerd om de koellucht te meten en te bewaken. Daar wordt op gestuurd. Als er geen alarmen komen, is het dus goed. Niets aan veranderen dus. Volkomen logisch en zou iedereen doen.

Info IT-hardware

Dat is de ene kant. Nu de andere en dat is de IT-hardware. Wat melden die ons? ‘Ons’ als in de datacenterbemanning? Helemaal niets. Pas als de IT-hardware een alarm genereert, wordt ons door de IT-klant – vaak in niet mis te verstane bewoordingen – gezegd dat de koeling ‘niet correct’ is. De datacenterbemanning wordt pas geïnformeerd als het al bijna mis is.

In mijn onschuld vroeg ik dus aan een klant van een datacenter of hij niet even de temperatuur van de IT-hardware aan wilde ‘geven’. Of ik gek geworden was? ‘Jij komt niet op ons netwerk’, was zijn stellige commentaar op mijn voorstel. Wat is hier nu precies aan de hand? Wij als datacenterbemanning willen een goede job doen voor onze IT-klanten. Maar de info die dat kan bevestigen, krijgen we niet beschikbaar. Om allerlei hele goede redenen.

Twee werelden, verschillende grenzen. Het verschil tussen de operationeel gehanteerde grenzen van het datacenter en de technische grenzen van de hardware (groen, oranje) stelt gerust en biedt mogelijkheden.

Om het anders te vertellen: ik ben (koel)chauffeur van mijn IT-klanten en heb beloofd niet te hard te rijden. Te hard rijden doet de klant namelijk pijn en dat mag dus niet. Ik zeg vlak voor we vertrekken: ik zal er echt op letten, maak je geen zorgen. We vertrekken en dan legt die klant zijn hand ineens over de snelheidsmeter. Wat doe je nou, zeg ik met enige stress in mijn stem! Ik kan je niet vertellen hoe hard we rijden, zegt mijn klant! Wat nu te doen? Precies: langzaam aan. Zo ‘snel’ als ik durf en vooral geen alarmen van mijn klanten krijgen.

Geen verbinding, wel data

We denken een oplossing gevonden te hebben. Die noemen we Cool­Safe. Geen verbinding met de server, maar wel de data. We zijn het aan het testen in een live datacenter. Zal dus ook nog wel even duren.

Wij willen dus graag twee verschillende werelden met elkaar verbinden: de wereld van de datacenterbemanning die de koeling verzorgt met die van de IT-klanten en hun IT-hardware. Figuur 1 laat de twee werelden zien. Zit nu nog een dikke muur tussen, zo blijkt.

Elke datacenterbemanning wil graag optimaal koelen, maar ook maximaal efficiënt zijn. En helemaal veilig, beheerst zonder enig risico, zoals het hoort. Wij zoeken naar allerlei technische verklaringen en rapporteren die aan u. Blijken wij elkaar, klant en DC bemanning (nog) niet te kunnen helpen.

Wordt dus graag vervolgd.

Mees Lodder en Willem van Smaalen, WCooliT

One Response to Wat gebeurt er nu eigenlijk echt in het rack?

  1. Stijn de Kruijf schreef:

    Prachtige reeks. Zeer interessant op te lezen al die resultaten en conclusies van vele praktische experimenten in een IT rack. Complimenten Mees en Willem! Ik ben voorstander van de muur tussen IT hardware en de DC facility in snel tempo af te breken.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.