Wat anders hadden Google en Oracle in Engeland kunnen doen?
Voor de tech pers was het omvallen van de cloud van Google en Oracle in Engeland door de extreme warmte een belangrijke gebeurtenis. Terecht ook, want dat een cloud onbereikbaar is komt weinig voor. Twee clouds is uitzonderlijk. Wat kunnen we hiervan leren?
\Het lijkt een simpel verhaal te zijn. De gebrouwen in Londen waar Google en Oracle een deel van de cloud infrastructuur hebben ondergebracht leverden dinsdag problemen op. Een buitentemperatuur van 40 graden betekende dat free air cooling niet meer kon worden toegepast. De andere manieren om de hardware te behoeden voor te hoge temperaturen, dus men ging over tot het uitzetten van de hardware. Beter geen dienstverlening dan defecte hardware.
Impact
Die keuze snapt iedereen. De impact is voor een buitenstaander op voorhand niet in te schatten. In het geval van de Oracle cloud zal het vooral gaan om puur zakelijke, B2B toepassingen. Maar wat zit er allemaal in dat deel van de Google cloud dat in Londen is gehuisvest? Dat blijkt dus het platform te zijn waarop een Britse WordPress hoster draait. Door de storingsmeldingen van die hoster is direct te zien dat het geen kortstondig incident is geweest. De eerste ticket verscheen op 19 juli om 11:38. Om 23:51, dus na ruim 12 uur was “approximately 90% of affected sites recovered.” De problemen bij Oracle begonnen eveneens op dinsdag rond 11:10. De ticket is woensdag 09:00 gesloten.
Het is lang niet meer voorgekomen dat twee datacenters om dezelfde redenen de knop uitzette. Helemaal bijzonder is de duur van deze verstoring. Of de SLA en voorwaarden hier rekening mee hebben gehouden is nog maar de vraag. Een beroep op overmacht door de cloudaanbieders klinkt logisch, maar is waarschijnlijk niet terecht. Wat hier namelijk is gebeurd was namelijk te voorzien. Ieder weerpraatje van de afgelopen week ging over de +40 graden die onderweg was. Deze twee clouddatacenters hebben of niet nieuws niet serieus genomen of geen kans gezien de koelcapaciteit op te schroeven. Daar zit dan ook het grote probleem. Hier is niet “door domme pech” gevallen iets stukgegaan. De beheerders had moeten weten dat bij deze temperaturen de datacenters niet meer draaiende te houden waren. Klanten zijn niet vooraf geïnformeerd.
Juristen en beheerders
Dit dubbele incident zal daarom nog wel een staartje krijgen. Juristen van klanten en de cloud aanbieders zullen vast en zeker het nodige in stelling gaan brengen. Dan zal ook vast wel bekend worden wat Google en Oracle in Engeland wel hadden kunnen doen. Op de achtergrond zal menig beheerder van een datacenter of serverruimte zich nu zorgen moeten gaan maken. Want ook zij kunnen bij een volgende hittegolf voor de keuze staan: servers uitzetten of de boel laten crashen?
(dit artikel verscheen eerder op ITchannelPRO)
Meer over
Lees ook
Nieuw traffic-record bij DE-CIX Frankfurt: 15 Tbps
Op woensdagavond 20 september heeft DE-CIX Frankfurt een nieuw verkeersrecord gevestigd door voor het eerst de grens van 15 Terabits per seconde (Tbps) te overschrijden, met een piek van 15,29 Tbps. Ter vergelijking: in 2022 doorbrak Frankfurt de barrières van 11, 12, 13 en 14 Tbps.
Lennox EMEA overgenomen door Syntagma Capital
Lennox International heeft de details bekend gemaakt van een overeenkomst om de commerciële HVAC- en koelactiviteiten van Lennox EMEA af te stoten. Syntagma Capital, een Europese private onderneming, zal de activa van Lennox in EMEA overnemen.
Datacenter trends: hou het hoofd koel
Datacenterbeheerders staan voor een dubbele uitdaging: enerzijds moeten de prestaties worden verbeterd om aan de vraag naar hogere snelheden te voldoen, en tegelijkertijd moeten energieverbruik en CO2-uitstoot omlaag worden gebracht. Meer krachtige processoren, fors hogere dichtheid van apparatuur in racks, en servers die meer energie verbruiken leiden...