Wat anders hadden Google en Oracle in Engeland kunnen doen?
Voor de tech pers was het omvallen van de cloud van Google en Oracle in Engeland door de extreme warmte een belangrijke gebeurtenis. Terecht ook, want dat een cloud onbereikbaar is komt weinig voor. Twee clouds is uitzonderlijk. Wat kunnen we hiervan leren?
\Het lijkt een simpel verhaal te zijn. De gebrouwen in Londen waar Google en Oracle een deel van de cloud infrastructuur hebben ondergebracht leverden dinsdag problemen op. Een buitentemperatuur van 40 graden betekende dat free air cooling niet meer kon worden toegepast. De andere manieren om de hardware te behoeden voor te hoge temperaturen, dus men ging over tot het uitzetten van de hardware. Beter geen dienstverlening dan defecte hardware.
Impact
Die keuze snapt iedereen. De impact is voor een buitenstaander op voorhand niet in te schatten. In het geval van de Oracle cloud zal het vooral gaan om puur zakelijke, B2B toepassingen. Maar wat zit er allemaal in dat deel van de Google cloud dat in Londen is gehuisvest? Dat blijkt dus het platform te zijn waarop een Britse WordPress hoster draait. Door de storingsmeldingen van die hoster is direct te zien dat het geen kortstondig incident is geweest. De eerste ticket verscheen op 19 juli om 11:38. Om 23:51, dus na ruim 12 uur was “approximately 90% of affected sites recovered.” De problemen bij Oracle begonnen eveneens op dinsdag rond 11:10. De ticket is woensdag 09:00 gesloten.
Het is lang niet meer voorgekomen dat twee datacenters om dezelfde redenen de knop uitzette. Helemaal bijzonder is de duur van deze verstoring. Of de SLA en voorwaarden hier rekening mee hebben gehouden is nog maar de vraag. Een beroep op overmacht door de cloudaanbieders klinkt logisch, maar is waarschijnlijk niet terecht. Wat hier namelijk is gebeurd was namelijk te voorzien. Ieder weerpraatje van de afgelopen week ging over de +40 graden die onderweg was. Deze twee clouddatacenters hebben of niet nieuws niet serieus genomen of geen kans gezien de koelcapaciteit op te schroeven. Daar zit dan ook het grote probleem. Hier is niet “door domme pech” gevallen iets stukgegaan. De beheerders had moeten weten dat bij deze temperaturen de datacenters niet meer draaiende te houden waren. Klanten zijn niet vooraf geïnformeerd.
Juristen en beheerders
Dit dubbele incident zal daarom nog wel een staartje krijgen. Juristen van klanten en de cloud aanbieders zullen vast en zeker het nodige in stelling gaan brengen. Dan zal ook vast wel bekend worden wat Google en Oracle in Engeland wel hadden kunnen doen. Op de achtergrond zal menig beheerder van een datacenter of serverruimte zich nu zorgen moeten gaan maken. Want ook zij kunnen bij een volgende hittegolf voor de keuze staan: servers uitzetten of de boel laten crashen?
(dit artikel verscheen eerder op ITchannelPRO)
Meer over
Lees ook
Europese strategie voor ruimtevaart en veiligheid vereist groot aantal nieuwe edge- en andere faciliteiten
De Europese Commissie heeft onlangs de allereerste EU-ruimtestrategie voor security en defensie ontwikkeld. Dit is een reactie op de identificatie van de ruimte als een strategisch domein in het Europese Strategisch Kompas. Realiseren van de plannen die in deze strategie naar voren komen, is goed nieuws voor de ontwikkelaars en toeleveranciers van datacenters...
Observability in het DataCenter netwerk
De mogelijkheid om problemen in datacenters te voorkomen, te diagnosticeren en op te lossen is essentieel om een soepele werking te garanderen, downtime te beperken en een voorsprong op de concurrentie te behouden. Dit is waar “observability” en packet capturing om de hoek komen kijken.
Rotterdam krijgt eerste Nederlandse fabriek voor recycling lithium-ion batterijen
Als alles goed gaat, beschikt Nederland nog dit jaar over een eigen installatie voor het recyclen van lithium-ion batterijen. Dat meldt Technisch Weekblad. Daarmee wordt het ecosysteem rond energieopslag in ons land verder uitgebreid. Tot nu toe worden ingenomen batterijen veelal naar het buitenland gestuurd voor recycling. Een nieuwe installatie in...