Wat anders hadden Google en Oracle in Engeland kunnen doen?

cloud

Voor de tech pers was het omvallen van de cloud van Google en Oracle in Engeland door de extreme warmte een belangrijke gebeurtenis. Terecht ook, want dat een cloud onbereikbaar is komt weinig voor. Twee clouds is uitzonderlijk. Wat kunnen we hiervan leren?

\Het lijkt een simpel verhaal te zijn. De gebrouwen in Londen waar Google en Oracle een deel van de cloud infrastructuur hebben ondergebracht leverden dinsdag problemen op. Een buitentemperatuur van 40 graden betekende dat free air cooling niet meer kon worden toegepast. De andere manieren om de hardware te behoeden voor te hoge temperaturen, dus men ging over tot het uitzetten van de hardware. Beter geen dienstverlening dan defecte hardware.

Impact

Die keuze snapt iedereen. De impact is voor een buitenstaander op voorhand niet in te schatten. In het geval van de Oracle cloud zal het vooral gaan om puur zakelijke, B2B toepassingen. Maar wat zit er allemaal in dat deel van de Google cloud dat in Londen is gehuisvest? Dat blijkt dus het platform te zijn waarop een Britse WordPress hoster draait. Door de storingsmeldingen van die hoster is direct te zien dat het geen kortstondig incident is geweest. De eerste ticket verscheen op 19 juli om 11:38. Om 23:51, dus na ruim 12 uur was “approximately 90% of affected sites recovered.” De problemen bij Oracle begonnen eveneens op dinsdag rond 11:10. De ticket is woensdag 09:00 gesloten.

Het is lang niet meer voorgekomen dat twee datacenters om dezelfde redenen de knop uitzette. Helemaal bijzonder is de duur van deze verstoring. Of de SLA en voorwaarden hier rekening mee hebben gehouden is nog maar de vraag. Een beroep op overmacht door de cloudaanbieders klinkt logisch, maar is waarschijnlijk niet terecht. Wat hier namelijk is gebeurd was namelijk te voorzien. Ieder weerpraatje van de afgelopen week ging over de +40 graden die onderweg was. Deze twee clouddatacenters hebben of niet nieuws niet serieus genomen of geen kans gezien de koelcapaciteit op te schroeven. Daar zit dan ook het grote probleem. Hier is niet “door domme pech” gevallen iets stukgegaan. De beheerders had moeten weten dat bij deze temperaturen de datacenters niet meer draaiende te houden waren. Klanten zijn niet vooraf geïnformeerd.

Juristen en beheerders

Dit dubbele incident zal daarom nog wel een staartje krijgen. Juristen van klanten en de cloud aanbieders zullen vast en zeker het nodige in stelling gaan brengen. Dan zal ook vast wel bekend worden wat Google en Oracle in Engeland wel hadden kunnen doen. Op de achtergrond zal menig beheerder van een datacenter of serverruimte zich nu zorgen moeten gaan maken. Want ook zij kunnen bij een volgende hittegolf voor de keuze staan: servers uitzetten of de boel laten crashen?

(dit artikel verscheen eerder op ITchannelPRO)

Lees ook
Wat doe ik met gebruikte datacenterapparatuur?

Wat doe ik met gebruikte datacenterapparatuur?

De eerste Circulaire-IT.nl Community Netwerk Meeting, op 23 april, richt zich op duurzaamheid in computerruimtes, datacenters en professionele IT-apparatuur. De Community Netwerk Meeting van Circulaire-IT.nl vindt plaats bij Eurofiber in de ‘Matriarch.

Een datacenter complex? Kijk dan eens naar deze chipfabriek

Een datacenter complex? Kijk dan eens naar deze chipfabriek

Wie van mening is dat een datacenter een complexe technische omgeving is, doet er goed aan eens naar deze Youtube-video te kijken. Intel heeft deze video - ook wel de grootste 'unboxing'-video ooit genoemd - onlangs gedeeld. Hierin wordt de installatie van ASML's $380 miljoen kostende High-NA lithografiemachine in hun fabriek in Oregon getoond.

Dennis Snijder van NDIX blikt terug op de afgelopen 10 jaar

Dennis Snijder van NDIX blikt terug op de afgelopen 10 jaar

Datacenterworks bestaat tien jaar. Reden om de website onderhanden te nemen en stil te staan bij de vraag wat er in die periode zoal is veranderd. Daarvoor is gesproken met Dennis Snijder van NDIX.