Nieuwe technologieën hebben enorme impact

John-Laban

De Engelse term 'disruptive' wordt de laatste tijd zeer vaak gebruikt. Meestal bedoelen we dan dat de manier van werken in een branche ingrijpend gaat veranderen. Welke technologische ontwikkelingen zijn momenteel gaande die de wereld van het datacenter wel eens op z’n kop kunnen gaan zetten? John Laban zet er een aantal op een rijtje.

Kijken we naar de etymologie van het woord 'disruptive', dan ontdekken we dat het voorkomt uit twee Latijnse woorden:

  • dis = apart
  • rumpere = breaking

Disruptive staat dus letterlijk voor 'apart breaking', een Engelse vertaling die eigenlijk in de verkeerde volgorde staat. 'Breaking apart' is immers correct Engels. Gaan we terug naar het origineel, dan zou dus eigenlijk een betere volgorde 'rumperedis' zijn. Waarom gebruiken we dan toch het woord 'disruptive' als de woordsamenstelling duidelijk verkeerd om is? En hoeveel lezers van dit artikel zullen voortaan het woord ‘rumperedis’ gebruiken? Helaas zijn alle lezers van dit artikel ouder dan zeven jaar en hebben een officiële, westerse educatie doorlopen die de kinderlijke fantasie en daarmee de benodigde creativiteit voor rumperedis-innovaties ernstig heeft beschadigd.

De lezer vraagt zich misschien af wat het nut is van deze speelse woordoefening. Welnu, mijn punt is dat als je niet een 'open mind' van een kind van zeven hebt, het ook weinig zin heeft om dit artikel verder te lezen. Het is namelijk alleen waardevol als het ook resulteert in daadwerkelijke gedragsverandering. Als je geest niet gevoelig is voor innovatieve verandering, dan zal die gedragsverandering niet plaatsvinden en zul je doorgaan zoals je altijd deed in het enterprise datacenter.

Geschiedenisles

Ik heb een tijdje geleefd bij een stam van Dyaks in Borneo. Van de stamoudste leerde ik een waardevolle methode om alle problemen op te lossen, simpelweg door vijf vragen te stellen:

  1. Waar komen we vandaan? (de geschiedenis)
  2. Waar staat we nu? (analyse van het heden)
  3. Waar kunnen we staan? (de opties)
  4. Waar zouden we moeten staan? (de keuze)
  5. Hoe bereiken we dat? (de implementatie)

Ik vertelde die oude wijze man dat deze vijf vragen aan de basis staan van de ISO 9001-certificering, de norm voor kwaliteitsmanagementsystemen in de eerste, geciviliseerde wereld. Hij keek me wat verward aan. De reden daarvan ontdekte ik later: hij kon namelijk niet verder tellen dan 999.

Laten we eens kijken naar de geschiedenis van sommige aspecten van het enterprise datacenter en waar we vandaag de dag staan. We zullen zien hoe wijs de oude Dyak was. 

Verhoogde vloeren

Verhoogde vloeren werden oorspronkelijk gelegd voor de installatie van pijpen voor de waterkoeling van IBM mainframe-computers. De plaatsing van waterpijpen onder de ICT-apparatuur verminderde het risico op waterschade bij een lekkage. Tegenwoordig gebruiken we geen waterkoeling meer in computerruimtes. In principe hebben we dus geen verhoogde vloeren meer nodig.

Temperatuur in de computerruimte

Computerruimtes werden oorspronkelijk bemand door operators. De temperatuur werd dan ook constant op een voor hen aangename waarde van 22 °C gehouden. Waterkoeling zorgde dat het mainframe koel bleef. Dat is nu anders. Beheerders zijn nauwelijks nog in computerruimtes zelf aanwezig en de meeste moderne IT-apparatuur werkt op inlaattemperaturen van op zijn minst 35 °C. Waarom zouden we dan de omgevingstemperatuur nog naar 22 °C of minder koelen? In een efficiënt datacenter levert iedere graad warmere inlaattemperatuur aan de voorzijde van het rack immers een energiebesparing op van 3 tot 5 procent.

Luchtvochtigheid

Computerruimten vereisten vroeger een streng luchtvochtigheidsbeleid. Dit had te maken met de gevoelige ponskaarten en tapes die destijds in gebruik waren. Tegenwoordig wordt papier en tape niet meer gebruikt, maar toch is het strenge beleid nog op veel plekken terug te vinden. Dat terwijl de meeste ICT-voorzieningen prima functioneren bij vochtigheidswaarden tussen 20 en 80 procent. De energievretende luchtvochtigheidssystemen zijn dus vaak compleet overbodig.

Verlaagde plafonds

Net als de temperatuur in computerruimtes werd ook het plafond verlaagd met maar één reden: het voorzien in een esthetisch aangename werkruimte voor het personeel. Dat personeel is er dus niet meer de hele dag en dat neemt ook de noodzaak van het verlaagde plafond compleet weg.

ROI centraal

De boodschap zal duidelijk zijn. Door het bestuderen van de geschiedenis begrijpen we beter waar we nu staan. Hopelijk roept bovenstaande wel wat vragen op over het ‘waarom' van sommige van onze keuzes en beslissingen. Wat mij betreft doorbreken we de status quo en moeten we ons steeds de vraag stellen welke functie een gewoonte vandaag de dag nog vervult. 

Investeren in nieuwe innovatieve technologie zou altijd vooraf moeten gaan door de ROI-vraag. De technologieën die de return on investment flink verhogen ten opzichte van de oude kunnen we bestempelen als rumperedis-technologie. Die breken namelijk met de status quo en maakt legacy-apparatuur in de loop van de tijd overbodig.

In dit opzicht is het zeker de moeite waard om het begrip ‘value engineering’, bedacht door de Amerikaanse ingenieur Lawrence Miles, nader te bestuderen. Het leert ons namelijk hoe we door het opsplitsen van zaken en het vervolgens toepassen van de value-methode significante kostenbesparingen en waardevermeerdering kunnen realiseren. 

Rumperedis-technologie

Genoeg geschiedenis en theorie, laten we een blik werpen in de toekomst zodat we ons kunnen voorbereiden. De volgende technologieën zijn slechts voorbeelden van vindingen die een grote impact gaan hebben op datacenters.

  • Linux Containers

Linux Containers (LXC) zijn lichtgewicht varianten op de virtuele machines die we in vrijwel ieder datacenter tegenkomen. Belangrijk verschil is dat LXC’s veel minder beslag leggen op fysieke IT-resources dan die van VMware of Microsoft. Dit betekent dat op dezelfde server veel meer LXC's kunnen draaien dan bij gebruik van traditionele virtual machines. Om het in perspectief te plaatsen: als we op dezelfde server drie keer meer LXC's draaien, dan kan de server met 66 procent krimpen.

  • 10GBaseT

10GBaseT is over zo'n vijf tot zeven jaar de standaard LAN-technologie in datacenters. 10GBaseT - zeg maar: Ethernet van tien gigabit per seconde - wordt de nagel aan de doodskist voor het relatief dure Fibre Channel-technologie (FCoE). Fibre channel vereist namelijk ‘lossless' Ethernet met een lage latency. Dat vraagt weer om een vermindering van het aantal Ethernet knooppunten. In ouderwetse datacenters zijn dat er vaak niet minder dan vijf. De slimste manier om dit aantal te reduceren is het samenballen in grotere 'core'-switches. Het resultaat: enorme switches van 1000 poorten of meer. Veel datacenters zullen door deze ontwikkeling ontdekken dat ze verkeerd bekabeld zijn.

  • MPO-cassettes

Veel datacenters hebben de afgelopen jaren het advies van bekabelingsfabrikanten gevolgd en zijn overgestapt op pre-terminated bekabeling met MPO/MTP-cassettes voor OM3 en OM4 multimode fiber. Er zijn meerdere redenen waarom dit geen goede ontwikkeling is. De eerste reden is dat pre-terminated bekabeling simpelweg duurder is dan fiber waarbij termination op locatie plaatsvindt. Een tweede reden is echter dat deze manier van werken interferentie (attentuation) introduceert doordat meer connectoren in het kanaal worden toegepast. Hier gaan we grote problemen mee krijgen, omdat we voor Ethernet-snelheden boven een gigabit per seconde aan veel stringentere interessentie-eisen moeten voldoen. De toegestane ‘link loss’ voor 10GBase-SR bedacht -2,6dB en voor 40GBase-SR-BD -1,9dB voor OM3 en -1,5dB voor OM4.

  • Intelligente powerstrips

Intelligente powerstrips of PDU’s zijn door hun ingebouwde elektronica iets temperatuurgevoeliger dan hun 'domme' equivalenten. Veel datacenters hebben de relatief goedkopere lagere temperatuur-varianten van deze intelligente PDU’s geïnstalleerd. Die schakelen zichzelf uit als ze de maximumtemperatuur overschrijden. Deze mankementen komen naar boven als de temperatuur van een server toeneemt wanneer je opwaardeert van pizzadozen naar blade centers of wanneer de inlaattemperatuur toeneemt aan de voorzijde van de kast voor het realiseren van kostenbesparingen. Veel datacenters zullen ontdekken dat de koelere, 'power-intelligent' PDU’s temperatuurstijgingen aan de voorzijde van de kast onmogelijk maken omdat deze hier niet mee om kunnen gaan. Tip: controleer goed welke temperatuurrange wordt ondersteund door een goedkope - zeg 500 euro - PDU’s. Zijn het de 40 °C en niet de 66 °C-varianten, dan worden dat de rumperdis-technologie voor het betrokken datacenter.

  • De kleur van het rack

Twintig jaar geleden waren zwarte kasten in de computerruimte een zeldzaamheid. Niet voor niets wordt in veel landen naar deze ruimte verwezen met de term 'white space'. Toch is gedurende de afgelopen zeven jaar zwart de nieuwe norm geworden. Maar door die zwarte kasten en apparatuur is meer vermogen voor verlichting nodig. Heb je eenmaal gekozen voor zwart, dan is het niet de moeite daar wat aan te veranderen. Maar voor wie nog gaat bouwen, is wit eigenlijk een veel beter uitgangspunt.

  • Kastgrootte

Ik verwijs in dit artikel naar enterprise datacenters zoals gedefinieerd in de BICSI Data Centre Standard. In dat type datacenters is het gebruik van kasten van 1200 mm diep bij 80 0mm breed erg belangrijk, want dat is nodig om moderne IT-apparatuur te kunnen huisvesten. Met deze kasten bereiken we een gemiddelde kastdichtheid van 2.4 vierkante meter per kast. Dat is veel compacter dan de meerderheid van de enterprise datacenters en computerruimtes die veel kleinere kabinetten gebruiken dan de hiervoor aanbevolen grootte. Ik noemde hierboven al dat core switches in grootte groeien en dat kan een rackwijdte vereisen van 1200 mm. Reserveer nu deze ruimte alvast in de MDA's (Main Distribution Areas) voor deze switches.

  • Airconditioning

In ons West-Europese klimaat zouden we afscheid moeten nemen van de koelcyclus van DX-airconditioningssystemen ten faveure van directe en indirecte luchtkoeling. De reden hiervoor is dat moderne ICT-apparatuur inlaatluchttemperaturen toestaat die hoger zijn dan die van de buitenlucht. Dat maakt koelcompressoren en stoomcilinders overbodig en die zijn verantwoordelijk voor 90 procent van de energiebehoefte in een typische DX HVAC.

  • Hoogvoltage DC powersystemen

Kort gezegd: deze hoge voltage distributiesystemen bestaan uit minder onderdelen en zijn betrouwbaarder, efficiënter en minder ingewikkeld dan de AC-distributiesystemen van vandaag de dag. Ik ben ervan overtuigd dat in de ICT-business de 'net goed genoeg'-technologie tegen de laagste kosten altijd zal winnen. Ontwerp je een nieuw enterprise datacenter, dan adviseer ik een eenvoudige migratie naar een 380V DC-distributiesysteem.

Wie van geschiedenis houdt en wil weten waarom we massaal AC-distributiesystemen gebruiken in datacenters, terwijl vrijwel alle ICT-producten DC-stroom gebruiken - en waarmee we 10 tot 20 procent energie verspillen - zou het DC-distributiesysteem in telefooncentrales eens moeten bestuderen. We houden vast aan keuzes die ooit slim waren, maar inmiddels achterhaald zijn. Wat te denken van het lichtnet in Noord-Amerika: dat is ooit vastgesteld op 110V, omdat de eerste gloeilampen van Edison niet meer aankonden.

  • Fotonen

Van oudsher is de afstand tussen componenten in een computer gelimiteerd door metalen conductors. Nieuwe producten die vorig jaar het levenslicht zagen hebben die beperking opgeheven door het gebruik van fotonen. Dat kan in de toekomst het fysieke concept van een computer of server zoals we het vandaag kennen volledig overboord gooien. Om over de rumperedis-impact van fotonen op computerruimtes nog maar te zwijgen.

Gedragsverandering

We kunnen praten tot we een ons wegen, maar dat is weinig meer dan het verplaatsen en opwarmen van lucht als het bij praten blijft. Ik hoor dus graag jullie inspanningen om van de huidige datacenterwereld een betere te maken. Doe je best en rumpederis je datacenter.

Reageren?

Eens met de opmerkingen en meningen van John Laban? Of juist hartgrondig mee oneens? Laat het weten. Stuur een email naar redactie@www.datacenterworks.nl.

Verder lezen?

  • The Value Foundation, inclusief demo van Function Analysis
  • BICSI 002-2011 Data Centre Design and Implementation Best Practices Standard
  • ‘The Big Switch’ is een boek van Nicholas Carr, dat de neergang en zelfs het verdwijnen van enterprise datacenters voorspelt. In hun plaats komen grote centrale ‘utility computing services’
  • The Design of Everyday Things’ is een boek van Don Norman waarin een aantal ontwerpprincipes worden behandeld die tot een drastische vereenvoudiging van onze datacenters zullen leiden
  • The future for photonics inclusief ‘holely fibres’

John Laban is Mission Critical Facilities Consultant

 
Meer over
Lees ook
Nieuw datacenter van AWS draait geheel op nucleaire energie

Nieuw datacenter van AWS draait geheel op nucleaire energie

kunnen (kleine) nucleaire reactoren een haalbare oplossing zijn voor de leveringsproblemen rond elektriciteit? De discussie - zie bijvoorbeeld hier op LinkedIn - krijgt extra aandacht naar aanleiding van de recente overname door Amazon Web Services van een datacenter

Wat doe ik met gebruikte datacenterapparatuur?

Wat doe ik met gebruikte datacenterapparatuur?

De eerste Circulaire-IT.nl Community Netwerk Meeting, op 23 april, richt zich op duurzaamheid in computerruimtes, datacenters en professionele IT-apparatuur. De Community Netwerk Meeting van Circulaire-IT.nl vindt plaats bij Eurofiber in de ‘Matriarch.

Een datacenter complex? Kijk dan eens naar deze chipfabriek

Een datacenter complex? Kijk dan eens naar deze chipfabriek

Wie van mening is dat een datacenter een complexe technische omgeving is, doet er goed aan eens naar deze Youtube-video te kijken. Intel heeft deze video - ook wel de grootste 'unboxing'-video ooit genoemd - onlangs gedeeld. Hierin wordt de installatie van ASML's $380 miljoen kostende High-NA lithografiemachine in hun fabriek in Oregon getoond.