<


Digital twins bieden oplossing voor opleiden van medewerkers

datacenter

De arbeidsmarkt voor datacenter-personeel is overspannen. Veel bedrijven kunnen nauwelijkspersoneel vinden of vasthouden. Tegelijkertijd bestaat er in Nederland geen reguliere opleidingdie datacenter-specialisten opleidt. Dus moeten we het zelf doen. Kunnen Digital Twins een rol spelen bij het opleiden van medewerkers? Jos Bijvoet denkt van wel. En hij ziet nog meer kansen voor digitale tweelingen. Maar dan moeten we als datacenter-sector wel afstappen van onze conservatieve houding waarbij we enkel en alleen met ‘proven technology’ willen werken.

In de westerse wereld hechten wij waarde aan voorspellingen. Ik bedoel dan niet die van de Tarotkaarten, waarzegsters of uitspraken uit de glazen bol. Ik bedoel vooral de voorspelling van het weer. Elke ochtend,eventueel aangevuld met file-info, is het weer een vitaal onderdeel van onze informatiebehoefte. Deze informatie bepaalt in hoge mate een aantal (strategische) beslissingen die wij nemen. Om het maar simpel te benaderen: nemen we de fiets of de tram? De kinderen maar met de auto naar school brengen? En de paraplu moet mee en de regenjas aan. Gebaseerd op empirisch bewijs leren wedat deze voorspelling vaak niet zo uitpakt als wij hebben aangenomen. Dat komt mijns inziens doordat we generieke informatie hebben geïnterpreteerd als exact en voor onze situatie. 

Datacenterbeslissingen 

Als we dit vertalen naar beslissingen die we nemen over onze datacenters zullen we horen dat daar (uiteraard) besluiten vallen gebaseerd op feiten, data uit onze ondersteunende DCIM-systemen. Onze ‘Single Pane of Truth’ vertelt de werkelijkheid in onze situatie. En die uitkomst geloven wij, net als de weersvoorspelling. Dit is geen artikel over wel en wee of de kwaliteit van de betere DCIM-systemen. Dit artikel vraagt aandacht voor wat we noemen: de Digital Twin. En nu wordt het moeilijk - of juist interessant - omdat dit iets zegt over onze houding tegenover zaken die we onvoldoende kennen. Ja, we willen als datacenter vooroplopen. Maar dan wel met bewezen technieken waaruit alle kinderziektes al zijn verdwenen. Vooroplopen en onderscheidend vermogen in de datacentermarkt is waarde creëren voor gebruikers en klanten. Een aantrekkelijk en concurrerend bedrijf zijn voor klanten en een aantrekkelijke werkgever voor engineers. En bovenal, aantrekkelijk zijn voor de noodzakelijke instroom van betrouwbare medewerkers. Maar hoe interessant zijn wij voor instroom als we vasthouden aan ‘proven technology’?

Betrouwbaar = 24 for ever

Het ‘buzz word’ is hier wat mij betreft: betrouwbaar. Er zijn weinig goede datacenter engineers en of die betrouwbaar genoeg werken is de vraag. Betrouwbaar zijn is het gevolg van leren werken in een ‘high reliability culture’. Een omgeving waar procedures, opleiding en training leidend zijn, om lijden voor gebruikers te voorkomen. Werken met gebouwinstallaties is niet gelijk aan werken in een nucleaire centrale of een datacenter met ’24 For Ever’ beschikbaarheid. Werken aan competentieontwikkeling van algemeen technicus tot betrouwbaar datacenter engineer, is (in Nederland) niet mogelijk via een algemeen scholingsprogramma. Onze datacenterwereld moet daar dus zelf zorg voor dragen. Om betrouwbaar te zijn hebben we dus goed getrainde engineers nodig, en uiteraard goed getrainde OEM engineers voor het instandhoudingsonderhoud van onze Tier III- of Tier IV-infrastructuur. Deze engineers en hun management hebben voor besluitvorming correcte informatie nodig, ik noemde al de Single Pane of Truth. Voor wat het waard is, dat denken we te hebben, maar klopt dat wel?

Reactief versus proactief

Een Single Pane of Truth geeft actuele informatie, maar is niet proactief (natuurlijk, niveau-en trendbewaking etc.). En daar zit wat mij betreft de kneep. Wat je wilt bereiken is problemen voorkomen door je risico’s proactief te managen. In het verleden was dat eenvoudig. Een of meer mainframes die vele jaren opgesteld stonden in ruimten met een intensief geregeld klimaat op 50% Rv bij 21 °C. Maar zo ziet onze wereld er niet meer uit. De dynamiek in onze white space is sterk toegenomen, evenals de visie op energieverbruik en optimalisatie van de vierkante meters. Ook kennen we allemaal de voorbeelden van haastig geplaatste servers waarbij achteraf blijkt dat de koeling toch problematisch is. Herconfigureren van productiesystemen is een idee-fixe en dan blijft over de meestal kostbare aanpassing van de omgeving. Ook de IT-benadering waarbij men zegt ‘ik vernieuw servers, de oude configuratie was 100kW, de nieuwe maar 60kW’ vormt een probleem. Want wat we meestal niet weten is de specifieke koelbehoefte en luchthuishouding in de machine. En daar ligt de bron van mogelijke problemen omdat je ontwerpsituatie niet meer correct is. Je moet in feite de engineering opnieuw uitvoeren.

Digitale tweeling ≠ twin center

Wat nodig is om betrouwbaar te zijn, is voorspelbaarheid en daarbij komt de eerder genoemde Digital Twin om de hoek. Letterlijk: een virtuele weergave van een fysiek object of systeem. Geen nieuws, de digitalisering transformeert de ‘industrie’ naar een industrie die beter kan vooruitkijken naar de toekomst. Zeker, onze (betere) DCIM-systemen geven (beheer) informatie en verzekeren ons een voorspelbaarheid. Maar laten we de industriële integratie van gedigitaliseerde bedrijfsprocessen in een consistent samenwerkingsplatform tot één digitale waardeketen niet verwarren met waar ik naar toe wil. Ik bedoel meer dan een digitale dubbelganger. Ik denk aan een dubbelganger die actuele data combineert met feitelijke data uit een bibliotheek en daarmee een wetenschappelijke simulatie creëert van de toekomstige situatie bij vernieuwing van servers en andere hardware. Een Digital Twin die op eenvoudige wijze velerlei simulaties voor de white space in datacenters mogelijk maakt. En daar wijkt de datacenter-twin af van de digitale tweeling die in de industrie gebruikelijk is.

Buzz word of commercieel attractief?

In de industrie is een digital twin een dynamische, digitale weergave van een echt object, gekoppeld met actuele/live data als temperatuur, druk, trillingen en dergelijke. De hele slimme twins maken kansberekening en werken economische scenario’s uit. Je praat eenvoudig tegen ze, net als we doen met Apple’s SIRI. Een praktisch voorbeeld is een vliegtuigmotor. Op een vlucht zal een General Electricmotor (of andere die van Rolls-Royce) een slordige 2 TB aan data doorgeven aan een digital twin in een datacenter van de fabrikant. Als de digitale tweeling patronen in de softwaregegevens detecteert die wijzen op een mogelijke fout, dan wordt een onderhoudsteam naar de luchthaven van bestemming gestuurd met de juiste onderdelen om een reparatie uit te voeren. Efficiënt en veilig voor de gebruikers zult u zeggen. Gegevens over de bedrijfsomstandigheden in de echte wereld worden ook teruggekoppeld naar het ontwerpteam om simulaties en daaropvolgende ontwerpverbeteringen voor toekomstige versies aan te sturen. Voor datacenters kunnen digitale tweelingen eveneens van grote betekenis en impactvol zijn, maar het type model dat wordt gebruikt is iets anders.

Digital twins voor datacenters

De frequente wijziging in IT-configuraties betekenen dat het ontwerp van een datacenter nooit vaststaat. Feitelijk zou bij elke wijziging als het ware opnieuw ontworpen moeten worden. Patronen uit het verleden worden niet noodzakelijkerwijs in kaart gebracht op toekomstige patronen waardoor datagestuurde twin modellen hebben te lijden van inconsistente gegevens. Toekomstig gedrag kan niet worden voorspeld op basis van configuraties uit het verleden. Als een rij kabinetten wordt verplaatst of een nieuwe ITconfiguratie in een cooling alley wordt geplaatst, verandert dit de datacenteromgeving. Gevolg hiervan is dat eerdere gegevens niet helpen het toekomstige gedrag van de faciliteit te voorspellen in die nieuwe configuratie.

Lacune

Dit toont de lacune aan in de effectiviteit van datagestuurde modellen bij gebruik in datacenters. Om dit te verhelpen dienen digitale tweelingen voor datacenters op fysica gebaseerd te zijn en de mogelijkheid te bieden om de effecten van een nieuwe configuratie te simuleren. Een op fysica gebaseerde digitale tweeling bestaat uit een volledige 3Dweergave van de datacenterruimte, architectuur, mechanische en technische systemen, koeling, connectiviteit en het draagvermogen van de verhoogde vloer.

Impact vaststellen

Door gebruik te maken van deze gegevens kan de impact van elke wijziging in het datacenter mathematisch worden berekend tot een voorspelling die in het 3D-model gevisualiseerd en gekwantificeerd wordt weergegeven. Allemaal voorafgaand aan de fysieke implementatie waardoor onvermoede effecten tot het verleden behoren. Immers, op fysica gebaseerde digitale tweelingen nemen het risico weg dat gepaard gaat met wijzigingen in een operationeel datacenter, door een veilige omgeving in het platform te bieden om de impact van wijzigingen nauwkeurig te testen voorafgaand aan implementatie van de change.

Been there, seen that

Dit soort software wordt door velen verguist als ‘het volgende CFD-model’ of gezien als ‘geïntegreerd’ in ons DCIM-pakket. ‘We hebben een CFD van de bouw’ hoor ik ook veel. Maar wat ik bedoel is echt veel meer dan dat. Een digital twin-model maakt nauwkeurige capaciteitsplanning en prognoses en geeft de mogelijkheid om kosten eenvoudig te kwantificeren. Potentiële issues in de engineering kunnen daarom vroeg in de planningsfase worden geïdentificeerd door meerdere stakeholders in de organisatie. Dit bevordert wederzijds begrip en samenwerking tussen IT en Facilities. Het resultaat is een efficiëntere datacenterinfrastructuur die wordt gemanaged door effectieve, responsieve en juist geïnformeerde teams. Met een op fysica gebaseerde digitale tweeling van het datacenter zijn IT en Facilities in staat om samen te werken en op een veilige manier te experimenteren met wijzigingen, in de wetenschap dat kritieke bedrijfsfuncties volledig onaangeroerd blijven. Bij juist gebruik biedt deze tweeling mogelijkheden om te innoveren, prestaties te verbeteren en niet in de laatste plaats ook de mogelijkheid om medewerkers intensief te trainen met simulatie van rampscenario’s en verstoringen.

Hoe weet ik dat het werkt?

Het is niet mijn bedoeling om systemen aan te bevelen, maar uit eigen ervaring heb ik er uiteraard wel een mening over. Alweer vele jaren geleden heb ik een pilotproject laten uitvoeren in samenwerking met Future Facilities. Ik was de firma tegengekomen op een congres in Californië en was onder indruk van wat de software te bieden had. Over Digital Twin had niemand het in die tijd, maar het 3D-model was spectaculair. De bibliotheek bevat alle denkbare IT: servers, switches, kasten enz. Deze data, gecombineerd met eenmalige fysieke opname van de facility en de E- en W-infrastructuur produceerden het model waarmee wij konden werken.

Complete virtuele replica

Het werd een complete virtuele replica van een van onze grootste datacenters - in 3D. Natuurlijk hadden wij DCIM en een CMDB. De praktijk liet toch afwijkingen zien bij elke ‘floor sweep’. Met dit softwarepakket hadden we een doorzoekbaar archief van al onze IT-middelen. We konden de installatie van nieuwe apparatuur simuleren door te werken met ‘slimme’ bibliotheekobjecten. Dit was mogelijk omdat de bibliotheek apparaat-ID’s, maten en gewichten, instroom- en uitstroomopeningslocaties voor koeling, werkelijk (derated) vermogen, CFM-stromen en het aantal netwerkpoorten bevatte. De ingebouwde Computational Fluid Dynamics (CFD) engine is van hoge kwaliteit en geeft koeling en luchtstroom weer als geen enkel ander softwaregereedschap. 

Totaaloverzicht

Dit geheel gaf een indrukwekkend totaaloverzicht in één gecentraliseerde database die wij gebruikten om stroom, ruimte, koeling, gewicht en netwerkpoortcapaciteit bij te houden en te plannen. Het was een Single Pane of Truth dat de complete werkelijkheid weergeeft én kan voorspellen. Nieuwe infrastructuur boven de racks in plaats van onder de verhoogde vloer, IBM-mainframe in een cooling alley, maatwerk-luchtroosters in de vloer en nog vele andere zaken die de feitelijke engineering raken zijn in de loop van de tijd gepasseerd.

Lees ook
Submer en BIT slaan handen ineen voor duurzaam en efficiënt koelen van apparatuur

Submer en BIT slaan handen ineen voor duurzaam en efficiënt koelen van apparatuur

Submer, een toonaangevend en innovatief bedrijf gespecialiseerd in immersion cooling, gaat samenwerken met BIT, een Nederlands bedrijf gespecialiseerd in groene colocatie en managed hosting voor zakelijke internetgebruikers. Vanaf heden kan bij BIT een demonstratie aangevraagd worden van Submer’s bekroonde immersion cooling technologie in de vorm van...

Copaco en NorthC Datacenters maken samen aanbod voor hybride IT-infrastructuur compleet

Copaco en NorthC Datacenters maken samen aanbod voor hybride IT-infrastructuur compleet

Partners die hardware inkopen bij ICT-distributeur Copaco kunnen deze voortaan onderbrengen in één van de locaties van NorthC datacenters van hun voorkeur. De samenwerking tussen beide partijen maakt het hybride IT-infrastructuurportfolio van Copaco compleet.

De Save Energy Foundation is van start gegaan.

De Save Energy Foundation is van start gegaan.

Onlangs is de Save Energy Foundation van start gegaan. Deze Nederlandse stichting wil datacenters helpen om slimmer met energie om te gaan. Een belangrijk hulpmiddel hierbij is het meten en verder verbeteren van de Server Idle Coefficient (SIC) en de Data center Idle Coefficient (DcIC). De stichting doet dit via het accrediteren van partijen die op...