DatacenterWorks Expertsessie: Complexiteit van monitoring vraagt om integratie van tools

DCW-Expertsessie-Arbeidsmarkt

Op 19 maart 2022 organiseerde DatacenterWorks een expertsessie over monitoring. De druk bezochte online sessie speelde in op een belangrijke trend in de wereld van datacenterinfrastructuren. Door de pandemie maar natuurlijk ook als gevolg van de al langer spelende trend richting digitalisering is maximale beschikbaarheid van IT-diensten van cruciaal belang. Dit betekent uiteraard dat ook de technische infrastructuur van het datacenter een beschikbaarheid moet hebben die richting 99,999% gaat. Dat kan niet zonder een uitgekiende strategie rond monitoring van alle systemen en installaties die hierbij een rol spelen.

Deelnemers

Aan de expertsessie deden Peter Vermeulen, onderzoeker bij Pb7 Research, Ronald Kok (directeur van All IT Rooms), Global Business Development Manager – Data Centers, Martin Matse van ATS Global en Martin Brezina, UPS Field Application Engineer EMEA bij Delta Electronics mee.

Een aantal thema’s stond centraal tijdens deze sessie. Dat is allereerst de vraag welke problemen er nu eigenlijk precies in het datacenter spelen dat monitoring zo’n belangrijke rol speelt? Is datacenter monitoring daarbij een typisch facilitair onderwerp? Of zijn er ook links naar bijvoorbeeld IT operations?

 

Structureel of bij storing?

Ook werd uitgebreid gediscussieerd over de vraag hoe we monitoring het beste aanpakken? Als oplossing bij een acuut probleem of incident? Of kunnen we beter monitoring-tools permanent ‘aan’ zetten, zodat we veel historische data verzamelen die bij incidenten, storingen, maar ook bij onderhoud en bijvoorbeeld vervanging geanalyseerd kunnen worden om de situatie te snappen en op te lossen?

Interessant punt dat in de discussie naar voren kwam: we hebben vaak de neiging om simpelweg alles te gaan monitoren en vastleggen. Het is maar zeer de vraag of die aanpak tot een werkbare en zinvolle aanpak leidt. Vaak is het beter om - samen met de mensen die de infrastructuur echt goed kennen - een aantal specifieke punten te kiezen waarop de monitoring en het verzamelen van data met name gericht kan worden.

DCIM of losse tools?

Een discussie die al veel langer speelt, kwam ook tijdens deze sessie uitgebreid aan de orde. Wat is beter: individuele monitoring-tools gebruiken of een uitgebreide en geïntegreerde DCIM-oplossing implementeren? Zoals zo vaak is het antwoord niet altijd even eenvoudig te geven. Soms is het beter om breed te monitoren, in andere gevallen kunnen individuele tools prima helpen. Het is vaak wel belangrijk om tot een zekere mate van integratie van de data te komen. Reden: we moeten snappen wat de data die de monitoring voortbrengt nu precies betekent. Dit lukt vaak alleen als individuele data kan worden gecombineerd met andere gegevens.

Het is duidelijk dat monitoring steeds meer kennis en inzicht vereist. Alleen de echt grote datacenters kunnen dat vaak nog moet eigen, interne mensen doen. Middelgrote en kleinere faciliteiten doen er goed aan om in ieder geval het uitbesteden van monitoring te overwegen, daar waren de deelnemers aan de discussie het al snel over eens. Maar dan uiteraard wel op basis van een weloverwogen strategie, die eventueel samen met een externe partner kan worden opgesteld.

Rol van ML en AI

Er wordt in de vakliteratuur veel geschreven over de rol van moderne hulpmiddelen als machine learning (ML), Artificial Intelligence (AI), maar bijvoorbeeld ook digital twins. De deelnemers aan de discussie waren het er over eens dat deze trends zeker kansen biedt. Maar we moeten ons er ook niet op blind staren. Dit soort modellen moeten getraind worden, dus is goede en relevante data nodig. Het concept van AI en ML klinkt vaak erg aantrekkelijk, maar in de praktijk zitten er nog flink wat haken en ogen aan.

Uiteindelijk kwamen de delers tot een aantal conclusies, die soms ook vooral vragen bleken te zijn. Bijvoorbeeld: DCIM is het middel, maar wat is nu eigenlijk het doel dat we nastreven? Denk hier goed over na, was hun advies, waarbij externe deskundigheid inschakelen vaak wel zo verstandig is.

Een tweede conclusie: complexiteit vraagt om integratie - en dan met name van tools. Bovendien: integratie en de daarmee gepaard gaande investeringen in DCIM- en andere tools moeten zichzelf uitbetalen. Monitoring vanwege een vraag naar continuïteit speelt daarbij natuurlijk, maar is feitelijk een hygiëne-factor. Uiteindelijk draait het ook bij monitoring toch vooral om kosten. Slim monitoren kost uiteraard geld, maar levert ook veel besparingen op.

 

Robbert Hoeffnagel

Lees ook
Uptime Institute lanceert Sustainability Assessment-toolvoor datacenters en digitale infrastructuur

Uptime Institute lanceert Sustainability Assessment-toolvoor datacenters en digitale infrastructuur

Uptime Institute heeft Sustainability Assessment geintroduceerd, een beoordelingstool die organisaties in staat stelt om duidelijk de duurzaamheidsreferenties van hun digitale infrastructuur te beoordelen, te benchmarken en te demonstreren aan al hun stakeholders.

Google introduceert ARM-gebaseerde Axion CPU voor datacenters

Google introduceert ARM-gebaseerde Axion CPU voor datacenters

Google heeft aangekondigd dat het zijn eerste op maat gemaakte ARM-gebaseerde processor voor datacenters, Axion, heeft ontwikkeld. Deze nieuwe processor is gebaseerd op Neoverse V2 processor-cores

Panduit gaat samen met Cisco datacenters duurzamer maken

Panduit gaat samen met Cisco datacenters duurzamer maken

Panduit heeft zijn intelligente PDU (iPDU) geïntegreerd met het Cisco Nexus Dashboard. Deze integratie geeft datacentermanagers een beter inzicht in het energieverbruik, de CO2-voetafdruk en de totale kosten (TCO)