‘Software-defined power verbetert betrouwbaarheid van het datacenter’

In het datacenter zien we momenteel een sterke toename van het gebruik van virtualisatie en andere zogeheten ‘software-defined’ strategieën. Hierbij worden applicaties en andere softwareprogramma’s als het ware losgekoppeld van de hardware en komen te ‘draaien’ in een speciale virtualisatielaag. Hierdoor kan de IT-hardware veel beter worden benut. Als het aan Clemens Pfeiffer van PowerAssure ligt, gaan we een vergelijkbare aanpak toepassen als het gaat om de energievoorziening in het datacenter. ‘Software-defined power’ noemt hij dat.

De Chief Technology Officer van PowerAssure trekt al enige tijd de wereld over om te vertellen over zijn visie dat ook de stroomvoorziening van het datacenter als het ware gevirtualiseerd kan worden. Hij noemt dat: ‘software-defined power’. Wie de ontwikkelingen in de IT-markt volgt, ziet onmiddellijk de analogie met software-defined networking, software-defined storage en software-defined datacenter. Daar voegt Pfeiffer nu dus een power-variant aan toe. Maar wat bedoelt hij daar nu precies mee?

Abstractielaag

‘Software-defined’ is een buzzword dat geheel past in de rijke traditie die de IT-industrie op dit gebied heeft. Het gaat om een aanpak waarbij - net als bij server-virtualisatie - een scheiding wordt aangebracht tussen de software en de onderliggende hardware. Dat gebeurt door middel van onder andere virtualisatietechnologie, maar er is vaak toch wel iets meer aan de hand. Neem software-defined networking. In de traditionele aanpak van networking speelt de fysieke koppeling van interface, poort en kabel de boventoon. De kabel verbindt twee poorten en legt daarmee de basis voor een logische verbinding die over (door) deze kabel loopt. Een applicatie kan via de interface en de poort data over de kabel sturen die aan de andere kant wordt ontvangen en verwerkt. De fysieke kenmerken van deze componenten bepalen daarbij de verbinding.

Dat was jarenlang een prima aanpak, maar tegelijkertijd ook een inefficiënte manier van werken. Want de capaciteit van de fysieke koppeling is in de regel groter dan de hoeveelheid data die er daadwerkelijk doorheen wordt gestuurd. Bovendien is voor een andere verbinding met een andere toepassing weer een nieuwe combi van interface, poort en kabel nodig.

Dat is geen efficiënte aanpak. Maar stel nu eens dat we over zo’n combinatie van interface, poort en kabel een abstractielaag zouden leggen. Net als bij gevirtualiseerde servers kunnen we op deze abstractielaag gevirtualiseerde verbindingen zetten. Dat gebeurt dan geheel softwarematig, net als we met VMware en vergelijkbare tools virtual machines via software creëren. En net als bij die virtual servers ‘denkt’ de software-defined netwerkkoppeling dat er rechtstreeks met de fysieke omgeving wordt gewerkt, terwijl de verbinding in werkelijkheid uitsluitend softwarematig bestaat. Alle communicatie die nodig is, verloopt via de abstractielaag die zich voordoet als de onderliggende hardware.

We leggen daarmee dus ‘software-defined’ netwerkverbinding aan. Dat kunnen er per fysieke verbinding twee, tien of meer zijn. Deze gevirtualiseerde netwerkverbindingen maken allemaal gebruik van een en dezelfde fysieke verbinding. Daarmee kunnen we dus én efficiënter werken (meer virtuele verbindingen samen vullen een fysieke verbinding) én fysieke verbindingen uitsparen, doordat we niet langer een een-op-een relatie hebben tussen fysieke verbinding en behoefte aan netwerkkoppelingen.

Hoge vlucht

Software-defined networking heeft de afgelopen jaren een hoge vlucht genomen. Hetzelfde geldt voor bijvoorbeeld software-defined storage. Pfeiffer breidt dit idee nu dus uit richting power. De reden is dat hij heeft vastgesteld dat een van de belangrijkste oorzaken van storingen in een datacenter de opkomst van virtualisatie is. Storingen in het net hebben hierdoor een veel grotere impact dan in het verleden toen servers nog enkel hardware-matig bestonden. Anders gezegd: in zijn visie is de robuustheid van de IT-systemen afgenomen, doordat veel IT-‘hardware’ tegenwoordig uitsluitend uit software bestaat. De hardware is weliswaar vaak zeer stabiel, maar een kleine ‘hick-up’ in de stroomvoorziening kan natuurlijk wel een negatieve impact hebben op de gevirtualiseerde servers die op deze hardware ‘draaien’.

De tools waarmee aan de facilitaire kant van het datacenter de infrastructuur wordt beheerd, zijn echter in het geheel niet afgestemd op deze gevirtualiseerde IT-wereld. Ook DCIM-pakketten kennen een functionaliteit die vaak nog verrassend sterk op facilitaire voorzieningen is gericht. Weliswaar prima te gebruiken om bijvoorbeeld de PUE goed in kaart te brengen en eventueel te verbeteren, maar niet ingesteld op het voorkomen of oplossen van ‘power outages’, stelt Pfeiffer.

Hoe lossen we stroomproblemen dan op? Eigenlijk schieten we daarbij met een kanon op een mug, meent de CTO van PowerAssure. We kiezen er in de regel namelijk voor om meerdere en liefst identieke datacenters op te zetten, zodat we bij een storing IT workloads van het ene datacenter kunnen verplaatsen naar het andere. Het zou veel beter zijn als we de relatie tussen een software-applicatie en de stroomvoorziening kunnen beheren. We kunnen inmiddels software gebruiken om IT-resources bij of af te schakelen, maar dat kunnen we niet als het om power gaat. Pfeiffer zoekt naar een oplossing waarbij de stroomvoorziening wel degelijk kan worden beïnvloed, maar dan door de hoeveelheid servercapaciteit die stroom verbruikt te reguleren.

Definitie

Software-defined power vormt daarmee dus een combinatie van capaciteitsbeheer op energiegebied met geautomatiseerde procedures voor disaster recovery. Daar wil Pfeiffer bovendien nog een aantal extra functies aan toevoegen, bijvoorbeeld op het gebied van samenwerking met energiemaatschappijen, onder andere in de vorm van het uitwisselen van patronen en historische gegevens over de vraag naar stroom onder tal van omstandigheden.

Op die manier komt de CTO van PowerAssure tot een soort afbakening van het takenpakket van software-defined power: het automatiseert procedures op het gebied van disaster recovery, breidt deze uit richting power, zorgt voor een koppeling met wat hij noemt ‘utility intelligence’ (samenwerking met energiemaatschappijen op het gebied van kennis over verbruikspatronen en dergelijke), integreert met alle software-defined beheeromgevingen die het datacenter in gebruik heeft (server, networking, storage) en legt een koppeling met DCIM. Voor de datacenter manager is verder een dashboard beschikbaar waarbij per applicatie een beeld van de power-situatie wordt gegeven, inclusief de kosten voor de energievoorziening. Het software-defined power-tool werkt vervolgens op basis van regels om het beheer van de stroomvoorziening te reguleren, maar biedt ook mogelijkheden om handmatig in te grijpen door bijvoorbeeld niet-cruciale applicaties tijdelijk minder servercapaciteit te geven en juist meer capaciteit richting bedrijfskritische applicaties te sturen.

Als we de ideeën van Pfeiffer horen, ontstaat als snel de indruk dat we aan het begin staan van een nieuw tijdperk als het om de energievoorziening in het datacenter gaat. Er zijn vooralsnog geen tools die software-defined power in zijn geheel ondersteunen. Pfeiffer pleit daarom voor nauwe samenwerking tussen alle partijen die reeds een stukje van de puzzel in bezit hebben. Met zijn pleidooi voor software-defined power wil hij dan ook vooral een nieuw concept in de markt zetten. In de hoop dat het idee vaste grond onder de voeten krijgt en aanslaat bij tal van aanbieders, maar vooral ook bij datacenter managers.

Meer weten over software-defined power?  PowerAssure heeft een whitepaper opgesteld over software-defined power.

Robbert Hoeffnagel

 
Dossiers