Groeit DCIM in 2020 uit tot standaardmethode voor milieu-effectbeoordeling?

DCIM

Ook in 2020 wordt de agenda in de datacenterindustrie bepaald door groei, Brexit (eind 2020), consolidatie, datacenter als onderdeel van de vitale infrastructuur, klimaatverandering, energietransitie en een overvolle energie-infrastructuur. Niet direct iets nieuws voor iedereen die belast is met Data Center Infrastructure Management (DCIM). Of toch wel?

Laten we eerst kijken naar wat de trends in de bredere ICT-sector zijn. En welke eisen die stellen aan DCIM. Er zijn drie belangrijke aanjagers van verandering:

  • Agile, DevOps en Kubernetes
  • Regulatoire druk op het vlak van privacy & security en Big Data
  • Duurzaamheid

Alhoewel niet nieuw, wordt nu pas duidelijk wat voor gevolgen deze aanjagers hebben voor het datacenter.

Agile, DevOps en Kubernetes

De eerste trend is dat de combinatie van Agile-methoden en DevOps leidt tot een steeds kortere tijd van concept naar ontwikkeling, test en in productie nemen van software. Hierbij wordt meer en meer gekozen voor een zogeheten ‘continuous integration and continuous delivery’ (CI/CD) model, waarbij applicaties in een voortdurende flow worden ontworpen, gebouwd, opgeleverd, aangepast en weer opgeleverd. Deze tempoverhoging stelt grote eisen aan de IT service ­management (ITSM) processen, die historisch gezien zich meer richten op gecontroleerd beheer, met vaststaande applicatielandschappen en onderliggende infrastructuren.

De flexibiliteit die DevOps biedt voor deve­lopers en product owners leidt tot een heel nieuwe dynamiek op DCIM-vlak met vragen als on-demand capaciteit, dynamische workloads en hybride omgevingen waarbij workloads gedistribueerd worden over het interne datacenter, co-locatie providers en private cloud of public cloud. Rekencapaciteit en opslag als commodity. De doorbraak van ‘container orchestration’ met gebruik van ­Kubernetes maakt de fysieke ontkoppeling tussen workload enerzijds en fysieke en ­virtuele server anderzijds compleet. Met ­behulp van containers worden met de spreekwoordelijke druk op de knop workloads verplaatst naar waar de reken­capaciteit, opslag en rekenkracht het meest voordelig is.

Privacy en security

In veel organisaties wordt onder andere de AVG aangegrepen om applicatielandschappen opnieuw te evalueren. Per proces, per oplossing, per applicatie wordt aan de hand van een risico-inschatting bepaald hoe ­essentieel deze is voor de bedrijfsvoering en welke privacy- en security-eisen van toepassing zijn. Uiteindelijk kiest men een daarop aangepast model, dat input geeft aan de strategie op het gebied van datacenter-­sourcing.

Big Data

De hierboven genoemde ontwikkelingen hebben een gemeenschappelijk gevolg. Dat is een bijna ongebreidelde groei van gegevensverzamelingen, vaak verspreid over ­gedistribueerde omgevingen. Niet langer is de berg aan metagegevens voorbehouden aan de systeembeheerder. Waar logging voorheen gezien werd als een middel om storingen te analyseren, te verhelpen en preventieve maatregelen te nemen, is dat met de komst van het internet geen exclusief feestje meer van de IT-afdeling. Big data is inmiddels in alle uithoeken van de organisatie te vinden. De marketingafdeling wil weten wat het effect is van hun campagnes, recruitment wil het effect van uitingen op social media weten, product management wil data om de kwaliteit te verbeteren van hun IoT-producten. Data is daarmee als het ware verworden tot een product. Elke ­discipline heeft zijn eigen datastromen en is bedreven in de analyse ervan. Vaak met ­behulp van artificiële intelligentie (AI).

Het datacenter zelf blijft daarbij niet achter. Hardware wordt steeds intelligenter, power strips worden Power Distribution Units (PDU) met intelligente ‘metered’ contactdozen die het afgegeven vermogen continu meten, schakelen en bewaken. Intelligente racks die hun locatie in het datacenter en exacte U-info aan de server doorgeven - naast temperatuur en koeling. In een gemiddeld datacenter zal de aanwezigheid van al deze sensoren ook bijdragen aan een enorme toename van het aantal datapunten.

Energietransitie, duurzaamheid en Green Deal

Al voor de publicatie van de Green Deal van de Europese Commissie stonden energietransitie en duurzaamheid reeds hoog op de agenda van IT-afdelingen, datacenters en enterprise-organisaties. In de zakelijke dienstverlening zijn mobiliteit, huisvesting en ICT-infrastructuren de grootste bronnen van uitstoot en worden daarom integraal meegenomen in duurzaamheidsplannen van veel bedrijven. Ook hier eisen klanten - naast de bekende certificaten - inzicht in hun gebruik en hun footprint.

De EU heeft met de publicatie van de Green Deal een ambitieuze roadmap neergelegd om ‘de Economie van de EU te transformeren voor een duurzame toekomst’. In de Green Deal worden niet alleen uitspraken gedaan over hergebruik en recycling in de elektronische industrie, CO2-reductie in de bouw.

Ook wordt gesteld: ‘Betrouwbare, vergelijkbare en controleerbare informatie speelt ook een belangrijke rol: zij stelt kopers in staat duurzamere beslissingen te nemen en ­beperkt het risico van groenwassen’.

Ook stelt de EC in de Green Deal: ‘Bedrijven die zichzelf als groen presenteren, moeten hun milieuclaims kunnen staven aan de hand van een standaardmethode voor milieu-­effectbeoordeling’.

Het mag duidelijk zijn dat het voor de datacenter-industrie nog belangrijker wordt om over accurate gegevens te beschikken, om te voldoen aan compliance-eisen - of die eisen nu direct door de overheid of indirect door klanten worden gesteld.

Niets nieuws?

Ik vermoed dat een deel van u inmiddels een gevoel van déjà-vu bekruipt. Dat klopt. Niets nieuws aan de horizon.

Of toch wel?

Wat opvalt is dat er aan de ene kant een enorme toename aan elasticiteit wordt ­gevraagd: snel schalen, snel ontwikkelen, snel in de markt zetten, snel switchen. IT ­service management (ITSM) wordt steeds meer gepercipieerd als een sta-in-de-weg van innovatie en staat daarom onder druk om haar toegevoegde waarde te tonen.

Maar ook: accumulatie van veel data, toe­nemende eisen aan deze data (AVG) en compliance. IT is niet meer locatiegebonden, maar opereert steeds meer in hybride-infrastructuren waar on-site en off-site vervagen. Oplossingen bestaan uit hybride combinaties van informatie en applicaties. Combineer informatie uit ITSM-systemen, DCIM-systemen en Cloud Management-platforms om tot een ‘Hybride Data Infrastructure Management’ (HDIM) toolkit te komen.

DCIM anno 2020: meten is inderdaad weten

Hoe kan DCIM inspelen op al deze veranderingen? Zoals net aangegeven overstijgt DCIM het datacenter, zonder daarbij aan belang in te boeten. Nog altijd is het voor ITSM-processen van cruciaal belang om accurate data te hebben over de status van de componenten in de ‘configuration management database’ (CMDB).

schema DCIM

Schematische weergave van de Green Deal van de Europese Commissie.

Het zal tevens duidelijk zijn dat de gebruiker uitgaat van een steeds verdergaande automatisering, wat resulteert in een extreme toename van het aantal machines per beheerder. Die vervolgens met DevOps tooling in staat is om die omgeving nog ­verder te automatiseren - al naar behoefte. Waarbij het genereren en opslaan van ­relevante meetgegevens niet mag worden vergeten. Kortom: meet alles.

Meten & Weten

DCIM gaat nog steeds over het in kaart brengen van de inhoud van de datacenterinfrastructuur - tot op het niveau van power strip, rack en koeling. Maar het gaat ook over het verzamelen van zoveel mogelijk informatie over CMDB-componenten die een cruciale rol spelen in ITSM-processen. Hoeveel Watt ­gebruikt een machine, welke warmte geeft ie af, hoe vaak staat een component in ­storing, wat is de aanschafdatum? Alle meetbare informatie gedurende de operationele levenscyclus van een apparaat - van fysieke of virtuele aard - is relevant. Het is van ­belang te zorgen dat de DCIM tooling in staat is ­zoveel mogelijk informatie van verschillende bronnen en hun bijbehorende protocollen te verzamelen.

De basistaken van een DCIM tool blijft ondersteuning bij de volgende taken:

Lifecycle management - DCIM blijft essentieel voor het beheer van assets - van het moment dat ze naar binnen worden gereden tot het moment dat ze worden vervangen. DCIM is en blijft relevant als het gaat om planning van de ruimtelijke en energie-indeling en blijft input leveren voor de ITSM-tools. Integratie is daarbij sleutelwoord.

Monitoring - Hoe worden mijn assets ­gebruikt? Kloppen de meetgegevens wel met andere waarnemingen. Combineer deze tot inzichten over het gebruik van systemen. Worden alle assets wel effi­ciënt ingezet? Of is er nog ongebruikte ­capaciteit in huis?

Analyse en interpretatie - Bij de opzet van het datacenter heeft u waarschijnlijk veel tijd besteed aan het berekenen van de thermische en energetische capaciteiten. Ook hier is het relevant om niet alleen te kijken naar wat de theoretische capaciteit is, maar juist naar de actualiteit. Benut het datacenter wel alle capaciteit? Is er binnen de huidige voorziening nog ruimte voor groei? Informatie die relevant is voor de ITSM-processen, maar net zo goed voor de (interne of externe) klant. Een product als Nlyte Energy Optimizer is in dat opzicht interessant, omdat het deze analyse kan uitvoeren vanuit meerdere invalshoeken tot op co-locatie niveau. Hoeveel gebruikt de klant werkelijk? Wat kan deze berg met informatie me vertellen? Welke inzichten kan ik hieruit verwerven. Ook in deze ­omgeving zal de rol van data-scientist aan invloed gaan winnen.

AIOps - Maar waarom zouden mensen deze analyse nog moeten doen? Tegenwoordig kan AI - mits gevoed met voldoende informatie - zelf patronen leren herkennen en met behulp van slimme ­algoritmes signaleren en indien nodig ook handelen. Zou het niet mooi zijn als de AI leert te herkennen dat een bepaald type component op het punt staat te falen op basis van indicatoren die ogenschijnlijk niet aan elkaar gerelateerd zijn, maar die alleen herkend kunnen worden op basis van een diepgaande analyse van eerdere incidenten?

Zou het niet nog mooier zijn als je vervolgens de ingebouwde AI toestaat om automatisch preventieve maatregelen te nemen om de bewuste component uit de resource pool te halen, in afwachting van menselijke interventie?

Compliance en certificering - de Green Deal

Stel nu dat u alle hierboven genoemde ­onderwerpen volledig op orde heeft. Duizenden meetpunten geven u inzicht in het ­gebruik, de efficiency en de kwaliteit van uw omgeving. U kunt uw energiefactuur koppelen aan iedere individuele component. Wat kunt u nog meer met deze informatie? Waarom zet u deze vervolgens niet in ter staving van uw milieuclaims? Maar dan liefst wel in realtime. Kunnen we op basis van al deze ­datapunten niet komen tot het opstellen van een nieuwe standaardmethode voor milieu-effectbeoordeling? Misschien is het zelfs ­mogelijk bij de definitie van HDIM-standaarden juist een voorschot te nemen op de ontwikkeling van dergelijke beoordelingen. De gegevens heeft u immers al. Het is de vraag wat u er mee gaat doen. Ik ben benieuwd!

Gijs Keij is Principal Consultant bij LogicQ