DatacenterWorks Expertsessie: Complexiteit van monitoring vraagt om integratie van tools

DCW-Expertsessie-Arbeidsmarkt

Op 19 maart 2022 organiseerde DatacenterWorks een expertsessie over monitoring. De druk bezochte online sessie speelde in op een belangrijke trend in de wereld van datacenterinfrastructuren. Door de pandemie maar natuurlijk ook als gevolg van de al langer spelende trend richting digitalisering is maximale beschikbaarheid van IT-diensten van cruciaal belang. Dit betekent uiteraard dat ook de technische infrastructuur van het datacenter een beschikbaarheid moet hebben die richting 99,999% gaat. Dat kan niet zonder een uitgekiende strategie rond monitoring van alle systemen en installaties die hierbij een rol spelen.

Deelnemers

Aan de expertsessie deden Peter Vermeulen, onderzoeker bij Pb7 Research, Ronald Kok (directeur van All IT Rooms), Global Business Development Manager – Data Centers, Martin Matse van ATS Global en Martin Brezina, UPS Field Application Engineer EMEA bij Delta Electronics mee.

Een aantal thema’s stond centraal tijdens deze sessie. Dat is allereerst de vraag welke problemen er nu eigenlijk precies in het datacenter spelen dat monitoring zo’n belangrijke rol speelt? Is datacenter monitoring daarbij een typisch facilitair onderwerp? Of zijn er ook links naar bijvoorbeeld IT operations?

 

Structureel of bij storing?

Ook werd uitgebreid gediscussieerd over de vraag hoe we monitoring het beste aanpakken? Als oplossing bij een acuut probleem of incident? Of kunnen we beter monitoring-tools permanent ‘aan’ zetten, zodat we veel historische data verzamelen die bij incidenten, storingen, maar ook bij onderhoud en bijvoorbeeld vervanging geanalyseerd kunnen worden om de situatie te snappen en op te lossen?

Interessant punt dat in de discussie naar voren kwam: we hebben vaak de neiging om simpelweg alles te gaan monitoren en vastleggen. Het is maar zeer de vraag of die aanpak tot een werkbare en zinvolle aanpak leidt. Vaak is het beter om - samen met de mensen die de infrastructuur echt goed kennen - een aantal specifieke punten te kiezen waarop de monitoring en het verzamelen van data met name gericht kan worden.

DCIM of losse tools?

Een discussie die al veel langer speelt, kwam ook tijdens deze sessie uitgebreid aan de orde. Wat is beter: individuele monitoring-tools gebruiken of een uitgebreide en geïntegreerde DCIM-oplossing implementeren? Zoals zo vaak is het antwoord niet altijd even eenvoudig te geven. Soms is het beter om breed te monitoren, in andere gevallen kunnen individuele tools prima helpen. Het is vaak wel belangrijk om tot een zekere mate van integratie van de data te komen. Reden: we moeten snappen wat de data die de monitoring voortbrengt nu precies betekent. Dit lukt vaak alleen als individuele data kan worden gecombineerd met andere gegevens.

Het is duidelijk dat monitoring steeds meer kennis en inzicht vereist. Alleen de echt grote datacenters kunnen dat vaak nog moet eigen, interne mensen doen. Middelgrote en kleinere faciliteiten doen er goed aan om in ieder geval het uitbesteden van monitoring te overwegen, daar waren de deelnemers aan de discussie het al snel over eens. Maar dan uiteraard wel op basis van een weloverwogen strategie, die eventueel samen met een externe partner kan worden opgesteld.

Rol van ML en AI

Er wordt in de vakliteratuur veel geschreven over de rol van moderne hulpmiddelen als machine learning (ML), Artificial Intelligence (AI), maar bijvoorbeeld ook digital twins. De deelnemers aan de discussie waren het er over eens dat deze trends zeker kansen biedt. Maar we moeten ons er ook niet op blind staren. Dit soort modellen moeten getraind worden, dus is goede en relevante data nodig. Het concept van AI en ML klinkt vaak erg aantrekkelijk, maar in de praktijk zitten er nog flink wat haken en ogen aan.

Uiteindelijk kwamen de delers tot een aantal conclusies, die soms ook vooral vragen bleken te zijn. Bijvoorbeeld: DCIM is het middel, maar wat is nu eigenlijk het doel dat we nastreven? Denk hier goed over na, was hun advies, waarbij externe deskundigheid inschakelen vaak wel zo verstandig is.

Een tweede conclusie: complexiteit vraagt om integratie - en dan met name van tools. Bovendien: integratie en de daarmee gepaard gaande investeringen in DCIM- en andere tools moeten zichzelf uitbetalen. Monitoring vanwege een vraag naar continuïteit speelt daarbij natuurlijk, maar is feitelijk een hygiëne-factor. Uiteindelijk draait het ook bij monitoring toch vooral om kosten. Slim monitoren kost uiteraard geld, maar levert ook veel besparingen op.

 

Robbert Hoeffnagel

Lees ook
Innovatieve UPS-technologie als fundament voor het datacenter van de toekomst

Innovatieve UPS-technologie als fundament voor het datacenter van de toekomst

ABB en Kevlinx Data Centers bouwen samen aan digitale zekerheid   In een digitale economie waarin downtime simpelweg geen optie is, zetten ABB en Kevlinx een nieuwe standaard voor de kritieke infrastructuur van morgen. Met vooruitstrevende UPS-oplossingen, ontworpen voor maximale betrouwbaarheid, schaalbaarheid en energie-efficiëntie, b1

AWS en Google Cloud willen multicloud-netwerken vereenvoudigen met nieuwe Interconnect-aanpak

AWS en Google Cloud willen multicloud-netwerken vereenvoudigen met nieuwe Interconnect-aanpak

Twee grote publieke cloudproviders zetten een stap richting eenvoudiger multicloud-beheer. AWS en Google Cloud introduceren met Interconnect – multicloud een nieuwe aanpak voor private, hoge-snelheidsverbindingen tussen cloudomgevingen.

Deutsche Telekom en Schwarz Gruppe zetten eigen AI-gigafactory op in Duitsland

Deutsche Telekom en Schwarz Gruppe zetten eigen AI-gigafactory op in Duitsland

Duitsland lijkt zich op te maken voor een nieuwe fase in de strijd om Europese AI-infrastructuur. Deutsche Telekom en de Schwarz Gruppe, eigenaar van onder meer Lidl, Kaufland en een reeks eigen IT-bedrijven, voeren vergevorderde gesprekken over de bouw van een gezamenlijke AI-gigafactory. Het gaat om een zeer groot project dat zich wil kwalificer1