Op naar het datacenter van de toekomst

DE12_Datacenter_Man

We leven weer eens in revolutionaire tijden - ‘disruptive’ is het modewoord. Alleen het aantal laptops, tablets en smartphones dat tegenwoordig op aarde rondzwerft, loopt al in de miljarden. Met daarop weer een veelvoud aan applicaties geïnstalleerd. En elk van die apps maakt regelmatig contact - vele zelfs diverse keren per dag - met een of ander datacenter, ergens in de cloud. Hoelang gaan die datacenters dat nog bolwerken? De wervelwind die alom ‘het internet der dingen’ wordt genoemd, is nog nauwelijks opgestoken… 

Het hoofdstuk in de wereldgeschiedenis dat Internet heet, is nog maar net begonnen, zegt Jim Henrys. Hij is Chief Strategist & Architect bij Intel en publiceert regelmatig over de nieuwste ontwikkelingen in de datacenterwereld. Van de wereldbevolking is heden ten dage slechts een procent of 40 met internet verbonden, voert hij aan. Terwijl naar verwachting in 2020 het aantal aan internet gekoppelde devices de 50 miljard zal overschrijden. Bedrijven en organisaties zullen hun datacenters daarop moeten voorbereiden, is dan ook zijn boodschap. Maar hoe gaat dat datacenter van de toekomst eruit zien en hoe de reis daar naartoe?

Vertrekpunt

Laten we een ‘gewoon’ traditioneel bedrijf met een enigszins gedateerd datacenter als vertrekpunt nemen. Dat bedrijf ziet zich nu al geconfronteerd met een voortdurend aanzwellende stroom data, die ten eerste moet worden opgeslagen, maar ten tweede steeds sneller moet worden geanalyseerd, wil het bedrijf zijn wendbaarheid behouden. Hoe doet het dat zonder dat de kosten de pan uit rijzen? Het zal om te beginnen een hybride cloud-benadering moeten adopteren, is Henrys’ antwoord. Want de hybride cloud heeft de toekomst. Daarin wordt gebruikgemaakt van SaaS-technologie betrokken uit de public cloud voor de standaard businessprocessen, terwijl de meer bedrijfskritische zaken in de private cloud in het eigen datacenter worden ondergebracht. Dat eigen datacenter zal dan echter wel zodanig moeten worden (her)ingericht dat het de dynamiek krijgt die nodig is om ook straks in 2020 nog het hoofd boven water te kunnen houden. Het zojuist opgevoerde bedrijf zal, als het de reeds gebaande paden van de pioniers volgt, op weg naar dat dynamische datacenter van morgen, zich eerst door vier stadia bewegen, schildert Henrys: Standaardisatie/Consolidatie, Virtualisatie, Automatisering en Orkestratie. Pas dan lonkt de laatste stap naar het definitieve reisdoel: het walhalla van de real-time enterprise.

Maar even terug naar het vertrekpunt! Dat enigszins gedateerde datacenter, hoe ziet dat eruit? Dat is meestal hardware-gedefinieerd, zegt Henrys, met reken-, netwerk- en opslag-resources opgedeeld in silo’s. Alles doet zijn eigen vaste ding (Henrys spreekt van ‘fixed-function appliances’) en is niet voor iets anders inzetbaar. Hier en daar zijn de servers wellicht gevirtualiseerd, hetgeen de flexibiliteit enigszins heeft verhoogd. Maar het beheer van de netwerk- en storage-bronnen, en van het datacenter in zijn geheel, gebeurt nog grotendeels handmatig en is statisch en traag. Om van daaruit uiteindelijk het real-time enterprise-stadium te bereiken, zal de architectuur volgens Henrys een drastische transformatie moeten ondergaan richting een totale Software Defined Infrastructure, oftewel SDI.

SDI

Consolidatie, virtualisatie, automatisering van het beheer van workloads, het zijn allemaal stappen die bedrijven die technisch met hun datacenter voorop lopen, reeds gemaakt hebben. SDI is echter een essentiële schakel om die laatste stap naar de real-time enterprise echt te kunnen zetten – er is de laatste tijd niet voor niets al zoveel over geschreven. Hoe typeert Henrys SDI? De huidige datacenters die werken met virtuele machines (VM’s) bevinden zich in een voorstadium van SDI; een Virtual Machine is per slot van rekening in essentie een software-gedefinieerde server, aldus Henrys. Voor SDI moeten we hetzelfde principe als wat daaraan ten grondslag ligt, doorvoeren voor storage en networking. Zo kunnen we deze resources op dezelfde geautomatiseerde en dynamische manier beheren als we met VM’s gewend zijn. Dit opent de weg naar resources die passen bij de behoeften van de business, in plaats van een infrastructuur die bepaalt hoe de business zijn werk moet doen. Het levert een datacenter op dat te vergelijken is met een huis waarin je naar believen de muren kunt verplaatsen, ramen kunt toevoegen of een badkamer kunt verwijderen. Het vermogen tot snelle en flexibele aanpassingen dus, zonder dat dat extra geld, tijd of werk kost.

Henrys omschrijft dit resultaat als ‘a data center for the application economy’. Hij bedoelt hiermee een datacenter dat de voorwaarden schept voor een volledig applicatie-gedreven bedrijfsvoering, met SLA’s die strikt worden nageleefd. Of die SLA’s nu de responstijden, de veiligheidsniveaus, de beschikbaarheid, de plek waar je data worden opgeslagen, de elasticiteit waarmee pieken en dalen kunnen worden opgevangen, of (zelfs) de verbruikte elektriciteit betreffen.

Orkestratie

Die SLA’s kunnen slechts dan zo strikt worden nageleefd, indien in het datacenter de resources ook met precisie kunnen worden toegewezen, vervolgt Henrys. En dat vindt plaats op de laag direct onder die van de applicaties: de ’orchestration layer’. “Dat is de plek waar je het beheer van je datacenter-resources kunt automatiseren en die resources dynamisch naar behoefte kunt toewijzen aan de applicaties. Deze resource-bronnen, die de basislaag van het datacenter vormen, kunnen geautomatiseerd en op afroep worden toegewezen aan reken-, opslag- en/of netwerktaken. Fixed-function appliances worden hierbij geïmplementeerd in de vorm van virtuele resource-bronnen, hetgeen betekent dat je ze elke architecturale rol kunt toebedelen.”

Komen we tot slot aan bij ons reisdoel: het datacenter van de toekomst dat in 2020 zijn hoofd boven water weet te houden. Hoe ziet dat eruit? Het is een software defined datacenter, waarin de orchestration layer het datacenterbeheer van een handmatige taak transformeert in een tot in de puntjes geautomatiseerd proces. Daarmee biedt het de dynamiek die nodig is voor het private deel van het ‘hybrid cloud’-model dat de toekomst heeft. 

Kijk, beslis, handel, leer

Henrys beschrijft dat toekomstige datacenter als een zelflerend systeem, aangedreven door de orkestratie-laag die zelfstandig opereert in een oneindige loop van Watch, Decide, Act en Learn. Het startpunt van dat zichzelf voortdurend herhalende proces is telkens de applicatie, want uiteindelijk draait het erom te komen tot een applicatie-gedreven bedrijfsvoering. En met SLA’s die strikt nageleefd worden, benadrukt Henrys nog een keer.

De observaties die op applicatieniveau worden gedaan, worden geanalyseerd op de orkestratie-laag. Uit die analyses (Watch) kan vervolgens bijvoorbeeld worden afgeleid dat er ergens een stroomstoring is opgetreden, waardoor bepaalde data van de meest efficiënt opererende servers zijn afgehaald. Met dat gegeven in de hand wordt vervolgens besloten (Decide) hoe het euvel het beste kan worden ondervangen. Waarna de orkestratie-laag vervolgens maatregelen snel en automatisch de noodzakelijke neemt (Act). Zo kunnen veranderingen die anders misschien weken of maanden in beslag hadden genomen, nu in minuten of zelfs seconden worden uitgevoerd. En dan is er uiteindelijk ook nog Learn. De orkestratie-laag monitort namelijk automatisch de impact van iedere verandering die het in de software defined infrastructure heeft aangebracht en gebruikt deze gegevens en het daaruit opgedane inzicht ter verbetering van het toekomstig beslissingsproces.

Meer informatie over datacenter- en cloudtechnologie, virtualisatie, IT-transformatie en andere IT-trends en -ontwikkelingen? Bezoek Intel IT Center.

Dick Schievels is freelance journalist