Goede power en koeling bepalen succes van edge datacenters

shutterstock_750428755

De IT-wereld heeft een enorme hoeveelheid gegevens ontdekt. De snelle groei van de aangesloten apparaten die we het Internet of Things (IoT) noemen, stelt ons echter voor stevige uitdagingen, met name als het gaat om het beschikbaar stellen van rekencapaciteit. De edge is misschien wel onze beste kans om een dreigende data-overbelasting te voorkomen.

Alleen al op de dag waarop deze editie van DatacenterWorks bij u ‘op de mat valt’ zal de wereld 2,5 exabytes aan gegevens genereren. En zo gaat het dag-in, dag-uit. Dat is veel, maar het is niets vergeleken met de hoeveelheden waar we naartoe gaan. Voorspellingen geven aan dat voertuigen tegen het jaar 2025 elke maand 10 exabytes aan gegevens van en naar de cloud zullen communiceren. Vergeet niet: dat is slechts een van de vele toepassingen - om nog maar te zwijgen van de toepassingen die we nog niet hebben bedacht maar die we ongetwijfeld nog op de markt zullen zien verschijnen.

Hoe kunnen we voorkomen dat we onze ­huidige datacenters gaan overbelasten met de enorme hoeveelheid aan gegevens die het Internet of Things gaat voortbrengen - en nu al produceert? Bedenk dat de verbindingen naar de cloud niet altijd snel genoeg zullen zijn en dat de capaciteit om IoT-data te verwerken niet altijd aanwezig is aan de achterkant. Zelfs niet als we wél voldoende connectiviteit tot onze beschikking zouden hebben. Al snel wordt duidelijk dat we in de toekomst genoodzaakt zullen zijn om te kiezen welke gegevens daadwerkelijk in de cloud komen. Zoals Cisco al eens constateerde: ‘In de meeste scenario’s is de veronderstelling dat alles in de cloud zal zitten met een sterke en stabiele ‘fat pipe’ tussen de cloud en het edge device - simpelweg niet realistisch’.

Het begon met CDN’s

Als we bereid zijn om de definitie van edge computing een beetje verder uit te breiden dan de technologieën die momenteel de boventoon voeren, dan hebben we het eigenlijk niet over iets dat we als nieuw moeten beschouwen. Content delivery networks (CDN’s) zoals die van Akamai bestaan bijvoorbeeld al sinds de jaren ‘90. Een CDN is een manier om statische content over meerdere locaties te verspreiden. Daarmee bevindt die informatie zich dichter bij de plaats van gebruik. Dit is een zeer efficiënt model gebleken voor het leveren van bijvoorbeeld streaming video.

Edge computing bouwt voort op die aanpak. Maar in plaats van dat de individuele knooppunten aan de rand van het netwerk alleen maar content opslaan en aan gebruikers aanbieden, ontvangen en verwerken de edge-­locaties ook gegevens.

Na de komst van cloud computing was het bestaan van dergelijke intelligente knooppunten tussen gebruikers en het cloud-datacenter een belangrijke stap vooruit. Deze mashup heeft een scenario mogelijk gemaakt waarin we nu de verhoogde gegevensbescherming en lagere latency van on-premise oplossingen kunnen combineren met de flexibiliteit en toegankelijkheid van de cloud.

Wat is er veranderd?

Een aantal moderne toepassingen stelt nieuwe eisen aan de manier waarop we gegevens verplaatsen en verwerken. Autonome voertuigen, smart homes en smart manufacturing hebben allemaal te maken met gekoppelde apparaten die nuttige gegevens genereren - in ongekende hoeveelheden. Maar de ruwe data van sensoren alleen helpen niet bij het vermijden van een file, het uitvoeren van preventief onderhoud aan fabrieksapparatuur of het ontvangen van een sms-bericht dat uw dochter veilig thuis is aangekomen. Al deze zaken vereisen een bepaalde vorm van verwerking - of het nu gaat om realtime analyse, machine learning of een andere vorm van kunstmatige intelligentie.

Op dit moment vindt het grootste deel van die verwerking plaats in grote, centrale datacenters. Maar als de vraag naar compute-capaciteit verder blijft toenemen, is dit niet langer een houdbaar model. Deze ‘use cases’ zullen meer data genereren en snellere responstijden vereisen dan de cloud kan bieden. Momenteel wordt slechts 10% van alle gegevens buiten de cloud of het datacenter verwerkt. Gartner voorspelt echter dat tegen 2022 maar liefst 50% van alle data ‘ergens anders’ wordt verwerkt - lees: in de edge.

Een andere ontwikkeling die grote invloed zal hebben op de edge, is de overgang naar 5G mobiele netwerken die nu langzaam maar zeker op gang begint te komen. Veel carriers implementeren in de nabijheid van hun nieuwe mobiele 5G-basisstations microdatacenters of ontwikkelen hiertoe plannen.

Horizontaal of verticaal?

Er zijn veel nieuwe technologieën die zich een plaats proberen te verwerven in de ruimte tussen het IoT-apparaat en de cloud. Denk aan Microsoft Azure’s IoT Edge, AWS Greengrass, AWS Lambda en bijvoorbeeld de Akraino Edge Stack waar Intel mee bezig is.

Sommige van deze oplossingen laten zich het beste omschrijven als verticale oplossingen die alles van IoT-apparaten en edge servers tot aan de cloud dekken. Andere systemen kunnen beter gekarakteriseerd worden als horizontale benaderingen die erop gericht zijn edge computing-functionaliteit toe te voegen aan een breed scala aan apparaten. Denk aan apps die in containers draaien of een hypervisor op ­verschillende apparaten binnen een bepaalde infrastructuur.

Risico’s en beloningen

Door opslag- en rekencapaciteit dichter bij de bron van de gegevens te plaatsen, worden zowel de latency als de benodigde hoeveelheid bandbreedte drastisch verminderd. Maar hoe zit het met de beveiliging?

Dat is iets wat sterk zal verschillen tussen verschillende toepassingen. Sommige experts zijn van mening dat edge computing de veiligheid verhoogt, doordat de hoeveelheid gegevens die over het open internet reist, wordt beperkt. Voor bedrijven met gevoelige gegevens die de eigen firewall niet mogen verlaten, is dit inderdaad een belangrijk voordeel.

Aan de andere kant geeft de toevoeging van talloze IoT-apparaten en een apart niveau van infrastructuur (inclusief edge servers) kwaadwillenden een groter ‘attack surface’. Anders gezegd: zij krijgen meer kansen om een aanval op te zetten. De reden zal duidelijk zijn: ieder extra endpoint dat wordt toegevoegd kan ­worden gecompromitteerd en biedt dan een mogelijkheid om te infiltreren in de core-­netwerken van de organisatie.

Wie heeft het voordeel?

Een ander probleem bij het verplaatsen van infrastructuur van de cloud naar de edge is de kwestie van eigendom, exploitatie en onderhoud. Bedrijven hebben gebruikgemaakt van cloud computing juist vanwege de mogelijkheid om hun administratieve en onderhoudslasten drastisch te verlichten. Als de compute-

infrastructuur terugkeert naar de edge, wie is dan de eigenaar en de beheerder van de infrastructuur?

Dit soort vragen zijn nu nog moeilijk te beantwoorden, omdat er weinig duidelijkheid is over welke technologieën uiteindelijk de overhand zullen krijgen. Een ding is echter wel zeker: ongeacht de vraag wie straks de eigenaar of de beheerder is van het edge datacenter, alles draait om efficiëntie. Hoe groot of hoe klein die edge-faciliteit ook zal zijn.

Het is niet eenvoudig om grote datacenters te verslaan op het gebied van ‘compute efficiency’ of betrouwbaarheid. Het is dan ook duidelijk dat er geen one-stop oplossing bestaat die voor iedere willekeurige organisatie een kant-en-klare edge-oplossing biedt. Iedere edge-­faciliteit zal moeten worden aangepast aan de specifieke toepassing. Maar wat de omvang ook zal zijn, de datacenter-infrastructuur van morgen - vooral stroom en koeling - zal belangrijker zijn naarmate het verwerken van gegevens meer en meer naar de edge wordt geduwd.

Mikael Berggren is directeur Business Development, Data Center Solutions, ICTBG, Delta Electronics

Dossiers
Meer over
Lees ook
Lennox EMEA overgenomen door Syntagma Capital

Lennox EMEA overgenomen door Syntagma Capital

Lennox International heeft de details bekend gemaakt van een overeenkomst om de commerciële HVAC- en koelactiviteiten van Lennox EMEA af te stoten. Syntagma Capital, een Europese private onderneming, zal de activa van Lennox in EMEA overnemen.

Datacenter trends: hou het hoofd koel

Datacenter trends: hou het hoofd koel

Datacenterbeheerders staan voor een dubbele uitdaging: enerzijds moeten de prestaties worden verbeterd om aan de vraag naar hogere snelheden te voldoen, en tegelijkertijd moeten energieverbruik en CO2-uitstoot omlaag worden gebracht. Meer krachtige processoren, fors hogere dichtheid van apparatuur in racks, en servers die meer energie verbruiken l1

Storing bij Gyro center door uitval koelunits

Storing bij Gyro center door uitval koelunits

Vrijdag rond 19:00 is een storing ontstaan bij het Amsterdamse Gyro center, een datacenter dat bij velen bekend is als colo-aanbieder. De problemen zouden rond zaterdag 01:00 onder controle zijn, dan wel verholpen. Het ging dus om een, voor Nederlandse begrippen, langere storing.