Datacenter heeft behoefte aan eigen architectuur

Nieuwe mogelijkheden en snelle groei vormen een zware belasting voor de infrastructuur, snelheden, energieverbruik, grootte, dichtheid en kosten van bestaande datacenters, aldus Alan Flatman, Principal Consultant LAN Technologies.

Datacenters (DC) hebben in de afgelopen vijftien jaar grote ontwikkelingen doorlopen. Hun capaciteit kan het snel toenemende aantal gebruikers en de hoeveelheid data nauwelijks bijbenen. Volgens de ‘Visual Networking Index’ van Cisco zal het IP-verkeer in 2015 uitkomen op 1 Zettabyte: acht keer zoveel als het totaal over 2008. IP-verkeer zal naar verwachting tussen 2010 en 2015 verviervoudigen door snellere verbindingen, grotere bestanden en de forse groei van aangesloten apparaten en het aantal internetgebruikers. De ‘IDC Digital Universe’-studie* voorspelt dat het datavolume jaarlijks met 40-50% zal groeien.

Voorspelling verbruik bandbreedte

Bron: Ethernet Bandwidth Assessment (IEEE 802.3, juli 2012) http://www.ieee802.org/3/ad_hoc/bwa/BWA_Report.pdf

Datacenters: soorten, maten en vormen

Het aantal ‘mega-DC's’ blijft groeien, er komen steeds meer kleine, volledig functionele DC's en we zien verschillende soorten DC's voor uiteenlopende toepassingen. In 2008 waren er nog vrijwel geen Cloud servers. Alle servers werden gebruikt voor zakelijke of residentiële toepassingen. In 2018 zal deze verdeling echter op 50%-50% uitkomen.

We zien ook nieuwe ontwikkelingen op het gebied van standaardisatie. De afmetingen van cabinets en server rows zijn sterk gestandaardiseerd. Deze rijen zijn doorgaans tot 30 meter lang - de 'de facto' standaard voor koperverbindingen. Binnen het cabinet en tussen aangrenzende cabinets blijft de lengte van koppelingen meestal beperkt tot respectievelijk 3m en 5m. In 2011 heeft IEEE de huidige en toekomstige eisen aan deze links in kaart gebracht. Er is niet alleen behoefte aan langere kabels, maar ook aan hogere snelheden. In mega-DC’s, zoals Google's Mayes County faciliteit (1.000.000 m2), zijn koppelingen soms 500m tot zelfs 1 km lang. De allergrootste DC's, zoals de SuperNap in Las Vegas (2,2 miljoen m2), hebben links van 1 tot 2 kilometer.

Welke gevolgen heeft dit voor de fysieke infrastructuur? In een 'traditionele' DC wordt opslag geconcentreerd in een discrete SAN-omgeving. Verwerking vindt plaats in een aparte server-omgeving. Via patchpanelen en schakelaars worden deze gekoppeld aan de belangrijkste verdeelgebieden. De opkomst van modulaire Mega Datacenters van bijvoorbeeld Microsoft, Facebook, Apple en Amazon brengt daar verandering in.

Server-technologietrends

Bron: Scott Kipp, Brocade

De vertrouwde drie-laags DC-architectuur is geoptimaliseerd voor ‘noord-zuid’ (‘vraag-antwoord’) dataverkeer. De bovenste laag is de verbinding met het internet, de onderste bevat de servers en switches en daartussenin vinden we een laag met koppelingen. In ‘Massively Scaled Data Centres’ zoals cloud-servers of de faciliteiten van Google en Facebook, gaat een enorme hoeveelheid verkeer van server naar server (‘oost-west’). Hiervoor is een two-tier model - dus zonder de middelste laag - uitermate geschikt. Dit model kan noord-zuid en oost-west verkeer beter combineren, met positieve gevolgen voor zowel snelheid als doorvoer.

Next Generation Networks en uitputting van de technologie

De snelheid en dichtheid van netwerken moet hoger, het energieverbruik en de kosten moeten omlaag. De momenteel meest gebruikte korte-termijn-oplossing is het uitbreiden van parallelle connectiviteit. Door vier lanes van ieder 10G te gebruiken, kan 40G worden gerealiseerd. Vier 25G lanes leveren samen 100G, 16 lanes bieden 400G. Er zijn echter grenzen aan deze aanpak. Het is wachten op een doorbraak binnen de optische technologie, die het mogelijk maakt om hogere snelheden te behalen op een betaalbare, schaalbare manier.

De oplossing: alle benodigde functionaliteiten samenbrengen op een enkele switch. Inmiddels kunnen verschillende types transceiver-module op een enkele faceplate worden gecombineerd. Vier CFP poorten van 100G per poort leveren samen ​​400 Gb/s. 48 SFP+ poorten met 10G per poort bieden een totale capaciteit van 480 Gb/s. 44 QSFP poorten met 40G per poort levert 1760 Gb/s. Een CFP4 switch, indien beschikbaar, kan 32 100 G poorten samenbrengen op een switch faceplate, waardoor we op 3200 Gb/s uitkomen.

Een balans tussen snelheid, kosten, rekenkracht en grootte

In de regel worden de meest energie-efficiënte, kosten-effectieve en gebruiksvriendelijke oplossingen gebruikt voor het verbinden van cabinets. Binnen de kasten wordt twinax-koper gebruikt voor het overbruggen van korte afstanden en het ondersteunen van bandbreedte tot 100 Gb/s. Het einde van deze technologie komt echter in zicht, omdat het de fors hogere eisen van vandaag niet langer ondersteunt.

Voor verbindingen tussen de cabinets worden meestal twisted pair of optische glasvezelverbindingen gebruikt. Wereldwijd liggen er inmiddels miljarden van dit soort links tussen racks. Echter, door de komst van steeds hogere bandbreedtes is het bereik inmiddels van 100 meter beperkt tot slechts 30 meter - wat overigens nog steeds goed bruikbaar is voor ‘end of row’-switching. Bij multimode kabel neemt de operationele snelheid af wanneer de lengte toeneemt. Singlemode-glasvezel is een praktisch - maar kostbaar - alternatief. Dit vanwege de kosten van de benodigde high-speed transceivers, die een veelvoud kosten van de Multimode variant.

Hoge dichtheid, klein formaat, lage latency en robuustheid zijn van doorslaggevend belang voor de levensduur van DCs. We willen vandaag de dag graag snelheid, dichtheid, veerkracht (uptime), levensduur en parallellisme zo hoog mogelijk houden. Er zijn echter ook vier dingen die we zo laag mogelijk willen houden: Capex, Opex, stroomverbruik en latency. Daarbij moeten we nooit de behoefte aan snelheid onderschatten.

Speed vs. Reach vs. Media

In 2013 heb ik de behoeften van een aantal grote DCs uitgebreid in kaart gebracht. Tijdens langdurige discussies legde Microsoft uit dat ze zoveel mogelijk parallelle singlemode bekabeling implementeerden, met daartussen korte koperverbindingen. Dit resulteert in een perfect evenwicht tussen hoge Capex, lage Opex en maximale levensduur en is, naar mijn mening, de weg vooruit.

Dit is een verkorte versie van lezing gegeven door Alan Flatman op de Data Centre Conference in Parijs in December 2014. Een uitgebreide Engelstalige versie is te vinden op www.nexans.nl/LANsystems

Alan Flatman, Principal Consultant LAN Technologies

* Bron: Digital Universe Study, gesponsord door EMC en uitgevoerd door marktanalist IDC. www.emc.com/leadership/programs/digital-universe.htm

 
Meer over
Lees ook
Base 16-technologie in datacenters: Wat zijn de voordelen?

Base 16-technologie in datacenters: Wat zijn de voordelen?

Hyperscale- en edge-datacenters installeren of upgraden verbindingen naar 400G en 800G (2x400G), voor de overstap naar een server- en spine-leaf-architectuur. Daarbij zijn er verschillende MMF- en SMF-transceiveropties om uit te kiezen en kijkt men tevens naar multimode parallelle optica voor netwerkconnectiviteit op korte afstand.

ODF ondersteunt hoge dichtheid glasvezelinstallaties

ODF ondersteunt hoge dichtheid glasvezelinstallaties

De groei en toenemende complexiteit van IT-systemen en cloudservices, ongeacht het bedrijf en de markt waarin u werkt, blijft de behoefte aan netwerkinfrastructuur stuwen. Oplossingen voor die infrastructuur, zoals optische distributieframes (ODF's), moeten meegroeien en evolueren met de organisatie, en tegemoetkomen aan steeds compactere en daard1

Herziene NEN 8012: meer duidelijkheid over brandveiligheid van kabels

Herziene NEN 8012: meer duidelijkheid over brandveiligheid van kabels

Op 7 juli 2023 is de vernieuwde NEN 8012 over de keuze van leidingtypes gepubliceerd. Deze revisie zorgt voor een afstemming met het aangepaste Bouwbesluit uit 2020, en presenteert een vereenvoudigde norm die de toepassing ervan gemakkelijker maakt.