NVIDIA en Meta ontwikkelen modulaire server- en racktechnologieën voor multi-vendor AI-clusters

De Open Compute Project Foundation (OCP) heeft tijdens de OCP Summit in Californië een uitbreiding aangekondigd van haar Open Systems for AI Strategic Initiative. Deze uitbreiding omvat door de community goedgekeurde bijdragen van NVIDIA, waaronder het op de NVIDIA MGX-gebaseerde GB200-NVL72-platform, en een aantal bestaande bijdragen van Meta.
Dit initiatief werd in januari 2024 gelanceerd, met leiding van grote technologiebedrijven zoals Intel, Microsoft, Google, Meta, NVIDIA, AMD en andere partijen. Het doel van het OCP-initiatief is om gemeenschappelijke standaarden en open specificaties te ontwikkelen voor AI-clusters en de datacenters die deze hosten. Hierbij staan efficiëntie, duurzaamheid en de ontwikkeling van een multi-vendor supply chain centraal, wat de marktadoptie van AI-clusters moet versnellen.
NVIDIA heeft de MGX-gebaseerde GB200-NVL72 rack- en compute- en switch tray-ontwerpen bijgedragen, terwijl Meta bezig is met de introductie van de Catalina AI-rackarchitectuur voor AI-clusters. Deze bijdragen, samen met de inspanningen van andere hyperscale-operators, IT-leveranciers en leveranciers van fysieke datacenterinfrastructuur, vormen de basis voor specificaties en blauwdrukken die de uitdagingen die momenteel bestaan rond grootschalige AI-clusters moeten aanpakken. Enkele van deze uitdagingen zijn de toenemende vermogensdichtheid, gespecialiseerde chips, geavanceerde vloeistofkoeling, grotere bandbreedte en low latency-verbindingen, en verbeterde prestaties en geheugencapaciteit.
“We zijn blij met de inspanningen van de hele OCP-gemeenschap en de bijdragen van Meta en NVIDIA op een moment waarop AI de drijvende kracht wordt achter de volgende golf van datacenteruitbreidingen,” aldus George Tchaparian, CEO van de Open Compute Project Foundation. “OCP, met het Open Systems for AI-initiatief, zal de hele markt beïnvloeden door een multi-vendor open AI-cluster supply chain te ontwikkelen. Dit vermindert de risico’s en kosten voor andere marktsegmenten en versnelt de adoptie van nieuwe hardware.”
NVIDIA’s bijdragen bouwen voort op bestaande OCP-specificaties en ondersteunen de inzet van datacenters met een hoge rekenkracht en efficiënte vloeistofkoeling. Dit omvat onder andere een aangepaste rack-architectuur met verbeterde kabelruimte, een hoogvermogen busbar en geavanceerde interconnect- en koelingsmechanismen. Meta’s bijdrage, de Catalina AI rack-architectuur, richt zich specifiek op AI-systemen met een hoge dichtheid en ondersteunt het GB200-platform.
Meer over
Lees ook
OCP start nieuw Power Distribution-project voor AI-datacenters
Het Open Compute Project (OCP) heeft een nieuw initiatief gelanceerd om de stroomdistributie binnen datacenters klaar te maken voor het AI-tijdperk. Het project richt zich op Low Voltage Direct Current (LVDC)-architecturen tot 1500 volt, bedoeld om hogere vermogensdichtheid, energie-efficiëntie en betrouwbaarheid te realiseren.
Wiwynn toont dubbelbrede rackarchitectuur voor AI-datacenters
De zogeheten Double-Wide Rack Architecture verdubbelt de breedte van een traditioneel rack en biedt daarmee ruimte aan grotere en energie-intensievere AI-chips, zoals de nieuwe AMD Instinct MI400-serie. In één compute-tray kunnen vier grote AI-accelerators naast elkaar worden geplaatst.
Open Compute stelt standaard voor CO₂-rapportage van datacenters voor
Hoe meet je bijvoorbeeld de CO₂-voetafdruk van een server, een koelsysteem of een stroomvoorziening? De Open Compute Project Foundation (OCP) en de iMasons Climate Accord (iCA) hebben nu een stap gezet met de introductie van de Embodied Carbon Disclosure – OCP Base Specification.



