NVIDIA en Meta ontwikkelen modulaire server- en racktechnologieën voor multi-vendor AI-clusters
De Open Compute Project Foundation (OCP) heeft tijdens de OCP Summit in Californië een uitbreiding aangekondigd van haar Open Systems for AI Strategic Initiative. Deze uitbreiding omvat door de community goedgekeurde bijdragen van NVIDIA, waaronder het op de NVIDIA MGX-gebaseerde GB200-NVL72-platform, en een aantal bestaande bijdragen van Meta.
Dit initiatief werd in januari 2024 gelanceerd, met leiding van grote technologiebedrijven zoals Intel, Microsoft, Google, Meta, NVIDIA, AMD en andere partijen. Het doel van het OCP-initiatief is om gemeenschappelijke standaarden en open specificaties te ontwikkelen voor AI-clusters en de datacenters die deze hosten. Hierbij staan efficiëntie, duurzaamheid en de ontwikkeling van een multi-vendor supply chain centraal, wat de marktadoptie van AI-clusters moet versnellen.
NVIDIA heeft de MGX-gebaseerde GB200-NVL72 rack- en compute- en switch tray-ontwerpen bijgedragen, terwijl Meta bezig is met de introductie van de Catalina AI-rackarchitectuur voor AI-clusters. Deze bijdragen, samen met de inspanningen van andere hyperscale-operators, IT-leveranciers en leveranciers van fysieke datacenterinfrastructuur, vormen de basis voor specificaties en blauwdrukken die de uitdagingen die momenteel bestaan rond grootschalige AI-clusters moeten aanpakken. Enkele van deze uitdagingen zijn de toenemende vermogensdichtheid, gespecialiseerde chips, geavanceerde vloeistofkoeling, grotere bandbreedte en low latency-verbindingen, en verbeterde prestaties en geheugencapaciteit.
“We zijn blij met de inspanningen van de hele OCP-gemeenschap en de bijdragen van Meta en NVIDIA op een moment waarop AI de drijvende kracht wordt achter de volgende golf van datacenteruitbreidingen,” aldus George Tchaparian, CEO van de Open Compute Project Foundation. “OCP, met het Open Systems for AI-initiatief, zal de hele markt beïnvloeden door een multi-vendor open AI-cluster supply chain te ontwikkelen. Dit vermindert de risico’s en kosten voor andere marktsegmenten en versnelt de adoptie van nieuwe hardware.”
NVIDIA’s bijdragen bouwen voort op bestaande OCP-specificaties en ondersteunen de inzet van datacenters met een hoge rekenkracht en efficiënte vloeistofkoeling. Dit omvat onder andere een aangepaste rack-architectuur met verbeterde kabelruimte, een hoogvermogen busbar en geavanceerde interconnect- en koelingsmechanismen. Meta’s bijdrage, de Catalina AI rack-architectuur, richt zich specifiek op AI-systemen met een hoge dichtheid en ondersteunt het GB200-platform.