Franse chipdoorbraak doorbreekt geheugenmuur van AI-datacenters

jotunn8

In hun zoektocht naar meer rekenkracht lopen datacenterontwikkelaars steeds vaker tegen dezelfde bottleneck aan: het geheugen. Hoe snel chips ook worden, de aanvoer van data blijft achter. Het Franse bedrijf VSORA denkt daar een oplossing voor te hebben. Deze week maakte het de zogeheten ‘tape-out’ bekend van de Jotunn8, een nieuwe AI-inferentiechip die volgens de ontwikkelaars een einde moet maken aan de zogenoemde ‘memory wallhet punt waarop compute cores moeten wachten op data en daardoor kostbare tijd en energie verspillen.

De aankondiging is interessant en markeert een van de eerste keren dat een Europese speler zich mengt in de wereldwijde top van AI-chipontwikkelaars, een domein dat tot nu toe werd gedomineerd door Amerikaanse en Aziatische bedrijven. De Jotunn8 was in minder dan zes maanden na een financieringsronde van 40 miljoen euro gereed voor productie. Daarmee is VSORA klaar om zijn ontwerp door te geven aan een productiefaciliteit, de zogeheten tape-out een mijlpaal die in de chipwereld het einde van het ontwerpproces markeert.

De timing is opvallend. Wereldwijd investeren overheden en techbedrijven miljarden in nieuwe datacenters voor kunstmatige intelligentie. Daarbij verschuift de aandacht van het trainen van modellen naar de fase van inference: het daadwerkelijk gebruiken van die modellen in toepassingen als zoekmachines, chatbots en industriële automatisering. Dat vraagt om andere hardware zuiniger, schaalbaarder en met minder energieverspilling.

De industrie liep letterlijk tegen een muur”, zegt Khaled Maalej, oprichter en CEO van VSORA. Zodra de compute cores sneller werden, bleek dat het geheugen de data niet op tijd kon aanleveren. Daardoor ging veel energie verloren.” Volgens hem is de nieuwe chip ontworpen om die beperking structureel te doorbreken.

De Jotunn8 wijkt af van de bestaande chipontwerpen. Waar traditionele processoren en GPUs hun geheugen via vaste busstructuren benaderen, herorganiseert VSORA de interactie tussen geheugen en rekenkern. Hierdoor kunnen de cores efficiënter blijven werken zonder te wachten op data. De chip levert volgens het bedrijf 3200 teraflops aan rekenkracht, bevat 288 gigabyte aan HBM3e-geheugen en verbruikt naar schatting de helft minder energie dan de huidige marktleiders.

De productie wordt uitgevoerd met TSMCs 5-nanometerproces, in samenwerking met Global Unichip Corporation (GUC), dat ook meewerkte aan de packaging van de chip via de zogeheten CoWoS-technologie. Die techniek maakt het mogelijk om verschillende chiponderdelen dichter op elkaar te plaatsen, wat de snelheid en efficiëntie ten goede komt.

Volgens Alex Huang, algemeen directeur van GUC Europe, is de samenwerking een voorbeeld van hoe Europese innovatie zich kan meten met gevestigde namen. VSORAs architectuur sluit goed aan bij de nieuwste fabricageprocessen. We konden de chip op schema realiseren met uitstekende prestaties”, zegt hij.

Datacenters die AI-modellen uitvoeren, kampen met een groeiend energieverbruik. Volgens recente analyses verdubbelt het stroomverbruik van AI-datacenters ongeveer elke zes tot twaalf maanden. Nieuwe architecturen zoals die van VSORA zijn dan ook belangrijk. Minder energie per berekening betekent niet alleen lagere operationele kosten, maar ook een kleinere ecologische voetafdruk.

Meer over
Lees ook
Deutsche Telekom en Schwarz Gruppe zetten eigen AI-gigafactory op in Duitsland

Deutsche Telekom en Schwarz Gruppe zetten eigen AI-gigafactory op in Duitsland

Duitsland lijkt zich op te maken voor een nieuwe fase in de strijd om Europese AI-infrastructuur. Deutsche Telekom en de Schwarz Gruppe, eigenaar van onder meer Lidl, Kaufland en een reeks eigen IT-bedrijven, voeren vergevorderde gesprekken over de bouw van een gezamenlijke AI-gigafactory. Het gaat om een zeer groot project dat zich wil kwalificer1

OpenAI zoekt hardwarepartner in Foxconn om datacentercapaciteit uit te breiden

OpenAI zoekt hardwarepartner in Foxconn om datacentercapaciteit uit te breiden

OpenAI werkt samen met Hon Hai Precision Industry, beter bekend als Foxconn, aan nieuwe hardware voor datacenters. De samenwerking is gericht op het ontwerpen en produceren van serverracks en bijbehorende infrastructuur die nodig zijn om de vraag naar rekenkracht voor AI-modellen te ondersteunen.

Wiwynn toont dubbelbrede rackarchitectuur voor AI-datacenters

Wiwynn toont dubbelbrede rackarchitectuur voor AI-datacenters

De zogeheten Double-Wide Rack Architecture verdubbelt de breedte van een traditioneel rack en biedt daarmee ruimte aan grotere en energie-intensievere AI-chips, zoals de nieuwe AMD Instinct MI400-serie. In één compute-tray kunnen vier grote AI-accelerators naast elkaar worden geplaatst.