Oproep tot registratie en controle van highend AI chips kan grote gevolgen hebben voor datacenters

generative-ai-tensor-core-gpus-llms-ai-software-and-tools-for-rtx-pcs-image

In een recent rapport van de Universiteit van Cambridge wordt gepleit voor het reguleren van de uitlevering van highend AI-chips. Het gaat onder meer om een voorstel om deze chips te taggen en te registreren, wat implicaties kan hebben voor de werking en toegankelijkheid van datacenters wereldwijd. Het rapport, getiteld "Computing Power and the Governance of Artificial Intelligence", benadrukt de noodzaak van een betere controle op de hardware die ten grondslag ligt aan de snelle vooruitgang in de kunstmatige intelligentie (AI).

Een van de voorgestelde maatregelen omvat de invoering van zogeheten ‘compute caps’, die de interconnectiviteit tussen AI-chips beperken, en het verspreiden van een ‘switch' voor AI-training over meerdere partijen. Dit zou een soort digitaal veto mogelijk maken voor risicovolle AI-toepassingen voordat deze toegang krijgen tot bepaalde data.

Deze voorstellen zijn gericht op het bieden van een efficiënter kader voor governance en veiligheid rond AI door de focus te leggen op AI-chips, die door de opstellers van het rapport als meer effectieve doelwitten worden beschouwd dan data en AI-frameworks. De reden hiervoor is dat deze fysiek te detecteren zijn, toegang tot bepaalde datasets ontzegd kan worden en bovendien kwantificeerbaar zijn. Bovendien worden AI-chips geproduceerd in een goed te identificeren en te volgen toeleveringsketen.

De implicaties van dit rapport strekken zich uit over de gehele sector, van chipontwerpers en -producenten zoals Nvidia, ARM, Intel, AMD, en SiPearl tot aan ongeveer tachtig AI-chip startups wereldwijd. Het rapport is het resultaat van het werk van 19 AI-onderzoekers, geleid door drie instituten van de Universiteit van Cambridge — het Leverhulme Centre for the Future of Intelligence (LCFI), het Centre for the Study of Existential Risk (CSER) en het Bennett Institute for Public Policy — in samenwerking met OpenAI en het Centre for the Governance of AI.

Haydn Belfield, een van de co-leidende auteurs van het rapport en verbonden aan Cambridge’s LCFI, benadrukt in een bericht de noodzaak van zogeheten upstream regulering van AI. Dit gezien de gigantische stappen die AI de afgelopen tien jaar heeft gemaakt en die grotendeels mogelijk is gemaakt door de toename van rekenkracht voor het trainen van algoritmen. De voorgestelde beleidsmaatregelen zijn onderverdeeld in drie categorieën: het vergroten van de wereldwijde zichtbaarheid van AI-computing, het toewijzen van rekenbronnen voor het grootste maatschappelijke voordeel, en het opleggen van beperkingen aan de rekenkracht.

Een opmerkelijk voorstel is een internationaal AI-chip register waarin chipproducenten, verkopers en wederverkopers alle overdrachten moeten rapporteren. Dit zou precieze informatie opleveren over de hoeveelheid rekenkracht die op elk moment in bezit is van naties en bedrijven. Daarnaast wordt gesuggereerd dat elke chip een unieke identificatie zou moeten krijgen om industriële spionage en chip-smokkel te voorkomen.

Deze voorstellen zouden niet alleen een grotere toegang tot datacenters vereisen voor registratie en audits, maar kunnen ook leiden tot fysieke en technologische aanpassingen in het ontwerp en de productie van AI-chips. De auteurs van het rapport erkennen dat hun beleidssuggesties verkennend zijn en ook de nodige nadelen kennen. Toch benadrukken zij de urgentie van het reguleren van AI. Zij maken zich grote zorgen dat highend AI-chips in de spreekwoordelijke verkeerde handen vallen en gebruikt worden voor niet op AI gerichte toepassingen.

Meer over
Lees ook
Community Netwerk Meeting: ESG, datacenterapparatuur en licenties centraal

Community Netwerk Meeting: ESG, datacenterapparatuur en licenties centraal

Dinsdag 23 april vond in Maarssen de eerste Circulaire-IT Community Netwerk Meeting van dit jaar bespraken de deelnemers de markt voor duurzame datacenters en IT-omgevingen. Hieronder een deel van het artikel dat daarover op Circulaire-IT is verschenen.

Digitalisering in datacenters: wat betekent dat voor het ontwerp en de operationele fase?

Digitalisering in datacenters: wat betekent dat voor het ontwerp en de operationele fase?

De applicaties die we elke dag gebruiken veranderen en worden veeleisender waar het om infrastructuur. Er moeten meer gegevens in realtime worden verwerkt, met een lagere latency. Er is aanzienlijk meer symmetrie nodig om grote hoeveelheden oost-westverkeer te ondersteunen. Bovendien is er een sterk toegenomen behoefte aan flexibiliteit.

Na telecombranche groeit nu ook in energiesector interesse in datacenters

Na telecombranche groeit nu ook in energiesector interesse in datacenters

Eerder investeerde al Amerikaanse en Scandinavische energiebedrijven in der datacentersector, nu zien we hetzelfde fenomeen ook in Spanje. Het Spaanse energiebedrijf Iberdrola streeft namelijk naar een uitbreiding van zijn activiteiten