Rapport brengt energieverbruik ChatGPT in kaart
Een nieuw onderzoek van onderzoeksbureau NewsworthyData naar het energieverbruik van ChatGPT biedt interessante inzichten voor iedereen die betrokken is bij het energiebeheer van datacenters. Het rapport belicht de aanzienlijke energiebehoefte van Large Language Models (LLMs) en de potentiële impact op onze energievoorziening en het milieu.
De cijfers zijn indrukwekkend: één enkele ChatGPT-zoekopdracht verbruikt ongeveer 2,9 wattuur, wat tien keer meer is dan een typische Google-zoekopdracht (0,3 wattuur). Op jaarbasis resulteert dit in een totaal energieverbruik van 226,82 miljoen kilowattuur, uitsluitend voor het beantwoorden van vragen. Omgerekend naar de gemiddelde Amerikaanse commerciële elektriciteitstarieven van juni 2024 ($0,131 per kWh) betekent dit een jaarlijkse energiekostenpost van $29,71 miljoen.
Het dagelijkse energieverbruik van ChatGPT - meer dan een half miljoen kilowattuur - is equivalent aan het dagelijkse stroomverbruik van ruim 21.600 Amerikaanse huishoudens. Dit onderstreept de noodzaak voor datacenters om hun energiebeheer en koelstrategieën te optimaliseren voor de groeiende vraag van AI-workloads. Ook zouden hiermee jaarlijks 3,13 miljoen elektrische voertuigen opgeladen kunnen worden. Deze vergelijkingen benadrukken de omvang van de energiebehoefte en de potentiële impact op de energienetten.
Voor datacenter managers en energiespecialisten biedt dit rapport waardevolle inzichten voor toekomstige capaciteitsplanning en duurzaamheidsstrategieën. Het onderstreept het belang van energie-efficiënte infrastructuur en het onderzoeken van innovatieve koeltechnologieën om de ecologische voetafdruk van AI-gedreven workloads te minimaliseren.
Bovendien roept het rapport vragen op over de balans tussen technologische vooruitgang en duurzaamheid. De onderzoekers noemen hun bevindingen een wake-up call voor de industrie om nog beter na te denken over energiebeheer en duurzaamheid in het AI-tijdperk. Het biedt een solide basis voor gesprekken over energiezuinige AI-implementaties, het gebruik van hernieuwbare energiebronnen en de ontwikkeling van groene(re) datacenterinfrastructuren.
Meer over
Lees ook
Nieuwe generatie AI-chips van Nvidia gaan 1000 Watt verbruiken
Er komen - zeg maar - interessante tijden aan voor datacenters die veel AI-workloads draaien. Nvidia’s volgende generatie AI-GPU's, met de codenaam Blackwell, belooft een aanzienlijke sprong voorwaarts in rekenkracht, maar met een aanzienlijke toename van het energieverbruik.
Iceotope, Intel en HPE bundelen krachten voor immersion cooling voor telecom-toepassingen
Iceotope, Hewlett Packard Enterprise (HPE) en Intel hebben een nieuw immersion pooling-systeem ontwikkeld dat specifiek bedoeld is voor zogeheten Radio Access Network (RAN) telecomnetwerken. Het 2U KUL RAN rack is gepresenteerd tijdens het Mobile World Congress in Barcelona. Het belooft tot 20% energiebesparing op apparaatniveau te bieden.
Onderzoek biedt nieuwe inzichten in energiegebruik van AI-toepassingen
In een recente studie hebben onderzoekers van het AI-startup Hugging Face in samenwerking met de Carnegie Mellon University belangrijke gegevens verzameld over de ecologische voetafdruk van kunstmatige intelligentie (AI), met name gericht op het genereren van afbeeldingen en tekst. Dit onderzoek werpt een nieuw licht op de energievereisten van AI-1




