ChatGPT minder energieverslindend dan gedacht

ChatGPT minder energieverslindend dan gedacht

ChatGPT, het chatbotplatform van OpenAI, verbruikt mogelijk minder energie dan eerder werd aangenomen. De energieconsumptie hangt sterk af van het gebruik van ChatGPT en de AI-modellen die de vragen beantwoorden, blijkt uit een nieuwe studie.

Een recente analyse door Epoch AI, een non-profit AI-onderzoeksinstituut, onderzocht hoeveel energie een gemiddelde ChatGPT-vraag verbruikt. Een veelgehoorde bewering is dat een enkele vraag aan ChatGPT ongeveer 3 wattuur vergt, wat tien keer zoveel zou zijn als een Google-zoekopdracht. Epoch AI concludeert echter dat dit een overschatting is.

Energieverbruik

Met behulp van OpenAI’s nieuwste standaardmodel voor ChatGPT, GPT-4o, ontdekte Epoch dat een gemiddelde ChatGPT-vraag slechts 0,3 wattuur verbruikt – minder dan veel huishoudelijke apparaten. “Het energieverbruik is eigenlijk verwaarloosbaar in vergelijking met het gebruik van normale apparaten, verwarming of het rijden met een auto”, aldus Joshua You, de data-analist bij Epoch die het onderzoek uitvoerde.

Het energieverbruik van AI en de bredere milieueffecten blijven een onderwerp van discussie, vooral nu AI-bedrijven hun infrastructuur snel uitbreiden. Vorige week publiceerde een groep van meer dan 100 organisaties een open brief waarin zij de AI-industrie en regelgevers opriepen om ervoor te zorgen dat nieuwe AI-datacenters natuurlijke hulpbronnen niet uitputten en afhankelijkheid van niet-hernieuwbare energiebronnen voorkomen.

Verouderd onderzoek

Volgens You was zijn analyse ingegeven door verouderd onderzoek. Hij merkte op dat de eerdere schatting van 3 wattuur per vraag was gebaseerd op minder efficiënte hardware. Hoewel de 0,3 wattuur van Epoch ook een schatting is, benadrukt het onderzoek de technologische vooruitgang die het energieverbruik van AI-modellen vermindert.

Toch zal het energieverbruik van AI naar verwachting blijven stijgen. Geavanceerdere modellen zullen meer rekenkracht vragen, en AI wordt steeds intensiever ingezet. Volgens een rapport van Rand kan de vraag naar stroom door AI-datacenters binnen twee jaar gelijk zijn aan de totale energiecapaciteit van Californië in 2022 (68 GW). Tegen 2030 zou het trainen van een geavanceerd AI-model evenveel stroom kunnen vereisen als acht kernreactoren (8 GW).

Efficiëntere modellen

OpenAI blijft zoeken naar efficiëntere modellen, zoals de recente o3-mini. Maar de schaal waarop AI wordt toegepast maakt het onwaarschijnlijk dat efficiëntiewinst de toenemende stroomvraag volledig zal compenseren. Mensen die zich zorgen maken over hun AI-energievoetafdruk kunnen ervoor kiezen om AI-apps spaarzaam te gebruiken of kleinere modellen zoals GPT-4o-mini te selecteren.