Sztuczna inteligencja rozwija się w błyskawicznym tempie, a wraz z nią rośnie zapotrzebowanie na energię. Modele językowe i systemy uczenia maszynowego, które miliony ludzi wykorzystują każdego dnia, potrzebują ogromnych ilości prądu. Czy dbając o ekologię powinniśmy korzystać z AI?
Przeciętne zapytanie wprowadzone do Chatu GPT generuje 10-krotnie większe zużycie energii niż wyszukanie informacji w Google Modele językowe odpowiadają już za około 2-3% światowego zużycia energii – mniej więcej tyle ile zużywa rocznie Francja! Według Międzynarodowej Agencji Energetycznej do końca dekady udział ten może się podwoić albo potroić.
Giganci technologiczni oferujący usługi AI są zmuszeni szukać nowych źródeł energii. Google i firma energetyczna NextEra ogłosiły właśnie plan ponownego uruchomienia zamkniętej w 2020 roku elektrowni jądrowej w stanie Iowa. Reaktor ma ponownie ruszyć w 2029 roku i zasilać serwery obsługujące sztuczną inteligencję Google’a. To pierwsze takie przedsięwzięcie na świecie — restart reaktora specjalnie dla potrzeb centrów danych.
W ślad za tym ruchem, Google po cichu… usunął ze swojej witryny poświęconej zrównoważonemu rozwojowi, zobowiązanie do osiągnięcia zerowej emisji netto dwutlenku węgla do 2030. Firma tłumaczy to „aktualizacją polityki komunikacyjnej”… Oczywiście.
Eksperci ostrzegają, że boom na sztuczną inteligencję może znacząco opóźnić transformację energetyczną. Zamiast ograniczać zużycie energii, świat idzie w kierunku jego gwałtownego zwiększenia — a to oznacza więcej elektrowni, większą presję na sieci i większe ryzyko powrotu do paliw kopalnych.
Jeśli pozwolimy, by każdy wzrost mocy obliczeniowej usprawiedliwiał nowe bloki energetyczne, nawet bezemisyjne technologie nie zatrzymają kryzysu klimatycznego. Prawdziwie zrównoważony model nie polega na „dokarmianiu” sztucznej inteligencji coraz większą ilością energii, lecz na tym, by ograniczyć jej zużycie — zanim to AI zacznie dyktować tempo, w jakim spalamy planetę.

Ile energii zużywa AI?
Same odpowiedzi modeli językowych AI np. chata GPT — to, co widzi użytkownik — zużywają stosunkowo niewiele energii: szacunkowo kilka gigawatogodzin dziennie (ok. 7–8 GWh). To jednak tylko ułamek całego ekosystemu AI. Prawdziwe obciążenie energetyczne pochodzi z trenowania modeli, testowania ich, utrzymywania centrów danych i milionów zastosowań AI poza ChatGPT.
AI działa dziś w tle większości rzeczy, z których korzystamy: podpowiada trasy w mapach, poprawia zdjęcia w telefonie, filtruje spam, dobiera muzykę na Spotify, ustawia ostrość w aparacie, napędza wyszukiwarkę, tłumaczy napisy na Netfliksie, sprawdza płatności w banku i podsuwa oferty w sklepach internetowych — towarzyszy nam od porannego budzika aż po wieczorne oglądanie serialu.
Międzynarodowa Agencja Energii szacuje, że cały sektor AI może już odpowiadać za około 2% światowego zużycia energii elektrycznej — czyli setki razy więcej niż to, co wynikałoby z samych zapytań użytkowników.
Niektórzy sugerują, że zużycie energii w przeliczeniu na pojedyncze zapytanie bedzie spadać w kolejnych latach. Z drugiej strony, liczba zapytań rośnie lawinowo. Co więcej, niektórzy wskazują, że centra danych będą coraz częściej zmuszone zużywać brudne źródła energii. Szybkie inwestycje rozbudowy centrów danych mogą wymagać budowania w ich sąsiedztwie lokalnych bloków energetycznych opalanych gazem czy węglem.
Konkluzja – czy osoba “eko” może używać Chata GPT?
Moim zdaniem – tak! Nie dajmy się zwariować. Kluczowe jak zawsze jest robienie tego świadomie i racjonalnie.
Świadomie – po przeczytaniu powyższego akapitu będziecie już wiedzieć jaki jest faktyczny ślad ekologiczny korzystania z czata. Posiadanie wiedzy to już sporo. Dzięki temu możecie odpowiednio dostosować częstotliwość korzystania z tego narzędzia.
Do czego zatem używać Chata GPT a do czego nie?
- Masz do sprawdzenia konkretną informację?

Pomyśl chwile czy znajdziesz odpowiedź w Wikipedii a nie w Czacie GPT. Jeśli skorzystasz z artykułu w Wikipedii – zużyjesz około 10-krotnie mniej prądu!
- Potrzebujesz wsparcia przy złożonym, wielowątkowym problemie?

Nie wiesz jak się do czegoś zabrać? Potrzebujesz napisać kilka zdań wyjaśnień by uchwycić sedno problemu?
Wtedy możesz użyć Czata GPT. Tak, Chat GPT wymaga energii, ale używamy jej przecież w każdym aspekcie życia. Warto po prostu korzystać z niej mądrze, wybierając sytuacje, w których model realnie skraca czas pracy i oszczędza Twój wysiłek.
Najlepiej pamiętać, że czat GPT to nasz wirtualny asystent, pomocnik, praktykant w biurze. Oddelegowujmy mu zadania, które przekazalibyśmy naszemu pomocnikowi. Nie przekazujemy natomiast pełnej odpowiedzialności! Nie zapominajmy o sprawdzaniu na koniec czy nie popełnił błędów – tak samo jako młody praktykant w firmie…)
- Masz do zreadgowania tekst / pismo do urzędu itp.?

Czat GPT to model językowy więc świetnie nadaje się do tworzenia pisanego tekstu. Jeśli i tak zamierzałeś szukać gotowych wzorów w Google’u, to praca z Chatem GPT może być szybsza i – paradoksalnie – czasem nawet mniej energochłonna, bo model w jednej odpowiedzi zrobi to, na co poświęciłbyś 20 minut przekopywania internetu.
- Nie pisz “dziękuję” po uzyskaniu odpowiedzi od Czata GPT.
Model językowy to nie człowiek. Nie obrazi się jak nie podziękujesz. Każda odpowiedź czata na Twoje dziękuję to dodatkowe 0,3 watogodziny zużytej energii.

Ten komiks to (chyba xD) tylko żart. Nie dziękując chatowi GPT oszczędzisz energię.
Więcej w temacie:
https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai