Vietnam.vn - Nền tảng quảng bá Việt Nam

Czy chatboty AI zużywają tyle prądu, ile się mówi?

Chatboty oparte na sztucznej inteligencji cieszą się coraz większą popularnością – codziennie korzystają z nich setki milionów osób, ale za wygodą tych rozwiązań kryje się ogromne zużycie energii, co budzi obawy o ich zrównoważony rozwój.

VTC NewsVTC News19/09/2025

W ciągu ostatnich kilku lat popularność ChatGPT gwałtownie wzrosła – prawie 200 milionów użytkowników przesyła ponad miliard zapytań dziennie. Te odpowiedzi, pozornie przetwarzane „z powietrza”, w rzeczywistości pochłaniają ogromne ilości energii.

W 2023 roku centra danych – gdzie sztuczna inteligencja jest szkolona i obsługiwana – odpowiadały za 4,4% zużycia energii elektrycznej w Stanach Zjednoczonych. W skali globalnej wskaźnik ten wynosił około 1,5% całkowitego zapotrzebowania na energię elektryczną. Przewiduje się, że do 2030 roku zużycie podwoi się, ponieważ zapotrzebowanie na sztuczną inteligencję nadal rośnie.

„Zaledwie trzy lata temu nie mieliśmy nawet ChatGPT” – powiedział Alex de Vries-Gao, badacz zrównoważonego rozwoju nowych technologii na Uniwersytecie Vrije w Amsterdamie i założyciel Digiconomist, platformy analizującej niezamierzone konsekwencje trendów cyfrowych. „A teraz mówimy o technologii, która potencjalnie może odpowiadać za prawie połowę energii elektrycznej zużywanej przez centra danych na całym świecie ”.

Zadanie pytania dużemu modelowi językowemu (LLM) zużywa około 10 razy więcej energii niż typowe wyszukiwanie w Google. (Zdjęcie: Qi Yang/Getty Images)

Zadanie pytania dużemu modelowi językowemu (LLM) zużywa około 10 razy więcej energii niż typowe wyszukiwanie w Google. (Zdjęcie: Qi Yang/Getty Images)

Co sprawia, że ​​chatboty AI są tak energochłonne? Odpowiedź leży w ich ogromnej skali. Według profesora informatyki Mosharafa Chowdhury'ego z Uniwersytetu Michigan, istnieją dwie fazy szczególnie energochłonne: proces szkolenia i proces wnioskowania.

„Problem polega jednak na tym, że dzisiejsze modele są tak duże, że nie da się ich uruchomić na pojedynczym procesorze graficznym, a co dopiero zmieścić na jednym serwerze” – wyjaśnił profesor Mosharaf Chowdhury w wywiadzie dla Live Science.

Aby zobrazować skalę, badanie przeprowadzone w 2023 roku przez de Vries-Gao wykazało, że serwer Nvidia DGX A100 może zużywać do 6,5 kilowata energii elektrycznej. Szkolenie LLM zazwyczaj wymaga wielu serwerów, każdy ze średnio 8 procesorami graficznymi, działających nieprzerwanie przez tygodnie, a nawet miesiące. Łączne zużycie energii elektrycznej jest ogromne: samo szkolenie GPT-4 w OpenAI pochłonęło 50 gigawatogodzin, co odpowiada energii elektrycznej wystarczającej do zasilenia całego San Francisco przez trzy dni.

Proces treningowy GPT-4 firmy OpenAI wystarczył do zasilenia całego San Francisco przez trzy dni. (Zdjęcie: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Proces treningowy GPT-4 firmy OpenAI wystarczył do zasilenia całego San Francisco przez trzy dni. (Zdjęcie: Jaap Arriens/NurPhoto/Rex/Shutterstock)

Proces wnioskowania jest również dość energochłonny. To właśnie wtedy chatbot AI wykorzystuje swoją zdobytą wiedzę, aby udzielić użytkownikowi odpowiedzi. Chociaż wnioskowanie wymaga mniej zasobów obliczeniowych niż faza szkolenia, to i tak jest niezwykle energochłonne ze względu na ogromną liczbę żądań wysyłanych do chatbota.

Według szacunków OpenAI z lipca 2025 roku użytkownicy ChatGPT wysyłają ponad 2,5 miliarda żądań dziennie. Aby natychmiast odpowiedzieć, system musi uruchomić wiele serwerów działających jednocześnie. Dotyczy to tylko ChatGPT; nie uwzględnia to innych platform, które również zyskują na popularności, takich jak Google Gemini, która wkrótce ma stać się domyślnym wyborem użytkowników korzystających z wyszukiwarki Google.

„Nawet na etapie wnioskowania nie da się oszczędzać energii” – zauważył Chowdhury. „Problemem nie jest już ogromna ilość danych. Model jest już ogromny, ale większym problemem jest liczba użytkowników”.

Badacze tacy jak Chowdhury i de Vries-Gao poszukują obecnie sposobów na dokładniejszy pomiar zużycia energii, a tym samym na znalezienie rozwiązań pozwalających je zmniejszyć. Na przykład Chowdhury prowadzi ranking o nazwie ML Energy Leaderboard, który śledzi zużycie energii w wynikach modeli open source.

Jednak wiele danych dotyczących komercyjnie opłacalnych platform AI pozostaje „tajne”. Duże korporacje, takie jak Google, Microsoft i Meta, albo zachowują je w tajemnicy, albo publikują jedynie bardzo niejasne statystyki, które nie odzwierciedlają dokładnie wpływu na środowisko. To bardzo utrudnia określenie, ile energii elektrycznej faktycznie zużywa AI, jakie będzie zapotrzebowanie w nadchodzących latach i czy świat będzie w stanie je zaspokoić.

Niemniej jednak użytkownicy z pewnością mogą wywierać presję na rzecz przejrzystości. To nie tylko pomaga jednostkom podejmować bardziej odpowiedzialne decyzje w zakresie korzystania ze sztucznej inteligencji, ale także przyczynia się do promowania polityki, która nakłada na firmy odpowiedzialność.

„Jednym z zasadniczych problemów z aplikacjami cyfrowymi jest to, że ich wpływ na środowisko jest zawsze ukryty” – podkreślił badacz de Vries-Gao. „Teraz piłka jest w rękach decydentów: muszą oni promować transparentność danych, aby użytkownicy mogli podejmować działania”.

Ngoc Nguyen (Live Science)

Źródło: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Wietnam, kocham

Wietnam, kocham

Rozświetlanie przyszłości

Rozświetlanie przyszłości

moment docelowy

moment docelowy