Dalam beberapa tahun kebelakangan ini, ChatGPT telah meledak dalam populariti, dengan hampir 200 juta pengguna memasukkan lebih daripada satu bilion permintaan setiap hari. Tindak balas yang kelihatan "keluar dari udara nipis" sebenarnya menggunakan sejumlah besar tenaga di belakang tabir.
Menjelang 2023, pusat data—tempat AI dilatih dan dikendalikan—akan menyumbang 4.4% daripada penggunaan elektrik di AS. Di peringkat global, angka itu adalah kira-kira 1.5% daripada jumlah permintaan elektrik. Menjelang 2030, penggunaan dijangka meningkat dua kali ganda kerana permintaan AI terus meningkat.
"Hanya tiga tahun yang lalu, kami tidak mempunyai ChatGPT pun," kata Alex de Vries-Gao, seorang penyelidik mengenai kemampanan teknologi baharu di Vrije Universiteit Amsterdam dan pengasas Digiconomist, platform yang menganalisis akibat yang tidak diingini daripada trend digital. "Dan kini kita bercakap tentang teknologi yang boleh menyumbang hampir separuh daripada tenaga elektrik yang digunakan oleh pusat data di seluruh dunia ."
Menanyakan soalan kepada model bahasa besar (LLM) menggunakan kira-kira 10 kali lebih banyak elektrik daripada carian Google biasa. (Foto: Qi Yang/Getty Images)
Apakah yang membuatkan chatbots AI begitu haus kuasa? Jawapannya terletak pada skala mereka. Menurut profesor sains komputer Universiti Michigan Mosharraf Chowdhury, terdapat dua peringkat terutamanya "lapar kuasa": latihan dan inferens.
"Bagaimanapun, masalahnya ialah model hari ini sangat besar sehingga mereka tidak boleh berjalan pada satu GPU, apatah lagi muat pada satu pelayan," jelas profesor Mosharraf Chowdhury kepada Live Science.
Untuk memberi anda gambaran tentang skala, kajian de Vries-Gao 2023 mendapati bahawa satu pelayan Nvidia DGX A100 boleh menggunakan sehingga 6.5 kilowatt kuasa. Melatih LLM biasanya memerlukan berbilang pelayan, setiap satu dengan purata lapan GPU, berjalan secara berterusan selama beberapa minggu atau bahkan bulan. Jumlah penggunaan kuasa adalah sangat besar: Latihan OpenAI GPT-4 sahaja menggunakan 50 gigawatt-jam, cukup untuk menjana tenaga di seluruh San Francisco selama tiga hari.
Proses latihan GPT-4 OpenAI sudah cukup untuk menggerakkan seluruh San Francisco selama tiga hari. (Imej: Jaap Arriens/NurPhoto/Rex/Shutterstock)
Fasa inferens juga sangat intensif tenaga. Di sinilah AI chatbot menggunakan apa yang telah dipelajari untuk menghasilkan respons untuk pengguna. Walaupun inferens memerlukan kurang sumber pengkomputeran daripada fasa latihan, ia masih sangat haus kuasa kerana bilangan besar permintaan yang dihantar ke chatbot.
Sehingga Julai 2025, OpenAI berkata pengguna ChatGPT menghantar lebih daripada 2.5 bilion permintaan setiap hari. Untuk bertindak balas serta-merta, sistem mesti menggerakkan berbilang pelayan untuk beroperasi secara serentak. Dan itu hanyalah ChatGPT, apatah lagi platform popular lain, seperti Google Gemini, yang dijangka akan menjadi pilihan lalai tidak lama lagi apabila pengguna mengakses Carian Google.
"Walaupun dalam fasa inferens, anda tidak boleh benar-benar menjimatkan tenaga," kata Chowdhury. "Ia bukan lagi mengenai saiz data. Modelnya besar, tetapi yang lebih besar ialah bilangan pengguna."
Penyelidik seperti Chowdhury dan de Vries-Gao kini sedang mencari cara untuk mengukur penggunaan kuasa dengan lebih tepat dan mencari cara untuk memotongnya. Sebagai contoh, Chowdhury mengekalkan kedudukan yang dipanggil ML Energy Leaderboard, yang menjejaki penggunaan tenaga inferens daripada model sumber terbuka.
Walau bagaimanapun, kebanyakan data yang berkaitan dengan platform AI generatif komersial kekal "rahsia". Syarikat-syarikat besar seperti Google, Microsoft atau Meta sama ada merahsiakannya atau hanya menerbitkan statistik yang sangat samar-samar yang tidak menggambarkan kesan alam sekitar yang sebenar. Ini menjadikannya sangat sukar untuk menentukan jumlah tenaga elektrik yang sebenarnya digunakan oleh AI, jumlah permintaan pada tahun-tahun akan datang, dan sama ada dunia dapat memenuhinya.
Walau bagaimanapun, pengguna pastinya boleh menekan untuk ketelusan, yang bukan sahaja membantu individu membuat pilihan yang lebih bertanggungjawab apabila menggunakan AI, tetapi juga membantu mempromosikan dasar yang memastikan perniagaan bertanggungjawab.
"Salah satu masalah teras dengan aplikasi digital ialah kesan alam sekitar mereka sering disembunyikan," kata penyelidik de Vries-Gao. "Kini bola berada di mahkamah penggubal dasar: mereka perlu menggalakkan pendedahan data supaya pengguna boleh mengambil tindakan."
Ngoc Nguyen (Sains Langsung)
Sumber: https://vtcnews.vn/chatbot-ai-co-ngon-dien-nhu-loi-don-ar965919.html






Komen (0)