Vietnam.vn - Nền tảng quảng bá Việt Nam

AI heeft geen enorme hoeveelheden data meer nodig: de race om energiezuinige AI te trainen

AI-modellen hebben niet langer enorme hoeveelheden data of superkrachtige computers nodig om te leren. De race om AI energiezuiniger te trainen opent de deur voor een nieuwe, gebruiksvriendelijkere aanpak.

Báo Tuổi TrẻBáo Tuổi Trẻ01/11/2025

AI không còn cần dữ liệu khổng lồ: Cuộc đua huấn luyện AI tiết kiệm năng lượng - Ảnh 1.

Techgiganten stappen over op moderne, energiezuinige AI-modellen

De afgelopen jaren heeft de kunstmatige intelligentie (AI)-industrie grotendeels het principe "groter is beter" gevolgd: meer data, meer parameters, meer berekeningen. Nieuw onderzoek van Google, MIT en Stanford laat echter een heel andere richting zien.

Moderne modellen kunnen efficiënt worden getraind met minder data, verbruiken minder energie en leveren toch hoge prestaties. Dit verlaagt niet alleen de trainingskosten en -tijd, maar maakt AI-toepassingen ook toegankelijk voor kleine onderzoeksteams en middelgrote ondernemingen, die voorheen moeilijk toegang hadden tot grootschalige technologie.

Technologische vooruitgang maakt AI ‘klein maar krachtig’

Uit onderzoek van Tuoi Tre Online blijkt dat Google bij de advertentieverwerkingstest de trainingsgegevens heeft teruggebracht van 100.000 samples naar minder dan 500 samples, terwijl de compatibiliteit met experts toch met 65% is vergroot.

Tegelijkertijd blijkt uit een uitgebreid onderzoek naar data-efficiënte trainingen dat 'datakwaliteit, slimme bemonstering en 'destillatietechnieken' de prestaties bepalen', en niet alleen de toename van de hoeveelheid data.

In theorie suggereren 'schaalwetten' dat het vergroten van modelparameters, data en rekenkracht zal helpen, maar experts zoals Yann LeCun, directeur AI bij Meta, benadrukken: 'Je kunt niet zomaar data en rekenkracht vergroten en AI automatisch slimmer maken.'

Dit betekent dat onderzoeksteams niet langer miljoenen tot miljarden monsters hoeven te bouwen en te labelen, maar dat ze data kunnen hergebruiken, synthetische data kunnen creëren, kleinere modellen kunnen gebruiken en zich kunnen richten op algoritmes die energie- en data-efficiënter zijn.

De techniek van 'kennisdistillatie' maakt het bijvoorbeeld mogelijk om kennis over te dragen van een 'leraar' (een groot lerarenmodel) naar een 'student' (een compact studentenmodel), terwijl veel vaardigheden behouden blijven. Onderzoekers van Stanford HAI benadrukken dat deze trend zowel computationeel kosteneffectief als milieuvriendelijk is, en tegelijkertijd kansen biedt voor kleine onderzoeksgroepen of kleine en middelgrote ondernemingen om AI effectief toe te passen.

Dankzij deze ontwikkelingen kunnen AI-modellen minder data gebruiken, sneller werken, minder stroom verbruiken, kosten verlagen, de duurzaamheid vergroten en toepassingen uitbreiden naar omgevingen met beperkte middelen. Zo kunnen ze intelligente optimalisatie doorvoeren, sneller leren, minder middelen verbruiken en toch de kwaliteit garanderen.

Praktische toepassingen en uitdagingen van data-efficiënte AI-training

Sterker nog, het trainen van AI met minder data en rekenkracht heeft een brede impact. Voor kleine bedrijven of onderzoeksteams in ontwikkelingslanden is "het gebruik van miljoenen samples en enorme servers" niet haalbaar. Wanneer iemand een model kan trainen met een paar duizend samples en gewone computers, zullen AI-toepassingen dichter bij eindgebruikers en echte omgevingen liggen.

Google laat bijvoorbeeld in de moderatiedialogen voor advertenties zien dat het selecteren van een 'waardevolle' steekproef van gegevens beter is dan honderdduizenden willekeurige steekproeven. Hierdoor is er minder gegevens nodig en worden er nog steeds resultaten behaald.

De uitdaging blijft echter bestaan: wanneer de data schaars is, is het model vatbaar voor overfitting, slechte generalisatie en problemen met het verwerken van veranderingen in de omgeving. Onderzoek naar visueel transferleren toont aan dat distillatie effectiever is bij zeer beperkte invoerdata, maar bij voldoende data wint de traditionele methode nog steeds.

Als het gaat om stroomverbruik en kosten, betekent het verminderen van data ook het verminderen van rekenkracht, servers en elektriciteit. Dit is belangrijk in de context van grote AI-modellen (LLM) waarvan de kosten per training miljoenen dollars bedragen.

Volgens een rapport van Stanford HAI wordt de trend van data- en energiebesparende AI beschouwd als een "grote transformatie" in 2025.

Voor journalisten en lezers is het belangrijk om te weten dat AI niet langer alleen is voorbehouden aan 'techgiganten', maar kan worden ontwikkeld door kleine teams met minder data en tegen lagere kosten. Er zullen dan veel nieuwe toepassingen ontstaan, van management van kleine bedrijven en regionale medische toepassingen tot gepersonaliseerd leren.

Maar gebruikers moeten er ook rekening mee houden dat het ‘data’-model minder nauwkeurig kan zijn en vatbaarder voor vertekening als het niet goed wordt gecontroleerd.

Terug naar het onderwerp
Tuan Vi

Bron: https://tuoitre.vn/ai-khong-con-can-du-lieu-khong-lo-cuoc-dua-huan-luyen-ai-tiet-kiem-nang-luong-20251031115025169.htm


Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

Ho Chi Minhstad trekt investeringen van FDI-bedrijven aan in nieuwe kansen
Historische overstromingen in Hoi An, gezien vanuit een militair vliegtuig van het Ministerie van Nationale Defensie
De 'grote overstroming' van de Thu Bon-rivier overtrof de historische overstroming van 1964 met 0,14 m.
Dong Van Stone Plateau - een zeldzaam 'levend geologisch museum' ter wereld

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

Bewonder 'Ha Long Bay op het land' is zojuist toegevoegd aan de topfavoriete bestemmingen ter wereld

Actuele gebeurtenissen

Politiek systeem

Lokaal

Product