(Dan Tri) - De hoeveelheid data die gebruikt wordt om kunstmatige intelligentie te trainen is bijna uitgeput, waardoor onderzoekers gedwongen worden om AI te gebruiken om elkaar te trainen. Dit zou een doorbraak kunnen zijn om AI de menselijke intelligentie te laten overtreffen.
Elon Musk suggereert dat nieuwe manieren om AI te ontwikkelen gevaarlijk kunnen zijn
Technologiemiljardair Elon Musk, oprichter van het bedrijf voor kunstmatige intelligentie xAI, heeft zojuist schokkende informatie vrijgegeven over het proces van het trainen en opleiden van modellen voor kunstmatige intelligentie (AI).
"We hebben de hoeveelheid menselijke kennis op het gebied van training en opleiding van AI nu uitgeput. Dit is in principe al sinds vorig jaar gebeurd", zei Elon Musk in een interview dat live werd uitgezonden op het sociale netwerk X op 9 januari.
AI-modellen zoals GPT-4, Gemini, Grok of Llama... worden getraind op basis van grote hoeveelheden data verzameld via internet, wetenschappelijke tijdschriften, gepubliceerd onderzoek, gebruikersgegevens op sociale netwerken...
Elon Musk stelt voor om AI-data te gebruiken om AI te trainen, maar dit brengt veel potentiële risico's met zich mee (Illustratie: Getty).
De ontwikkeling van AI-modellen verloopt echter zo snel dat de hoeveelheid beschikbare gegevens niet langer toereikend is om de intelligentie van deze AI-modellen te trainen en te verbeteren.
Om dit probleem te verhelpen, heeft Elon Musk een oplossing voorgesteld: overstappen op het gebruik van door AI zelf gegenereerde data om AI-modellen te trainen. Met andere woorden: AI kan zichzelf en elkaar trainen zonder afhankelijk te zijn van door mensen verstrekte data.
"De enige manier om dit probleem op te lossen, is door de synthetische gegevens die door de AI-modellen zelf worden gegenereerd aan te vullen en deze gegevens te gebruiken om de AI zelf te trainen", aldus Elon Musk.
AI-systemen die zichzelf trainen op basis van synthetische data die door AI zelf wordt gegenereerd, zullen ontwikkelingskosten besparen en de afhankelijkheid van menselijke data verminderen. Veel mensen maken zich daarom zorgen dat AI zichzelf kan trainen om de menselijke intelligentie te overtreffen, buiten de controle van de mensheid.
Experts op het gebied van kunstmatige intelligentie (AI) zeggen echter dat het trainen van AI-modellen met behulp van synthetische data die door AI zelf is gegenereerd, ertoe kan leiden dat deze modellen instorten. Dit gebeurt wanneer de gegenereerde data niet creatief, bevooroordeeld en niet bijgewerkt zijn met de meest recente gegevens.
"Wanneer je synthetische data gebruikt om AI-modellen te trainen, verslechteren hun prestaties geleidelijk, en zijn de outputgegevens weinig inspirerend en bevooroordeeld", aldus Andrew Duncan, directeur AI bij het Alan Turing Institute in het Verenigd Koninkrijk.
Hoogwaardige data worden beschouwd als een onschatbare bron van grondstoffen waar AI-ontwikkelingsbedrijven om concurreren. Niet alle wetenschappers zijn echter bereid hun onderzoekswerk te leveren om AI-modellen te trainen.
Google is erin geslaagd om een AI te creëren die precies hetzelfde denkt en handelt als mensen.
Stel je voor dat je de persoonlijkheid, houding en stijl van een persoon kunt bepalen en vervolgens een AI-kopie van die persoon kunt maken.
Dit is geen sciencefiction, maar het onderliggende doel van een baanbrekend onderzoek door onderzoekers van Stanford University en Google.
Met slechts 2 uur aan interviews kan Google een AI creëren die precies zo denkt en handelt als jij (Foto: ZipRecruiter).
Onderzoekers creëerden een AI-replica van meer dan 1000 deelnemers met behulp van informatie uit interviews van slechts twee uur. Deze AI's kunnen menselijk gedrag nabootsen.
De potentiële toepassingen van deze uitvinding zijn enorm. Beleidsmakers en bedrijven zouden deze AI-simulatie kunnen gebruiken om de publieke reacties op nieuw beleid of nieuwe producten te voorspellen, in plaats van uitsluitend te vertrouwen op focusgroepen of herhaalde peilingen.
Onderzoekers geloven dat de technologie kan helpen bij het onderzoeken van sociale structuren, het uitvoeren van pilot-interventies en het ontwikkelen van genuanceerde theorieën over menselijk gedrag.
Er zijn echter ook risico's aan verbonden, zoals ethische bezwaren tegen het misbruik van AI-klonen. Kwaadwillende actoren zouden deze AI kunnen misbruiken om de publieke opinie te manipuleren, zich voor te doen als individuen of publieke voorkeuren te simuleren op basis van nep-synthetische data.
Deze zorgen vallen ook onder de al langer bestaande bezorgdheid dat de toename van vergelijkbare AI-modellen negatieve gevolgen zou kunnen hebben voor de toekomst van de mensheid.
Bron: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
Reactie (0)