Bij systemen voor kunstmatige intelligentie (AI) denken veel mensen meteen aan hersenloze software, zonder emoties of die alleen maar emoties probeert te creëren om gebruikers tevreden te stellen. Het is echter waarschijnlijk dat er in de toekomst een AI-systeem met echte emoties en het vermogen om mensen te begrijpen, geboren zal worden.
Zo heeft Eric Zelikman, een vooraanstaand AI-expert die xAI (het AI-bedrijf opgericht door Elon Musk) afgelopen september verliet, 1 miljard dollar aan investeringskapitaal opgehaald voor Human&, een startup die door Zelikman zelf is opgericht.
Hoewel Human& nog maar kort bestaat, is het inmiddels 4 miljard dollar waard.

Zal emotionele kunstmatige intelligentie de mens ten goede of ten kwade komen? (Illustratie: AI).
Het doel van Human& is om zich te richten op de ontwikkeling van AI-modellen die van gebruikers kunnen leren, emoties kunnen tonen om empathie te tonen en mensen beter te begrijpen. Human& wil de beperkingen van huidige AI-modellen, die als te koud en mechanisch worden beschouwd, overwinnen.
Eric Zelikman, geboren in 1988, was promovendus aan Stanford University. Zelikman wordt beschouwd als een van de grootste namen in de AI-wereld. Voordat hij in 2024 het team van AI-experts bij xAI vervoegde, werkte Zelikman bij Microsoft.
Eric Zelikman trok de aandacht van de techwereld toen hij een studie publiceerde waarin hij gedetailleerd beschreef hoe AI-modellen zichzelf kunnen leren nadenken voordat ze reageren op gebruikers.
Zelikman stelde ooit dat de huidige AI-modellen te koud en mechanisch zijn en dat hij daar verandering in wilde brengen. Daarom richtte Zelikman Human& op om AI-modellen te kunnen bouwen die mensen kunnen begrijpen en zich in hen kunnen inleven.
Zelikman gelooft dat emotionele AI-modellen kunnen helpen bij het oplossen van veel fundamentele menselijke problemen, omdat ze de doelen, ambities en waarden van elke persoon met wie ze omgaan beter kunnen begrijpen.
Eric Zelikman heeft uiteraard alle reden om te streven naar het creëren van emotionele AI-modellen, maar veel experts vrezen dat deze AI-modellen oncontroleerbaar worden en de psychologie van gebruikers kunnen manipuleren, wat tot verkeerd gedrag kan leiden.
Velen zijn ook bezorgd dat emotionele AI wraak zal nemen op gebruikers als hun communicatie hen niet bevalt.
Bron: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Reactie (0)