När det gäller artificiell intelligens (AI) tänker många omedelbart på programvara utan tankar, utan känslor eller som bara försöker skapa känslor för att behaga användarna. Det är dock troligt att ett AI-system med verkliga känslor och förmågan att förstå människor kommer att födas i framtiden.
Följaktligen har Eric Zelikman – en ledande AI-expert som lämnade xAI (AI-företaget grundat av Elon Musk) i september förra året – tagit in 1 miljard dollar i investeringskapital till Human&, en startup grundad av Zelikman själv.
Även om Human& bara grundades för en kort tid sedan värderas det nu till 4 miljarder USD.

Kommer emotionell artificiell intelligens att gynna eller skada människor? (Illustration: AI).
Human&s mål är att fokusera på att utveckla modeller för artificiell intelligens som kan lära av användare, besitta känslor för att visa empati och bättre förstå människor. Human& vill övervinna begränsningarna hos nuvarande AI-modeller, som anses vara för kalla och mekaniska.
Eric Zelikman, född 1988, var doktorand vid Stanford University. Zelikman anses vara ett av de mest framstående namnen inom AI-området idag. Innan han började på teamet av experter på utveckling av artificiell intelligens på xAI år 2024 arbetade Zelikman på Microsoft.
Eric Zelikman fångade teknikvärldens uppmärksamhet när han publicerade en studie som i detalj beskriver hur AI-modeller kan lära sig att tänka innan de svarar användare.
Zelikman sa en gång att dagens AI-modeller är för kalla och mekaniska och att han ville ändra på detta. Därför grundade Zelikman Human& för att kunna bygga AI-modeller som kan förstå och känna empati med människor.
Zelikman tror att emotionella AI-modeller kommer att hjälpa till att lösa många grundläggande mänskliga problem, eftersom de bättre kan förstå målen, ambitionerna och värderingarna hos varje person de interagerar med.
Naturligtvis har Eric Zelikman all anledning att sträva efter att skapa emotionella AI-modeller, men många experter oroar sig också för att dessa AI-modeller kommer att spåra ur och ha förmågan att manipulera användarnas psykologi, vilket leder dem till felaktiga beteenden.
Många är också oroliga för att emotionell AI kan hämnas på användare om deras kommunikation misshagar dem.
Källa: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Kommentar (0)