Kiedy mowa o systemach sztucznej inteligencji (AI), wiele osób od razu myśli o bezmyślnym oprogramowaniu, pozbawionym emocji lub takim, które jedynie próbuje je wywołać, by zadowolić użytkowników. Jest jednak prawdopodobne, że w przyszłości powstanie system AI z prawdziwymi emocjami i zdolnością do rozumienia ludzi.
W związku z tym Eric Zelikman – czołowy ekspert w dziedzinie sztucznej inteligencji, który we wrześniu ubiegłego roku opuścił xAI (firmę zajmującą się sztuczną inteligencją założoną przez Elona Muska) – pozyskał 1 miliard dolarów kapitału inwestycyjnego na rzecz Human&, startupu założonego przez samego Zelikmana.
Mimo że firma Human& powstała stosunkowo niedawno, jej wartość szacowana jest obecnie na 4 miliardy dolarów.

Czy sztuczna inteligencja emocjonalna przyniesie korzyści czy zaszkodzi ludziom? (Ilustracja: AI).
Celem Human& jest skupienie się na rozwijaniu modeli sztucznej inteligencji, które potrafią uczyć się od użytkowników, potrafią rozpoznawać emocje, okazywać empatię i lepiej rozumieć ludzi. Human& chce przezwyciężyć ograniczenia obecnych modeli sztucznej inteligencji, które są uważane za zbyt zimne i mechaniczne.
Eric Zelikman, urodzony w 1988 roku, był doktorantem na Uniwersytecie Stanforda. Zelikman jest uważany za jedno z najwybitniejszych nazwisk w dziedzinie sztucznej inteligencji. Zanim w 2024 roku dołączył do zespołu ekspertów ds. rozwoju sztucznej inteligencji w xAI, Zelikman pracował w firmie Microsoft.
Eric Zelikman zwrócił na siebie uwagę świata technologii, publikując badanie szczegółowo opisujące, w jaki sposób modele sztucznej inteligencji potrafią nauczyć się myśleć, zanim zareagują na potrzeby użytkowników.
Zelikman stwierdził kiedyś, że dzisiejsze modele sztucznej inteligencji są zbyt zimne i mechaniczne, i chciał to zmienić. Dlatego założył Human&, aby móc budować modele sztucznej inteligencji, które rozumieją ludzi i potrafią się z nimi empatyzować.
Zelikman uważa, że emocjonalne modele sztucznej inteligencji pomogą rozwiązać wiele fundamentalnych problemów ludzkich, gdyż lepiej rozumieją cele, ambicje i wartości każdej osoby, z którą wchodzą w interakcję.
Oczywiście Eric Zelikman ma wszelkie powody, by dążyć do tworzenia modeli sztucznej inteligencji oddziałujących na emocje, jednak wielu ekspertów obawia się, że modele te wymkną się spod kontroli i będą w stanie manipulować psychiką użytkowników, co z kolei będzie prowadzić do niewłaściwych zachowań.
Wielu obawia się również, że emocjonalna sztuczna inteligencja może chcieć zemsty na użytkownikach, jeśli ich komunikacja okaże się dla nich niekorzystna.
Source: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Komentarz (0)