Wenn es um künstliche Intelligenz (KI) geht, denken viele sofort an seelenlose Software, die keine Emotionen zeigt oder lediglich versucht, Emotionen zu erzeugen, um Nutzern zu gefallen. Es ist jedoch wahrscheinlich, dass in Zukunft ein KI-System mit echten Emotionen und der Fähigkeit, Menschen zu verstehen, entstehen wird.
Demnach hat Eric Zelikman – ein führender KI-Experte, der xAI (das von Elon Musk gegründete KI-Unternehmen) im vergangenen September verließ – 1 Milliarde Dollar an Investitionskapital für Human&, ein von Zelikman selbst gegründetes Startup, eingeworben.
Obwohl Human& erst vor kurzem gegründet wurde, wird das Unternehmen bereits mit 4 Milliarden US-Dollar bewertet.

Wird emotionale künstliche Intelligenz dem Menschen nützen oder schaden? (Illustration: KI).
Human& konzentriert sich auf die Entwicklung von KI-Modellen, die von Nutzern lernen, Emotionen zeigen, um Empathie zu demonstrieren und Menschen besser zu verstehen. Human& möchte die Grenzen aktueller KI-Modelle überwinden, die als zu kühl und mechanisch gelten.
Eric Zelikman, Jahrgang 1988, war Doktorand an der Stanford University. Er gilt heute als einer der führenden Köpfe im Bereich der künstlichen Intelligenz. Bevor er 2024 dem Team von KI-Entwicklungsexperten bei xAI beitrat, arbeitete Zelikman bei Microsoft.
Eric Zelikman erregte die Aufmerksamkeit der Tech-Welt, als er eine Studie veröffentlichte, in der er detailliert beschrieb, wie KI-Modelle sich selbst beibringen können, zu denken, bevor sie auf Benutzer reagieren.
Zelikman erklärte einst, die heutigen KI-Modelle seien zu kalt und mechanisch, und er wolle dies ändern. Daher gründete er Human&, um KI-Modelle zu entwickeln, die Menschen verstehen und sich in sie hineinversetzen können.
Zelikman ist überzeugt, dass emotionale KI-Modelle dazu beitragen werden, viele grundlegende menschliche Probleme zu lösen, da sie die Ziele, Ambitionen und Werte jedes Einzelnen, mit dem sie interagieren, besser verstehen können.
Eric Zelikman hat natürlich allen Grund, emotionale KI-Modelle zu entwickeln, doch viele Experten befürchten auch, dass diese KI-Modelle außer Kontrolle geraten und die Fähigkeit besitzen könnten, die Psychologie der Nutzer zu manipulieren und sie so zu falschen Verhaltensweisen zu verleiten.
Viele befürchten zudem, dass emotionale KI sich an Nutzern rächen könnte, wenn ihnen deren Kommunikation missfällt.
Quelle: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Kommentar (0)