Alibabas Tongyi Lab hat das R1-Omni-Modell am Dienstag (11. März) als Open Source veröffentlicht. Dies gilt als das erste umfassende multimodale Sprachmodell, das bestärkendes Lernen mit überprüfbaren Belohnungen (RLVR) anwendet – eine Technologie, die verspricht, die Fähigkeit der KI zum Denken und Analysieren von Emotionen zu verbessern.
Das Entwicklungsteam sagte, sie hätten RLVR verwendet, um das Open-Source-Modell HumanOmni 0.5B zu optimieren und dabei drei wichtige Faktoren deutlich zu verbessern, darunter die Inferenzfähigkeit, die Genauigkeit bei der Emotionserkennung und die Generalisierungsfähigkeit. Berichten zufolge konnte R1-Omni besser verstehen, wie visuelle und akustische Informationen bei der Emotionserkennung helfen, und feststellen, welche Faktoren bei der Beurteilung der einzelnen Emotionen eine wichtigere Rolle spielen.
In Testvideos konnte R1-Omni den emotionalen Zustand einer Person anhand des Videos erkennen und die Kleidung und Umgebung der Figur beschreiben. Dies stellt einen großen Fortschritt im Bereich der Computervision dar.
Die KI-Technologie zur Emotionserkennung entwickelt sich allmählich zu einem wichtigen Trend in der Technologiebranche. Diese Technologie kommt häufig in der Praxis zum Einsatz, beispielsweise in Chatbots für den Kundensupport oder in Überwachungssystemen, die beim Fahren von Tesla-Elektroautos Anzeichen von Ermüdung des Fahrers erkennen.
Mit der Einführung des R1-Omni-Modells beschleunigt Alibaba das KI-Rennen und fordert die Position von OpenAI heraus. Während OpenAI GPT-4.5 auf den Markt gebracht hat, das subtile Signale in Benutzerfragen erkennen und darauf reagieren kann, und das zu einem Preis von bis zu 200 US-Dollar/Monat, bietet Alibaba R1-Omni völlig kostenlos auf der Hugging Face-Plattform an.
Obwohl R1-Omni derzeit nur grundlegende Emotionen wie „glücklich“ oder „wütend“ erkennt, ist laut Alibaba-CEO Wu Yongming die künstliche allgemeine Intelligenz (AGI) das oberste Ziel des Unternehmens und die Entwicklung emotionaler Intelligenz für KI ein wichtiger Schritt nach vorn.
Kommentar (0)