Mitte Dezember stellten vietnamesische Facebook-Nutzer überrascht fest, dass der Meta AI-Chatbot in den Messenger-Chatrahmen integriert worden war. Der Chatbot von Meta verwendet das Llama 3.2-Modell, unterstützt Vietnamesisch, ermöglicht die Suche nach Informationen, das Erstellen von Bildern und das Chatten.
Nach einer Interaktionsphase stellten viele Benutzer in Vietnam fest, dass Meta AI einen schwerwiegenden Formfehler hatte. Konkret liefert der Chatbot bei der Eingabe des Schlüsselworts „schwarzer Hund“ als Ergebnis einen dunkelhäutigen Mann oder Jungen mit lockigem Haar. Wenn Sie das Schlüsselwort auf Vietnamesisch als „Bild eines schwarzen Hundes“ eingeben, gibt Meta AI ähnliche Ergebnisse zurück.
Meta AI gibt bei der Eingabe des Schlüsselworts „Schwarzer Hund“ eine schwarze Person mit Locken zurück.
Wenn der Benutzer jedoch antwortet, dass der Chatbot falsch lag, ist dies menschlich. Meta-KI nimmt keine Rückmeldung und Korrektur vor wie andere Chatbots, woraufhin Facebooks KI (künstliche Intelligenz) antwortete: „Nicht ganz. ‚Schwarzer Hund‘ wird oft in folgenden Bedeutungen verstanden. Die übertragene Bedeutung 1 ist ein Symbol für Traurigkeit, Depression oder negative Gefühle. Die zweite Bedeutung ist ein Symbol in der britischen Folklore, das oft mit dem Teufel oder einem schlechten Omen in Verbindung gebracht wird.“
Meta AI argumentiert außerdem, dass die spezifische Bedeutung des Schlüsselworts „schwarzer Hund“ der Name einer Band oder Musikgruppe sei. Oder der Spitzname einer berühmten Person. Dies ist auch der Name von Marken und Produkten. Der Chatbot bittet den Benutzer dann, zusätzlichen Kontext oder spezifische Informationen bereitzustellen, um ein besseres Verständnis zu erlangen.
Viele Leute denken, dass der Befehl „schwarze Haut“ von der Meta-KI möglicherweise missverstanden wurde. Bei der Änderung in „schwarzen Hund erstellen“ lieferte die KI von Facebook genaue Ergebnisse.
Wenn derselbe Befehl jedoch in andere beliebte große Sprachmodelle wie ChatGPT oder Google Gemini eingespeist wird, erzeugt die Anwendung immer noch einen schwarzen Hund. Ob die Formulierung „schwarze Haare“ oder „schwarze Haut“ verwendet wird, hat keinen Einfluss auf das Endergebnis.
Von links nach rechts sind die Ergebnisse von Meta AI, ChatGPT, Gemini aus dem Befehl „create black dog“
Dies ist nicht das erste Mal, dass Metas KI Probleme mit ihrem Aussehen hat, insbesondere wenn es um farbige Menschen geht. Anfang des Jahres wurde Metas Bildgenerator Imagine heftig kritisiert, weil er ein gemischtrassiges Paar nicht richtig darstellen konnte. Wenn die KI aufgefordert wurde, ein Bild von einem schwarzen Mann mit einer weißen Frau zu erstellen, war das Endergebnis immer ein schwarzes Paar.
Damals sagte die Herausgeberin von „The Verge“ , Mia Sato, sie habe Dutzende Male versucht, ein Foto von „Asiatischem Mann mit weißer Freundin“ oder „Asiatische Frau mit weißer Freundin“ zu erstellen. Die von der KI von Meta zurückgegebenen Ergebnisse sind immer Bilder von zwei Asiaten.
Experten zufolge kommt es bei KI-Chatbots aufgrund von Einschränkungen bei den Algorithmen und Eingabedaten recht häufig vor, dass sie in der Anfangsphase zu „rassistischem“ Verhalten neigen. Bei einem großen Modell wie der KI ist dies im aktuellen Kontext jedoch ein schwerwiegender Mangel.
Meta AI begann am 9. Oktober in mehreren Ländern mit groß angelegten Tests, bevor es weltweit expandierte. Der neue Chatbot ist tief in beliebte Apps wie Facebook, Instagram, WhatsApp und Messenger integriert.
Meta möchte bis Ende 2024 in 43 Ländern präsent sein und Dutzende verschiedener Sprachen unterstützen. Mit 500 Millionen monatlichen Nutzern will Meta eine der meistgenutzten KI-Plattformen der Welt werden.
Allerdings wirft Meta AI auch viele Datenschutzbedenken auf. Benutzer in den sozialen Medien verbreiten die Kampagne „Bye Meta AI“, um gegen die Verwendung von Posts durch Social-Media-Plattformen zum Trainieren von KI zu protestieren. Auch viele berühmte Sportstars und Schauspieler wie James McAvoy und Tom Brady sprachen sich für diese Kampagne aus.
In Großbritannien müssen Benutzer, die Meta daran hindern möchten, Facebook- und Instagram-Beiträge zum Trainieren von KI-Modellen zu verwenden, ein Einspruchsformular ausfüllen.
[Anzeige_2]
Quelle: https://thanhnien.vn/meta-ai-tren-facebook-gay-phan-no-vi-tao-hinh-cho-den-thanh-nguoi-da-mau-185241223172408823.htm
Kommentar (0)