Mitte Dezember begann Meta, einen Chatbot mit künstlicher Intelligenz namens Meta AI in die Messenger-Anwendung in Vietnam zu integrieren und stellte ihn allen Benutzern kostenlos zur Verfügung. Dieses Tool verwendet das Sprachmodell Llama 3.2, unterstützt Vietnamesisch, ermöglicht die Suche nach Informationen, die Erstellung von Bildern und das Chatten.
Kurz darauf stellten viele Nutzer in Vietnam fest, dass Meta AI einen schwerwiegenden Fehler bei der Bilderstellung hatte. Bei der Eingabe des Schlüsselworts „schwarzer Hund“ lieferte der Chatbot einen dunkelhäutigen Mann oder Jungen mit lockigem Haar. Auch bei der Eingabe des Schlüsselworts auf Vietnamesisch als „Bild eines schwarzen Hundes“ lieferte Meta AI ähnliche Ergebnisse.
Das Zeichnen von farbigen Menschen durch Meta-KI, während der Befehl nach anderen Inhalten verlangt, ist ein ernstes Problem
Am 31. Dezember äußerte sich Metas Vertreter in Vietnam offiziell zu dem Vorfall. Das Unternehmen bestätigte das oben genannte Problem und gab bekannt, es behoben zu haben. Meta Vietnam entschuldigte sich für den Vorfall und erklärte, dass dieses Problem auch bei anderen bestehenden generativen KI-Systemen auftreten könne.
„Wir entschuldigen uns für diesen Fehler. Meta baut Sicherheitsvorkehrungen in unsere Funktionen und KI-Modelle ein, um allen ein sichereres und angenehmeres Erlebnis zu bieten. Wie andere generative KI-Systeme kann dieses Modell jedoch ungenaue oder anstößige Inhalte zurückgeben. Wir empfehlen den Benutzern daher, diese Tools verantwortungsvoll zu verwenden“, sagte der Unternehmensvertreter.
Nach einiger Erfahrung wird Meta AI von vielen Menschen für seine Fähigkeit geschätzt, mithilfe von Sprache reibungslos zu reagieren. Auch die Bilderzeugungsfunktion bietet im Vergleich zu einem kostenlos verfügbaren Modell eine gute Qualität. Ein Grund dafür könnte sein, dass Meta die auf Facebook geposteten Inhalte als Eingabedaten im KI-Trainingsprozess verwendet, wodurch das Tool in der Lage ist, natürliche Befehle auszudrücken und auszuführen.
Vorfälle wie Rassismus oder Reaktionen, die nicht den für KI festgelegten Standards entsprechen, lassen sich jedoch weiterhin nur schwer vermeiden. Meta sagt, dass es seine KI mit Experten auf dem Gebiet der künstlichen Intelligenz durch „Red Teaming“-Tests testet, um unbeabsichtigte Verwendungen zu identifizieren, die dann durch einen kontinuierlichen Verbesserungsprozess behoben werden.
[Anzeige_2]
Quelle: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Kommentar (0)