Die rasante Entwicklung der künstlichen Intelligenz (KI) hat Bedenken hervorgerufen, dass sie sich schneller entwickelt, als der Mensch ihre Auswirkungen verstehen kann.
Foto: ST
Der Einsatz allgemeiner KI hat nach dem Aufkommen von Tools wie ChatGPT deutlich zugenommen. Obwohl diese Tools viele Vorteile bieten, können sie auch missbraucht und schädlich eingesetzt werden.
Um dieses Risiko zu minimieren, haben die USA und mehrere andere Länder mit sieben Unternehmen, darunter Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI, Vereinbarungen getroffen, in denen sie sich zu sicheren Praktiken bei der Entwicklung von KI-Technologien verpflichten.
Die Ankündigung des Weißen Hauses enthält Fachbegriffe, die dem Durchschnittsbürger möglicherweise unbekannt sind, wie beispielsweise „Red Teaming“ und „Watermarking“. Hier sind sieben KI-bezogene Begriffe, auf die Sie achten sollten.
Maschinelles Lernen
Dieser Zweig der KI zielt darauf ab, Maschinen durch die Erkennung von Mustern so zu trainieren, dass sie eine bestimmte Aufgabe präzise ausführen können. Die Maschine kann dann auf Grundlage dieser Daten Vorhersagen treffen.
Deep Learning
Kreative KI-Aufgaben basieren häufig auf Deep Learning, einer Methode, bei der Computer mithilfe neuronaler Netze trainiert werden. Dabei handelt es sich um eine Reihe von Algorithmen, die die Neuronen im menschlichen Gehirn nachahmen sollen, um komplexe Verbindungen zwischen Mustern herzustellen und so Texte, Bilder oder andere Inhalte zu generieren.
Da Deep-Learning-Modelle über mehrere Neuronenschichten verfügen, können sie komplexere Muster erlernen als herkömmliche maschinelle Lernverfahren.
Großes Sprachmodell
Ein großes Sprachmodell (LLM) wird mit riesigen Datenmengen trainiert und dient dazu, Sprache zu modellieren oder das nächste Wort in einer Sequenz vorherzusagen. Große Sprachmodelle wie ChatGPT und Google Bard können für Aufgaben wie Zusammenfassung, Übersetzung und Konversation eingesetzt werden.
Algorithmus
Ein Satz von Anweisungen oder Regeln, der es Maschinen ermöglicht, Vorhersagen zu treffen, Probleme zu lösen oder Aufgaben zu erledigen. Algorithmen können Einkaufsempfehlungen geben und bei der Betrugserkennung sowie bei Kundenservice-Chatfunktionen helfen.
Voreingenommenheit
Da KI mit großen Datensätzen trainiert wird, können schädliche Informationen wie Hassrede in die Daten einfließen. Auch Rassismus und Sexismus können in den Trainingsdatensätzen vorkommen und zu irreführenden Inhalten führen.
KI-Unternehmen haben vereinbart, eingehender zu untersuchen, wie schädliche Voreingenommenheit und Diskriminierung in KI-Systemen vermieden werden können.
Rotes Team
Eine der Verpflichtungen, die Unternehmen gegenüber dem Weißen Haus eingegangen sind, besteht darin, intern und extern sogenannte „Red Teaming“-Tests an KI-Modellen und -Systemen durchzuführen.
„Red Teaming“ bezeichnet das Testen eines Modells, um potenzielle Schwachstellen aufzudecken. Der Begriff stammt aus dem Militärbereich , wo ein Team die Aktionen eines Angreifers simuliert, um Strategien zu entwickeln.
Diese Methode wird häufig verwendet, um Sicherheitslücken in Systemen wie Cloud-Computing-Plattformen von Unternehmen wie Microsoft und Google zu testen.
Wasserzeichen
Ein Wasserzeichen dient dazu, festzustellen, ob ein Ton oder ein Bild von KI erstellt wurde. Zu den überprüften Fakten gehören Informationen darüber, wer das Werk erstellt hat und wie und wann es erstellt oder bearbeitet wurde.
Microsoft hat beispielsweise zugesagt, von seinen KI-Tools erstellte Bilder mit einem Wasserzeichen zu versehen. Auch gegenüber dem Weißen Haus haben Unternehmen zugesagt, Bilder mit einem Wasserzeichen zu versehen oder deren Herkunft zu protokollieren, um sie als KI-generiert zu kennzeichnen.
Wasserzeichen werden häufig auch zur Verfolgung von Urheberrechtsverletzungen eingesetzt. Wasserzeichen für KI-generierte Bilder können als unmerkliches Rauschen erscheinen, beispielsweise als eine leichte Veränderung jedes siebten Pixels.
Das Wasserzeichenverfahren für KI-generierten Text kann jedoch komplexer sein und erfordert möglicherweise eine Anpassung der Wortvorlage, damit diese als KI-generierter Inhalt identifiziert werden kann.
Hoang Ton (laut Poynter)
Quelle










Kommentar (0)