Der japanische Premierminister Fumio Kishida kündigte an, er werde der G7-Gruppe einen Plan zur Regulierung von Entwicklern künstlicher Intelligenz (KI) vorschlagen.
Ziel dieser Regeln ist es, die Verbreitung von Fehlinformationen zu verhindern, indem das öffentliche Bewusstsein geschärft wird, zwischen Bildern und Informationen, die von KI erzeugt werden, und Informationen, die nicht von Algorithmen generiert werden, zu unterscheiden.
Die vorgeschlagenen Leitlinien sollen voraussichtlich bereits im Herbst dieses Jahres bei einem virtuellen Treffen der sieben größten Volkswirtschaften der Welt (G7) vorgelegt werden.
In dem Bericht wurde festgestellt, dass Japan besorgt über die komplexen Bilder und Informationen ist, die von KI erzeugt werden, da diese die Öffentlichkeit irreführen und die wirtschaftliche Stabilität gefährden könnten.
Unterdessen hat die britische Datenschutzbehörde erklärt, dass KI-Chatbots ein Datenschutzrisiko für Kinder darstellen könnten, in diesem Fall der vom amerikanischen Technologieunternehmen Snapchat entwickelte Chatbot „My AI“.
Die Behörden geben an, Snapchat habe die Datenschutzrisiken für Kinder durch den im April letzten Jahres eingeführten KI-Chatbot möglicherweise unterschätzt. Das Information Commissioner's Office (ICO) erklärte, man werde ein landesweites Verbot der KI-App in Erwägung ziehen, sollte das US-Unternehmen die Bedenken der Regulierungsbehörden nicht zufriedenstellend ausräumen können.
„Erste Erkenntnisse aus der Untersuchung deuten darauf hin, dass Snap die Datenschutzrisiken für Kinder und andere Nutzer vor der Markteinführung der KI-App nicht angemessen und genau eingeschätzt hat“, sagte ein Vertreter des ICO.
Die Stellungnahme der Regulierungsbehörde bedeutet jedoch nicht, dass Snapchat, die in Großbritannien vor allem von jungen Menschen genutzte Messaging-App, gegen Datenschutzgesetze verstoßen hat.
Snap erklärte, man prüfe die Ankündigung des ICO und sei dem Schutz der Privatsphäre der Nutzer verpflichtet. „Unsere KI wurde vor ihrer Veröffentlichung einem strengen Datenschutz- und Rechtsprüfungsprozess unterzogen“, so das amerikanische Technologieunternehmen. „Wir werden weiterhin konstruktiv mit dem ICO zusammenarbeiten, um Bedenken hinsichtlich unserer Risikobewertungsprozesse auszuräumen.“
Die britische Datenschutzbehörde ICO untersucht, wie „My AI“ mit den persönlichen Daten von rund 21 Millionen Snapchat-Nutzern in Großbritannien umgegangen ist, darunter auch Kinder im Alter von 13 bis 17 Jahren.
Die von Snapchat entwickelte App basiert auf OpenAIs ChatGPT – dem bekanntesten Beispiel für generative KI, mit der sich politische Entscheidungsträger weltweit aufgrund von Bedenken hinsichtlich Datenschutz und Sicherheit auseinandersetzen müssen.
Soziale Netzwerke, einschließlich Snapchat, verlangen von ihren Nutzern ein Mindestalter von 13 Jahren, aber es gelingt ihnen nicht immer, Minderjährige von der Nutzung ihrer Plattformen abzuhalten.
Bereits im August 2023 berichtete Reuters, dass die Aufsichtsbehörden Informationen sammelten, um festzustellen, ob die Messaging-App minderjährige Nutzer effektiv von ihrer Plattform entfernte.
(Laut Bloomberg und Reuters)
Meta nutzt Nutzerdaten von Facebook und Instagram, um seinen KI-Chatbot zu trainieren.
Meta gibt an, öffentlich geteilte Facebook- und Instagram-Beiträge von Nutzern zu verwenden, um seinen neuen virtuellen Assistenten mit künstlicher Intelligenz (KI) zu trainieren, schließt jedoch Inhalte aus, die nur mit Familie und Freunden geteilt werden.
Microsoft bringt den KI-Chatbot-Assistenten Copilot auf den Markt.
Microsoft Copilot wird auf Windows 11, Microsoft 365, dem Edge-Browser und der Bing-Suchmaschine verfügbar sein.
Googles KI-Chatbot Bard erhält drei neue Funktionen.
Die Überprüfung der Richtigkeit von Antworten, der Import von Nutzerdaten aus verschiedenen Apps und die Möglichkeit, andere zum Chatten mit Chatbots einzuladen, sind einige der neuen Funktionen, die in Google Bard Einzug halten.
Quelle






Kommentar (0)