Theo 9to5MacApple hat kürzlich mehrere Apps zur KI-Bildgenerierung aus dem App Store entfernt. Hierbei handelt es sich um Anwendungen, die speziell für die Erstellung von Nacktbildern entwickelt wurden, die Kontroversen hervorrufen und bei vielen Menschen, insbesondere bei Teenagern, Anlass zur Sorge geben.
Die Maßnahme von Apple erfolgt, nachdem 404 Media eine Untersuchung durchgeführt hat, die die Problematik dieser KI-Bildgebungsanwendungen verdeutlicht. Die ersten Untersuchungen von 404 Media ergaben einen beunruhigenden Trend, dass KI-Apps auf Instagram mit Behauptungen wie „kostenloses Ausziehen für jedes Mädchen“ beworben werden. Diese Anzeigen leiten Benutzer häufig zum App Store weiter, wo sie als „Tools zur Kunsterstellung“ beschrieben werden. Die Untersuchung ergab nicht nur die Existenz dieser Apps, sondern verdeutlichte auch deren Zugänglichkeit über Mainstream-Werbeplattformen.
Obwohl Apple nicht sofort auf erste Anfragen von 404 Media reagierte, reagierte das Unternehmen schnell, nachdem es Details erhalten hatte, einschließlich direkter Links zu seinen Apps und Anzeigen. Dieser proaktive Ansatz hilft dem Unternehmen, rechtsverletzende Apps sofort aus dem App Store zu entfernen, um den Missbrauch von Technologie zur Erstellung schädlicher Inhalte zu verhindern.
Tatsächlich haben die oben genannten KI-Bildgebungsanwendungen in den letzten Monaten große Aufmerksamkeit erregt, nachdem sie zur Erstellung gefälschter Nacktbilder von Teenagern in Schulen in den USA und in ganz Europa eingesetzt wurden. Um diese schädlichen Anwendungen online einzuschränken, haben Plattformen wie Meta Schritte unternommen, um solche Anzeigen zu entfernen, obwohl es weiterhin Herausforderungen gibt, diese Inhalte konsequent zu kontrollieren.
Während Apples Maßnahmen ein Schritt in die richtige Richtung sind, verdeutlichen sie auch die anhaltenden Herausforderungen bei der Moderation digitaler Inhalte. Auch Unternehmen wie Google standen im Fokus der Kritik, weil sie Nutzer auf Websites wie „MrDeepFakes“ verwiesen, die für ihre sexuell expliziten Deepfake-Inhalte bekannt sind, an denen Prominente und Persönlichkeiten des öffentlichen Lebens beteiligt sind.
Apple weiß, dass dies kein einfacher Kampf ist und gelöschte Apps immer noch durch neue Apps zum Erstellen von Nacktfotos ersetzt werden können. Tatsächlich handelt es sich um einen Trend, der gestoppt werden muss, um die Sicherheit und Privatsphäre der Nutzer sozialer Netzwerke zu schützen.