A deepfake-ek digitálisan létrehozott vagy mesterséges intelligencia (MI) vagy gépi tanulás (ML) segítségével módosított videók és képek. A technológiával létrehozott pornográfia néhány évvel ezelőtt kezdett terjedni az interneten, amikor egy Reddit-felhasználó hamis pornóklipeket osztott meg hírességek arcaival.
Fotó: GI
Bárki lehet áldozat.
Azóta a deepfake-készítők továbbra is hasonló videókat és képeket posztolnak, amelyek online influenszereket, újságírókat és más nyilvános profillal rendelkezőket céloznak meg. Több ezer ilyen videó létezik számos weboldalon.
Mivel a mesterséges intelligencia egyre elérhetőbbé válik, a felhasználók bárkit „pornósztárrá” változtathatnak beleegyezésük nélkül, vagy ami még veszélyesebb, a technológiát mások rágalmazására vagy zsarolására használhatják.
A szakértők szerint a probléma súlyosbodhat a generatív mesterséges intelligencia eszközök fejlesztésével, amelyeket az internetről származó több milliárd képen képeznek ki, és a meglévő adatok felhasználásával új tartalmat generálnak.
„A valóság az, hogy a technológia továbbra is elterjed, fejlődni fog, és egyre könnyebben elérhetővé és hozzáférhetővé válik” – mondta Adam Dodge, az EndTAB alapítója, amely egy olyan csoport, amely a technológiai visszaélésekkel kapcsolatos képzéseket kínál. „És amíg ez így folytatódik, az emberek kétségtelenül... továbbra is visszaélnek ezzel a technológiával, hogy ártsanak másoknak, elsősorban online szexuális erőszak, deepfake pornográfia és hamis meztelenképek révén.”
Az ausztráliai Perthből származó Noelle Martin megtapasztalta ezt a valóságot. A 28 éves nő 10 évvel ezelőtt fedezte fel a róla készült deepfake pornót, amikor kíváncsiságból egy nap rákeresett a saját képére a Google-ben. Martin a mai napig azt mondja, fogalma sincs, ki készítette a hamis pornóképeket vagy videókat. Azt gyanítja, hogy valaki a közösségi médiás képeit használta fel pornóvideók készítéséhez.
Martin megpróbálta felvenni a kapcsolatot az oldalakkal, hogy eltávolítsák a videókat, de erőfeszítései hiábavalóak voltak. Néhányan nem válaszoltak. Mások eltávolították a videókat, de gyorsan újra közzétették őket. „Nem nyerhetsz” – mondta Ms. Martin. „Örökké fent lesznek az interneten, és tönkretehetik az életedet.”
A tech cégek erőfeszítései a probléma megoldására
Néhány mesterséges intelligencia modell azt állítja, hogy korlátozott hozzáférésük van a pornográf képekhez.
Az OpenAI közölte, hogy eltávolította a pornográf tartalmat a DALL-E képgenerátor betanításához használt adatokból, ami várhatóan csökkenti a visszaélések valószínűségét. A vállalat szűri a kéréseket, és azt állítja, hogy megakadályozza a felhasználókat abban, hogy hírességekről és ismert politikusokról mesterséges intelligencia által készített képeket készítsenek. Egy másik modell, a Midjourney, szintén blokkolja bizonyos kulcsszavak használatát, és arra ösztönzi a felhasználókat, hogy jelezzék a problémás képeket a moderátoroknak.
Eközben a Stability AI kiadott egy frissítést is, amely megakadályozza a felhasználókat abban, hogy explicit képeket készítsenek. Ezek a változtatások azután történtek, hogy jelentések szerint egyes felhasználók hírességek ihlette aktfotók készítésére használták a technológiát.
Motez Bishara, a Stability AI szóvivője elmondta, hogy a szűrő kulcsszavak és más technikák, például képfelismerés kombinációját használja a meztelenség észlelésére. A felhasználók azonban finomhangolhatják a szoftvert, és bármit létrehozhatnak, amit csak akarnak, mivel a cég kiadta az alkalmazás nyílt forráskódját.
Néhány közösségi média cég szigorított a szabályokon, hogy jobban megvédje platformjait a káros anyagoktól.
A TikTok a múlt hónapban bejelentette, hogy minden deepfake vagy manipulált tartalmat meg kell jelölni, jelezve, hogy hamis vagy valamilyen módon módosított.
A Twitch játékplatform is nemrégiben frissítette a deepfake képekre vonatkozó szabályzatát, miután egy népszerű streamert, Atriocot rajtakaptak, amint egy deepfake pornóoldalt nyitott meg a böngészőjében egy január végi élő közvetítés során.
Az Apple és a Google nemrégiben eltávolított egy alkalmazást az alkalmazásboltjaikból, mert szexuálisan burkolt deepfake videókat használt termékeik reklámozására.
Western énekestől K-pop idolig.
A deepfake pornóval kapcsolatos kutatások ritkák, de a DeepTrace Labs mesterséges intelligencia cég 2019-es jelentése szerint szinte teljes egészében fegyverként szolgál a nők ellen, a nyugati színésznőket célozva meg leginkább, őket követik a K-pop énekesek.
Dani Lever, a Meta szóvivője egy nyilatkozatban elmondta, hogy a vállalat szabályzata korlátozza mind a mesterséges intelligencia által, mind a nem mesterséges intelligencia által generált felnőtt tartalmakat, és megakadályozza, hogy a deepfake-eket generáló alkalmazás oldala hirdetéseket jelenítsen meg a platformján.
Februárban a Meta, valamint olyan felnőtt oldalak, mint az Only**** és a Porn***, elkezdtek részt venni egy Take It Down nevű online eszközben, amely lehetővé teszi a tinédzserek számára, hogy jelentsék az interneten található, szexuálisan explicit képeket és videókat. Az oldal támogatja mind a titokban forgatott videókat, mind a mesterséges intelligencia által generált videókat.
Hoang Ton (az AP szerint)
[hirdetés_2]
Forrás






Hozzászólás (0)