Deepfake'i stały się obecnie poważnym problemem, ponieważ liczba oszustw z wykorzystaniem tej technologii stale rośnie.
Po przeanalizowaniu forów Darknetu, na których często działają cyberprzestępcy, eksperci ds. bezpieczeństwa odkryli, że tak wielu przestępców wykorzystuje oprogramowanie Deepfake do oszustw, że popyt na nie znacznie przekracza podaż oprogramowania Deepfake obecnie dostępnego na rynku.
Ponieważ popyt przewyższa podaż, eksperci z firmy Kaspersky przewidują wzrost liczby oszustw Deepfake. Metody będą coraz bardziej zróżnicowane i wyrafinowane: od dostarczania wysokiej jakości filmów podszywających się pod inne osoby po wykorzystywanie wizerunków celebrytów w fałszywych transmisjach na żywo w mediach społecznościowych. Obiecują podwoić liczbę wysyłanych przez ofiary oszustw.
Według systemu informacji referencyjnych Regula, 37% firm na świecie padło ofiarą oszustw Deepfake opartych na komunikacji głosowej, a 29% padło ofiarą oszustw Deepfake opartych na komunikacji wideo.
Technologia ta stała się zagrożeniem dla cyberbezpieczeństwa Wietnamu, gdzie cyberprzestępcy często wykorzystują fałszywe rozmowy wideo, podszywając się pod inne osoby i pożyczając pieniądze od ich krewnych i znajomych.
Rozmowa wideo wykonana w technologii deepfake może trwać zaledwie minutę, przez co ofiarom bardzo trudno jest odróżnić prawdziwą rozmowę od fałszywej.
Deepfake’i stopniowo stają się „koszmarem” wśród wyrafinowanych oszustw internetowych.
„ Deepfake'i stały się koszmarem dla kobiet i społeczeństwa. Cyberprzestępcy wykorzystują sztuczną inteligencję (AI) do nakładania twarzy ofiar na zdjęcia i filmy pornograficzne, a także w kampaniach propagandowych”.
„Te formy manipulacji mają na celu kontrolowanie opinii publicznej poprzez rozpowszechnianie dezinformacji, a nawet szkodzenie reputacji organizacji lub osób ” – powiedziała pani Vo Duong Tu Diem, dyrektor regionalny Kaspersky Vietnam.
Chociaż przestępcy wykorzystują sztuczną inteligencję do niecnych celów, osoby prywatne i firmy nadal mogą używać jej do identyfikowania deepfake'ów, zmniejszając tym samym prawdopodobieństwo udanych oszustw.
W związku z tym użytkownicy będą mogli skorzystać z kilku przydatnych rozwiązań, które pozwolą im chronić się przed oszustwami. Należą do nich m.in. oprogramowanie do wykrywania treści generowane przez sztuczną inteligencję (które wykorzystuje zaawansowane algorytmy do analizy i określania stopnia edycji obrazów/filmów/audio).
W przypadku filmów deepfake dostępne są teraz narzędzia, które pomagają identyfikować niezgodność ruchów ust z mową. Niektóre programy są nawet na tyle „potężne”, że potrafią wykryć nieprawidłowy przepływ krwi pod skórą, analizując rozdzielczość wideo, ponieważ gdy serce pompuje krew, żyły w ciele człowieka zmieniają kolor.
Ponadto znaki wodne służą jako znaki identyfikacyjne na obrazach, filmach itp., pomagając autorom chronić prawa autorskie do ich produktów opartych na sztucznej inteligencji. Funkcja ta może stać się bronią w walce z deepfake'ami, ponieważ pomaga ustalić pochodzenie platformy, która stworzyła sztuczną inteligencję. Użytkownicy zaznajomieni z technologią mogą znaleźć sposoby na odnalezienie źródła treści i porównać, w jaki sposób oryginalne dane zostały zmodyfikowane przez sztuczną inteligencję.
Obecnie niektóre nowe technologie wykorzystują algorytmy szyfrowania do wstawiania wartości skrótu w określonych odstępach czasu do filmu. Jeśli film został edytowany, wartość skrótu ulegnie zmianie, umożliwiając użytkownikom sprawdzenie, czy treść nie została zmodyfikowana.
Wcześniej istniały pewne wytyczne dotyczące wyszukiwania anomalii w filmach, takich jak zniekształcenia kolorów, nienaturalne ruchy mięśni, ruchy oczu itp. Jednak w miarę jak sztuczna inteligencja staje się coraz bardziej inteligentna, wartości te nie zawsze dają dokładne wyniki.
Proces weryfikacji wiarygodności filmów nie opiera się już na oględzinach wizualnych, ale wymaga narzędzi technologicznych mających na celu zapobieganie fałszywym treściom i wykrywanie ich.
Khanh Linh
Źródło






Komentarz (0)