SGGPO 20 października 2023 19:13
Technika deepfake nie jest już stosowana wyłącznie w celach rozrywkowych. Cyberprzestępcy stopniowo wykorzystują ją jako narzędzie do oszustw... a oszustwa związane z deepfake będą stawać się coraz bardziej zróżnicowane i wyrafinowane.
| Kaspersky uważa, że oszustwa typu deepfake będą coraz powszechniejsze i będą miały coraz bardziej zróżnicowane i wyrafinowane formy. |
Po zbadaniu forów darknetu, na których często działają cyberprzestępcy, firma Kaspersky ustaliła, że wielu przestępców wykorzystuje technologię deepfake do oszustw, a popyt na nią znacznie przewyższa podaż oprogramowania deepfake dostępnego obecnie na rynku.
Eksperci firmy Kaspersky przewidują, że oszustwa typu deepfake staną się bardziej różnorodne i wyrafinowane – od wysokiej jakości filmów podszywających się pod inne osoby wraz z pełnymi usługami produkcyjnymi po wykorzystywanie wizerunków celebrytów w fałszywych transmisjach na żywo w mediach społecznościowych z obietnicą podwojenia liczby przesłanych im treści.
Chociaż sztuczna inteligencja jest wykorzystywana przez przestępców do szkodliwych celów, osoby prywatne i firmy nadal mogą ją wykorzystywać do identyfikacji deepfake'ów i zmniejszania prawdopodobieństwa powodzenia oszustw. Kaspersky udostępnia rozwiązania dla użytkowników, które pomogą im chronić się przed oszustwami deepfake:
Narzędzia do wykrywania treści oparte na sztucznej inteligencji: oprogramowanie do wykrywania treści oparte na sztucznej inteligencji wykorzystuje zaawansowane algorytmy sztucznej inteligencji do analizowania i określania poziomu manipulacji plikami graficznymi, wideo i audio.
Treści AI z znakami wodnymi: Znaki wodne działają jak znaki identyfikacyjne na obrazach, filmach itp., pomagając autorom chronić prawa autorskie do dzieł AI. Narzędzie to może jednak stać się bronią w walce z deepfake'ami, ponieważ pozwala ustalić pochodzenie platformy, która stworzyła AI.
Pochodzenie treści: Ponieważ sztuczna inteligencja zbiera duże ilości danych z różnych źródeł w celu tworzenia nowych treści, to podejście ma na celu ustalenie pochodzenia tych treści.
Uwierzytelnianie wideo: to proces weryfikacji, czy treść wideo nie została zmieniona od momentu jej utworzenia. To proces, który najbardziej interesuje twórców wideo.
„Deepfake stał się koszmarem dla kobiet i społeczeństwa. Cyberprzestępczość „Wykorzystują obecnie sztuczną inteligencję (AI) do nakładania twarzy ofiar na zdjęcia i filmy pornograficzne, a także w kampaniach propagandowych. Formy te mają na celu manipulowanie opinią publiczną poprzez rozpowszechnianie fałszywych informacji, a nawet szkodzenie reputacji organizacji lub osób. Apelujemy do społeczeństwa o wzmożoną czujność w obliczu tego zagrożenia” – powiedziała Vo Duong Tu Diem, dyrektor krajowy Kaspersky Vietnam.
Źródło






Komentarz (0)