Vietnam.vn - Nền tảng quảng bá Việt Nam

Kaspersky ujawnia, jak rozpoznać oszustwa typu deepfake.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng20/10/2023

[reklama_1]

SGGP 20.10.2023 19:13

Deepfake'i nie są już wykorzystywane wyłącznie w celach rozrywkowych, ale coraz częściej są wykorzystywane przez cyberprzestępców jako narzędzie oszustw... a oszustwa z użyciem deepfake'ów będą stawać się coraz liczniejsze, bardziej zróżnicowane i wyrafinowane.

Firma Kaspersky przewiduje, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane.
Firma Kaspersky przewiduje, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane.

Po zbadaniu forów darknetu, na których często działają cyberprzestępcy, firma Kaspersky doszła do wniosku, że wielu przestępców wykorzystuje deepfake'i do oszustw, do tego stopnia, że ​​popyt na nie znacznie przekracza podaż oprogramowania deepfake dostępnego obecnie na rynku.

Eksperci firmy Kaspersky przewidują, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane. Obejmują one zarówno dostarczanie wysokiej jakości, profesjonalnie wyprodukowanych filmów podszywających się pod inne osoby, jak i wykorzystywanie wizerunków celebrytów w fałszywych transmisjach na żywo w mediach społecznościowych, z obietnicą podwojenia liczby przesyłanych przez ofiary oszustw.

Chociaż sztuczna inteligencja jest wykorzystywana przez przestępców do szkodliwych celów, osoby prywatne i firmy nadal mogą ją wykorzystać do identyfikacji deepfake'ów i minimalizowania ryzyka udanych oszustw. Kaspersky udostępnia rozwiązania dla użytkowników, które pomogą im chronić się przed oszustwami deepfake:

Narzędzia do wykrywania treści oparte na sztucznej inteligencji: Te programy do wykrywania treści generowane przez sztuczną inteligencję wykorzystują zaawansowane algorytmy sztucznej inteligencji do analizowania i określania stopnia edycji plików graficznych, wideo i audio.

Treści AI są oznaczone znakiem wodnym: Znaki wodne służą jako znaki identyfikacyjne na obrazach, filmach itp., pomagając autorom chronić prawa autorskie do ich dzieł AI. Narzędzie to może jednak stać się bronią w walce z deepfake'ami, ponieważ pozwala ustalić pochodzenie platformy, która stworzyła daną sztuczną inteligencję.

Śledzenie treści: Ponieważ sztuczna inteligencja zbiera ogromne ilości danych z różnych źródeł w celu tworzenia nowych treści, ta metoda ma na celu śledzenie pochodzenia tych treści.

Walidacja wideo: Proces weryfikacji, czy treść wideo nie została zmieniona w stosunku do pierwotnego stanu. To proces, na którym twórcy wideo najbardziej się skupiają.

„Deepfake stał się koszmarem dla kobiet i społeczeństwa. Cyberprzestępcy”. „Obecnie wykorzystują sztuczną inteligencję (AI) do nakładania twarzy ofiar na zdjęcia i filmy pornograficzne, a także w kampaniach propagandowych. Metody te mają na celu manipulowanie opinią publiczną poprzez rozpowszechnianie dezinformacji, a nawet szkodzenie reputacji organizacji lub osób. Apelujemy do społeczeństwa o czujność wobec tego zagrożenia” – powiedziała Vo Duong Tu Diem, dyrektor regionalny Kaspersky Vietnam.



Źródło

Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Daję ci szalik Piêu.

Daję ci szalik Piêu.

RADOŚĆ FESTIWALU NARODOWEGO

RADOŚĆ FESTIWALU NARODOWEGO

5 ton

5 ton