Vietnam.vn - Nền tảng quảng bá Việt Nam

Kaspersky ujawnia, jak rozpoznać oszustwa typu deepfake.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng20/10/2023

[reklama_1]

SGGP 20.10.2023 19:13

Deepfake'i nie są już wykorzystywane wyłącznie w celach rozrywkowych, ale coraz częściej są wykorzystywane przez cyberprzestępców jako narzędzie oszustw... a oszustwa z użyciem deepfake'ów będą stawać się coraz liczniejsze, bardziej zróżnicowane i wyrafinowane.

Firma Kaspersky przewiduje, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane.
Firma Kaspersky przewiduje, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane.

Po zbadaniu forów darknetu, na których często działają cyberprzestępcy, firma Kaspersky doszła do wniosku, że wielu przestępców wykorzystuje deepfake'i do oszustw, do tego stopnia, że ​​popyt na nie znacznie przekracza podaż oprogramowania deepfake dostępnego obecnie na rynku.

Eksperci firmy Kaspersky przewidują, że liczba oszustw typu deepfake wzrośnie, a oszustwa staną się bardziej zróżnicowane i wyrafinowane. Obejmują one zarówno dostarczanie wysokiej jakości, profesjonalnie wyprodukowanych filmów podszywających się pod inne osoby, jak i wykorzystywanie wizerunków celebrytów w fałszywych transmisjach na żywo w mediach społecznościowych, z obietnicą podwojenia liczby przesyłanych przez ofiary oszustw.

Chociaż sztuczna inteligencja jest wykorzystywana przez przestępców do szkodliwych celów, osoby prywatne i firmy nadal mogą ją wykorzystać do identyfikacji deepfake'ów i minimalizowania ryzyka udanych oszustw. Kaspersky udostępnia rozwiązania dla użytkowników, które pomogą im chronić się przed oszustwami deepfake:

Narzędzia do wykrywania treści oparte na sztucznej inteligencji: Te programy do wykrywania treści generowane przez sztuczną inteligencję wykorzystują zaawansowane algorytmy sztucznej inteligencji do analizowania i określania stopnia edycji plików graficznych, wideo i audio.

Treści AI są oznaczone znakiem wodnym: Znaki wodne służą jako znaki identyfikacyjne na obrazach, filmach itp., pomagając autorom chronić prawa autorskie do ich dzieł AI. Narzędzie to może jednak stać się bronią w walce z deepfake'ami, ponieważ pozwala ustalić pochodzenie platformy, która stworzyła daną sztuczną inteligencję.

Śledzenie treści: Ponieważ sztuczna inteligencja zbiera ogromne ilości danych z różnych źródeł w celu tworzenia nowych treści, ta metoda ma na celu śledzenie pochodzenia tych treści.

Walidacja wideo: Proces weryfikacji, czy treść wideo nie została zmieniona w stosunku do pierwotnego stanu. To proces, na którym twórcy wideo najbardziej się skupiają.

„Deepfake stał się koszmarem dla kobiet i społeczeństwa. Cyberprzestępcy”. „Obecnie wykorzystują sztuczną inteligencję (AI) do nakładania twarzy ofiar na zdjęcia i filmy pornograficzne, a także w kampaniach propagandowych. Metody te mają na celu manipulowanie opinią publiczną poprzez rozpowszechnianie dezinformacji, a nawet szkodzenie reputacji organizacji lub osób. Apelujemy do społeczeństwa o czujność wobec tego zagrożenia” – powiedziała Vo Duong Tu Diem, dyrektor regionalny Kaspersky Vietnam.



Źródło

Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Plaża Da Nang

Plaża Da Nang

Szczęście w dniu pokoju

Szczęście w dniu pokoju

Podniesienie flag dla uczczenia wielkiej ceremonii.

Podniesienie flag dla uczczenia wielkiej ceremonii.