Vietnam.vn - Nền tảng quảng bá Việt Nam

Wykorzystanie sztucznej inteligencji do łączenia wrażliwych obrazów w celu szantażu

Na podstawie wirtualnego zdjęcia zamieszczonego w mediach społecznościowych złoczyńcy mogą używać narzędzi sztucznej inteligencji (AI) do tworzenia seksownych, a nawet nagich zdjęć lub umieszczania realistycznych twarzy w kontrowersyjnych filmach, aby oczernić i szantażować ofiarę.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Złośliwcy mogą używać sztucznej inteligencji do łączenia wrażliwych zdjęć i filmów , aby oczerniać i szantażować innych – Zdjęcie: Rysunek sztucznej inteligencji

W przeszłości, gdy rozmawiano o technice kopiowania i wklejania twarzy jednej osoby na ciało innej osoby, często używano Photoshopa lub specjalistycznego oprogramowania do edycji zdjęć, które jest pracochłonne i łatwo rozpoznawalne gołym okiem.

Dzięki narzędziom opartym na sztucznej inteligencji ludzie mogą teraz bardzo łatwo to zrobić za pomocą „kilku notatek”, ale niełatwo to wykryć gołym okiem.

Seks z zamianą twarzy w celu szantażu

Ze względu na powiązania zawodowe pan H. (dyrektor firmy w Ho Chi Minh City) często komunikuje się za pośrednictwem mediów społecznościowych.

Pewnego razu zaprzyjaźnił się z młodą dziewczyną, która zapytała go o pracę. Po pewnym czasie wypytywania o siebie nawzajem, rozmawiania, dzielenia się informacjami o pracy i życiu osobistym, wydawali się sobie bardzo bliscy.

Wymieniali między sobą mnóstwo wiadomości tekstowych pełnych czułości, wysyłali sobie zdjęcia i prowadzili rozmowy wideo, aby się zobaczyć.

Pewnego dnia pan H. nagle odebrał telefon od mężczyzny podającego się za męża dziewczyny. Po „uprzednim” ataku na pana H., „mąż” zażądał wypłaty odszkodowania, w przeciwnym razie wyśle ​​zdjęcia ich rozmów i filmy erotyczne swoim krewnym i partnerom biznesowym.

Następnie panu H. jego „mąż” pokazał nagranie seksu z udziałem jego i drugiej dziewczyny, a także rozmowę wideo między nimi i nagrał intymne wiadomości tekstowe...

„Nigdy nie spotkałem tej dziewczyny, więc jestem pewien, że ten filmik erotyczny to przeróbka w Photoshopie” – zapewnił pan H. Jednak twarz dziewczyny w filmie erotycznym i twarz dziewczyny w jego rozmowie wideo są takie same, wraz ze zdjęciem czułej wiadomości tekstowej, co zmusza pana H. do wielokrotnego przekazywania pieniędzy swojemu „mężowi”, aby ratować swoją reputację.

W wyniku śledztwa Tuoi Tre , pan H. padł ofiarą zorganizowanego oszustwa, którego dokonał według perfekcyjnego scenariusza. W tym oszustwie pan H. dał się dwukrotnie nabrać na deepfake. Pierwszy raz była to rozmowa wideo, a drugi raz – film erotyczny.

Co ciekawe, w tym filmie erotycznym twarz pana H. została tak umiejętnie przeszczepiona, że ​​widzom trudno było uwierzyć, że to film z przeszczepem twarzy. Ekspert ds. sztucznej inteligencji potwierdził Tuoi Tre , że złoczyńcy użyli nowego narzędzia AI, które potrafiło idealnie wszczepiać twarze do filmów... jak prawdziwe.

Istnieje wiele narzędzi AI umożliwiających zamianę twarzy

Obecnie dostępnych jest wiele narzędzi wykorzystujących sztuczną inteligencję, które oferują funkcje takie jak tworzenie dowolnej osoby o pożądanej twarzy i łączenie pożądanej twarzy z ciałem innej osoby.

Wśród nich znajdują się narzędzia z funkcjami służącymi złym celom, na przykład zamieniające zwykłe zdjęcia w zdjęcia nago poprzez „rozebranie” osoby na zdjęciu lub zastępowanie twarzy osoby w filmach twarzą pożądaną...

Większość z tych narzędzi AI jest dostępna w wersji próbnej, ale po zapłaceniu otrzymasz dostęp do pełnego zakresu funkcji i bardzo szybkiego czasu transformacji.

Na przykład w przypadku funkcji „twarz-ciało” użytkownicy muszą jedynie przesłać dwa odpowiadające sobie zdjęcia i poczekać kilka sekund na wyniki.

Albo dzięki funkcji tworzenia zdjęć nago ze zwykłych zdjęć narzędzie AI może zrobić to wyjątkowo szybko, w zaledwie kilkadziesiąt sekund, wprawiając widzów w osłupienie.

Nawet funkcja podmiany twarzy w filmach erotycznych jest obsługiwana przez narzędzie AI bardzo szybko — w przypadku filmów trwających kilka sekund zajmuje to mniej niż minutę.

W rozmowie z Tuoi Tre , pan Nguyen Kim Tho, szef zespołu badawczo-rozwojowego firmy zajmującej się cyberbezpieczeństwem VNetwork, przeanalizował termin deepfake, odnoszący się do fałszywych filmów i obrazów tworzonych przy użyciu sztucznej inteligencji, które mają sprawić, że widzowie będą myśleć, że są prawdziwe.

Technologia deepfake wykorzystuje modele głębokiego uczenia, takie jak sieci neuronowe, w celu analizy danych dotyczących twarzy i głosu danej osoby i tworzenia fałszywych treści, które wyglądają dokładnie jak ta osoba.

„Dzięki zaawansowanym algorytmom, przestępcy potrafią dodać twarz ofiary do sensacyjnych filmów (na przykład filmów „łóżkowych”, pornografii) lub edytować zdjęcia, by stworzyć fałszywe nagie zdjęcia.

Oprogramowanie i aplikacje deepfake cieszą się obecnie dużą popularnością w Internecie, nawet w przypadku aplikacji mobilnych, otwartego kodu źródłowego i darmowych usług online. Dzięki temu każdy może łatwo uzyskać dostęp do narzędzi do tworzenia fałszywych filmów i zdjęć, dlatego ludzie muszą zachować czujność” – powiedział pan Tho.

Trzymaj się z daleka od „czatów o seksie”

Wiele oszustw zaczyna się od nawiązywania znajomości online, a następnie nakłaniania ofiary do „seksualnego czatu” lub wysyłania wrażliwych zdjęć. Dlatego użytkownicy nigdy nie powinni wysyłać prywatnych zdjęć ani filmów osobom, które poznali dopiero w internecie, niezależnie od składanych obietnic czy gróźb.

Zawsze pamiętaj, że każda udostępniana treść (nawet w prywatnych wiadomościach) może zostać nagrana (zrzut ekranu, wideo), a następnie edytowana i wykorzystana przeciwko tobie.

Jeśli korzystasz z połączenia wideo, uważaj na nieznajomych, którzy proszą cię o podanie wrażliwych treści – rozmowa może być nagrywana przez fałszywy ekran lub ktoś może próbować cię nagrać.

Eksperci ds. cyberbezpieczeństwa radzą użytkownikom, aby nigdy nie ufać nikomu tylko w kontekście kontaktu online oraz aby sprawdzać tożsamość i zamiary drugiej osoby przed udostępnieniem jej poufnych informacji.

Poza tym, jeśli otrzymasz SMS-a lub telefon z groźbą opublikowania „gorących” zdjęć w celu szantażu, użytkownicy nie muszą się obawiać ani spieszyć z przelewem pieniędzy.

Zapłacenie nie gwarantuje, że złoczyńcy usuną film; mogą oni mimo wszystko żądać dalszych opłat lub opublikować treść online – twierdzą eksperci.

Zamiast spełniać prośby przestępców, użytkownicy powinni zebrać dowody (wiadomości, numery telefonów, konta kontaktowe, treści zawierające groźby...) i natychmiast zgłosić incydent najbliższej jednostce policji lub zgłosić go za pośrednictwem aplikacji VNeID Ministerstwa Bezpieczeństwa Publicznego, aby uzyskać szybką pomoc.

Jak rozpoznać?

Zdaniem pana Nguyen Kim Tho, odróżnianie prawdziwych obrazów i filmów od deepfake’ów staje się coraz trudniejsze, ale nadal istnieją pewne oznaki identyfikacyjne i narzędzia pomocnicze.

Użytkownicy mogą obserwować ręcznie, ponieważ treści deepfake czasami zawierają nieprawidłowości w obrazie i dźwięku.

Na przykład, obraz złożony może wykazywać szum lub różnice w kolorze między twarzą a ciałem. Fałszywy film może zawierać niezgodności dźwięku i obrazu (ruchy ust niezgodne z mową) lub mimikę twarzy, która wydaje się sztywna i nienaturalna.

Wcześniej w niektórych filmach deepfake postacie nie mrugały lub oświetlenie i cienie na twarzach nie pasowały do ​​kontekstu - co było oznaką, że film został edytowany.

Choć technologia się rozwija (na przykład nowe deepfake'i dodają realistyczne ruchy mrugania oczami), uważni widzowie nadal będą w stanie wychwycić pewne nielogiczne szczegóły na filmach i zdjęciach.

Naukowcy opracowują obecnie wiele algorytmów mających na celu automatyczne wykrywanie śladów deepfake.

Treści generowane przez sztuczną inteligencję często pozostawiają w każdym pikselu charakterystyczny „cyfrowy odcisk palca”, który maszyna może rozpoznać.

Na przykład firma Intel wprowadziła pierwszy detektor deepfake działający w czasie rzeczywistym, który potrafi analizować nagrania wideo i określać, czy postacie na nich występujące są prawdziwymi ludźmi, czy też zostały wygenerowane przez sztuczną inteligencję.

Ponadto niektóre strony internetowe umożliwiają użytkownikom przesyłanie filmów i zdjęć w celu weryfikacji autentyczności obrazów (na przykład Deepware, Sensity AI Tools...). Systemy te są stale aktualizowane, aby nadążać za nowymi technikami deepfake.

Użytkownicy mogą w szczególności sprawdzić źródło wpisu i kontekst, gdy natrafią na drażliwy film lub obraz, ponieważ wiele filmów deepfake rozprzestrzenia się za pośrednictwem fałszywych kont lub botów w sieciach społecznościowych.

Jeśli drażliwa treść na temat danej osoby pochodzi z nieoficjalnego źródła lub anonimowego konta, zachowaj ostrożność co do jej autentyczności. Możesz spróbować skontaktować się bezpośrednio z osobą, której treść dotyczy, aby upewnić się, że rzeczywiście to ona jest autorem.

Ponadto, projekty takie jak promują umieszczanie informacji uwierzytelniających (podpisów cyfrowych) w zdjęciach i filmach już od momentu ich utworzenia, co pomaga odróżnić treści oryginalne od edytowanych. W przyszłości użytkownicy będą mogli używać tych znaków uwierzytelniających do identyfikacji treści godnych zaufania” – powiedział pan Tho.

5 wskazówek, jak się chronić

1. Ogranicz udostępnianie wrażliwych, prywatnych zdjęć i filmów (szczególnie zdjęć nagości, zdjęć rodzinnych i dziecięcych).

2. Ustaw swoje konta w mediach społecznościowych jako prywatne (udostępniaj je tylko zaufanym osobom).

3. Nie podawaj zbyt wielu danych osobowych (imienia i nazwiska, numeru telefonu, adresu itp.) w publicznych mediach społecznościowych.

4. Ustaw silne hasła i włącz dwuetapową weryfikację dla swoich kont, aby zabezpieczyć się przed włamaniem.

5. Regularnie wyszukuj swoje imię i nazwisko oraz wizerunek w Google (lub korzystaj z narzędzi do odwrotnego wyszukiwania obrazów, takich jak Google Image, TinEye), aby sprawdzić, czy któreś z Twoich zdjęć zostało opublikowane bez Twojej zgody, i niezwłocznie poproś o ich usunięcie.

Przeczytaj więcej Powrót do tematów
CNOTA

Source: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Komentarz (0)

No data
No data

W tej samej kategorii

Ho Chi Minh City: Ulica Luong Nhu Hoc z latarniami mieni się kolorami, witając Święto Środka Jesieni
Zachowanie ducha Święta Środka Jesieni poprzez kolory figurek
Odkryj jedyną wioskę w Wietnamie, która znajduje się w pierwszej pięćdziesiątce najpiękniejszych wiosek na świecie
Dlaczego czerwone lampiony z żółtymi gwiazdami cieszą się w tym roku popularnością?

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt