Vietnam.vn - Nền tảng quảng bá Việt Nam

Bezpieczeństwo danych w erze AI

Deepfake'i, ataki phishingowe, kradzież informacji i tożsamości cyfrowych... stają się coraz bardziej wyrafinowane i mogą zaatakować w każdej chwili każdego, kto nie posiada umiejętności cyfrowej obrony.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Atak z każdego kąta

Google wprowadził na rynek nowy produkt oparty na sztucznej inteligencji (AI) o nazwie „Gemini Nano Banana”, który nie jest sztuczną inteligencją językową (LLM) zdolną do pisania i rozumowania, lecz sztuczną inteligencją specjalizującą się w edycji zdjęć... Wielu użytkowników jest podekscytowanych tym narzędziem, ale niesie ono ze sobą również wiele szkodliwych skutków.

S4c.jpg
Szkoła Podstawowa Tran Hung Dao w okręgu Cau Ong Lanh w Ho Chi Minh City korzysta z systemu rozpoznawania twarzy, aby rejestrować obecność uczniów i wysyłać powiadomienia do rodziców za pośrednictwem aplikacji. Zdjęcie: HOANG HUNG

„To jak «regres» technologii i etyki sztucznej inteligencji” – powiedział Nguyen Hong Phuc, dyrektor ds. naukowych w Conductify AI. „Gemini Nano Banana potrafi skutecznie edytować zdjęcia. Jednak odcenzurowanie Gemini Nano Banana przez Google, które osłabia bariery i mechanizmy ograniczające, pozwala tej sztucznej inteligencji tworzyć zdjęcia, które wyglądają bardzo podobnie do celebrytów, seksowne, wrażliwe…” – dodał Phuc.

Zdaniem pana Nguyen Hong Phuc, dzięki tej funkcji Gemini Nano Banana staje się narzędziem do tworzenia fałszywych obrazów, tak realistycznych, że nawet eksperci od sztucznej inteligencji nie potrafią ich odróżnić. Wiąże się to z nowymi zagrożeniami związanymi z oszustwami i cyberbezpieczeństwem, np. tworzeniem zdjęć z politykami i znanymi politykami w celu rozpowszechniania fałszywych informacji. Nawet zdjęcia osób fizycznych są edytowane przez sztuczną inteligencję i oczerniane w mediach społecznościowych...

Ponadto, wraz z dziesiątkami innych narzędzi do edycji zdjęć opartych na sztucznej inteligencji, które robią furorę w internecie, oszustwa deepfake nie mają końca. Statystyki organizacji bezpieczeństwa pokazują, że technologia deepfake tworzy kampanie oszustw wymierzone w osoby o wysokiej pozycji społecznej, zwłaszcza liderów biznesu. W 2024 roku odnotowano 140 000–150 000 przypadków na całym świecie, z czego 75% dotyczyło prezesów i kadry kierowniczej wyższego szczebla… Deepfake może zwiększyć globalne straty gospodarcze o 32%, czyli około 40 miliardów dolarów rocznie do 2027 roku.

Firma AI Anthropic Company wykryła niedawno i zapobiegła kampanii cyberataków przeprowadzonej przez zagranicznych hakerów, w której po raz pierwszy odnotowano wykorzystanie sztucznej inteligencji do koordynowania zautomatyzowanych działań. Hakerzy wykorzystali systemy sztucznej inteligencji do planowania, kierowania i wdrażania działań włamaniowych – jest to „niepokojący” trend, który niesie ze sobą ryzyko zwiększenia skali i szybkości kampanii cyberataków…

Pan Ngo Minh Hieu, dyrektor organizacji ds. zwalczania oszustw w Narodowym Stowarzyszeniu Cyberbezpieczeństwa, powiedział, że narzędzie zintegrowane ze sztuczną inteligencją ma szybkość oszustw około 20 razy większą niż w przypadku prawdziwych ludzi. Badani przekazują scenariusz oszustwa sztucznej inteligencji do analizy, a system natychmiast automatycznie nawiązuje kontakt z ofiarami. Na podstawie danych początkowych sztuczka może rozpoznać, czego chce ofiara i nawiązać z nią kontakt w czasie rzeczywistym. Najbardziej wyrafinowaną sztuczką jest atak „Man-in-the-Middle”, który polega na tym, że gdy użytkownik dokonuje uwierzytelnienia wideo, takiego jak odwrócenie twarzy lub odczytanie poleceń, haker staje pośrodku, aby zakłócić przesyłane dane. W tym czasie cyberprzestępcy wstawiają spreparowane filmy deepfake, zastępując prawdziwy strumień danych użytkownika, aby ominąć uwierzytelnianie… Dzięki powyższej metodzie systemy bezpieczeństwa banków i instytucji finansowych również są narażone na oszustwa.

Lepsze zarządzanie danymi

Wraz ze wzrostem popularności sztucznej inteligencji (AI) znacząco wzrastają również zagrożenia dla bezpieczeństwa i prywatności. Dane przechowywane i przetwarzane na zdalnych serwerach staną się atrakcyjnym celem dla hakerów i organizacji cyberprzestępczych. Według danych National Cyber ​​Security Association, w samym drugim kwartale 2025 roku liczba cyberataków z wykorzystaniem AI wzrosła o 62%, powodując globalne straty sięgające 18 miliardów dolarów…

Eksperci twierdzą, że ochrona danych jest kluczowa. Jednak gromadzenie i sprzedaż danych nadal odbywa się jawnie na wielu platformach „czarnego rynku”, za zaledwie 20 dolarów miesięcznie. Cyberprzestępcy mogą korzystać z narzędzi, które działają podobnie do modeli językowych, ale są dostosowane do celów przestępczych. Narzędzia te potrafią tworzyć złośliwy kod, a nawet omijać oprogramowanie antywirusowe.

W Wietnamie dekret nr 13/2023/ND-CP (obowiązujący od 17 kwietnia 2023 r.) reguluje ochronę danych osobowych. Ponadto, ustawa o ochronie danych osobowych ma wejść w życie 1 stycznia 2026 r., wprowadzając silniejszy mechanizm prawny reagowania na ryzyko wycieku danych osobowych i ich nadużyć. Jednak, według Narodowego Stowarzyszenia Cyberbezpieczeństwa, skuteczność egzekwowania prawa nadal wymaga wzmocnienia w trzech filarach: podniesienia świadomości społecznej, zwiększenia odpowiedzialności biznesu oraz poprawy zdolności zarządzania agencjami. Oprócz środków technicznych, każda osoba musi rozwijać umiejętność rozpoznawania nietypowych i podejrzanych sygnałów oraz proaktywnie chronić się przed niebezpiecznymi interakcjami cyfrowymi…

Firma ochroniarska Kaspersky ostrzega przed nadużyciami Dark AI (termin ten opisuje wdrażanie dużych modeli językowych (LLM), które działają poza standardowymi mechanizmami bezpieczeństwa, często umożliwiając oszustwa, manipulacje, cyberataki lub nadużycia danych). Organizacje i osoby prywatne muszą przygotować się na coraz bardziej wyrafinowane i trudne do wykrycia cyberataki ze względu na rosnącą popularność Dark AI w regionie Azji i Pacyfiku.

Siergiej Łożkin, szef Globalnego Zespołu Badań i Analiz (GReAT) odpowiedzialnego za region Bliskiego Wschodu, Turcji, Afryki oraz Azji i Pacyfiku w firmie Kaspersky, dodał, że jednym z przejawów nadużyć sztucznej inteligencji jest obecnie pojawienie się modeli Black Hat GPT. Są to modele sztucznej inteligencji, które zostały specjalnie opracowane lub zmodyfikowane w celu realizacji nieetycznych i nielegalnych celów, takich jak tworzenie złośliwego oprogramowania, tworzenie inteligentnych i przekonujących wiadomości phishingowych w celu przeprowadzania ataków na dużą skalę, tworzenie głosów i filmów deepfake, a nawet wspieranie symulowanych ataków...

Eksperci firmy Kaspersky zalecają osobom prywatnym i firmom korzystanie z rozwiązań bezpieczeństwa nowej generacji w celu wykrywania złośliwego oprogramowania generowanego przez sztuczną inteligencję i uznania ochrony danych za ważny cel. Firmy muszą stosować narzędzia do monitorowania w czasie rzeczywistym w celu monitorowania ataków wykorzystujących sztuczną inteligencję; wzmocnić kontrolę dostępu i szkolić personel, aby ograniczyć zjawisko sztucznej inteligencji w ukryciu (AI in the dark), a także ryzyko wycieku danych; utworzyć centrum operacji cyberbezpieczeństwa w celu monitorowania zagrożeń i szybkiego reagowania na incydenty…

Źródło: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Czwarty raz widzę górę Ba Den wyraźnie i rzadko z Ho Chi Minh City
Rozkoszuj się pięknymi widokami Wietnamu w łodzi MV Muc Ha Vo Nhan należącej do Soobina
Kawiarnie z wczesnymi dekoracjami świątecznymi zwiększają sprzedaż, przyciągając wielu młodych ludzi
Co jest szczególnego w wyspie położonej niedaleko granicy morskiej z Chinami?

Od tego samego autora

Dziedzictwo

Postać

Biznes

Podziwianie strojów narodowych 80 piękności biorących udział w konkursie Miss International 2025 w Japonii

Aktualne wydarzenia

System polityczny

Lokalny

Produkt