Potencjał niesie ze sobą ryzyko
Niezaprzeczalnym jest fakt, że sztuczna inteligencja (AI) coraz częściej okazuje się potężnym narzędziem wspierającym pracowników i ułatwiającym życie. Jednak te produkty technologiczne są niczym „miecz obosieczny”, gdy są wykorzystywane przez cyberprzestępców do popełniania oszustw i ataków w cyberprzestrzeni.
W biuletynach ostrzegawczych Departamentu Bezpieczeństwa Informacji ( Ministerstwa Informacji i Komunikacji ) lub Stowarzyszenia Cyberbezpieczeństwa odnotowano wiele przypadków oszustw z wykorzystaniem technologii sztucznej inteligencji. Na przykład, pani Nguyen Thanh T – pracownica biurowa w Hanoi – rozmawiała ze znajomą przez Facebook Messenger. Przyjaciel pożegnał się i zakończył rozmowę, ale nagle wrócił do pisania SMS-ów, prosząc o pożyczkę i przelew na konto bankowe. Chociaż nazwa konta była zgodna z imieniem i nazwiskiem jej znajomej, pani T. nabrała podejrzeń i poprosiła o rozmowę wideo w celu weryfikacji. Znajomy natychmiast się zgodził, ale połączenie trwało tylko kilka sekund z powodu „przerw w działaniu sieci”.
Widząc twarz swojej przyjaciółki w rozmowie wideo i głos, który również był poprawny, pani T. przelała pieniądze. Jednak dopiero po pomyślnym przelaniu pieniędzy zdała sobie sprawę, że wpadła w pułapkę hakerów.
Nie tylko pani T., ale wiele innych ofiar, przyjaciół i krewnych, również padło ofiarą oszustwa w ten sam sposób. Kwota, jaką przestępcy wyłudzili, podszywając się pod Deep Fake za pomocą narzędzi i głosów, sięgnęła dziesiątek milionów dongów.
Innym typowym przykładem wykorzystania sztucznej inteligencji do przywłaszczania aktywów jest przypadek pana NTH. Korzystając z telefonu z Androidem, oszuści zastawili pułapkę z instrukcją zainstalowania linku do złośliwego oprogramowania. Stamtąd przejęli kontrolę nad telefonem i kontami bankowymi, aby przelać pieniądze osobie trzeciej. Co więcej, złośliwe oprogramowanie automatycznie kontaktowało się z dostępnymi danymi kontaktowymi i wysyłało automatyczne wiadomości z prośbą o przelewy pieniężne.
Pan NTH powiedział, że oszust podszywający się pod „ policjanta ” zadzwonił pod jego numer telefonu i poprosił o weryfikację danych osobowych. Ponieważ był starszy, nieobeznany z technologią i naiwny, ofiara przekazała swój telefon osobie trzeciej, aby ta poprosiła go o wykonanie instrukcji oszusta, pobierając i instalując na swoim telefonie złośliwą aplikację „DichVuCong.apk”.
Pan Tran Nguyen Chung, Kierownik Departamentu Bezpieczeństwa Systemów Informacyjnych (Departament Bezpieczeństwa Informacji), powiedział: „Wraz z rozwojem technologii sztucznej inteligencji (AI), wykrywanie i odróżnianie prawdziwych treści od fałszywych w cyberprzestrzeni stanie się trudniejsze, a każdy może stać się celem, ofiarą cyberataków przeprowadzanych przez przestępców wykorzystujących technologię AI. Jednak to, czy dana osoba stanie się ofiarą, zależy od tego, czy będzie dysponować niezbędną wiedzą i informacjami”.
Oszustwa związane z technologią AI występują nie tylko w Wietnamie, ale także w wielu krajach na całym świecie. Obecnie agencje, organizacje i duże korporacje technologiczne współpracują ze sobą, aby znaleźć środki i rozwiązania techniczne umożliwiające ich wykrywanie i zapobieganie im u źródła.
W obecnym okresie ważnym działaniem jest promowanie propagandy, podnoszenie świadomości społeczeństwa na temat metod, sztuczek i sposobów rozpoznawania i radzenia sobie z tą wyrafinowaną formą fałszerstwa, aby pomóc ograniczyć wpływ deepfake'ów na aktywność w cyberprzestrzeni. Należy aktywnie publikować szeroko zakrojone ostrzeżenia w mediach masowych w przypadku pojawienia się nowych zjawisk i form oszustw.
„W przypadku otrzymania telefonów z próbą szantażu zawierających poufne zdjęcia lub filmy, ludzie muszą zachować spokój, zweryfikować i dokładnie zbadać pochodzenie tych zdjęć i filmów” – powiedział Tran Nguyen Trung.
Według raportu badawczego „Identyfikacja zagrożeń dla globalnej gospodarki w 2024 roku” opracowanego przez Uniwersytet Ekonomiczny (UEB) działający przy Narodowym Uniwersytecie Wietnamu w Hanoi, jednym z zagrożeń wpływających na globalną gospodarkę jest ryzyko w sektorze technologicznym. W raporcie stwierdzono, że w kontekście szybkiego rozwoju sztucznej inteligencji (AI), polityka zarządzania nie nadąża za jej rozwojem. Dezinformacja generowana przez AI, zwłaszcza w roku, w którym na świecie odbywa się wiele wyborów, stwarza wiele problemów dla bezpieczeństwa, polityki, obronności i pokoju na całym świecie.
W rozmowie z reporterami gazety Tin Tuc, wiceminister nauki i technologii Nguyen Hoang Giang powiedział: „Premier wydał decyzję nr 127/2021 w sprawie krajowej strategii badań, rozwoju i zastosowania sztucznej inteligencji do 2030 r. Aby ją wdrożyć, Ministerstwo Nauki i Technologii, a także inne ministerstwa i oddziały wdrażały ją drastycznie i synchronicznie, takie jak Ministerstwo Sprawiedliwości badające aspekty prawne. Ministerstwo Informacji i Komunikacji badające technologie cyfrowe. Ministerstwo Nauki i Technologii również wspierało, badało i rozwijało Przemysł 4.0; Badał i stosował rozwój technologii informatycznych, służący rozwojowi cyfrowych i inteligentnych miast. Jednak wraz z szybkim i silnym rozwojem pojawiły się również negatywne aspekty i zagrożenia związane ze sztuczną inteligencją, gdy jest ona wykorzystywana jako narzędzie cyberprzestępców w celu oszustw, podszywania się, gróźb, przywłaszczania majątku itp.
Obecnie Ministerstwo Nauki i Technologii oraz Rząd, oprócz badań, aktywnie tworzą ramy prawne, korzystając z doświadczeń innych rozwiniętych krajów, aby dziedzina sztucznej inteligencji w Wietnamie promowała swój potencjał, wspierała rozwój, a także ściśle kontrolowała, gwarantowała etykę i humanitaryzm w dziedzinie sztucznej inteligencji.
Szybki rozwój narzędzi AI wywołał wiele problemów dotyczących praw człowieka, etyki, prywatności, bezpieczeństwa informacji i odpowiedzialności prawnej. W porównaniu z resztą świata, Wietnam wciąż znajduje się na wczesnym etapie rozwoju AI. W związku z tym istnieje potrzeba opracowania konkretnych przepisów i polityk dotyczących AI, dostosowanych do wszystkich aspektów życia, gospodarki i społeczeństwa Wietnamu.
Pilnie wydaj ramy prawne
Zarządzanie ciemną stroną sztucznej inteligencji to również temat dyskutowany w wielu krajach. Parlament Europejski zatwierdził pierwszy na świecie zbiór podstawowych zasad regulujących kwestie sztucznej inteligencji. Wielu ekspertów w dziedzinie technologii uważa, że ten zbiór przepisów pomoże UE osiągnąć oba cele: zminimalizować negatywny wpływ rozwoju technologicznego na użytkowników, a także nadrobić zaległości w stosunku do dominującej pozycji kluczowych konkurentów na rynku.
Niedługo później Zgromadzenie Ogólne ONZ przyjęło rezolucję w sprawie sztucznej inteligencji (AI), wyrażając globalne poparcie dla międzynarodowych wysiłków mających na celu zagwarantowanie, że ta nowa technologia przyniesie korzyści wszystkim krajom, będzie zgodna z prawami człowieka oraz będzie „bezpieczna, pewna i godna zaufania”.
Pan Vu Ngoc Son, dyrektor techniczny spółki akcyjnej National Cyber Security Technology Joint Stock Company, powiedział: „Sztuczna inteligencja to technologia służąca ludzkim interesom, wspierająca automatyzację wielu różnych etapów działania. To potężne narzędzie, wykorzystywane do wielu różnych celów, takich jak zapewnianie usług pytań i odpowiedzi, produkcja oprogramowania itp. Jednak sztuczna inteligencja ma również negatywne strony, gdy wpada w ręce osób oszukujących, których celem jest tworzenie fałszywych treści i złośliwych kodów do ataków na użytkowników. W związku z tym sztuczna inteligencja nie jest narzędziem przeznaczonym wyłącznie do tworzenia produktów lub popełniania przestępstw, ale istotną kwestią jest to, „jak ją wykorzystać”.
„Uważam, że sankcje i korytarze prawne nie nadążają za tempem rozwoju sztucznej inteligencji. Będziemy potrzebować czasu na opracowanie i wdrożenie polityk ograniczających ryzyko związane ze sztuczną inteligencją wykorzystywaną do złych celów, naruszającą prawa człowieka, a także bezpieczeństwo, porządek i bezpieczeństwo socjalne” – powiedział Vu Ngoc Son.
Dr Dang Minh Tuan, dyrektor Instytutu CMC ATI, powiedział: „Z jednej strony musimy nadal badać i rozwijać nowe technologie, aktualizować i badać metody wykorzystywania sztucznej inteligencji do złych celów. Z drugiej strony musimy również promować uczciwość w nauce i pracy. W związku z tym konieczne są modyfikacje i inwestycje w treści oraz konkretne polityki dotyczące tego narzędzia w Wietnamie. W szczególności możemy również wykorzystywać narzędzia sztucznej inteligencji do wykrywania złośliwych treści i kodów. Sztuczna inteligencja jest jak „miecz obosieczny”, tworząc ciągły, ciągły proces oddziaływania, stale ulepszany, aby ostatecznie służyć interesom człowieka”.
Eksperci twierdzą, że konieczne jest odpowiedzialne kontrolowanie rozwoju produktów high-tech, ponieważ brak możliwości regulacji i opanowania technologii doprowadzi do nieprzewidywalnych konsekwencji, powodując straty dla gospodarki i wpływając zarówno na każdą jednostkę, jak i na całe społeczeństwo.
Wprowadzenie konkretnych i przejrzystych przepisów nie tylko pomoże zapobiegać zagrożeniom wynikającym ze sztucznej inteligencji i je minimalizować, ale także pomoże Wietnamowi przyciągnąć uwagę i inwestycje wiodących światowych przedsiębiorstw technologicznych, promując rozwój krajowego sektora technologii informatycznych i sztucznej inteligencji.
Artykuł końcowy: Równoległy rozwój i kontrola sztucznej inteligencji
Source: https://doanhnghiepvn.vn/cong-nghe/ai-dang-dinh-hinh-tuong-lai-bai-2-nhung-thach-thuc-di-kem/20240614100957238
Komentarz (0)