Vietnam.vn - Nền tảng quảng bá Việt Nam

Kdy se ChatGPT může stát zbraní pro podvody

Công LuậnCông Luận23/03/2023


I techničtí experti se mohou chytit do pasti.

Podle australských expertů na kybernetickou bezpečnost hackeři používají ChatGPT k vytváření phishingových e-mailů. Nejnebezpečnějším aspektem však je, že tento typ phishingu je velmi obtížné odhalit i pro technické experty, protože phishingové e-maily používají ChatGPT nebo podobné modely strojového učení, takže je těžké je odlišit od legitimních e-mailů. Skutečným nebezpečím je, že hackeři tyto e-maily používají k tomu, aby uživatele oklamali a přiměli je kliknout na zdánlivě neškodné dokumenty nebo odkazy na webové stránky, a tím šířili malware do zařízení uživatelů.

Kdy se GPT může stát zbraní klamání (obrázek 1)

Britská společnost Darktrace, která se zabývá kybernetickou bezpečností, varovala, že chatovací nástroj ChatGPT s umělou inteligencí mohl zvýšit sofistikovanost e-mailových podvodů a umožnit hackerům provádět cílené útoky s větší pravděpodobností úspěchu za použití sofistikovanějších a komplexnějších podvodných taktik.

V souvislosti s touto problematikou uvedl také Sergej Šykevič, výzkumník ChatGPT ve společnosti Checkpoint Security, že jeho tým začal v prosinci 2021 zkoumat možnost, jak by umělá inteligence mohla pomáhat zločincům. Využíváním modelu umělé inteligence s velkým jazykem mohou zločinci snadno vytvářet phishingové e-maily a malware.

Justin Fier, ředitel společnosti Cyber ​​​​Intelligence & Analytics, která se zabývá kybernetickou bezpečností, tvrdí, že ChatGPT může pomoci škodlivým aktérům vytvořit desítky phishingových e-mailů, které snadno a přesně cílí na konkrétní příjemce pomocí jednoduchých podmínek.

Kvůli tomuto nebezpečí je podle odborníků jediným způsobem, jak mu předejít, aby uživatelé byli opatrnější při otevírání e-mailů, zejména těch s připojenými odkazy nebo spustitelnými soubory.

ChatGPT napomáhá zločincům – pravděpodobný scénář.

„Za 20 let, co jsme formovali vývoj internetového prostoru, jsme si nikdy nedokázali představit, že by internetová aplikace pro spotřebitele, jako je ChatGPT, poroste tak fenomenálním tempem. Pro srovnání, TikToku trvalo 9 měsíců, než dosáhl 100 milionů měsíčních uživatelů, a Instagramu to trvalo asi 2,5 roku,“ tvrdila kdysi studie, která byla svědkem raketově rychlého vzestupu ChatGPT .

Ale v relativně krátké době realita ukázala, že ChatGPT je nejen „úžasný a změní náš svět “, ale jak prohlásil Russell Reeder, generální ředitel společnosti Netrix Global, „tato technologie bude brzy nekontrolovatelná“ a že „je potřeba síla, která se bude věnovat kontrole tohoto rychle se rozvíjejícího trendu“.

Důvod pro „potřebu kontrolovat“ ChatGPT je ve skutečnosti docela jednoduchý. Začátkem února 2023 zveřejnila společnost zabývající se kybernetickou bezpečností Blackberry průzkum mezi 1 500 IT profesionály, ve kterém 74 % uvedlo, že se obává, že ChatGPT napomáhá zločincům, a 71 % se domnívalo, že aplikace OpenAI byla použita k hackerským útokům a podvodům.

Shishir Singh, technický ředitel společnosti Blackberry, dokonce vydal prohlášení, v němž tvrdí: „Existují jasné důkazy o tom, že tento nástroj testují zlomyslní aktéři. Doufáme, že brzy najdeme konkrétnější příklady toho, jak hackeři používají ChatGPT k nekalém účelům.“

Kdy se GPT může stát zbraní klamání (obrázek 2)

V reakci na rostoucí obavy ohledně ChatGPT podniklo mnoho zemí a organizací kroky. Začátkem února 2023 evropský komisař pro průmysl Thierry Breton uvedl, že EU zavede nová nařízení týkající se umělé inteligence, aby řešila obavy z rizik ChatGPT a zajistila, že uživatelé v Evropě mohou technologii umělé inteligence důvěřovat.

Podle pana Bretona rizika, která představuje ChatGPT a další systémy umělé inteligence, zdůraznila naléhavost nových předpisů. A jak zdůraznil komisař Evropské unie pro průmysl, jedna věc, kterou je absolutně nutné udělat, je: „Lidé musí být varováni, že mají co do činění s chatbotem, nikoli s lidskou bytostí.“

Aplikace ChatGPT a umělá inteligence obecně představují nezvratný globální trend. Nejdůležitější je proto, jak optimalizovat výhody a minimalizovat rizika spojená s těmito produkty umělé inteligence. Je zřejmé, že než najdeme zásadní řešení nebezpečí ChatGPT, klíčovou otázkou zůstává přístup, povědomí a jednání uživatelů. Mezi nimi je prvořadá opatrnost a bdělost.

Podle odborníků by jednotliví uživatelé měli být při přijímání informací z ChatGPT opatrní, klást různé otázky a ověřovat informace poskytnuté tímto chatbotem před jejich sdílením nebo použitím, aby se vyhnuli zbytečným právním důsledkům. Kromě toho musí uživatelé dbát na ochranu svých osobních údajů a omezit poskytování pracovních informací a soukromých údajů na aplikace podobné ChatGPT.

Ha Trang



Zdroj

Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejné kategorii

Od stejného autora

Dědictví

Postava

Firmy

Aktuální události

Politický systém

Místní

Produkt

Happy Vietnam
„Ti, kteří se spojují s modrou oblohou“

„Ti, kteří se spojují s modrou oblohou“

Chamská věž

Chamská věž

Láska k strýčkovi Ho nám čistí srdce.

Láska k strýčkovi Ho nám čistí srdce.