Vietnam.vn - Nền tảng quảng bá Việt Nam

Коли ChatGPT може стати зброєю для шахрайства

Công LuậnCông Luận23/03/2023


Навіть технічні експерти можуть потрапити в пастки.

За словами австралійських експертів з кібербезпеки, хакери використовують ChatGPT для створення фішингових електронних листів. Однак найнебезпечнішим аспектом є те, що цей тип фішингу дуже важко виявити навіть технічним експертам, оскільки фішингові електронні листи використовують ChatGPT або аналогічні моделі машинного навчання, що ускладнює їх відмінність від легітимних листів. Реальна небезпека полягає в тому, що хакери використовують ці електронні листи, щоб обманом змусити користувачів натискати на, здавалося б, нешкідливі документи або посилання на веб-сайти, тим самим поширюючи шкідливе програмне забезпечення на пристрої користувачів.

Коли GPT може стати зброєю обману (Рисунок 1)

Раніше, на початку березня 2023 року, британська компанія з кібербезпеки Darktrace попередила, що інструмент чату ChatGPT на базі штучного інтелекту, можливо, підвищив складність електронних шахрайств, дозволяючи хакерам проводити цілеспрямовані атаки з більшою ймовірністю успіху, використовуючи більш витончені та складні обманні тактики.

Також стосовно цього питання, Сергій Шикевич, дослідник ChatGPT у Checkpoint Security, сказав, що його команда почала досліджувати можливість допомоги ШІ злочинцям у грудні 2021 року. Використовуючи модель штучного інтелекту з великою мовою, злочинці можуть легко створювати фішингові електронні листи та шкідливе програмне забезпечення.

Джастін Фієр, директор компанії з кібербезпеки Cyber ​​​​Intelligence & Analytics, стверджує, що ChatGPT може допомогти зловмисникам створювати десятки фішингових електронних листів, легко та точно орієнтуючись на конкретних одержувачів за допомогою простих умов.

Через цю небезпеку, єдиний спосіб запобігти їй, на думку експертів, — це бути обережнішими під час відкриття електронних листів, особливо тих, що містять посилання або виконувані файли.

Пособництво та підбурювання злочинців через ChatGPT – ймовірний сценарій.

«За 20 років формування розвитку інтернет-простору ми ніколи не могли уявити, що такий споживчий інтернет-додаток, як ChatGPT, зростатиме з такою феноменальною швидкістю. Для порівняння, TikTok знадобилося 9 місяців, щоб досягти 100 мільйонів користувачів щомісяця, а Instagram – близько 2,5 років», – якось стверджувалося в дослідженні, яке свідчило про стрімке зростання ChatGPT .

Але за відносно короткий час реальність показала, що ChatGPT не лише «дивовижний і змінить наш світ », але й, як заявив Рассел Рідер, генеральний директор Netrix Global, «ця технологія незабаром стане неконтрольованою», і що «потрібна сила, яка б займалася контролем над цією стрімко розвиваючоюся тенденцією».

Причина «необхідності контролювати» ChatGPT насправді досить проста. На початку лютого 2023 року компанія з кібербезпеки Blackberry опублікувала опитування 1500 ІТ-фахівців, у якому 74% заявили, що стурбовані тим, що ChatGPT допомагає злочинцям, а 71% вважали, що додаток OpenAI використовувався для злому та шахрайства.

Шишир Сінгх, головний технічний директор Blackberry, навіть опублікував заяву, в якій стверджував: «Є чіткі докази того, що зловмисники тестують цей інструмент. Ми сподіваємося незабаром знайти більш конкретні приклади того, як хакери використовують ChatGPT у зловмисних цілях».

Коли GPT може стати зброєю обману (Рисунок 2)

У відповідь на зростаюче занепокоєння щодо ChatGPT багато країн та організацій вжили заходів. На початку лютого 2023 року комісар Європейського Союзу з питань промисловості Тьєррі Бретон заявив, що ЄС запровадить нові правила, пов'язані зі штучним інтелектом, щоб вирішити проблеми ризиків ChatGPT та гарантувати, що користувачі в Європі можуть довіряти технології штучного інтелекту.

За словами пана Бретона, ризики, що виникають через ChatGPT та інші системи штучного інтелекту, підкреслили терміновість нових правил. І, як наголосив комісар Європейського Союзу з питань промисловості, одне, що абсолютно необхідно зробити, це: «Людей потрібно попередити, що вони мають справу з чат-ботом, а не з людиною».

Додаток ChatGPT, і ШІ загалом, є незворотною глобальною тенденцією. Тому найважливіше — як оптимізувати переваги та мінімізувати ризики, пов'язані з цими продуктами штучного інтелекту. Зрозуміло, що перш ніж ми зможемо знайти фундаментальні рішення для небезпек ChatGPT, основним питанням залишається ставлення, обізнаність та дії користувачів. Серед них обережність та пильність є першочерговими.

За словами експертів, окремим користувачам слід бути обережними під час отримання інформації від ChatGPT, ставити різні типи запитань та перевіряти інформацію, надану цим чат-ботом, перш ніж ділитися нею або використовувати її, щоб уникнути непотрібних юридичних наслідків. Крім того, користувачам необхідно бути пильними у захисті своєї особистої інформації, обмежуючи надання робочої інформації та приватних даних лише програмами, подібними до ChatGPT.

Хачанг



Джерело

Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій категорії

Того ж автора

Спадщина

Фігура

Бізнеси

Поточні події

Політична система

Місцевий

Продукт

Happy Vietnam
Віра в поклоніння королю Хунгу

Віра в поклоніння королю Хунгу

Святкування перемоги

Святкування перемоги

Музей

Музей