Навіть технічні експерти можуть потрапити в пастки.
За словами австралійських експертів з кібербезпеки, хакери використовують ChatGPT для створення фішингових електронних листів. Однак найнебезпечнішим аспектом є те, що цей тип фішингу дуже важко виявити навіть технічним експертам, оскільки фішингові електронні листи використовують ChatGPT або аналогічні моделі машинного навчання, що ускладнює їх відмінність від легітимних листів. Реальна небезпека полягає в тому, що хакери використовують ці електронні листи, щоб обманом змусити користувачів натискати на, здавалося б, нешкідливі документи або посилання на веб-сайти, тим самим поширюючи шкідливе програмне забезпечення на пристрої користувачів.

Раніше, на початку березня 2023 року, британська компанія з кібербезпеки Darktrace попередила, що інструмент чату ChatGPT на базі штучного інтелекту, можливо, підвищив складність електронних шахрайств, дозволяючи хакерам проводити цілеспрямовані атаки з більшою ймовірністю успіху, використовуючи більш витончені та складні обманні тактики.
Також стосовно цього питання, Сергій Шикевич, дослідник ChatGPT у Checkpoint Security, сказав, що його команда почала досліджувати можливість допомоги ШІ злочинцям у грудні 2021 року. Використовуючи модель штучного інтелекту з великою мовою, злочинці можуть легко створювати фішингові електронні листи та шкідливе програмне забезпечення.
Джастін Фієр, директор компанії з кібербезпеки Cyber Intelligence & Analytics, стверджує, що ChatGPT може допомогти зловмисникам створювати десятки фішингових електронних листів, легко та точно орієнтуючись на конкретних одержувачів за допомогою простих умов.
Через цю небезпеку, єдиний спосіб запобігти їй, на думку експертів, — це бути обережнішими під час відкриття електронних листів, особливо тих, що містять посилання або виконувані файли.
Пособництво та підбурювання злочинців через ChatGPT – ймовірний сценарій.
«За 20 років формування розвитку інтернет-простору ми ніколи не могли уявити, що такий споживчий інтернет-додаток, як ChatGPT, зростатиме з такою феноменальною швидкістю. Для порівняння, TikTok знадобилося 9 місяців, щоб досягти 100 мільйонів користувачів щомісяця, а Instagram – близько 2,5 років», – якось стверджувалося в дослідженні, яке свідчило про стрімке зростання ChatGPT .
Але за відносно короткий час реальність показала, що ChatGPT не лише «дивовижний і змінить наш світ », але й, як заявив Рассел Рідер, генеральний директор Netrix Global, «ця технологія незабаром стане неконтрольованою», і що «потрібна сила, яка б займалася контролем над цією стрімко розвиваючоюся тенденцією».
Причина «необхідності контролювати» ChatGPT насправді досить проста. На початку лютого 2023 року компанія з кібербезпеки Blackberry опублікувала опитування 1500 ІТ-фахівців, у якому 74% заявили, що стурбовані тим, що ChatGPT допомагає злочинцям, а 71% вважали, що додаток OpenAI використовувався для злому та шахрайства.
Шишир Сінгх, головний технічний директор Blackberry, навіть опублікував заяву, в якій стверджував: «Є чіткі докази того, що зловмисники тестують цей інструмент. Ми сподіваємося незабаром знайти більш конкретні приклади того, як хакери використовують ChatGPT у зловмисних цілях».

У відповідь на зростаюче занепокоєння щодо ChatGPT багато країн та організацій вжили заходів. На початку лютого 2023 року комісар Європейського Союзу з питань промисловості Тьєррі Бретон заявив, що ЄС запровадить нові правила, пов'язані зі штучним інтелектом, щоб вирішити проблеми ризиків ChatGPT та гарантувати, що користувачі в Європі можуть довіряти технології штучного інтелекту.
За словами пана Бретона, ризики, що виникають через ChatGPT та інші системи штучного інтелекту, підкреслили терміновість нових правил. І, як наголосив комісар Європейського Союзу з питань промисловості, одне, що абсолютно необхідно зробити, це: «Людей потрібно попередити, що вони мають справу з чат-ботом, а не з людиною».
Додаток ChatGPT, і ШІ загалом, є незворотною глобальною тенденцією. Тому найважливіше — як оптимізувати переваги та мінімізувати ризики, пов'язані з цими продуктами штучного інтелекту. Зрозуміло, що перш ніж ми зможемо знайти фундаментальні рішення для небезпек ChatGPT, основним питанням залишається ставлення, обізнаність та дії користувачів. Серед них обережність та пильність є першочерговими.
За словами експертів, окремим користувачам слід бути обережними під час отримання інформації від ChatGPT, ставити різні типи запитань та перевіряти інформацію, надану цим чат-ботом, перш ніж ділитися нею або використовувати її, щоб уникнути непотрібних юридичних наслідків. Крім того, користувачам необхідно бути пильними у захисті своєї особистої інформації, обмежуючи надання робочої інформації та приватних даних лише програмами, подібними до ChatGPT.
Хачанг
Джерело






Коментар (0)