Vietnam.vn - Nền tảng quảng bá Việt Nam

Когда ChatGPT может стать инструментом мошенничества

Công LuậnCông Luận23/03/2023


Даже эксперты в области технологий могут попасть в ловушки.

По данным австралийских экспертов по кибербезопасности, хакеры используют ChatGPT для создания фишинговых писем. Однако наиболее опасным аспектом является то, что этот тип фишинга очень сложно обнаружить даже техническим специалистам, поскольку фишинговые письма используют ChatGPT или аналогичные модели машинного обучения, что затрудняет их отличие от легитимных писем. Реальная опасность заключается в том, что хакеры используют эти письма, чтобы обманом заставить пользователей переходить по ссылкам на, казалось бы, безобидные документы или веб-сайты, тем самым распространяя вредоносное ПО на устройства пользователей.

Когда ГПТ может стать оружием обмана (Рисунок 1)

Ранее, в начале марта 2023 года, британская компания по кибербезопасности Darktrace предупредила, что инструмент для обмена сообщениями на основе искусственного интеллекта ChatGPT, возможно, повысил изощренность мошеннических схем с использованием электронной почты, позволяя хакерам проводить целенаправленные атаки с большей вероятностью успеха, используя более сложные и изощренные обманные тактики.

В связи с этим Сергей Шикевич, исследователь ChatGPT из Checkpoint Security, также сообщил, что его команда начала изучать возможность использования ИИ в качестве вспомогательного средства для преступников в декабре 2021 года. Используя обширную языковую модель искусственного интеллекта, преступники могут легко создавать фишинговые электронные письма и вредоносное ПО.

Джастин Фиер, директор компании по кибербезопасности Cyber ​​​​Intelligence & Analytics, утверждает, что ChatGPT может помочь злоумышленникам создавать десятки фишинговых писем, легко и точно нацеленных на конкретных получателей с помощью простых условий.

По мнению экспертов, из-за этой опасности единственный способ предотвратить ее — это проявлять большую осторожность при открытии электронных писем, особенно тех, которые содержат прикрепленные ссылки или исполняемые файлы.

Содействие и пособничество ChatGPT преступникам — вероятный сценарий.

«За 20 лет формирования развития интернет-пространства мы и представить себе не могли, что такое потребительское интернет-приложение, как ChatGPT, будет расти с такой феноменальной скоростью. Для сравнения, TikTok потребовалось 9 месяцев, чтобы достичь 100 миллионов ежемесячных пользователей, а Instagram — около 2,5 лет», — утверждалось в одном исследовании, посвященном стремительному взлету ChatGPT .

Однако за сравнительно короткое время стало ясно, что ChatGPT не только «удивителен и изменит наш мир », но, как заявил Рассел Ридер, генеральный директор Netrix Global, «эта технология скоро станет неуправляемой», и что «необходима сила, которая будет заниматься контролем этой быстро развивающейся тенденции».

Причина «необходимости контролировать» ChatGPT на самом деле довольно проста. В начале февраля 2023 года компания Blackberry, занимающаяся кибербезопасностью, опубликовала результаты опроса 1500 IT-специалистов, в котором 74% выразили обеспокоенность по поводу того, что ChatGPT помогает преступникам, а 71% считали, что приложение OpenAI использовалось для хакерских атак и мошенничества.

Шишир Сингх, технический директор BlackBerry, даже выступил с заявлением, в котором утверждал: «Есть явные доказательства того, что злоумышленники тестируют этот инструмент. Мы надеемся вскоре найти более конкретные примеры того, как хакеры используют ChatGPT в противоправных целях».

Когда GPT может стать оружием обмана (Рисунок 2)

В ответ на растущую обеспокоенность по поводу ChatGPT многие страны и организации предприняли соответствующие действия. В начале февраля 2023 года комиссар Европейского союза по промышленности Тьерри Бретон заявил, что ЕС введет новые правила, касающиеся ИИ, чтобы устранить опасения по поводу рисков, связанных с ChatGPT, и обеспечить доверие пользователей в Европе к технологиям ИИ.

По словам г-на Бретона, риски, связанные с ChatGPT и другими системами искусственного интеллекта, подчеркнули необходимость принятия новых правил. И, как подчеркнул комиссар Европейского союза по промышленности, абсолютно необходимо сделать следующее: «Людей необходимо предупредить, что они имеют дело с чат-ботом, а не с человеком».

Приложение ChatGPT, как и искусственный интеллект в целом, представляет собой необратимую глобальную тенденцию. Поэтому важнейшее — это оптимизация преимуществ и минимизация рисков, связанных с этими продуктами искусственного интеллекта. Очевидно, что прежде чем мы сможем найти фундаментальные решения опасностей, связанных с ChatGPT, ключевым вопросом остается отношение, осведомленность и действия пользователей. Среди них первостепенное значение имеют осторожность и бдительность.

По мнению экспертов, пользователям следует проявлять осторожность при получении информации от ChatGPT, задавать различные вопросы и проверять предоставленную этим чат-ботом информацию, прежде чем делиться ею или использовать ее, чтобы избежать ненужных юридических последствий. Кроме того, пользователям необходимо бдительно защищать свою личную информацию, ограничивая предоставление информации, связанной с работой, и личных данных приложениям, подобным ChatGPT.

Ха Чанг



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Вера в поклонение королю Хунгу

Вера в поклонение королю Хунгу

патриотическая молодежь

патриотическая молодежь

Вьетнам

Вьетнам