Vietnam.vn - Nền tảng quảng bá Việt Nam

Предупреждение о рисках безопасности при интеграции чат-ботов на основе искусственного интеллекта, о которых компаниям необходимо знать

Báo Quốc TếBáo Quốc Tế10/09/2023

Компаниям следует проявлять осторожность при интеграции инструментов ИИ в свою деятельность, поскольку хакеры могут легко обойти чат-ботов ИИ и выполнить вредоносные задачи.
Национальное агентство по кибербезопасности Великобритании предупредило организации, которые интегрируют чат-боты на основе искусственного интеллекта в свои бизнес-операции, поскольку все больше исследований показывают, что инструменты на основе искусственного интеллекта можно легко манипулировать для выполнения вредоносных задач.

В сообщении в блоге от 30 августа Центр кибербезопасности Великобритании (NCSC) заявил, что эксперты до сих пор не до конца понимают потенциальные проблемы кибербезопасности, связанные с алгоритмами, которые могут взаимодействовать «как люди», называемыми большими языковыми моделями (LLM).

NCSC предупреждает, что это может быть рискованно, особенно когда подобные модели встроены в бизнес-процессы. Учёные и исследователи также недавно нашли способы «обмануть» ИИ, давая ему ложные команды или обходя встроенные защитные механизмы.

Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng.
Инструменты генеративного искусственного интеллекта используются в качестве чат-ботов, которые, как ожидается, заменят не только интернет-поиск, но и звонки в службу поддержки клиентов и отдел продаж.

Например, чат-бот на основе искусственного интеллекта, развернутый в банке, может быть обманут и заставить совершать несанкционированные транзакции, если хакеры установят правильные «инструкции».

Итак, говоря о последних бета-версиях ИИ, NCSC предупреждает: «Организации, разрабатывающие сервисы на основе LLM, должны быть столь же осторожны, как если бы они использовали новый продукт в стадии бета-тестирования».

Недавний опрос Reuters/Ipsos показал, что многие сотрудники компаний используют такие инструменты, как ChatGPT, для выполнения основных задач, таких как составление электронных писем, составление резюме документов или сбор первичных исследовательских данных.

Из них только около 10% сотрудников заявили, что их начальство прямо запретило использование внешних инструментов ИИ, а 25% не знали, разрешает ли компания использование этой технологии.

По словам Оселоки Обиоры, технологического директора охранной компании RiverSafe, гонка за внедрением ИИ в бизнес-процессы будет иметь «катастрофические последствия», если руководители компаний не проведут необходимые проверки. «Вместо того, чтобы гнаться за трендом на ИИ, руководителям следует тщательно продумать и провести оценку преимуществ и рисков, а также мер безопасности, необходимых для защиты бизнеса».

Фейковые новости и хакеры

Власти по всему миру также стремятся регулировать распространение LLM, таких как ChatGPT от OpenAI. Опасения по поводу безопасности новых технологий рассматриваются в качестве одного из приоритетов политики, поскольку в США и Канаде недавно было выявлено больше случаев, когда хакеры всё активнее используют генеративный ИИ для совершения противоправных действий.

Один хакер даже заявил, что нашёл магистр права, «обученный» вредоносным материалом, и поручил ему организовать мошенничество с денежными переводами. В ответ ИИ сгенерировал электронное письмо с просьбой к получателю оплатить срочный счёт.

В июле 2023 года Канадский центр кибербезопасности зафиксировал рост использования ИИ для «электронного мошенничества, распространения вредоносных программ, дезинформации и искажения информации». Директор центра Сами Хури заявил, что киберпреступники активно используют эту новую технологию.

Этот лидер также добавил, что, хотя использование ИИ для создания вредоносных программ находится только на ранних стадиях, модели ИИ развиваются так быстро, что это легко приведет к моменту, когда контролировать их вредоносные риски станет невозможно.

Ранее, в марте 2023 года, европейская полицейская организация Европол также опубликовала отчёт, в котором говорилось, что ChatGPT может «очень реалистично выдавать себя за организации и отдельных лиц, даже используя лишь базовый английский». В том же месяце Национальный центр кибербезопасности Великобритании подтвердил, что «степень магистра права может быть использована для поддержки кибератак».



Источник

Комментарий (0)

No data
No data
Мощный строй из пяти истребителей Су-30МК2 готовится к церемонии А80
Ракеты С-300ПМУ1 на боевом дежурстве для защиты неба Ханоя
Сезон цветения лотосов привлекает туристов к величественным горам и рекам Ниньбиня.
Cu Lao Mai Nha: где дикость, величие и мир сливаются воедино
Ханой ведет себя странно перед приближением шторма Вифа
Затерянный в дикой природе сад птиц в Ниньбине
Террасные поля Пу Лыонг в сезон обильных поливов невероятно красивы.
Асфальтовое покрытие «спринт» на шоссе Север-Юг через Джиа Лай
PIECES of HUE - Pieces of Hue
Волшебное зрелище на холме с перевернутыми чашами чая в Пху Тхо

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт