Vietnam.vn - Nền tảng quảng bá Việt Nam

Advertencia sobre los riesgos de seguridad al integrar chatbots de IA que las empresas deben conocer

Báo Quốc TếBáo Quốc Tế10/09/2023

Las empresas deben tener cuidado al integrar herramientas de IA en sus operaciones, ya que los piratas informáticos pueden eludir fácilmente los chatbots de IA y realizar tareas maliciosas.
La Agencia Nacional de Seguridad Cibernética del Reino Unido advirtió a las organizaciones que están integrando chatbots de IA en sus operaciones comerciales, y una creciente investigación muestra que las herramientas de IA pueden manipularse fácilmente para realizar tareas maliciosas.

En una publicación de blog del 30 de agosto, el Centro de Seguridad Cibernética del Reino Unido (NCSC) dijo que los expertos aún no comprenden completamente los posibles problemas de ciberseguridad asociados con los algoritmos que pueden interactuar “como humanos”, llamados modelos de lenguaje grande (LLM).

El NCSC advierte que esto puede suponer riesgos, especialmente cuando estos modelos se integran en los procesos empresariales. Académicos e investigadores también han descubierto recientemente maneras de engañar a la IA, dándole comandos no autorizados o eludiendo las salvaguardas integradas.

Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng.
Las herramientas de IA generativa se están utilizando como chatbots, que se espera que reemplacen no solo las búsquedas en Internet, sino también el servicio de atención al cliente y las llamadas de ventas.

Por ejemplo, un chatbot de IA implementado en un banco podría ser engañado para realizar transacciones no autorizadas si los piratas informáticos configuran las “instrucciones” correctas.

Entonces, al referirse a recientes versiones beta de IA, el NCSC advierte: “Las organizaciones que crean servicios en torno a LLM deben ser tan cautelosas como si estuvieran usando un nuevo producto en versión beta”.

Una encuesta reciente de Reuters/Ipsos descubrió que muchos empleados corporativos utilizan herramientas como ChatGPT para realizar tareas básicas como redactar correos electrónicos, resumir documentos o recopilar datos de investigación iniciales.

De estos, solo alrededor del 10% de los empleados dijo que sus superiores prohibían explícitamente el uso de herramientas de IA externas y el 25% no sabía si la empresa permitía el uso de esta tecnología.

La carrera por integrar la IA en las operaciones empresariales tendrá consecuencias catastróficas si los líderes empresariales no realizan las comprobaciones necesarias, afirmó Oseloka Obiora, director de tecnología de la empresa de seguridad RiverSafe. «En lugar de perseguir la tendencia de la IA, los líderes deberían reflexionar detenidamente y evaluar los beneficios y riesgos, así como las medidas de seguridad necesarias para proteger la empresa».

Noticias falsas y hackers

Autoridades de todo el mundo también buscan regular la proliferación de LLM, como ChatGPT de OpenAI. La preocupación por la seguridad de las nuevas tecnologías se considera un foco de atención política, y Estados Unidos y Canadá han descubierto recientemente más casos de hackers que utilizan cada vez más la IA generativa para cometer actos ilegales.

Un hacker incluso afirmó haber encontrado un LLM entrenado con material malicioso y le pidió que creara una estafa de transferencia de dinero. La IA respondió generando un correo electrónico solicitando al destinatario el pago de una factura urgente.

En julio de 2023, el Centro Canadiense de Ciberseguridad observó un aumento en el uso de IA en casos de fraude por correo electrónico, malware, desinformación y tergiversación. El director del centro, Sami Khoury, afirmó que los ciberdelincuentes están explotando activamente esta nueva tecnología.

Este líder también agregó que si bien el uso de IA para componer malware está recién en sus primeras etapas, los modelos de IA se están desarrollando tan rápido que fácilmente llegarán al punto en que sea imposible controlar sus riesgos maliciosos.

Anteriormente, en marzo de 2023, la organización policial europea Europol también publicó un informe que afirmaba que ChatGPT podía suplantar la identidad de organizaciones e individuos de forma muy realista, incluso utilizando un inglés básico. Ese mismo mes, el Centro Nacional de Ciberseguridad del Reino Unido afirmó que «LLM puede utilizarse para apoyar ciberataques».


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Vietnam y Polonia pintan una 'sinfonía de luz' en el cielo de Da Nang
El puente costero de madera de Thanh Hoa causa revuelo gracias a su hermosa vista del atardecer como en Phu Quoc.
La belleza de las mujeres soldados con estrellas cuadradas y las guerrilleras del sur bajo el sol de verano de la capital.
Temporada de festivales forestales en Cuc Phuong

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto