La Agencia de Seguridad Cibernética del Reino Unido advirtió a las organizaciones que están integrando chatbots de inteligencia artificial (IA) en sus productos y servicios, diciendo que las investigaciones muestran que las herramientas de IA pueden manipularse fácilmente para realizar tareas maliciosas.
En una publicación de blog del 30 de agosto, el Centro de Seguridad Cibernética del Reino Unido (NCSC) dijo que los expertos aún no han comprendido los posibles problemas de ciberseguridad asociados con los algoritmos que pueden interactuar “como los humanos”, es decir, los modelos de lenguaje grande (LLM).
Esto plantea riesgos cuando dichos modelos se incorporan a los procesos comerciales, dijo el NCSC, ya que los académicos e investigadores encuentran constantemente formas de "engañar" a la IA, ordenando a los chatbots que cometan fraude o eludan las salvaguardas integradas.
Por ejemplo, un chatbot de IA utilizado en un banco podría ser engañado para realizar una transacción no autorizada si el pirata informático da las “instrucciones” correctas.
“Las organizaciones que crean servicios en torno a LLM deben ser cautelosas en el sentido de que están utilizando un nuevo producto en versión beta”, dijo el NCSC, refiriéndose a los recientes lanzamientos de IA.
Una encuesta reciente de Reuters/Ipsos descubrió que muchos empleados corporativos utilizan herramientas como ChatGPT para realizar tareas básicas como redactar correos electrónicos, resumir documentos y recopilar datos de investigación iniciales.
De estos, solo el 10% de los empleados dijo que sus superiores prohibían explícitamente el uso de herramientas de IA externas y el 25% no sabía si su empresa permitía el uso de esta tecnología.
La prisa por integrar la IA en los modelos de negocio tendrá consecuencias catastróficas si los líderes empresariales no realizan la debida diligencia, afirmó Oseloka Obiora, director de tecnología de la empresa de seguridad RiverSafe. «En lugar de sumarse a la tendencia de la IA, los altos ejecutivos deberían reflexionar detenidamente y realizar una evaluación de riesgos y beneficios, así como de las medidas de seguridad necesarias para proteger la empresa».
Noticias falsas y hackers
En todo el mundo , los gobiernos también buscan gestionar el auge de las maestrías en derecho (LLM) como ChatGPT de OpenAI. Las preocupaciones sobre la seguridad de esta nueva tecnología también son un foco de atención política, y Estados Unidos y Canadá han declarado recientemente haber visto cómo los hackers explotan cada vez más la IA generativa.
Un hacker incluso afirmó haber encontrado un LLM "entrenado" con material malicioso y le pidió que creara una estafa de transferencia de dinero. En respuesta, la IA generó un correo electrónico de tres párrafos solicitando al destinatario el pago de una factura urgente.
En julio de 2023, el Centro Canadiense de Ciberseguridad observó un aumento en el uso de la IA en casos de fraude por correo electrónico, malware, desinformación y desinformación. Sami Khoury, director del centro, no proporcionó pruebas específicas, pero afirmó que los ciberdelincuentes están explotando activamente esta tecnología emergente.
El líder también dijo que si bien el uso de IA para crear malware aún se encuentra en sus primeras etapas, los modelos de IA se están desarrollando tan rápido que es fácil perder el control de sus riesgos maliciosos.
Anteriormente, en marzo de 2023, la organización policial europea Europol publicó un informe que afirmaba que ChatGPT podía «suplantar la identidad de organizaciones e individuos de forma muy realista, incluso utilizando solo un inglés básico». Ese mismo mes, el Centro Nacional de Ciberseguridad del Reino Unido afirmó que «LLM podría utilizarse para apoyar ciberataques».
(Según Reuters)
[anuncio_2]
Fuente
Kommentar (0)