En un documento de 20 páginas publicado el 26 de noviembre, 18 países acordaron que las empresas de investigación y aplicación de IA deben desarrollar e implementar la tecnología de manera que se evite el abuso por parte de los clientes y el público en general, según Reuters.
El acuerdo no es vinculante y se limita principalmente a formular recomendaciones generales, como la monitorización de los sistemas de IA para detectar y prevenir abusos, la protección de datos y la evaluación de los proveedores de software.
El desarrollo de la IA conlleva una carrera en el campo tecnológico, así como numerosas preocupaciones.
Sin embargo, Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, afirmó que era importante que tantos países compartieran la opinión de que los sistemas de IA debían priorizar la seguridad.
«Es la primera vez que vemos que los países coinciden en que estas capacidades no se limitan al atractivo de las características, a la rapidez con que podemos lanzarlas al mercado o a cómo podemos competir para reducir costes», declaró Easterly a Reuters. El funcionario añadió que la guía representa «un acuerdo en el que lo más importante que se debe garantizar en la fase de diseño es la seguridad».
Este acuerdo es el último de una serie de iniciativas impulsadas por gobiernos de todo el mundo para dar forma al desarrollo de la IA, cuyo impacto se siente cada vez más en todos los sectores y en la sociedad en general.
El documento aborda cuestiones sobre cómo proteger los sistemas de IA de los ataques informáticos e incluye recomendaciones como la de lanzar nuevos modelos solo después de exhaustivas pruebas de seguridad. La nueva guía no aborda cuestiones complejas sobre el uso adecuado de la IA ni sobre cómo recopilar los datos que alimentan estos modelos.
El auge de la IA ha suscitado muchas preocupaciones, entre ellas el temor a que pueda utilizarse para perturbar el proceso democrático, promover el fraude o provocar un desempleo masivo, entre otros perjuicios.
Europa lleva la delantera a Estados Unidos en la promulgación de regulaciones sobre IA. Francia, Alemania e Italia también han alcanzado recientemente un acuerdo sobre cómo regular este campo, en lo que respecta a los modelos que sustentan la IA.
La administración Biden ha presionado a los legisladores sobre la regulación de la IA, pero el Congreso, profundamente polarizado, ha logrado pocos avances en la aprobación de regulaciones efectivas.
En octubre, la Casa Blanca buscó mitigar los riesgos de la IA para los consumidores, los trabajadores y las minorías, al tiempo que reforzaba la seguridad nacional, con una nueva orden ejecutiva.
Enlace de origen






Kommentar (0)