En un documento de 20 páginas publicado el 26 de noviembre, 18 países acordaron que las empresas de investigación y aplicación de IA deben desarrollar e implementar la tecnología de una manera que proteja a los clientes y al público en general del abuso, según Reuters.
El acuerdo no es vinculante y principalmente hace recomendaciones generales, como monitorear los sistemas de IA para detectar y prevenir abusos, proteger datos y examinar a los proveedores de software.
El desarrollo de la IA genera una carrera en el campo tecnológico y también genera muchas preocupaciones.
Sin embargo, Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, dijo que era importante que tantos países compartieran la opinión de que los sistemas de IA deben priorizar la seguridad.
“Esta es la primera vez que vemos que los países coinciden en que estas capacidades no se limitan al atractivo de las características, la rapidez con la que podemos comercializarlas o cómo podemos competir para reducir costos”, declaró Easterly a Reuters. El funcionario añadió que la guía representa “un acuerdo en que lo más importante que se debe garantizar en la etapa de diseño es la seguridad”.
El acuerdo es la última de una serie de iniciativas de los gobiernos de todo el mundo para dar forma al desarrollo de la IA, cuyo impacto se siente cada vez más en las industrias y la sociedad en general.
El documento aborda cuestiones sobre cómo proteger los sistemas de IA de los hackers e incluye recomendaciones como publicar nuevos modelos solo después de exhaustivas pruebas de seguridad. La nueva guía no aborda cuestiones complejas sobre el uso adecuado de la IA ni sobre cómo recopilar los datos que alimentan estos modelos.
El auge de la IA ha suscitado muchas preocupaciones, incluidos temores de que pueda utilizarse para perturbar el proceso democrático, promover el fraude o provocar un desempleo masivo, entre otros daños.
Europa va por delante de Estados Unidos en la promulgación de regulaciones relacionadas con la IA. Francia, Alemania e Italia también han llegado recientemente a un acuerdo sobre cómo regular este campo, en relación con los modelos subyacentes de la IA.
La administración Biden ha presionado a los legisladores sobre la regulación de la IA, pero el Congreso, profundamente polarizado, ha logrado pocos avances en la aprobación de regulaciones efectivas.
La Casa Blanca buscó mitigar los riesgos de la IA para los consumidores, los trabajadores y las minorías, al tiempo que reforzaba la seguridad nacional con una nueva orden ejecutiva en octubre.
[anuncio_2]
Enlace de origen
Kommentar (0)