Según VNA , Japón establecerá una nueva agencia encargada de desarrollar estándares de seguridad para la Inteligencia Artificial (IA) para responder a riesgos como el mal uso de la IA para crear contenido falso y difundir información falsa que son cada vez más comunes.
La información anterior fue anunciada por el primer ministro Fumio Kishida en la reunión del Consejo de Estrategia de IA celebrada el 21 de diciembre en Tokio.
Se espera que la nueva organización se establezca en enero de 2024 bajo el nombre de “AI Safety Institute” (AISI), bajo la Agencia de Promoción de Tecnología de la Información (IPA), Ministerio de Economía , Comercio e Industria de Japón (METI).
AISI estará formado por expertos en IA y ciberseguridad, responsables de establecer estándares de evaluación de seguridad para las empresas que desarrollan IA y verificar el riesgo de mal uso de la IA.
También en la reunión, el consejo de IA discutió las “Directrices de IA”, que incluyen 10 principios y piden a las empresas nacionales que pongan a las personas en el centro al desarrollar o utilizar IA.
Como estaba previsto, las “Directrices de IA” se aprobarán oficialmente en marzo de 2024 y serán aplicables a desarrolladores, proveedores de servicios de IA y usuarios.
Los principios de las “Directrices de IA” se basan en el “Proceso de IA de Hiroshima” del Grupo de los Siete (G7) para desarrollar normas internacionales.
En consonancia con el principio de atención centrada en el ser humano, las directrices instan a las empresas a respetar los derechos humanos y la diversidad, a tomar medidas para combatir la desinformación y a abstenerse rotundamente de desarrollar, proporcionar y utilizar servicios de IA que manipulen negativamente la toma de decisiones y las emociones humanas. Además, las directrices incluyen otros principios como la protección de la privacidad, la equidad, la seguridad y la transparencia.
A principios de octubre, el primer ministro británico, Rishi Sunak, anunció que el país establecería el primer Instituto de Seguridad de IA del mundo para probar, evaluar y testear nuevas formas de IA. A partir de ahí, los reguladores podrán comprender las capacidades de cada nuevo modelo e identificar todos los riesgos, desde el daño social, como el sesgo y la desinformación, hasta los riesgos más graves.
Poco después, la Secretaria de Comercio de EE. UU., Gina Raimondo, anunció que Estados Unidos establecería un Instituto de Seguridad de IA basado en el trabajo con el Instituto Nacional de Estándares y Tecnología para garantizar la seguridad y confiabilidad de la inteligencia artificial.
En los últimos tiempos, las herramientas de inteligencia artificial han supuesto un nuevo avance en la ola de inversión en tecnología. Sin embargo, los expertos en tecnología señalan que la inteligencia artificial conlleva numerosos riesgos y desafíos, y preocupa el nivel de confianza en los datos, los algoritmos y las aplicaciones.
Por lo tanto, para maximizar los beneficios de la inteligencia artificial, es importante brindar al público la confianza de que esta tecnología se está desarrollando y utilizando de manera responsable.
Recientemente, 18 países, entre ellos Estados Unidos, Reino Unido, Alemania, Italia, República Checa, Polonia, Australia, Chile, Singapur... firmaron un acuerdo para animar a las empresas a crear sistemas de inteligencia artificial que sean seguros desde la fase de diseño para evitar el riesgo de abuso.
Esta se considera la última de una serie de iniciativas de los gobiernos de todo el mundo para dar forma al desarrollo de la inteligencia artificial, que está teniendo un impacto cada vez mayor en la industria y la sociedad en general.
Minh Hoa (t/h)
[anuncio_2]
Fuente
Kommentar (0)