SGGP
Después de que Europa empezó a redactar y pronto lanzó la primera ley del mundo sobre inteligencia artificial (IA), los cuatro principales "gigantes" de minería de datos de Internet de Estados Unidos acaban de lanzar un grupo llamado Frontier Model Forum.
El objetivo principal del Frontier Model Forum es promover la IA responsable. Foto: THINKWITHNICHE |
Las partes se unen
El grupo, que incluye a Anthropic, Google, Microsoft y OpenAI, propietaria de ChatGPT, afirmó que los objetivos principales del Foro de Modelos Frontier son ayudar a reducir los riesgos que plantean las plataformas de IA y desarrollar estándares para la industria. El Foro de Modelos Frontier creará un nuevo foro con los siguientes objetivos principales: promover la investigación en seguridad de la IA para apoyar el desarrollo, reducir los riesgos y estandarizar las evaluaciones y los niveles de seguridad; identificar las mejores prácticas para el desarrollo e implementación de modelos, y ayudar al público a comprender la naturaleza, las capacidades, las limitaciones y los impactos de la tecnología; y colaborar con legisladores, académicos, la sociedad civil y empresas para compartir conocimientos sobre riesgos y seguridad.
Los gigantes tecnológicos se han resistido tradicionalmente a una mayor regulación, pero esta vez, la industria tecnológica ha cambiado en gran medida su postura sobre los riesgos que plantea la IA. Las empresas participantes en la iniciativa Frontier Model Forum se han comprometido a compartir las mejores prácticas entre las empresas y a poner la información a disposición de los gobiernos y la sociedad civil.
En concreto, el Foro de Modelos Fronterizos se centrará en plataformas de aprendizaje automático a gran escala, aunque emergentes, que llevan la IA a nuevos niveles de sofisticación, lo cual también constituye un factor de riesgo potencial. Además, el Foro de Modelos Fronterizos también apoyará el desarrollo de aplicaciones que aborden importantes desafíos sociales, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y la protección contra ciberamenazas.
Espacio para la destrucción potencial
El anuncio del Frontier Model Forum por parte de empresas estadounidenses se produce pocos días después de que senadores estadounidenses advirtieran el 25 de julio sobre el riesgo de que la IA se utilice para bioataques en una audiencia ante un subcomité del Comité Judicial del Senado. Recientemente, siete importantes empresas tecnológicas, entre ellas OpenAI, Alphabet y Meta, se han comprometido voluntariamente con la Casa Blanca a desarrollar un sistema para etiquetar todo el contenido (texto, imágenes, audio y vídeo) creado por IA, con el fin de brindar transparencia informativa a los usuarios y garantizar la seguridad de esta tecnología.
Si bien la IA aún no es capaz de crear armas biológicas, se trata de un riesgo a mediano plazo que podría representar una grave amenaza para la seguridad nacional de EE. UU. en los próximos dos o tres años, señaló Dario Amodei, director ejecutivo de AI Anthropic. Esto se debe a que quienes llevan a cabo ataques biológicos a gran escala ya no se limitan a aquellos con conocimientos especializados en la materia.
El mundo se enfrenta a una explosión de contenido creado por tecnología de IA generativa. Desde Estados Unidos hasta Europa y Asia, las medidas regulatorias se están endureciendo gradualmente. Según CNN, a partir de septiembre, el Senado estadounidense organizará una serie de nueve talleres adicionales para que sus miembros aprendan sobre cómo la IA puede afectar el empleo, la seguridad nacional y la propiedad intelectual. Antes que Estados Unidos, si se llega a un acuerdo, la Unión Europea tendrá la primera ley del mundo sobre gestión de la IA el próximo año, con entrada en vigor prevista para 2026.
Los beneficios que la IA aporta a la sociedad son innegables, pero cada vez hay más advertencias sobre los posibles riesgos de esta nueva tecnología. En junio, el secretario general de la ONU, António Guterres, apoyó una propuesta de varios ejecutivos de IA para establecer un organismo internacional de vigilancia de la IA, similar al Organismo Internacional de Energía Atómica (OIEA).
En el Foro Frontier Model, el presidente de Microsoft, Brad Smith, afirmó que la iniciativa constituye un paso importante para unir a las empresas tecnológicas y promover el uso responsable de la IA en beneficio de toda la humanidad. Asimismo, Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, afirmó que la tecnología avanzada de IA tiene el potencial de aportar profundos beneficios a la sociedad, y que esto requiere supervisión y gobernanza.
[anuncio_2]
Fuente
Kommentar (0)