Vietnam.vn - Nền tảng quảng bá Việt Nam

Encontrar estándares de seguridad para la inteligencia artificial

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng31/07/2023

[anuncio_1]

SGGP

Después de que Europa comenzó a redactar y pronto lanzó la primera ley del mundo sobre inteligencia artificial (IA), los cuatro gigantes estadounidenses líderes en minería de datos de Internet acaban de lanzar un grupo llamado Frontier Model Forum.

El objetivo principal del Frontier Model Forum es promover la IA de forma responsable. Foto: THINKWITHNICHE
El objetivo principal del Frontier Model Forum es promover la IA de forma responsable. Foto: THINKWITHNICHE

Las partes se acercan

El grupo, que incluye a Anthropic, Google, Microsoft y OpenAI, propietaria de ChatGPT, afirmó que los objetivos principales del Foro de Modelos Frontier son ayudar a reducir los riesgos que plantean las plataformas de IA y desarrollar estándares para la industria. El Foro de Modelos Frontier creará un nuevo foro con los siguientes objetivos principales: promover la investigación en seguridad de la IA para apoyar el desarrollo, mitigar riesgos y estandarizar las evaluaciones y los niveles de seguridad; identificar las mejores prácticas para el desarrollo e implementación de modelos; ayudar al público a comprender la naturaleza, las capacidades, las limitaciones y los impactos de la tecnología; y colaborar con legisladores, académicos, la sociedad civil y empresas para compartir conocimientos sobre riesgos y seguridad.

Los gigantes tecnológicos se han resistido tradicionalmente a una mayor regulación, pero esta vez, la industria tecnológica ha cambiado en general su postura ante la creciente preocupación por los riesgos que plantea la IA. Las empresas participantes en la iniciativa Frontier Model Forum se han comprometido a compartir las mejores prácticas entre las empresas y a poner la información a disposición de los gobiernos y la sociedad civil.

En concreto, el Foro de Modelos Fronterizos se centrará en plataformas de aprendizaje automático a gran escala, aunque aún incipientes, que llevan la IA a nuevos niveles de sofisticación, lo cual también constituye un factor de riesgo potencial. Además, el Foro de Modelos Fronterizos también apoyará el desarrollo de aplicaciones que aborden importantes desafíos sociales, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y la lucha contra las ciberamenazas.

Espacio para la destrucción potencial

El anuncio del Frontier Model Forum por parte de empresas estadounidenses se produce pocos días después de que senadores estadounidenses advirtieran el 25 de julio sobre el riesgo de que la IA se utilice para ataques biológicos en una audiencia ante un subcomité del Comité Judicial del Senado. Recientemente, siete importantes empresas tecnológicas, entre ellas OpenAI, Alphabet y Meta, se han comprometido voluntariamente con la Casa Blanca a desarrollar un sistema para identificar todo el contenido (texto, imágenes, audio y vídeo) creado por IA, con el fin de garantizar la transparencia para los usuarios y garantizar la seguridad de esta tecnología.

Dario Amodei, director ejecutivo de AI Anthropic, señaló que, si bien la IA aún no es capaz de crear armas biológicas, representa un riesgo a mediano plazo y representa una grave amenaza para la seguridad nacional de Estados Unidos en los próximos dos o tres años. Esto se debe a que quienes llevan a cabo ataques con armas biológicas a gran escala ya no se limitan a aquellos con conocimientos especializados en la materia.

El mundo se enfrenta a una explosión de contenido creado por tecnología de IA generativa. Desde Estados Unidos y Europa hasta Asia, los controles se están endureciendo gradualmente. Según CNN, a partir de septiembre, el Senado estadounidense realizará una serie de nueve talleres adicionales para que sus miembros aprendan sobre cómo la IA puede afectar el empleo, la seguridad nacional y la propiedad intelectual. Antes que Estados Unidos, si se llega a un acuerdo, la Unión Europea tendrá la primera ley del mundo sobre gestión de la IA el próximo año, con entrada en vigor prevista para 2026.

Los beneficios que la IA aporta a la sociedad son innegables, pero cada vez hay más advertencias sobre los posibles riesgos de esta nueva tecnología. En junio, el secretario general de la ONU, António Guterres, apoyó una propuesta de varios ejecutivos del sector de la IA para establecer un organismo internacional de vigilancia de la IA, similar al Organismo Internacional de Energía Atómica (OIEA).

En el Foro Frontier Model, el presidente de Microsoft, Brad Smith, afirmó que la iniciativa constituye un paso importante para unir a las empresas tecnológicas y promover el uso responsable de la IA en beneficio de toda la humanidad. De igual manera, Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, afirmó que la tecnología avanzada de IA tiene el potencial de aportar profundos beneficios a la sociedad, y que esto requiere supervisión y gobernanza.


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Zonas inundadas en Lang Son vistas desde un helicóptero
Imagen de nubes oscuras 'a punto de colapsar' en Hanoi
Llovió a cántaros, las calles se convirtieron en ríos, los hanoi trajeron barcos a las calles.
Recreación del Festival del Medio Otoño de la Dinastía Ly en la Ciudadela Imperial de Thang Long

Mismo autor

Herencia

Cifra

Negocio

No videos available

Actualidad

Sistema político

Local

Producto