:Teléfono que muestra la interfaz de aprendizaje GPT-o1 de OpenAI - Foto: FINANCIAL TIMES
Según el Financial Times del 13 de septiembre, la empresa OpenAI admitió que el modelo GPT-o1, lanzado el 12 de septiembre, aumenta "significativamente" el riesgo de que la inteligencia artificial (IA) sea explotada para crear armas biológicas.
Un documento publicado por OpenAI que explica el funcionamiento de GPT-o1 afirma que el nuevo modelo tiene un "nivel de riesgo medio" para problemas relacionados con armas químicas, biológicas, radiológicas y nucleares. Este es el nivel de riesgo más alto que OpenAI ha asignado jamás a sus modelos de IA.
Según OpenAI, esto significa que GPT-o1 podría "mejorar drásticamente" la capacidad de los expertos que quieran abusar de ellos para crear armas biológicas.
Mira Murati, directora de tecnología (CTO) de OpenAI, dijo que aunque GPT-o1 todavía está en la fase de prueba, las capacidades avanzadas del modelo aún obligan a la compañía a ser extremadamente "cautelosa" sobre su hoja de ruta hacia el público.
La Sra. Murati también confirmó que el modelo había sido probado exhaustivamente por un equipo multidisciplinario de expertos contratados por OpenAI para probar los límites del modelo desarrollado por la empresa.
El proceso de prueba demostró que el modelo GPT-o1 cumple con los criterios generales de seguridad mucho mejor que sus predecesores, compartió la Sra. Murati.
Sin detenerse allí, los representantes de OpenAI también aseguraron que la versión de prueba de GPT-o1 es "segura para su implementación" y no puede crear riesgos más complejos que las tecnologías desarrolladas.
A pesar de las garantías anteriores, una gran parte de la comunidad científica y de los interesados en la IA aún no son muy optimistas sobre la dirección del desarrollo de esta tecnología.
Existe una creciente preocupación de que la IA se esté desarrollando demasiado rápido y superando el desarrollo y la aprobación de las regulaciones que la rigen.
El profesor Yoshua Bengio, estudiante de informática en la Universidad de Montreal y uno de los principales científicos de IA del mundo , dijo que si OpenAI ahora representa un "riesgo medio" de armas químicas y biológicas, "esto solo refuerza la importancia y la urgencia" de las leyes, como la que se debate acaloradamente en California para regular el campo.
Este científico destacó que las instituciones mencionadas son especialmente necesarias en el contexto de una IA que se acerca cada vez más al nivel de inteligencia artificial general (AGI), lo que significa tener la capacidad de razonar a la par de los humanos.
"Cuanto más se acerquen los modelos pioneros de IA a la IAG, mayores serán los riesgos si no se toman las precauciones adecuadas. La mayor capacidad de razonamiento de la IA y su uso para cometer fraudes son extremadamente peligrosos", evaluó el Sr. Bengio.
[anuncio_2]
Fuente: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Kommentar (0)