Teléfono mostrando la interfaz de aprendizaje GPT-o1 de OpenAI - Foto: FINANCIAL TIMES
Según el Financial Times del 13 de septiembre, la empresa OpenAI admitió que el modelo GPT-o1, que se lanzó el 12 de septiembre, aumenta "significativamente" el riesgo de que la inteligencia artificial (IA) se utilice para crear armas biológicas.
Un documento publicado por OpenAI que explica el funcionamiento de GPT-o1 indica que el nuevo modelo presenta un nivel de riesgo medio en lo que respecta a cuestiones relacionadas con armas químicas, biológicas, radiológicas y nucleares. Este es el nivel de riesgo más alto que OpenAI ha asignado hasta la fecha a sus modelos de IA.
Según OpenAI, esto significa que GPT-o1 podría "mejorar drásticamente" la capacidad de los expertos que quieran abusar de ellos para crear armas biológicas.
Mira Murati, directora de tecnología (CTO) de OpenAI, afirmó que, si bien GPT-o1 todavía se encuentra en fase de pruebas, las capacidades avanzadas del modelo obligan a la empresa a ser extremadamente "cautelosa" con respecto a su hoja de ruta para el público.
La Sra. Murati también confirmó que el modelo había sido probado exhaustivamente por un equipo multidisciplinario de expertos contratado por OpenAI para probar los límites del modelo desarrollado por la compañía.
El proceso de pruebas demostró que el modelo GPT-o1 cumple mucho mejor con los criterios generales de seguridad que sus predecesores, compartió la Sra. Murati.
Pero los representantes de OpenAI no se detuvieron ahí y aseguraron que la versión de prueba de GPT-o1 es "segura para su implementación" y no puede crear riesgos más complejos que las tecnologías desarrolladas.
A pesar de las garantías anteriores, gran parte de la comunidad científica y de quienes se interesan por la IA todavía no son muy optimistas sobre la dirección que tomará el desarrollo de esta tecnología.
Existe una creciente preocupación por el hecho de que la IA se esté desarrollando demasiado rápido y superando el desarrollo y la aprobación de las regulaciones que la rigen.
El profesor Yoshua Bengio, estudiante de informática en la Universidad de Montreal y uno de los científicos de IA más importantes del mundo , afirmó que si OpenAI ahora representa un "riesgo medio" de armas químicas y biológicas, "esto solo refuerza la importancia y la urgencia" de leyes, como la que se debate acaloradamente en California para regular el sector.
Este científico enfatizó que las instituciones mencionadas anteriormente son especialmente necesarias en el contexto de una IA que se acerca cada vez más al nivel de inteligencia artificial general (IAG), lo que significa tener la capacidad de razonar a la par de los humanos.
"Cuanto más se acerquen los modelos pioneros de IA a la IAG, mayores serán los riesgos si no se toman las precauciones adecuadas. La capacidad de razonamiento mejorada de la IA y su uso para el fraude son extremadamente peligrosos", evaluó el Sr. Bengio.
Fuente: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm






Kommentar (0)