La capacidad del modelo para razonar, resolver problemas matemáticos complejos y responder preguntas de investigación científica se considera un gran paso adelante en el esfuerzo por desarrollar inteligencia artificial general (AGI), es decir, máquinas con capacidades cognitivas similares a las humanas.
OpenAI afirmó ser especialmente cauteloso al presentar el modelo o1 al público, dadas sus avanzadas capacidades. Foto: Getty Images
Según el Financial Times, OpenAI calificó el riesgo de estos nuevos modelos como "medio" para problemas relacionados con armas químicas, biológicas, radiológicas y nucleares (QBRN), el más alto que la compañía haya evaluado jamás. Esto significa que la tecnología ha "mejorado significativamente" la capacidad de los expertos para crear armas biológicas.
El software de inteligencia artificial capaz de razonar detalladamente, especialmente en manos de actores maliciosos, puede aumentar el riesgo de abuso, dicen los expertos.
El profesor Yoshua Bengio, científico líder mundial en IA de la Universidad de Montreal, ha enfatizado que este nivel de riesgo medio aumenta la urgencia de regulaciones de IA, como la SB 1047, actualmente en debate en California. Este proyecto de ley exige a los desarrolladores de IA que tomen medidas para reducir el riesgo de que sus modelos se utilicen indebidamente para desarrollar armas biológicas.
Según The Verge, la seguridad de los modelos de IA se ha convertido en una preocupación importante a medida que empresas de tecnología como Google, Meta y Anthropic se apresuran a construir y mejorar sistemas de IA avanzados.
Estos sistemas tienen el potencial de aportar grandes beneficios al ayudar a los humanos a completar tareas y prestar asistencia en una variedad de áreas, pero también plantean desafíos en términos de seguridad y responsabilidad social.
Cao Phong (según FT, Reuters, The Verge)
[anuncio_2]
Fuente: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
Kommentar (0)