La capacidad del modelo para razonar, resolver problemas matemáticos complejos y responder preguntas de investigación científica se considera un paso importante en el esfuerzo por desarrollar inteligencia artificial general (IAG): máquinas con capacidades cognitivas similares a las humanas.
OpenAI afirmó haber sido especialmente cautelosa al presentar el modelo o1 al público, dadas sus avanzadas capacidades. Foto: Getty Images
Según el Financial Times, OpenAI calificó el riesgo de estos nuevos modelos como «medio» en lo que respecta a armas químicas, biológicas, radiológicas y nucleares (QBRN), la calificación más alta que la compañía ha otorgado hasta la fecha. Esto significa que la tecnología ha mejorado significativamente la capacidad de los expertos para crear armas biológicas.
Los expertos afirman que el software de IA capaz de realizar razonamientos detallados, especialmente en manos de personas malintencionadas, puede aumentar el riesgo de abuso.
El profesor Yoshua Bengio, científico de renombre mundial en el campo de la IA y profesor de la Universidad de Montreal, ha subrayado que este nivel de riesgo medio aumenta la urgencia de implementar regulaciones sobre la IA, como el proyecto de ley SB 1047, actualmente en debate en California. Este proyecto de ley exige a los creadores de IA que tomen medidas para reducir el riesgo de que sus modelos se utilicen indebidamente para desarrollar armas biológicas.
Según The Verge, la seguridad de los modelos de IA se ha convertido en una preocupación importante, ya que empresas tecnológicas como Google, Meta y Anthropic compiten por construir y mejorar sistemas avanzados de IA.
Estos sistemas tienen el potencial de aportar grandes beneficios al ayudar a los humanos a completar tareas y prestar asistencia en diversas áreas, pero también plantean desafíos en términos de seguridad y responsabilidad social.
Cao Phong (según FT, Reuters, The Verge)
Fuente: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html






Kommentar (0)