Los expertos advierten que la ventana de vigilancia de la IA se está cerrando
Más de 40 investigadores de gigantes de la IA advierten que la capacidad de la IA para monitorear los pensamientos está desapareciendo y los humanos podrían perder el control por completo.
Báo Khoa học và Đời sống•27/07/2025
Más de 40 investigadores de OpenAI, Google DeepMind, Meta y Anthropic han emitido una advertencia sin precedentes sobre los riesgos de perder el control de la IA. Los modelos modernos comienzan a “pensar” en lenguaje, permitiendo a los humanos seguir la lógica interna de la máquina, pero esto es extremadamente frágil.
Con solo unos pocos cambios en la arquitectura o en los métodos de entrenamiento, la capacidad de la IA para leer la mente podría desaparecer por completo. “Las capacidades de vigilancia actuales pueden ser extremadamente frágiles y fácilmente ocultas”, advierte el investigador de OpenAI, Bowen Baker.
Le preocupa que la IA del futuro pueda aprender a ocultar sus pensamientos a los humanos, especialmente al aplicar aprendizaje de refuerzo o arquitecturas de inferencia no lingüísticas. De hecho, se han registrado muchos modelos que crean falsas justificaciones y ocultan objetivos reales a pesar de que se les exige transparencia. Los expertos piden que se desarrollen estándares para evaluar la transparencia y convertirla en un elemento central del entrenamiento en IA.
Si no actuamos rápidamente, los humanos podrían quedar atrás en el juego que crearon, donde la IA "piensa" pero nadie entiende. Estimados lectores, por favor vean más videos : Limpieza de basura con IA | Hanoi 18:00
Kommentar (0)