Según fuentes de Tech.co , mientras se desarrollaba la controversia sobre el despido del CEO Sam Altman y su posterior regreso a OpenAI, surgió uno de los rumores sobre una carta enviada por los investigadores de la compañía a la junta directiva, expresando su preocupación por el modelo de superinteligencia artificial que se estaba desarrollando y que podría representar una amenaza para la humanidad.
(Ilustración)
Proyecto Q*
Se dice que el modelo, conocido internamente como Proyecto Q* (pronunciado Q-star), representa un gran avance en la búsqueda de inteligencia artificial general (IAG) por parte de OpenAI: una rama altamente autónoma de la superinteligencia capaz de aprendizaje acumulativo y de superar a los humanos en la mayoría de las tareas.
Q* podría marcar un gran avance en la inteligencia artificial al mejorar radicalmente las capacidades de razonamiento de la IA y acercar a OpenAI a un gran avance en el desarrollo de la IAG, según personas familiarizadas con el asunto.
A diferencia de los modelos de IA actuales, que se centran en la capacidad de generar respuestas basadas en información aprendida previamente, la IAG es un sistema autónomo que puede aplicar la “razón” a las decisiones, lo que le confiere capacidades de resolución de problemas a nivel humano.
Aunque la Inteligencia Artificial General (IAG) aún no se ha materializado por completo, muchos expertos creen que esta tecnología también tendrá la capacidad de aprender de forma acumulativa, otra característica que otorga a los humanos la capacidad de mejorar sus habilidades.
Algunas fuentes afirman que Q*, el proyecto de OpenAI, ha demostrado las propiedades mencionadas al resolver problemas. Además, gracias a su enorme capacidad de cómputo, Q* ha superado el rendimiento de estudiantes de primaria, demostrando habilidades de razonamiento y capacidades cognitivas significativas en comparación con las funciones de la tecnología de IA actual.
No está claro cuánto tiempo lleva Q* en desarrollo ni cuáles podrían ser sus aplicaciones, pero OpenAI informó a los empleados y miembros de la junta directiva sobre el proyecto antes de que estallara el escándalo de personal.
preocupaciones éticas
Si bien el director ejecutivo de OpenAI, Sam Altman, confía en que la tecnología de inteligencia artificial general impulsará la innovación, algunos investigadores no han tardado en señalar los peligros potenciales del proyecto.
En una carta dirigida al consejo directivo, los investigadores advirtieron sobre los peligros potenciales de este potente algoritmo para la humanidad. Si bien no se revelaron las preocupaciones éticas específicas sobre la IA expuestas en la carta, las advertencias fueron suficientes para justificar la decisión del consejo de despedir a Altman.
Mientras tanto, el motivo inicial del despido de Altman fue que el director ejecutivo tenía una "mala comunicación". Pronto encontró un nuevo puesto en Microsoft. Esta acción provocó que 700 de los 770 empleados de OpenAI amenazaran con hacer lo mismo si el director ejecutivo no era restituido en su cargo.
Ante el peligro de colapso de la empresa, el consejo de administración de OpenAI se vio obligado a restituir a Altman en el puesto más alto, lo que también conllevó una importante reestructuración del equipo ejecutivo de la empresa y puso de manifiesto profundas divisiones dentro de su liderazgo.
Ahora, con Altman de vuelta en el cargo y la posibilidad de que el Proyecto Q* reciba luz verde nuevamente, esto plantea nuevas preguntas.
¿Qué tan realista es el Proyecto Q*?
Si bien los turbulentos días en OpenAI pusieron el concepto de AGI en el centro de atención, esta no es la primera vez que Altman menciona esta tecnología.
El emprendedor de Silicon Valley se vio envuelto en una polémica en septiembre tras comparar la AGI con “un humano promedio al que podrías contratar como compañero de trabajo”. Hizo un seguimiento a los comentarios que hizo el año pasado sobre cómo la IA podría “hacer todo lo que podrías hacer con un compañero de trabajo remoto”, incluyendo aprender a ser un buen médico y programador.
Si bien comparar la inteligencia artificial general (IAG) con la inteligencia de un “humano promedio” no es nada nuevo, el uso que hizo Altman de esa frase fue considerado “abominable” por expertos en ética de la IA y por el profesor Henry Shevlin de la Universidad de Cambridge, a medida que aumentan las preocupaciones sobre el impacto de la IA en la seguridad laboral.
Los posibles avances en inteligencia artificial general (IAG) también están generando preocupación entre otros investigadores, ya que la tecnología se está desarrollando más rápido de lo que los humanos pueden comprender plenamente su impacto.
OpenAI cree que los resultados positivos de la IAG justifican el riesgo que implica este campo minado. Sin embargo, a medida que la empresa sigue avanzando en esta dirección, muchos temen que Altman esté priorizando el éxito comercial sobre los intereses de los usuarios y la sociedad.
Phuong Anh (Fuente: Tech.co, The Guardian)
Fuente


![[Foto] El primer ministro Pham Minh Chinh asiste a la 5ª Ceremonia de Premios Nacionales de Prensa sobre la prevención y la lucha contra la corrupción, el despilfarro y la negatividad.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)


![[Foto] Da Nang: El agua retrocede gradualmente, las autoridades locales aprovechan la limpieza.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)







































































Kommentar (0)