Según fuentes de Tech.co , mientras se desarrollaba la controversia en torno al despido del CEO Sam Altman y su posterior regreso a OpenAI, uno de los rumores que circulaban se refería a una carta enviada por los investigadores de la compañía a la junta directiva, expresando preocupaciones sobre el modelo de superinteligencia de IA en desarrollo que potencialmente representa una amenaza para la humanidad.
(Imagen ilustrativa)
Proyecto Q*
Se promociona el modelo, conocido internamente como Proyecto Q* (pronunciado Q-star), como un potencial gran avance en la búsqueda de OpenAI de la inteligencia artificial general (AGI), una rama altamente autónoma de la superinteligencia capaz de aprendizaje acumulativo y superar a los humanos en la mayoría de las tareas.
Según fuentes cercanas al asunto, Q* podría marcar un gran salto adelante en el campo de la inteligencia artificial al mejorar radicalmente las capacidades de razonamiento de la IA y acercar a OpenAI a un gran avance en el desarrollo de la AGI.
A diferencia de los modelos de IA actuales, que se centran en generar respuestas basadas en información previamente aprendida, la AGI es un sistema autónomo que puede aplicar la "razón" a las decisiones, lo que le otorga la capacidad de resolver problemas a nivel humano.
Aunque la IA general aún no está plenamente realizada, muchos expertos creen que esta tecnología también tendrá el potencial para el aprendizaje acumulativo, otra característica que permite a los humanos mejorar sus capacidades.
Algunas fuentes sugieren que Q*, un proyecto de OpenAI, ha podido demostrar las propiedades mencionadas al resolver problemas. Además, gracias a la inmensa potencia computacional del modelo, Q* ha superado a estudiantes de primaria, mostrando habilidades de razonamiento y cognitivas muy superiores a las de la tecnología de IA actual.
No está claro cuánto tiempo ha estado Q* en desarrollo y cuáles podrían ser sus aplicaciones potenciales, pero OpenAI informó a los empleados y miembros de la junta sobre el proyecto antes de que ocurriera la controversia personal.
Preocupaciones éticas
Si bien el director ejecutivo de OpenAI, Sam Altman, confía en que la tecnología AGI impulsará la innovación, algunos investigadores se han apresurado a señalar los peligros potenciales del proyecto.
En una carta dirigida a la junta directiva, los investigadores advirtieron del peligro potencial que este poderoso algoritmo representa para la humanidad. Si bien no se revelaron las preocupaciones éticas específicas sobre la IA descritas en la carta, las advertencias fueron suficientes para justificar la decisión de la junta de despedir a Altman.
Mientras tanto, la razón inicial esgrimida para el despido de Altman fue su falta de comunicación. Poco después, encontró un nuevo puesto en Microsoft. Esta acción llevó a 700 de los 770 empleados de OpenAI a amenazar con hacer lo mismo si no reincorporaban al director ejecutivo.
Con la empresa al borde del colapso, la junta directiva de OpenAI se vio obligada a volver a nombrar a Altman en el puesto más alto, lo que también condujo a una importante revisión del equipo ejecutivo de la empresa y puso de relieve profundas divisiones dentro de su liderazgo.
Ahora que Altman ha vuelto a su puesto y es probable que el Proyecto Q* vuelva a recibir luz verde, esto plantea nuevas preguntas.
¿Qué tan realista es el Proyecto Q*?
Aunque los tiempos turbulentos en OpenAI pusieron el concepto de AGI en el centro de atención, esta no es la primera vez que Altman menciona la tecnología.
En septiembre, el emprendedor de Silicon Valley se vio en apuros tras comparar la IA general con «un ser humano promedio que podrías contratar como compañero de trabajo». A continuación, reiteró comentarios que hizo el año pasado sobre cómo esta IA podría «hacer todo lo que se podría hacer con un compañero de trabajo remoto», incluyendo aprender a ser médico y a ser un buen programador.
Si bien comparar la IA general con la inteligencia de un "humano promedio" no es nada nuevo, el uso de la frase por parte de Altman fue considerado "repugnante" por los especialistas en ética de la IA y el profesor de la Universidad de Cambridge Henry Shevlin, a medida que aumentan las preocupaciones en torno al impacto de la IA en la seguridad laboral.
Los avances potenciales en IAG también están haciendo sonar la alarma para otros investigadores: la tecnología se está desarrollando más rápido de lo que la gente puede comprender plenamente su impacto.
OpenAI cree que los resultados positivos de la IA general hacen que valga la pena intentar este arriesgado "campo minado". Sin embargo, a medida que la compañía continúa avanzando en esta dirección, a muchos les preocupa que Altman priorice el éxito comercial sobre el beneficio de los usuarios y la sociedad.
Phuong Anh (Fuente: Tech.co, The Guardian)
[anuncio_2]
Fuente






Kommentar (0)