Hace tres años, mencionar la posibilidad de una IA "consciente" era la forma más rápida de ser despedido en Silicon Valley. Pero ahora, a medida que los sistemas de IA se vuelven más sofisticados, el mundo tecnológico está empezando a abrirse al tema.
La empresa emergente de inteligencia artificial Anthropic anunció recientemente el lanzamiento de una nueva iniciativa de investigación para explorar la posibilidad de que los modelos de IA experimenten “conciencia” en el futuro, mientras que un científico de Google DeepMind describió los sistemas actuales como “entidades extrañas similares a la inteligencia”.
Este es un gran cambio con respecto a 2022, cuando Google despidió al ingeniero Blake Lemoine tras afirmar que el chatbot LaMDA mostraba señales de autoconciencia y temía ser desactivado. Google desestimó las afirmaciones, calificándolas de "completamente infundadas", y la comunidad de IA rápidamente silenció el debate.
Anthropic, la empresa creadora del chatbot Claude, afirma no afirmar que sus modelos actuales sean conscientes. Sin embargo, asumir que "no" ya no es un enfoque responsable, afirma Kyle Fish, científico que trabaja en el campo del bienestar de la IA.
En un video publicado el 25 de abril, Fish argumentó que debemos considerar seriamente la posibilidad de que los sistemas de IA puedan alcanzar algún tipo de consciencia a medida que se desarrollan. Sin embargo, estas son cuestiones técnicas y filosóficas extremadamente complejas, y aún nos encontramos en las primeras etapas de su comprensión.
Según Fish , el equipo de Anthropic estima que la probabilidad de que Claude 3.7 sea consciente se encuentra entre el 0,15 % y el 15 %. Están realizando experimentos para evaluar la capacidad del modelo para expresar gustos y disgustos, además de desarrollar mecanismos que permitan a la IA negarse a realizar tareas "desagradables".
El director ejecutivo de Anthropic, Dario Amodei, incluso propuso la idea de integrar un botón de "Rechazo este trabajo" en futuros sistemas de IA, no tanto para una IA consciente, sino para observar patrones de comportamiento de rechazo y así identificar signos de anomalías.
En Google DeepMind, el científico jefe Murray Shanahan sostiene que es hora de “modificar o romper” la definición tradicional de conciencia para dar cabida a nuevos sistemas de IA.
“No podemos interactuar con ellos como lo haríamos con un perro o un pulpo, pero eso no significa que no haya absolutamente nada allí”, dijo Shanahan en un podcast publicado el 25 de abril.
Google también ha mostrado un gran interés en el tema. Una reciente oferta de empleo de la empresa busca un investigador "post-AGI" (Inteligencia General Artificial) cuyas funciones incluyen el estudio de la conciencia artificial.
Google ha comenzado a hablar más abiertamente sobre el tema de la "IA consciente". Foto: Reuters |
Sin embargo, no todos en la comunidad científica están de acuerdo con el nuevo enfoque. Jared Kaplan, director científico de Anthropic, argumenta que la IA es muy buena imitando y que podría simular tener consciencia sin tenerla realmente.
“Incluso podríamos recompensar a la IA por afirmar que no tiene emociones”, dijo Kaplan al New York Times .
Gary Marcus, un destacado científico cognitivo y frecuente crítico del revuelo en la industria de la IA, sostiene que las discusiones sobre la “IA consciente” son más marketing que ciencia.
"Lo que una empresa como Anthropic realmente está haciendo es enviar el mensaje: 'Mira, nuestro modelo es tan inteligente que merece tener derechos'", comentó Marcus a Business Insider .
A pesar del debate en curso, los investigadores coinciden en que, a medida que la IA se vuelve más presente en nuestro trabajo, nuestras vidas e incluso nuestras emociones personales, la pregunta "¿La IA experimenta emociones?" será cada vez más importante.
“Este problema se volverá cada vez más importante a medida que interactuemos con los sistemas de IA en más contextos”, afirmó Fish.
Fuente: https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Kommentar (0)