El trabajo pionero de Hinton en redes neuronales ha dado forma a los sistemas de inteligencia artificial (IA) presentes en muchos productos actuales. Trabajó a tiempo parcial en Google durante aproximadamente una década, pero también se volvió escéptico sobre la tecnología y su papel en su desarrollo.
"Me consolé pensando que si no lo hacía yo, lo haría otro", dijo al New York Times, que fue el primero en informar sobre su decisión de dejar Google.
En un tuit publicado el 1 de mayo, compartió que dejó Google para poder hablar libremente sobre los riesgos de la IA sin tener que considerar cómo afectaría a la empresa. «Google ha actuado con mucha responsabilidad», comentó.
Jeff Dean, director científico de Google, elogió a Hinton por sus avances fundamentales en IA y expresó su gratitud por su década de servicio a Google. Dean también enfatizó que Google seguirá aprendiendo a comprender los nuevos riesgos mientras innova con audacia.
La decisión de Hinton llega mientras un número creciente de legisladores, grupos de defensa y expertos de la industria advierten sobre los riesgos de una nueva generación de chatbots de inteligencia artificial que difunden información errónea y reemplazan trabajos humanos.
El auge del interés en ChatGPT, surgido el año pasado, ha impulsado una vez más una carrera armamentística entre las empresas tecnológicas para desarrollar e implementar herramientas de IA. OpenAI, Microsoft y Google lideran la iniciativa, mientras que IBM, Amazon, Baidu y Tencent también trabajan en una tecnología similar.
En marzo, varias figuras prominentes del mundo tecnológico firmaron una carta abierta instando a los laboratorios de IA a suspender el entrenamiento de sus sistemas de IA más potentes durante al menos seis meses, alegando "profundos riesgos para la sociedad y la humanidad". La carta llegó apenas dos semanas después de que OpenAI anunciara GPT-4, su versión más potente hasta la fecha, capaz de superar pruebas estandarizadas y crear un sitio web a partir de bocetos hechos a mano.
En una entrevista con el New York Times , Hinton reiteró su preocupación por el potencial de la IA para destruir empleos y crear un mundo donde muchas personas "no sabrán qué es real". También destacó el increíble ritmo de desarrollo de la IA, que ha superado con creces lo que otros y él mismo habían predicho. Alguna vez pensó que la IA tardaría entre 30 y 50 años en ser más inteligente que los humanos, pero ya no lo cree así.
Antes de dejar Google, también habló sobre los peligros de la IA, además de sus beneficios. En 2021, en su discurso de graduación en el Instituto Indio de Tecnología de Bombay, afirmó que «los rápidos avances en IA cambiarán la sociedad de maneras que desconocemos, y no todos los impactos serán positivos». Para él, la posibilidad de que la IA cree oportunidades para armas asesinas autónomas es mucho más peligrosa y aterradora que la perspectiva de que los robots dominen a los humanos.
Hinton no es el primer empleado de Google que alerta sobre la IA. En julio de 2022, Google despidió a un ingeniero que afirmó que uno de los sistemas de IA de la compañía era consciente. Sin embargo, muchos en la comunidad de IA cuestionaron firmemente las afirmaciones del ingeniero.
(Según CNN)
[anuncio_2]
Fuente
Kommentar (0)