Durante el último año, hemos escuchado mucho sobre el potencial de la IA para destruir a la humanidad. Desde los padrinos de la IA hasta los principales directores ejecutivos, parece haber un flujo constante de advertencias de que la IA será nuestra enemiga, no nuestra amiga.
Los líderes de la industria y los pesos pesados de la IA afirman que el rápido desarrollo de la tecnología podría tener consecuencias catastróficas para el mundo . Sin embargo, según muchos pioneros de la IA, este escenario está diseñado para distraer la atención de los problemas más urgentes de la IA que deben resolverse hoy.
Solo hay un 5% de probabilidad de que la IA provoque la extinción de los humanos. (Foto: Keymatrixsolutions)
Si bien muchos investigadores de IA reconocen el potencial de amenazas existenciales que plantea, otros no creen que sea probable que se produzcan resultados tan dramáticos, como sugiere una nueva encuesta a gran escala realizada entre investigadores de IA.
En la nueva encuesta, se preguntó a 2778 investigadores de IA sobre las consecuencias sociales del desarrollo de la IA, así como sobre los posibles plazos para el futuro de esta tecnología. Los resultados mostraron que casi el 58 % de los encuestados afirmó considerar que la amenaza de extinción humana u otras consecuencias extremadamente negativas derivadas de la tecnología de IA rondaba el 5 %.
El estudio también encontró que la IA tiene un 50% de posibilidades de superar a los humanos en todas las tareas para 2047, mientras que la IA tiene un 50% de posibilidades de automatizar todas las tareas humanas para 2116. El trabajo fue publicado por investigadores y académicos de universidades de todo el mundo, incluidas Oxford y Bonn en Alemania.
Algunos expertos en IA, como Andrew Ng, cofundador de Google Brain, y Yann LeCun, el "padrino" de la industria, han desestimado algunos de los escenarios catastróficos más amplios impulsados por la IA. LeCun incluso ha acusado a líderes tecnológicos como Sam Altman de tener segundas intenciones para avivar el temor a la IA.
El padrino de la IA, Yann LeCun, científico jefe de IA en Meta, ha acusado a algunos de los fundadores más destacados del sector de la IA de "infundir miedo" y "presionar a las corporaciones" para favorecer sus propios intereses. Gran parte de la retórica catastrófica, afirma, busca mantener el control de la IA en manos de unos pocos.
Andrew Ng, profesor de la Universidad de Stanford y cofundador de Google Brain, comparte una opinión similar. Declaró al Australian Financial Review que algunas empresas están aprovechando el miedo en torno a la IA para consolidar su dominio del mercado.
HUYNH DUNG (Fuente: Businessinsider/Newscientist)
[anuncio_2]
Fuente










Kommentar (0)