Vietnam.vn - Nền tảng quảng bá Việt Nam

Sólo hay un 5% de posibilidades de que la IA haga que los humanos se extingan.

VTC NewsVTC News05/01/2024

[anuncio_1]

Durante el último año, hemos escuchado mucho sobre la amenaza de que la IA destruya a la humanidad. Desde los padrinos de la IA hasta los principales directores ejecutivos, parece haber un flujo constante de advertencias de que la IA será nuestro enemigo en lugar de nuestro amigo.

Los líderes de la industria y los pesos pesados ​​de la IA dicen que el rápido crecimiento de la tecnología podría tener consecuencias catastróficas para el mundo . Pero según muchos pioneros de la IA, este escenario pretende distraer la atención de los problemas de IA más urgentes que necesitan resolverse hoy en día.

Sólo hay un 5% de posibilidades de que la IA haga que los humanos se extingan. (Foto: Keymatrixsolutions)

Sólo hay un 5% de posibilidades de que la IA haga que los humanos se extingan. (Foto: Keymatrixsolutions)

Si bien muchos investigadores de IA reconocen el potencial de amenazas existenciales que plantea, otros no creen que sea probable que se produzcan resultados tan dramáticos, como sugiere una gran encuesta reciente realizada a investigadores de IA.

En la nueva encuesta, se les preguntaron a 2.778 investigadores de IA participantes sobre las consecuencias sociales del desarrollo de la IA, así como sobre los posibles plazos para el futuro de la tecnología. Los resultados mostraron que casi el 58% de los encuestados dijeron que consideraban que la amenaza de extinción humana u otros resultados extremadamente malos provocados por la tecnología de IA rondaba el 5%.

El estudio también encontró que la IA tiene un 50% de posibilidades de superar a los humanos en todas las tareas para 2047, mientras que la IA tiene un 50% de posibilidades de automatizar todas las tareas humanas para 2116. El trabajo fue publicado por investigadores y académicos de universidades de todo el mundo, incluidas Oxford y Bonn en Alemania.

Algunos expertos en IA, entre ellos el cofundador de Google Brain, Andrew Ng, y el “padrino” de la industria de la IA, Yann LeCun, han desestimado algunos de los escenarios apocalípticos más amplios impulsados ​​por la IA. LeCun incluso acusó a líderes tecnológicos como Sam Altman de tener motivos ocultos para avivar los temores sobre la IA.

El padrino de la IA, Yann LeCun, científico jefe de IA en Meta, ha acusado a algunos de los fundadores más destacados en el campo de la IA de "infundir miedo" deliberadamente y "presionar a las grandes empresas" para que sirvan a sus propios intereses. Gran parte de la retórica apocalíptica, dijo, tiene como objetivo mantener el control de la IA en manos de unos pocos.

Andrew Ng, profesor de la Universidad de Stanford y cofundador de Google Brain, tiene una opinión similar. Algunas empresas están explotando los temores en torno a la IA para afirmar su propio dominio del mercado, dijo al Australian Financial Review.

HUYNH DUNG (Fuente: Businessinsider/Newscientist)


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Misma categoría

Cat Ba - Sinfonía de verano
Encuentra tu propio Noroeste
Admira la "puerta de entrada al cielo" Pu Luong - Thanh Hoa
Ceremonia de izamiento de la bandera para el funeral de Estado del expresidente Tran Duc Luong bajo la lluvia

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto