El contenido engañoso sobre inteligencia artificial incluye hechos inventados, consejos médicos y engaños sobre muertes de celebridades, lo que genera nuevas preocupaciones de que la tecnología podría empeorar el problema de la desinformación en línea.
La preocupación por los sitios web flotantes que utilizan IA para difundir noticias falsas se ha vuelto una realidad. Foto de la ilustración: GI
Los dos informes fueron publicados por separado por NewsGuard, una empresa que rastrea la desinformación en línea, y ShadowDragon, una empresa que proporciona recursos y capacitación para investigaciones digitales.
“Los lectores desconfían cada vez más de las fuentes de noticias, en parte porque no distinguen entre una fuente fiable y una que no lo es”, declaró Steven Brill, director ejecutivo de NewsGuard. “Esta nueva ola de sitios web generados por IA solo dificultará que los lectores sepan quién les proporciona las noticias, lo que socavará aún más la confianza”.
NewsGuard identificó 125 sitios web, que abarcan desde noticias hasta información sobre estilo de vida y publicados en 10 idiomas, con contenido escrito total o principalmente utilizando herramientas de inteligencia artificial.
Los sitios incluyen un portal de salud que, según NewsGuard, ha publicado más de 50 artículos generados por IA que ofrecen consejos médicos.
NewsGuard dijo que los sitios a menudo estaban inundados de anuncios, lo que sugiere que el contenido no auténtico fue creado para atraer anuncios a los propietarios del sitio, quienes a menudo eran completamente anónimos.
ShadowDragon también encontró contenido no auténtico en sitios web y redes sociales, como Instagram y reseñas de Amazon. La compañía también señaló varias cuentas de Instagram que parecían usar ChatGPT u otras herramientas de IA para escribir descripciones debajo de fotos y videos .
Para encontrar ejemplos, los investigadores buscaron desinformación flagrante y respuestas predefinidas generadas frecuentemente por herramientas de IA. Algunos sitios web incluso no eliminaron la información generada por las advertencias de contenido de IA tras solicitarles que escribieran artículos con desinformación o contenido dañino.
ShadowDragon encontró este tipo de mensajes en LinkedIn, la red social de empleos, en publicaciones de Twitter y en muchas otras redes sociales. Algunas publicaciones de Twitter fueron publicadas por bots, como ReplyGPT, que responden automáticamente a los comentarios de los usuarios.
Hoang Hai (según NewsGuard, NYT)
[anuncio_2]
Fuente
Kommentar (0)