Tras el lanzamiento de ChatGPT, la primera aplicación de IA de la startup OpenAI a finales de 2022, se desató una carrera por desarrollar aplicaciones de IA, especialmente de IA generativa, que aporta numerosas ventajas en todos los ámbitos de la vida. Sin embargo, esto también conlleva muchos riesgos.
Invasión de la privacidad
En los últimos años, numerosas organizaciones y particulares han sufrido pérdidas cuando ciberdelincuentes han utilizado inteligencia artificial para crear vídeos que falsifican las imágenes y las voces de personas reales. Un ejemplo de ello es la técnica conocida como deepfake, que consiste en hacer que lo falso se vuelva real.
Según el Informe sobre Fraude de Identidad publicado por Sumsub a finales de noviembre de 2023, las estafas con deepfakes a nivel mundial se multiplicaron por 10 entre 2022 y 2023. Este es también el momento en que las aplicaciones de inteligencia artificial (IA) experimentaron un auge sin precedentes en todo el mundo .
Status Labs señala que la tecnología deepfake ha tenido un gran impacto en la cultura, la privacidad y la reputación personal. Gran parte de las noticias y la atención en torno a deepfake se han centrado en la pornografía de celebridades, la pornografía de venganza, la desinformación, las noticias falsas, el chantaje y las estafas. Por ejemplo, en 2019, una empresa energética estadounidense fue víctima de una estafa de 243 000 dólares por parte de un hacker que suplantó la imagen y la voz de los directivos de la empresa y pidió a los empleados que transfirieran dinero a socios.
La agencia de noticias Reuters informó que en 2023 se compartieron en redes sociales alrededor de 500.000 contenidos deepfake (vídeo y audio) en todo el mundo. Además de los deepfakes creados con fines recreativos, existen engaños perpetrados por ciberdelincuentes para estafar a la comunidad. Algunas fuentes indicaron que, en 2022, las estafas con deepfakes a nivel mundial causaron pérdidas estimadas en 11 millones de dólares.
Muchos expertos en tecnología han advertido sobre los efectos negativos de la IA, incluyendo los derechos de propiedad intelectual y la autenticidad, y además, las disputas sobre propiedad intelectual entre "obras" creadas por IA. Por ejemplo, una persona le pide a una aplicación de IA que dibuje una imagen con un tema determinado, pero otra persona le pide lo mismo, lo que da como resultado pinturas con muchas similitudes.
Es muy probable que esto dé lugar a disputas sobre la propiedad intelectual. Sin embargo, hasta la fecha, no se ha tomado una decisión sobre el reconocimiento de los derechos de autor para el contenido generado por IA (es decir, el reconocimiento de la autoría para las personas que encargan IA creativa o las empresas que desarrollan aplicaciones de IA).
Una imagen generada por una aplicación de IA
Es difícil distinguir entre lo real y lo falso.
¿Puede el contenido generado por IA infringir los derechos de autor? Tecnológicamente, este tipo de contenido se sintetiza mediante algoritmos a partir de datos con los que se ha entrenado. Los desarrolladores de aplicaciones de IA recopilan estas bases de datos de diversas fuentes, principalmente de internet. Muchas de estas obras están protegidas por derechos de autor.
El 27 de diciembre de 2023, The New York Times (EE. UU.) demandó a OpenAI (con ChatGPT) y Microsoft, alegando que millones de sus artículos se utilizaron para entrenar chatbots y plataformas de IA de estas dos compañías. La evidencia demuestra que existe contenido creado por chatbots a petición de los usuarios que es idéntico o similar al de los artículos. Este periódico no puede ignorar que su propiedad intelectual sea utilizada con fines lucrativos por empresas.
El New York Times es el primer gran periódico estadounidense en interponer una demanda por derechos de autor relacionada con la IA. Es posible que otros periódicos sigan su ejemplo en el futuro, especialmente tras el éxito del New York Times.
Anteriormente, OpenAI llegó a un acuerdo de licencia de derechos de autor con la agencia de noticias Associated Press en julio de 2023 y con Axel Springer, la editorial alemana propietaria de los periódicos Politico y Business Insider, en diciembre de 2023.
La actriz Sarah Silverman también se unió a una demanda en julio de 2023, acusando a Meta y OpenAI de utilizar sus memorias como texto de entrenamiento para programas de IA. Muchos escritores también expresaron su alarma cuando se reveló que los sistemas de IA habían incorporado decenas de miles de libros a sus bases de datos, lo que dio lugar a demandas por parte de autores como Jonathan Franzen y John Grisham.
Mientras tanto, el servicio fotográfico Getty Images también ha demandado a una empresa de IA por crear imágenes a partir de indicaciones de texto debido al uso no autorizado del material gráfico protegido por derechos de autor de la empresa...
Los usuarios pueden incurrir en problemas de derechos de autor cuando utilizan de forma negligente obras que han solicitado a herramientas de IA que creen. Los expertos siempre recomiendan utilizar las herramientas de IA únicamente para búsquedas, recopilación de datos y sugerencias con fines de referencia.
Por otro lado, las aplicaciones de IA confunden a los usuarios cuando no pueden distinguir entre la verdad y la falsedad de un contenido. Las editoriales y las redacciones pueden confundirse al recibir manuscritos. Los profesores también tienen dificultades para saber si los trabajos de los alumnos utilizan IA o no.
La comunidad deberá estar más atenta, ya que se desconoce qué es real y qué es falso. Por ejemplo, será difícil para el ciudadano medio detectar si una fotografía ha sido retocada o editada mediante inteligencia artificial.
Se necesitan regulaciones legales sobre el uso de la IA.
Mientras se esperan herramientas de aplicación capaces de detectar la intervención de la IA, las agencias de gestión necesitan contar pronto con regulaciones legales claras y específicas sobre el uso de esta tecnología para la creación de contenido privado. Dichas regulaciones deben indicar claramente que el contenido y las obras han sido intervenidos por IA, por ejemplo, mediante la inclusión de marcas de agua por defecto en las imágenes manipuladas por IA.
Fuente: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm






Kommentar (0)