Tras el lanzamiento de ChatGPT, la startup OpenAI, su primera aplicación de IA a finales de 2022, se desencadenó una ola de competencia para desarrollar aplicaciones de IA, especialmente la IA generativa, que aporta numerosas ventajas en todos los ámbitos de la vida. Sin embargo, esto también conlleva numerosos riesgos.
Invasión de la privacidad
En los últimos años, muchas organizaciones e individuos han sufrido pérdidas cuando los ciberdelincuentes utilizaron IA para crear videoclips que falsificaban imágenes y voces de personas reales. Un ejemplo es el truco del deepfake.
Según el Informe de Fraude de Identidad publicado por Sumsub a finales de noviembre de 2023, las estafas de deepfake se multiplicaron por diez a nivel mundial entre 2022 y 2023. Este fue también el momento en que las aplicaciones de inteligencia artificial se dispararon a nivel mundial .
Status Labs señala que los deepfakes han tenido un gran impacto en la cultura, la privacidad y la reputación personal. Gran parte de las noticias y la atención en torno a los deepfakes se han centrado en la pornografía con famosos, la pornografía vengativa, la desinformación, las noticias falsas, el chantaje y las estafas. Por ejemplo, en 2019, una empresa energética estadounidense fue estafada por 243.000 dólares por un hacker que falsificó la imagen y la voz de los ejecutivos de la empresa y pidió a los empleados que transfirieran dinero a sus socios.
Reuters informó que, en 2023, se compartieron alrededor de 500.000 videos y audios de deepfakes en redes sociales a nivel mundial. Además de los deepfakes por diversión, existen trucos creados por delincuentes para estafar a la comunidad. Según fuentes, en 2022, se estima que las estafas de deepfakes a nivel mundial causaron pérdidas de hasta 11 millones de dólares.
Muchos expertos en tecnología han advertido sobre los efectos negativos de la IA, incluyendo los derechos de propiedad intelectual y la autenticidad, y, además, las disputas de propiedad intelectual entre obras creadas por IA. Por ejemplo, una persona le pide a una aplicación de IA que dibuje una imagen con un tema determinado, pero otra persona le pide a la IA que haga lo mismo, lo que da como resultado pinturas con muchas similitudes.
Es muy probable que esto genere disputas sobre la propiedad. Sin embargo, hasta la fecha, el mundo aún no ha tomado una decisión sobre el reconocimiento de los derechos de autor para el contenido generado por IA (reconocimiento de los derechos de autor para las personas que encargan IA creativa o las empresas que desarrollan aplicaciones de IA).
Una imagen generada por una aplicación de IA
Es difícil distinguir entre lo real y lo falso.
Entonces, ¿puede el contenido generado por IA infringir los derechos de autor? En términos tecnológicos, el contenido generado por IA se sintetiza mediante algoritmos a partir de los datos con los que se ha entrenado. Los desarrolladores de aplicaciones de IA recopilan estas bases de datos de diversas fuentes, principalmente de la base de conocimiento en internet. Muchas de estas obras están protegidas por derechos de autor.
El 27 de diciembre de 2023, The New York Times (EE. UU.) demandó a OpenAI (con ChatGPT) y a Microsoft, alegando que millones de sus artículos se utilizaron para entrenar chatbots y plataformas de IA de ambas compañías. La evidencia demuestra que existe contenido creado por chatbots a petición de los usuarios, igual o similar al contenido de los artículos. Este periódico no puede ignorar que su "propiedad intelectual" sea utilizada por empresas con fines de lucro.
The New York Times es el primer periódico importante de EE. UU. en presentar una demanda por derechos de autor relacionada con la IA. Es posible que otros periódicos sigan su ejemplo en el futuro, especialmente tras el éxito de The New York Times.
Anteriormente, OpenAI llegó a un acuerdo de licencia de derechos de autor con la agencia de noticias Associated Press en julio de 2023 y con Axel Springer, un editor alemán propietario de dos periódicos, Politico y Business Insider, en diciembre de 2023.
La actriz Sarah Silverman también se unió a dos demandas en julio de 2023, acusando a Meta y OpenAI de usar sus memorias como texto de entrenamiento para programas de IA. Muchos escritores también expresaron su alarma cuando se reveló que los sistemas de IA habían absorbido decenas de miles de libros en sus bases de datos, lo que dio lugar a demandas de autores como Jonathan Franzen y John Grisham.
Mientras tanto, el servicio de fotografía Getty Images también demandó a una empresa de inteligencia artificial por crear imágenes basadas en indicaciones de texto debido al uso no autorizado de material visual con derechos de autor de la empresa...
Los usuarios pueden incurrir en problemas de derechos de autor si utilizan de forma descuidada las obras que han solicitado a las herramientas de IA. Los expertos siempre recomiendan usar las herramientas de IA únicamente para buscar, recopilar datos y hacer sugerencias de referencia.
Por otro lado, las aplicaciones de IA confunden a los usuarios cuando no pueden distinguir entre la verdad y la falsedad de un contenido. Las editoriales y las redacciones de periódicos pueden confundirse al recibir manuscritos. Los profesores también tienen dificultades para saber si el trabajo de los estudiantes utiliza IA o no.
La comunidad ahora tendrá que estar más atenta, ya que se desconoce qué es real y qué es falso. Por ejemplo, será difícil para una persona promedio detectar si una foto ha sido "encantada" o editada por IA.
Se necesitan regulaciones legales sobre el uso de la IA
A la espera de herramientas de aplicación que detecten la intervención de la IA, las agencias de gestión necesitan contar pronto con regulaciones legales claras y específicas sobre el uso de esta tecnología para crear contenido privado. Las regulaciones legales deben demostrar que el contenido y las obras han sido intervenidos por la IA, como la inclusión de una marca de agua predeterminada en las imágenes manipuladas por esta.
[anuncio_2]
Fuente: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
Kommentar (0)