Si alguna vez has navegado por las redes sociales, es probable que te hayas topado con una imagen o un vídeo generados por IA. Muchos han sido engañados, como el vídeo viral de conejos saltando en un trampolín. Pero Sora, la aplicación hermana de ChatGPT, desarrollada por OpenAI, está llevando los vídeos generados por IA al siguiente nivel, lo que hace imprescindible detectar contenido falso.

Las herramientas de video con IA hacen que sea más difícil que nunca distinguir la realidad. (Fuente: CNET)
Lanzada en 2024 y actualizada recientemente con Sora 2, la aplicación cuenta con una interfaz similar a la de TikTok, donde cada video es generado por IA. La función "cameo" permite insertar personas reales en el metraje simulado, creando videos tan realistas que resultan aterradores.
Como resultado, muchos expertos temen que Sora difunda deepfakes, creando confusión y difuminando la línea entre lo real y lo falso. Las celebridades son particularmente vulnerables, lo que ha llevado a organizaciones como SAG-AFTRA a solicitar a OpenAI que refuerce sus protecciones.
Identificar contenido de IA es un gran desafío tanto para las empresas tecnológicas como para las redes sociales y los usuarios. Pero existen maneras de reconocer videos creados con Sora.
Encuentra la marca de agua de Sora

La marca de agua de Sora (flecha verde apuntando hacia adentro) es una señal que identifica qué herramienta creó el video. (Fuente: CNET)
Cada video creado en la aplicación Sora iOS obtiene una marca de agua cuando se descarga: un logotipo blanco de Sora (ícono de nube) que se mueve por los bordes del video, similar a la marca de agua de TikTok.
Esta es una forma intuitiva de reconocer contenido generado por IA. Por ejemplo, el modelo "nano banana" de Google, Gemini, también añade automáticamente marcas de agua a las imágenes. Sin embargo, las marcas de agua no siempre son fiables. Si la marca de agua es estática, se puede recortar fácilmente. Incluso las marcas de agua dinámicas, como las de Sora, se pueden eliminar con aplicaciones específicas.
Al ser preguntado sobre esto, Sam Altman, director ejecutivo de OpenAI, afirmó que la sociedad necesita adaptarse a que cualquiera puede crear videos falsos. Antes de Sora, no existía una herramienta de este tipo que fuera ampliamente disponible, accesible y no requiriera habilidades. Su opinión apunta a la necesidad de recurrir a otros métodos de verificación.
Comprobar metadatos

Verificar metadatos: un paso clave para determinar si un video fue generado por IA, como Sora. (Fuente: Canto)
Podrías pensar que verificar metadatos es demasiado complicado, pero en realidad es bastante simple y muy efectivo.
Los metadatos son un conjunto de información que se adjunta automáticamente al contenido al crearse, como el tipo de cámara, la ubicación, la hora de grabación y el nombre del archivo. Ya sea contenido generado por humanos o por IA, se incluyen metadatos. En el caso del contenido con IA, los metadatos suelen acompañar a la información que autentica su origen.
OpenAI es miembro de la Alianza de Autenticación y Procedencia de Contenido (C2PA), por lo que los vídeos de Sora contendrán metadatos de C2PA. Puede comprobarlo utilizando la herramienta de verificación de la Iniciativa de Autenticación de Contenido:
Cómo comprobar los metadatos:
- Visita verify.contentauthenticity.org
- Sube el archivo a revisar
- Haga clic en “Abrir”
- Ver información en la tabla de la derecha.
Si el video fue generado por IA, el resumen lo indicará. Al revisar un video de Sora, verás la leyenda "Publicado por OpenAI" e información que confirma que fue generado con IA. Todos los videos de Sora deben incluir esta información para verificar su origen.
Fuente: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Kommentar (0)