Desde que el grupo militante Hamás atacó a Israel el 7 de octubre, se han difundido afirmaciones falsas e imágenes falsas en Facebook y otras redes sociales.
Logotipo de Meta. Foto: Reuters
En los tres días posteriores al ataque, Meta afirmó haber eliminado o marcado como “desestabilizadores” más de 795.000 piezas de contenido en hebreo o árabe.
Meta también está ampliando temporalmente su política de violencia e incitación, eliminando contenido que identifica explícitamente a los rehenes retenidos por Hamás, incluso cuando se hace para condenar o crear conciencia sobre su difícil situación.
Todavía se permite el contenido con imágenes borrosas de las víctimas, pero la compañía priorizará la seguridad y privacidad de las víctimas de secuestro si no está segura o no puede hacer una evaluación clara.
Tras el ataque, Hamás tomó varios rehenes israelíes y extranjeros en Gaza.
Meta afirmó que estaba al tanto de la amenaza de Hamás de emitir imágenes de los rehenes y que eliminaría rápidamente cualquier contenido de ese tipo y evitaría que se volviera a compartir.
La Comisión Europea ha estado presionando a las plataformas de redes sociales para que eliminen contenido ilegal y dañino para cumplir con la Ley de Servicios Digitales (DSA), lo que podría resultar en fuertes multas en caso de incumplimiento.
La respuesta de Meta contrasta con la de X. La red social de Elon Musk ha solicitado a la Comisión Europea más información sobre las infracciones en su sitio. La Comisión ha abierto una investigación sobre X.
Mai Anh (según Reuters)
[anuncio_2]
Fuente
Kommentar (0)