Press "Enter" to skip to content

Facebook, Twitter y YouTube luchan con videos alterados antes de las elecciones de 2020

Cuando la presidenta de la Cámara de Representantes, Nancy Pelosi, apareció en un video alterado que atacó su credibilidad, sus palabras sonaron entrecortadas y confusas. Pero es la reacción de Facebook, Twitter y YouTube, que impulsó la difusión del video, lo que provocó desacuerdos sobre cómo las empresas de tecnología deben manejar el contenido manipulado.

El 22 de mayo, una página de Facebook llamada Politics WatchDog publicó el video, que se ralentizó para dar la impresión de que la legisladora de California estaba difamando sus palabras. Rápidamente llegó a las tres redes sociales. En una muestra temprana de los desafíos que podrían enfrentar durante las elecciones de 2020 en Estados Unidos, cada uno tuvo respuestas diferentes.

Facebook permitió que el video permaneciera en su servicio, pero mostró artículos de fact-checkers. YouTube lo tiró. Twitter lo dejó en su plataforma.

Las diferentes respuestas subrayan el desafío que el vídeo manipulado, y la desinformación en general, plantean a las empresas. Las redes sociales tienen reglas contra la publicación intencionada de información engañosa, pero también tratan de fomentar la libertad de expresión. Encontrar un equilibrio, particularmente cuando se calienta lo que promete ser una temporada electoral especialmente dura, está resultando difícil.

Se está ejerciendo presión sobre ellos para que encuentren una respuesta.

El jueves, el Comité de Inteligencia de la Cámara de Representantes tiene programada una audiencia sobre medios manipulados y «falsificaciones», una técnica que utiliza la inteligencia artificial para crear videos de personas que hacen o dicen algo que no hicieron. El vídeo de Pelosi, una forma más simple de vídeo editado que algunos espectadores pensaban que era real, no se considera una falsificación, pero probablemente formará parte de la discusión.

«El video de Pelosi realmente resaltó los problemas que las compañías de medios sociales enfrentan al tomar estas decisiones», dijo Eric Goldman, director del Instituto de Derecho de Alta Tecnología de la Universidad de Santa Clara. El video, dijo, es engañoso y fue «convertido en arma», pero agregó que podría considerarse un comentario político.

El problema probablemente empeorará. El software de Deepfake ya está disponible en línea. Las primeras falsificaciones profundas dependían de cientos o miles de fotografías de la persona que estaba siendo falsificada para obtener resultados convincentes. Debido a que los políticos llevan una vida pública, hay muchas fotografías disponibles.

Pero incluso ese requisito está cambiando. Samsung dijo recientemente que había desarrollado una técnica que permite crear vídeos falsos relativamente realistas a partir de una sola imagen. Es casi seguro que el enfoque será de ingeniería inversa, lo que facilitará la fabricación de vídeos engañosos.

Se han creado vídeos de Deepfake de Kim Kardashian, el director ejecutivo de Facebook Mark Zuckerberg y el ex presidente Barack Obama. La calidad de estos videos falsos preocupa a la Comunidad de Inteligencia de los Estados Unidos, ya que podrían ser utilizados para inmiscuirse en las elecciones tanto en los Estados Unidos como en sus aliados.

«Los adversarios y los competidores estratégicos probablemente intentarán usar falsificaciones profundas o tecnologías similares de aprendizaje por máquina para crear archivos de imagen, audio y video convincentes, pero falsos, para aumentar las campañas de influencia dirigidas contra Estados Unidos y nuestros aliados y socios», dijo la Evaluación Mundial de Amenazas 2019 de la Comunidad de Inteligencia de Estados Unidos.

(Un documento académico publicado el miércoles esbozó una nueva técnica para detectar falsificaciones de líderes mundiales, aunque no funcionaría para la gente común).

Lucha contra la desinformación
Las plataformas de medios sociales admiten que dejaron caer la pelota durante las elecciones presidenciales de 2016 en Estados Unidos, permitiendo a los trolls rusos publicar información falsa y sembrar la división entre los estadounidenses. Las principales plataformas han mejorado sus defensas desde entonces, aunque no está claro si alguna vez estarán totalmente preparadas.

Facebook utiliza una mezcla de IA y seres humanos para marcar contenido ofensivo y la compañía emplea equipos de ingeniería dedicados que se centran en sistemas para identificar fotos, vídeos y audio manipulados. Facebook también ha estado examinando si necesita una política más específica para hacer frente a los medios de comunicación manipulados, según un informe de MarketWatch.

Be First to Comment

Deja un comentario