icon

MIT muestra que desinformar es cada vez más sencillo y Princenton se opone

Para ilustrar los peligros de las falsificaciones profundas (audio y video manipulados en forma realista), un equipo del Centro para la Virtualidad Avanzada del Instituto Tecnológico de Massachusetts (MIT), desarrolló una falsificación "completa" del presidente Richard Nixon pronunciando un discurso de contingencia escrito en 1969 para un escenario en el que los 3 tripulantes de la misión Apolo 11 no pudieron regresar de la Luna.

El equipo de D. Fox Harrell, Francesca Panetta y Halsey Burgund trabajaron con un actor de voz y una compañía llamada Respeecher para producir el habla sintética utilizando técnicas de aprendizaje profundo (una modalidad de aprendizaje automático). 

El aprendizaje automático es un método de inteligencia artificial para permitir al software aprender a partir de datos nuevos, actualizando sus propios resultados para reflejar las repercusiones de la nueva información.

En la demostración, ellos lograron alterar los dichos del presidente Nixon en una filmación e incluso modificaron el movimiento de sus labios para que coincidiera con su supuesto discurso.

Los artífices del inquietante experimento también trabajaron con la compañía Canny AI para usar técnicas de reemplazo de diálogo en video con las que estudiar y replicar el movimiento de la boca y los labios de Nixon. 

A través de estas sofisticadas tecnologías de aprendizaje automático, la película de 7 minutos muestra lo convincente que pueden ser las falsificaciones actuales de material audiovisual.

"Con este proyecto, y un protocolo sobre desinformación que se está construyendo a su alrededor, nuestra directora creativa de XR, Francesca Panetta, está impulsando uno de los objetivos generales del centro: usar inteligencia artificial y tecnologías de virtualidad para apoyar la expresión creativa y la verdad", agregó Harrell.

Dirigido por Panetta y Halsey Burgund, miembro del MIT Open Documentary Lab, un equipo interdisciplinario de artistas, periodistas, cineastas, diseñadores e informáticos ha creado un sitio web de recursos, interactivo, donde los educadores y los consumidores de medios pueden profundizar su comprensión de las falsificaciones profundas: cómo se hacen y cómo funcionan; su uso potencial y mal uso; qué se está haciendo para combatir las falsificaciones profundas; y recursos de enseñanza y aprendizaje. 

También hay un nuevo documental, "To Make a Deepfake", una película de 30 minutos de Scientific American, que utiliza "En caso de desastre lunar" como punto de partida para explicar la tecnología detrás de los medios generados por la IA. 

El otro dato

En tanto, un equipo de investigación dirigido por la Universidad de Princeton ha desarrollado una técnica para rastrear las campañas de desinformación extranjera en tiempo real, que podría ayudar a mitigar la interferencia exterior en las elecciones estadounidenses de 2020.

Los investigadores desarrollaron un método para usar el aprendizaje automático para identificar cuentas de Internet maliciosas, o trolls, basándose en su comportamiento pasado. Presentado en la revista Science Advances, el modelo investigó las supuestas pasadas campañas de desinformación que China, Rusia y Venezuela habrían realizado contra USA antes y después de las elecciones de 2016.

El equipo identificó los patrones que siguieron estas campañas analizando las publicaciones en Twitter y Reddit y los hipervínculos o URLs que incluyeron. 

"Lo que nuestra investigación significa es que se podría estimar en tiempo real cuántos hay ahí fuera y de qué están hablando", dijo Jacob N. Shapiro, profesor de política y asuntos internacionales de la Escuela de Asuntos Públicos e Internacionales de Princeton. "No es perfecto, pero obligaría a estos actores a ser más creativos y posiblemente a detener sus esfuerzos".

Shapiro y su adjunto Meysam Alizadeh llevaron a cabo el estudio con Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.

El equipo comenzó con una simple pregunta: "Utilizando solo características basadas en el contenido y ejemplos de actividades de campañas de influencia conocidas, ¿podrían mirarse otros contenidos y decir si un determinado mensaje formaba parte de una campaña de influencia?"

Eligieron investigar una unidad conocida como "par postURL", que es un post con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información entre humanos y bots. El equipo teorizó que con el tiempo pueden aparecer frecuentemente posts similares en distintas plataformas.

Combinaron datos sobre campañas de trolls de Twitter y Reddit con un rico conjunto de datos sobre publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados a lo largo de muchos años por el Centro de Medios Sociales y Política de la Universidad de Nueva York (CSMaP). 

Los datos de los trolls incluían trolls chinos, rusos y venezolanos que sumaban un total de 8.000 cuentas y 7,2 millones de posts desde finales de 2015 hasta 2019.

Según Tucker, "usamos los datos para entrenar el modelo para distinguir entre los tweets de las campañas de influencia coordinadas y los de los usuarios ordinarios".

El equipo consideró las características del propio post, como el tiempo, el número de palabras, o si el dominio de la URL mencionada era un sitio web de noticias. También examinaron lo que llamaron "metacontenido", o cómo el mensaje de un post se relacionaba con otra información compartida en ese momento (por ejemplo, si una URL estaba entre los 25 principales dominios políticos compartidos por los trolls).

"La visión de Meysam sobre el metacontenido fue clave", dijo Shapiro. "Vio que podíamos usar la máquina para replicar la intuición humana de que 'algo de este post parece fuera de lugar'. Tanto los trolls como la gente normal a menudo incluyen URLs de noticias locales en sus posts, pero los trolls tendían a mencionar diferentes usuarios en tales posts, probablemente porque están tratando de llamar la atención de su audiencia en una nueva dirección. El metacontenido permite al algoritmo encontrar tales anomalías".

A través de casi todas las 463 pruebas, quedó claro qué posts formaban parte y cuáles no de una operación de influencia.

Los trolls venezolanos solo retuitearon ciertas personas y temas, lo que los hace fáciles de detectar. 

Los trolls rusos y chinos eran mejores para hacer que su contenido pareciera orgánico, pero también pudieron ser encontrados. 

A principios de 2016, por ejemplo, los trolls rusos a menudo se conectaban a URLs de extrema derecha, lo cual era inusual dados los otros aspectos de sus mensajes, y a principios de 2017, se conectaban a sitios web políticos de maneras extrañas.

En general, la actividad de los trolls rusos se hizo más difícil de encontrar a medida que pasaba el tiempo, aunque los rusos también parecen haber producido menos en 2018 que en años anteriores.

En un conjunto de pruebas, los autores muestran que el método puede encontrar cuentas nunca antes utilizadas que son parte de una campaña en curso. Y si bien las plataformas de medios sociales eliminan regularmente cuentas asociadas a campañas de desinformación en el extranjero, los hallazgos del equipo podrían llevar a una solución más efectiva.

"Cuando las plataformas prohíben estas cuentas, no solo se dificulta la recolección de datos para encontrar cuentas similares en el futuro, sino que se señala al actor de la desinformación que debe evitar el comportamiento que llevó a la eliminación", dijo Buntain. "Este mecanismo permite [a la plataforma] identificar estas cuentas, aislarlas del resto de Twitter, y hacer que les parezca a estos actores como si estuviesen compartiendo aún su material de desinformación". 

Foto real de Nixon con los astronautas de la Apolo 11 poco después de regresar a la Tierra. "La desinformación de medios de comunicación es un fenómeno que viene sucediendo desde hace mucho tiempo, pero, exacerbado por las tecnologías de ‘engaño profundo’ y la facilidad de difusión de contenidos online, se ha convertido en un asunto crucial de nuestro tiempo", alertó Fox Harrell.

Para ilustrar los peligros de las falsificaciones profundas (audio y video manipulados en forma realista), un equipo del Centro para la Virtualidad Avanzada del Instituto Tecnológico de Massachusetts (MIT), desarrolló una falsificación "completa" del presidente Richard Nixon pronunciando un discurso de contingencia escrito en 1969 para un escenario en el que los 3 tripulantes de la misión Apolo 11 no pudieron regresar de la Luna.

El equipo de D. Fox Harrell, Francesca Panetta y Halsey Burgund trabajaron con un actor de voz y una compañía llamada Respeecher para producir el habla sintética utilizando técnicas de aprendizaje profundo (una modalidad de aprendizaje automático). 

El aprendizaje automático es un método de inteligencia artificial para permitir al software aprender a partir de datos nuevos, actualizando sus propios resultados para reflejar las repercusiones de la nueva información.

En la demostración, ellos lograron alterar los dichos del presidente Nixon en una filmación e incluso modificaron el movimiento de sus labios para que coincidiera con su supuesto discurso.

Los artífices del inquietante experimento también trabajaron con la compañía Canny AI para usar técnicas de reemplazo de diálogo en video con las que estudiar y replicar el movimiento de la boca y los labios de Nixon. 

A través de estas sofisticadas tecnologías de aprendizaje automático, la película de 7 minutos muestra lo convincente que pueden ser las falsificaciones actuales de material audiovisual.

"Con este proyecto, y un protocolo sobre desinformación que se está construyendo a su alrededor, nuestra directora creativa de XR, Francesca Panetta, está impulsando uno de los objetivos generales del centro: usar inteligencia artificial y tecnologías de virtualidad para apoyar la expresión creativa y la verdad", agregó Harrell.

Dirigido por Panetta y Halsey Burgund, miembro del MIT Open Documentary Lab, un equipo interdisciplinario de artistas, periodistas, cineastas, diseñadores e informáticos ha creado un sitio web de recursos, interactivo, donde los educadores y los consumidores de medios pueden profundizar su comprensión de las falsificaciones profundas: cómo se hacen y cómo funcionan; su uso potencial y mal uso; qué se está haciendo para combatir las falsificaciones profundas; y recursos de enseñanza y aprendizaje. 

También hay un nuevo documental, "To Make a Deepfake", una película de 30 minutos de Scientific American, que utiliza "En caso de desastre lunar" como punto de partida para explicar la tecnología detrás de los medios generados por la IA. 

El otro dato

En tanto, un equipo de investigación dirigido por la Universidad de Princeton ha desarrollado una técnica para rastrear las campañas de desinformación extranjera en tiempo real, que podría ayudar a mitigar la interferencia exterior en las elecciones estadounidenses de 2020.

Los investigadores desarrollaron un método para usar el aprendizaje automático para identificar cuentas de Internet maliciosas, o trolls, basándose en su comportamiento pasado. Presentado en la revista Science Advances, el modelo investigó las supuestas pasadas campañas de desinformación que China, Rusia y Venezuela habrían realizado contra USA antes y después de las elecciones de 2016.

El equipo identificó los patrones que siguieron estas campañas analizando las publicaciones en Twitter y Reddit y los hipervínculos o URLs que incluyeron. 

"Lo que nuestra investigación significa es que se podría estimar en tiempo real cuántos hay ahí fuera y de qué están hablando", dijo Jacob N. Shapiro, profesor de política y asuntos internacionales de la Escuela de Asuntos Públicos e Internacionales de Princeton. "No es perfecto, pero obligaría a estos actores a ser más creativos y posiblemente a detener sus esfuerzos".

Shapiro y su adjunto Meysam Alizadeh llevaron a cabo el estudio con Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.

El equipo comenzó con una simple pregunta: "Utilizando solo características basadas en el contenido y ejemplos de actividades de campañas de influencia conocidas, ¿podrían mirarse otros contenidos y decir si un determinado mensaje formaba parte de una campaña de influencia?"

Eligieron investigar una unidad conocida como "par postURL", que es un post con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información entre humanos y bots. El equipo teorizó que con el tiempo pueden aparecer frecuentemente posts similares en distintas plataformas.

Combinaron datos sobre campañas de trolls de Twitter y Reddit con un rico conjunto de datos sobre publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados a lo largo de muchos años por el Centro de Medios Sociales y Política de la Universidad de Nueva York (CSMaP). 

Los datos de los trolls incluían trolls chinos, rusos y venezolanos que sumaban un total de 8.000 cuentas y 7,2 millones de posts desde finales de 2015 hasta 2019.

Según Tucker, "usamos los datos para entrenar el modelo para distinguir entre los tweets de las campañas de influencia coordinadas y los de los usuarios ordinarios".

El equipo consideró las características del propio post, como el tiempo, el número de palabras, o si el dominio de la URL mencionada era un sitio web de noticias. También examinaron lo que llamaron "metacontenido", o cómo el mensaje de un post se relacionaba con otra información compartida en ese momento (por ejemplo, si una URL estaba entre los 25 principales dominios políticos compartidos por los trolls).

"La visión de Meysam sobre el metacontenido fue clave", dijo Shapiro. "Vio que podíamos usar la máquina para replicar la intuición humana de que 'algo de este post parece fuera de lugar'. Tanto los trolls como la gente normal a menudo incluyen URLs de noticias locales en sus posts, pero los trolls tendían a mencionar diferentes usuarios en tales posts, probablemente porque están tratando de llamar la atención de su audiencia en una nueva dirección. El metacontenido permite al algoritmo encontrar tales anomalías".

A través de casi todas las 463 pruebas, quedó claro qué posts formaban parte y cuáles no de una operación de influencia.

Los trolls venezolanos solo retuitearon ciertas personas y temas, lo que los hace fáciles de detectar. 

Los trolls rusos y chinos eran mejores para hacer que su contenido pareciera orgánico, pero también pudieron ser encontrados. 

A principios de 2016, por ejemplo, los trolls rusos a menudo se conectaban a URLs de extrema derecha, lo cual era inusual dados los otros aspectos de sus mensajes, y a principios de 2017, se conectaban a sitios web políticos de maneras extrañas.

En general, la actividad de los trolls rusos se hizo más difícil de encontrar a medida que pasaba el tiempo, aunque los rusos también parecen haber producido menos en 2018 que en años anteriores.

En un conjunto de pruebas, los autores muestran que el método puede encontrar cuentas nunca antes utilizadas que son parte de una campaña en curso. Y si bien las plataformas de medios sociales eliminan regularmente cuentas asociadas a campañas de desinformación en el extranjero, los hallazgos del equipo podrían llevar a una solución más efectiva.

"Cuando las plataformas prohíben estas cuentas, no solo se dificulta la recolección de datos para encontrar cuentas similares en el futuro, sino que se señala al actor de la desinformación que debe evitar el comportamiento que llevó a la eliminación", dijo Buntain. "Este mecanismo permite [a la plataforma] identificar estas cuentas, aislarlas del resto de Twitter, y hacer que les parezca a estos actores como si estuviesen compartiendo aún su material de desinformación".