icon

Los 400 pobladores de la comunidad amazónica Jamamadi rechazaron la campaña de inmunización y obligaron a los agentes a volver a la ciudad con todas las dosis. Se estima que están influenciados por religiosos evangélicos antivacunas.

Los Jamamadi son un pueblo indígena poco conocido, que vive en la región de los ríos Juruá y Purus. En la década de 1960, los pobladores casi desaparecieron como grupo específico pero se han recuperado, tanto en términos demográficos como culturales.

icon

Cuidado que pueden pagar justos por pecadores, y no es muy difícil que suceda. Hay demasiado software dando vuelta y mucha imaginación en alguna gente.

Un sitio web, llamado Faces of the Riot, expuso una cuadrícula de más de 6.000 imágenes de rostros, cada una etiquetada con una serie de personajes asociados con el video de Parler en el que apareció cada uno.

icon

El lanzamiento de las vacunas Covid-19 está presentando a los sitios de redes sociales desafíos nuevos y abrumadores. Los expertos en salud han estado advirtiendo sobre la necesidad de prepararse para la información errónea sobre las vacunas desde los primeros días de la pandemia. 

QAnon (abreviación de Q-Anónimo) es una de las principales teorías de la conspiración de la extrema derecha estadounidense,​ que detalla una supuesta trama secreta organizada por un supuesto "Estado profundo" contra Donald Trump y sus seguidores.​ La teoría comenzó con una publicación de octubre de 2017 por un anónimo en el foro 4chan que usaba el nombre Q, supuestamente un individuo estadounidense, pero probablemente más tarde eran un grupo de personas, que aseguraba tener acceso a información clasificada sobre la administración Trump. "Q" es una referencia a la autorización de acceso Q utilizada por el Departamento de Energía requerida para acceder a los datos restringidos de alto secreto y la información de seguridad nacional. 4chan fue un foro que se lo apropió la extrema derecha estadounidense.

icon

Los argumentos conspiranoicos anti pandemia y anti coronavirus han sido sistemáticamente rebatidos a lo largo del 2020. Un nuevo relevamiento demuestra las consecuencias del virus con datos de 135 mil personas.

Una reciente investigación demostró que el índice de fallecimientos por Covid-19 fue tres veces superior al de la gripe estacional.

icon

La clave es no ridiculizar pero tampoco ser condescendiente. ¿Cómo? Una página de fact-checking propone 8 consejos para lograr conversar con personas que piensan distinto y llegar a buen puerto.

Consejo 1 y 2: No atacar ni ridiculizar, es importante tratar de entender por qué alguien difunde una desinformación.

icon

En Portugal la Orden de Médicos (OMP), institución similar al Colegio Médico en Argentina, inició el expediente porque el grupo denunciado "minimiza la pandemia".

Se trata de siete profesionales autoagrupados como "Médicos por la Verdad" en Portugal.

icon

Twitter eliminó alrededor de 130 cuentas relacionadas con Irán que intentaban interrumpir el debate público durante el debate presidencial de Estados Unidos del 29/09. La noticia actualizó la guerra informativa que existe a través de la comunicación digital. Otro ejemplo: el documental de la red Al Jazeera sobre la industria de misiles de Hamás que apunta a que Irán envía misiles Kornet y Fajr a Gaza. 

Twitter informó en junio de 2019 que había eliminado 4.779 cuentas vinculadas al gobierno de Irán, incluyendo 4 cuentas falsas vinculadas a una "granja" rusa de trolls, llamada Agencia de Investigación de Internet.

icon

Para ilustrar los peligros de las falsificaciones profundas (audio y video manipulados en forma realista), un equipo del Centro para la Virtualidad Avanzada del Instituto Tecnológico de Massachusetts (MIT), desarrolló una falsificación "completa" del presidente Richard Nixon pronunciando un discurso de contingencia escrito en 1969 para un escenario en el que los 3 tripulantes de la misión Apolo 11 no pudieron regresar de la Luna.

El equipo de D. Fox Harrell, Francesca Panetta y Halsey Burgund trabajaron con un actor de voz y una compañía llamada Respeecher para producir el habla sintética utilizando técnicas de aprendizaje profundo (una modalidad de aprendizaje automático). 

El aprendizaje automático es un método de inteligencia artificial para permitir al software aprender a partir de datos nuevos, actualizando sus propios resultados para reflejar las repercusiones de la nueva información.

En la demostración, ellos lograron alterar los dichos del presidente Nixon en una filmación e incluso modificaron el movimiento de sus labios para que coincidiera con su supuesto discurso.

Los artífices del inquietante experimento también trabajaron con la compañía Canny AI para usar técnicas de reemplazo de diálogo en video con las que estudiar y replicar el movimiento de la boca y los labios de Nixon. 

A través de estas sofisticadas tecnologías de aprendizaje automático, la película de 7 minutos muestra lo convincente que pueden ser las falsificaciones actuales de material audiovisual.

"Con este proyecto, y un protocolo sobre desinformación que se está construyendo a su alrededor, nuestra directora creativa de XR, Francesca Panetta, está impulsando uno de los objetivos generales del centro: usar inteligencia artificial y tecnologías de virtualidad para apoyar la expresión creativa y la verdad", agregó Harrell.

Dirigido por Panetta y Halsey Burgund, miembro del MIT Open Documentary Lab, un equipo interdisciplinario de artistas, periodistas, cineastas, diseñadores e informáticos ha creado un sitio web de recursos, interactivo, donde los educadores y los consumidores de medios pueden profundizar su comprensión de las falsificaciones profundas: cómo se hacen y cómo funcionan; su uso potencial y mal uso; qué se está haciendo para combatir las falsificaciones profundas; y recursos de enseñanza y aprendizaje. 

También hay un nuevo documental, "To Make a Deepfake", una película de 30 minutos de Scientific American, que utiliza "En caso de desastre lunar" como punto de partida para explicar la tecnología detrás de los medios generados por la IA. 

El otro dato

En tanto, un equipo de investigación dirigido por la Universidad de Princeton ha desarrollado una técnica para rastrear las campañas de desinformación extranjera en tiempo real, que podría ayudar a mitigar la interferencia exterior en las elecciones estadounidenses de 2020.

Los investigadores desarrollaron un método para usar el aprendizaje automático para identificar cuentas de Internet maliciosas, o trolls, basándose en su comportamiento pasado. Presentado en la revista Science Advances, el modelo investigó las supuestas pasadas campañas de desinformación que China, Rusia y Venezuela habrían realizado contra USA antes y después de las elecciones de 2016.

El equipo identificó los patrones que siguieron estas campañas analizando las publicaciones en Twitter y Reddit y los hipervínculos o URLs que incluyeron. 

"Lo que nuestra investigación significa es que se podría estimar en tiempo real cuántos hay ahí fuera y de qué están hablando", dijo Jacob N. Shapiro, profesor de política y asuntos internacionales de la Escuela de Asuntos Públicos e Internacionales de Princeton. "No es perfecto, pero obligaría a estos actores a ser más creativos y posiblemente a detener sus esfuerzos".

Shapiro y su adjunto Meysam Alizadeh llevaron a cabo el estudio con Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.

El equipo comenzó con una simple pregunta: "Utilizando solo características basadas en el contenido y ejemplos de actividades de campañas de influencia conocidas, ¿podrían mirarse otros contenidos y decir si un determinado mensaje formaba parte de una campaña de influencia?"

Eligieron investigar una unidad conocida como "par postURL", que es un post con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información entre humanos y bots. El equipo teorizó que con el tiempo pueden aparecer frecuentemente posts similares en distintas plataformas.

Combinaron datos sobre campañas de trolls de Twitter y Reddit con un rico conjunto de datos sobre publicaciones de usuarios políticamente comprometidos y usuarios promedio recopilados a lo largo de muchos años por el Centro de Medios Sociales y Política de la Universidad de Nueva York (CSMaP). 

Los datos de los trolls incluían trolls chinos, rusos y venezolanos que sumaban un total de 8.000 cuentas y 7,2 millones de posts desde finales de 2015 hasta 2019.

Según Tucker, "usamos los datos para entrenar el modelo para distinguir entre los tweets de las campañas de influencia coordinadas y los de los usuarios ordinarios".

El equipo consideró las características del propio post, como el tiempo, el número de palabras, o si el dominio de la URL mencionada era un sitio web de noticias. También examinaron lo que llamaron "metacontenido", o cómo el mensaje de un post se relacionaba con otra información compartida en ese momento (por ejemplo, si una URL estaba entre los 25 principales dominios políticos compartidos por los trolls).

"La visión de Meysam sobre el metacontenido fue clave", dijo Shapiro. "Vio que podíamos usar la máquina para replicar la intuición humana de que 'algo de este post parece fuera de lugar'. Tanto los trolls como la gente normal a menudo incluyen URLs de noticias locales en sus posts, pero los trolls tendían a mencionar diferentes usuarios en tales posts, probablemente porque están tratando de llamar la atención de su audiencia en una nueva dirección. El metacontenido permite al algoritmo encontrar tales anomalías".

A través de casi todas las 463 pruebas, quedó claro qué posts formaban parte y cuáles no de una operación de influencia.

Los trolls venezolanos solo retuitearon ciertas personas y temas, lo que los hace fáciles de detectar. 

Los trolls rusos y chinos eran mejores para hacer que su contenido pareciera orgánico, pero también pudieron ser encontrados. 

A principios de 2016, por ejemplo, los trolls rusos a menudo se conectaban a URLs de extrema derecha, lo cual era inusual dados los otros aspectos de sus mensajes, y a principios de 2017, se conectaban a sitios web políticos de maneras extrañas.

En general, la actividad de los trolls rusos se hizo más difícil de encontrar a medida que pasaba el tiempo, aunque los rusos también parecen haber producido menos en 2018 que en años anteriores.

En un conjunto de pruebas, los autores muestran que el método puede encontrar cuentas nunca antes utilizadas que son parte de una campaña en curso. Y si bien las plataformas de medios sociales eliminan regularmente cuentas asociadas a campañas de desinformación en el extranjero, los hallazgos del equipo podrían llevar a una solución más efectiva.

"Cuando las plataformas prohíben estas cuentas, no solo se dificulta la recolección de datos para encontrar cuentas similares en el futuro, sino que se señala al actor de la desinformación que debe evitar el comportamiento que llevó a la eliminación", dijo Buntain. "Este mecanismo permite [a la plataforma] identificar estas cuentas, aislarlas del resto de Twitter, y hacer que les parezca a estos actores como si estuviesen compartiendo aún su material de desinformación". 

Foto real de Nixon con los astronautas de la Apolo 11 poco después de regresar a la Tierra. "La desinformación de medios de comunicación es un fenómeno que viene sucediendo desde hace mucho tiempo, pero, exacerbado por las tecnologías de ‘engaño profundo’ y la facilidad de difusión de contenidos online, se ha convertido en un asunto crucial de nuestro tiempo", alertó Fox Harrell.