QAnon sigue prosperando en Facebook casi un año después de la ‘prohibición’

A mediados de agosto de 2021, varios Facebook cuentas, páginas y grupos, todavía albergan contenido que promueve la grupo de teorías de conspiración de extrema derecha conocidas como QAnon. Esto va en contra del 6 de octubre de 2020 de Facebook, anuncio indicando que la empresa eliminaría el contenido “que representa a QAnon”, incluso si esas publicaciones o cuentas “no contienen contenido violento”.

Es cierto que varias palabras clave y hashtags de QAnon como “# WWG1WGA” (“A dónde vamos, vamos todos”) se han desactivado en la herramienta de búsqueda de Facebook. En lugar de ver los resultados de la búsqueda al buscar estos términos, a los usuarios se les muestra un vínculo a Estándares de la comunidad de Facebook.

Cortesía: Facebook

Sin embargo, aunque no se muestran resultados en estas búsquedas en Facebook, descubrimos que el contenido de QAnon todavía está alojado en la plataforma. Los usuarios necesitan hacer poco más que encontrar una publicación para comenzar a caer en una madriguera de engaños y mentiras. Básicamente, una vez que se encuentra una sola publicación de QAnon, es peligrosamente simple seguir el rastro de me gusta, comentarios y cuentas, sin la necesidad de realizar ninguna búsqueda.

La idea detrás de QAnon, como The New York Times descrito se trata de acusaciones falsas “de que el mundo está dirigido por una camarilla de pedófilos adoradores de Satanás”. Con esta falsedad vienen una serie de hashtags como #SaveTheChildren y #SaveOurChildren, por ejemplo.

Localizamos fácilmente una serie de publicaciones de Facebook que mencionaban #SaveNuestrosNiños con # WWG1WGA. De hecho, encontramos múltiple publicaciones de un solo usuario en el transcurso de varios meses que todos hicieron referencia a QAnon.

El contenido de la teoría de la conspiración de QAnon sigue prosperando en Facebook a pesar de una supuesta prohibición hace un año.
El hecho de que esta captura de pantalla se tomó solo 23 segundos después de que se hizo la publicación quizás significó que “Sass Queen” controlaba ambas cuentas.

Encontrar esta cuenta nos llevó a un grupo de QAnon en Facebook llamado Digital Soldiers United, que tenía una imagen de portada gigante que decía: “Save The Children”. También encontramos una gran cantidad de publicaciones dentro del grupo público que llevaban el hashtag “#SaveTheChildren”.

Este grupo había existido durante aproximadamente un mes con casi 800 publicaciones.

En otro grupo de Facebook llamado Trump MAGA Supporters, los miembros compartieron emojis de rana para representar a la mascota de QAnon, Pepe el sapo. También mezclaron la información errónea sobre las vacunas con la retórica de QAnon y mencionaron constantemente “el gran despertar”, que es parte de la teoría de la conspiración de QAnon.

El contenido de la teoría de la conspiración de QAnon sigue prosperando en Facebook a pesar de una supuesta prohibición hace un año.
El emoji de rana se usaba comúnmente para representar a la mascota de QAnon, Pepe the Frog.

Desde estos grupos y cuentas, un usuario de Facebook puede seguir un agujero de conejo en el mundo de QAnon. Al hacer clic en las cuentas de las personas a las que les gustaron o comentaron las publicaciones de QAnon, obtuvimos más memes y enlaces.

Además, la muestra de hallazgos en esta historia quizás solo rasca la superficie de la amplitud del contenido de QAnon alojado en Facebook. Según un informe de DFRLab de Jared Holt y Max Rizzuto, muchas de las frases y palabras clave antiguas que alguna vez se asociaron con QAnon han cambiado y evolucionado. Los hallazgos se publicaron por primera vez el 26 de mayo de 2021.

Holt y Rizzuto publicado que ahora existe un “neo-QAnon”, descrito como “un grupo de movimientos impulsados ​​por la teoría de la conspiración débilmente conectados que defienden muchas de las mismas afirmaciones falsas sin los estilos lingüísticos característicos que definieron a las comunidades QAnon durante sus años de crecimiento”.

No está claro por qué Facebook y sus “30.000 o 35.000 personas” que están empleadas para revisar contenido no pueden encontrar y tomar medidas sobre publicaciones de QAnon y grupos como estos. Esas cifras, según el director ejecutivo de Facebook, Mark Zuckerberg, en julio de 2021. entrevista con The Verge, es el número de personas que revisan el contenido de Facebook para ver si es necesario realizar alguna acción.

Más allá de todo esto, informamos manualmente sobre algunas de estas publicaciones de QAnon utilizando la herramienta de informes de Facebook, que está disponible para todos los usuarios. En el 100 por ciento de las respuestas que recibimos del equipo de soporte de Facebook, la compañía afirmó que el contenido de QAnon “no va en contra de uno de nuestros estándares comunitarios específicos”. En realidad, todas las publicaciones estaban muy en contra de las políticas de Facebook.

El contenido de la teoría de la conspiración de QAnon sigue prosperando en Facebook a pesar de una supuesta prohibición hace un año.
Un caso de libro de texto de contenido de QAnon que el equipo de soporte de Facebook revisó y dijo que era perfectamente aceptable.

En nuestra investigación anterior, se ha demostrado durante mucho tiempo que la herramienta de informes de Facebook es extremadamente ineficaz. Por ejemplo, durante nuestro investigación exclusiva de “The BL”, enviamos manualmente informes a la empresa para cientos de cuentas falsas. Las respuestas del equipo de soporte de Facebook inicialmente afirmaron que alrededor del 95 por ciento de las cuentas no eran falsas, a pesar de que lo eran. Los empleados de la empresa con puestos de trabajo de mayor rango finalmente parecieron intervenir y eliminar todas las cuentas falsas semanas después.

Facebook anunció la prohibición de “The BL” semanas después de que presentamos nuestra primer informe y les notificamos por correo electrónico. Fue quizás la red de desinformación extranjera más grande Derribar en la historia de Facebook, con 55 millones de seguidores y $ 9,5 millones en anuncios de Facebook. La noticia parecía haberse perdido en su mayor parte en el desenfoque de la temporada navideña, ya que Facebook anunció la prohibición el viernes por la tarde antes de Navidad en 2019.

No está claro por qué Facebook y sus empleados de revisión de contenido de “30,000 a 35,000” no adoptan un enfoque más proactivo con respecto a la búsqueda y eliminación de contenido peligroso, especialmente considerando la gravedad de las noticias y eventos nacionales y mundiales recientes. Sin embargo, hasta que llegue ese día, continuaremos informando nuestros hallazgos a la empresa.

Nos comunicamos con Facebook con preguntas sobre las cuentas mencionadas en esta historia y actualizaremos este artículo en caso de que recibamos respuesta.

Published by

Ignacio

Ignacio Pereti es un reconocido periodista y escritor en proceso de aprendizaje continuo.