Cómo se propagan las teorías de conspiración en línea: no se trata solo de algoritmos


Este artículo se vuelve a publicar aquí con permiso de La conversación. Este contenido se comparte aquí porque el tema puede interesar a los lectores de Snopes; sin embargo, no representa el trabajo de los verificadores o editores de Snopes.


El debate ha crecido en los últimos años sobre el papel que juegan los algoritmos de redes sociales en la difusión de teorías de conspiración y contenido político extremo en línea. El algoritmo de recomendación de YouTube ha sido objeto de un escrutinio particularmente severo. UNA número de exposiciones han detallado cómo puede llevar espectadores por un agujero de conejo de radicalización.

Si bien YouTube ciertamente ha extendido el alcance de los teóricos de la conspiración, es difícil evaluar el papel objetivo de los algoritmos en estos procesos de radicalización. Pero mi propia investigación ha observado la forma en que ciertas comunidades radicales que se congregan al margen de la web han logrado esencialmente fabricar teorías de conspiración. Estos, a su vez, han sido tendencia en las redes sociales.

En 2019, YouTube limpió dramáticamente su plataforma después de caer bajo presión de los periodistas. Eliminó ingresos publicitarios lucrativos y eliminó canales enteros, más notoriamente el Canal de Infowars del locutor estadounidense de radio hablada Alex Jones.

Mientras que un trabajo de investigación reciente En este tema se observó una disminución general correspondiente en los videos de la teoría de la conspiración en YouTube, también se observó que la plataforma continuó recomendando videos conspiradores a los espectadores que habían consumido previamente dicho material. Los resultados indican que gran parte del contenido potencialmente objetable permanece en YouTube. Sin embargo, no necesariamente respaldan el argumento de que los televidentes se guían por algoritmos que atraviesan madrigueras de contenido cada vez más conspirador.

Por el contrario, otro estudio reciente del algoritmo de recomendación de YouTube descubrió que los canales de conspiración parecían ganar “tráfico cero de las recomendaciones”. Si bien la metodología de este estudio en particular generó un poco de debate espalda y adelante, el hecho es que es imposible una comprensión precisa de cómo funcionan estos algoritmos de redes sociales. Su funcionamiento interno es un secreto corporativo conocido solo por unos pocos, y posiblemente incluso por ningún humano porque los mecanismos subyacentes son muy complejos.

No solo drogas culturales

La presunción de que el público es el receptor pasivo de los mensajes de los medios, que son “Drogas culturales” fácilmente sujeto a manipulación subliminal – tiene una larga historia popular en el campo de los estudios de medios y comunicaciones. Es un argumento que a menudo aparece en reacciones conservadoras a música heavy metal y violencia de videojuegos.

Pero al centrarnos en el público como participantes activos en lugar de receptores pasivos, podríamos obtener una mayor comprensión del complejo ecosistema de medios dentro del cual se desarrollan y propagan las teorías de conspiración en línea. A menudo estos se mueven de las franjas subculturales de la red profunda a una audiencia más convencional.

Las teorías de conspiración son un método cada vez más importante de adoctrinamiento y radicalización extremista. Al mismo tiempo, su lógica de confrontación también se mapea en un estilo populista de retórica política que enfrenta la voluntad general del pueblo contra una élite corrupta y envejecida.

Una versión mucho más extrema de esta dinámica también es característica de la ira de la derecha contra el dominio percibido de un “Elite liberal globalista”. Tal ira galvanizó partes de la subcultura trolling asociado con ciertos foros, tableros de mensajes y redes sociales de microblogging, en apoyo de la candidatura presidencial de Donald Trump.

Una técnica retórica común utilizada en el foro de discusión política de extrema derecha del tablero de mensajes anónimo 4chan ha sido agrupar todas las manifestaciones de esta élite liberal y globalista en un singular “otro” nebuloso. Ya sea un individuo pérfido, una organización oscura o una forma sospechosa de pensar, esta conspiración se imagina como algo que socava los intereses de la comunidad ultranacionalista. Estos intereses también tienden a coincidir con los de Trump y de la raza blanca en general.

Esta comunidad en línea de extrema derecha tiene un historial establecido de propagando el odio, y también ha producido dos teorías de conspiración pro-Trump extremadamente extrañas y extremadamente exitosas: Pizzagate y QAnon.

Pizzagate

A diferencia de los recuadros negros de los algoritmos de redes sociales corporativas, los conjuntos de datos de 4chan se capturan y analizan fácilmente, lo que nos ha permitido estudiar estas teorías de conspiración para identificar los procesos que los generaron. En ambos casos, estas teorías de conspiración pueden ser entendidas como el producto del trabajo colectivo por investigadores aficionados que se congregan dentro de estas comunidades marginales que desarrollan una teoría mediante un proceso de referencia y cita.

Pizzagate era una teoría extraña que conectaba la campaña presidencial de Hillary Clinton con un anillo sexual infantil que supuestamente se había quedado sin una pizzería en Washington DC. Se desarrolló en 4chan en el transcurso de un solo día, poco antes de las elecciones estadounidenses de noviembre de 2016. Lo que hizo a Pizzagate nuevo e inusual fue cómo parecía emerger de los márgenes de la web, a una distancia segura de la propia campaña de Trump.

Los algoritmos seguramente jugaron un papel en la difusión #Pizzagate. Pero más crucial para legitimarlo fue el camino elementos de la historia filtrados a través de canales populares de redes sociales en Twitter y YouTube, incluido el canal Infowars de Alex Jones

QAnon

Un año después, al comienzo de la investigación de Robert Mueller sobre la supuesta colusión rusa en la campaña de Trump, una nueva teoría de la conspiración una vez más surgió de 4chan. Se reelaboraron algunos elementos de la narrativa de Pizzagate y se combinaron con “Estado profundo” teorias de conspiracion. Lo que con el tiempo simplemente se conocería como QAnon inicialmente creció a partir de una serie de publicaciones de 4chan de un supuesto funcionario del gobierno con autorización de seguridad de “nivel Q”.

Red de citas que inició la teoría de la conspiración de QAnon en 4chan / pol /
Andrea Beneddti, Autor proporcionado

A menudo referidos por los lectores como “migas de pan”, estas publicaciones tienden a hacer preguntas abiertas, como “¿quién controla la narrativa?” “¿Qué es un mapa?” y “¿por qué es esto relevante?”. Al igual que los eruditos medievales dedicados a la interpretación de textos metafísicos, los lectores han construido elaborados manuscritos iluminados y compilaciones narrativas. Uno de estos es actualmente un bestseller Amazon # 1 en la categoría de “censura”.

El mensaje aquí es que al centrarnos en el papel de los algoritmos para amplificar el alcance de las teorías de conspiración, debemos tener cuidado de no recurrir a un marco condescendiente que imagina a las personas como transmisores pasivos en lugar de audiencias activas comprometidos en su propio tipo de investigación que propaga interpretaciones radicalmente alternativas de los eventos.

La teoría de que los algoritmos de las redes sociales atraen a las personas a las teorías de la conspiración es difícil de probar definitivamente. Pero lo que está claro es que una subcultura conspirativa con raíces que se extienden a la red profunda ahora aparece cada vez más justo debajo de la superficie de la gente promedio aparentemente Consumo de medios “normal”. Al final, el problema real es menos la manipulación mediante algoritmos que la polarización política.


Marc Tuters, Departamento de Medios y Cultura, Facultad de Humanidades, Universidad de amsterdam

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el artículo original.



Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.