Una guía para la desinformación en línea


NUEVA YORK (AP) – Los cyborgs, trolls y bots pueden llenar Internet con mentiras y medias verdades. Comprenderlos es clave para aprender cómo se propaga la información errónea en línea.

Como lo mostraron las elecciones de 2016, las redes sociales se utilizan cada vez más para amplificar los reclamos falsos y dividir a los estadounidenses sobre temas candentes como la raza y la inmigración. Los investigadores que estudian la información errónea predicen que empeorará antes de la votación presidencial de este año. Aquí hay una guía para comprender el problema:

DESINFORMACIÓN VS. DESINFORMACIÓN

La información política ha existido desde antes de la imprenta, pero Internet ha permitido que las falsedades, las teorías de conspiración y las exageraciones se propaguen más rápido y más lejos que nunca.

La información errónea se define como cualquier información falsa, independientemente de la intención, incluidos errores honestos o malentendidos de los hechos. La desinformación, por otro lado, generalmente se refiere a la información errónea creada y difundida intencionalmente como una forma de confundir o engañar.

La desinformación y la desinformación pueden aparecer en anuncios políticos o publicaciones en redes sociales. Pueden incluir noticias falsas o videos manipulados. Un ejemplo atroz de desinformación del año pasado fue un video de la Presidenta de la Cámara de Representantes, Nancy Pelosi, que se desaceleró para hacerla sonar como si estuviera arrastrando las palabras.

La investigación indica que las afirmaciones falsas se propagan más fácilmente que las precisas, posiblemente porque están diseñadas para captar la atención.

Los científicos del Instituto de Tecnología de Massachusetts analizaron más de 126,000 historias, algunas verdaderas y otras falsas, que fueron tuiteadas millones de veces desde 2006 hasta finales de 2016. Descubrieron que las historias engañosas o incorrectas viajaban seis veces más rápido, y llegaron a más personas.

La información errónea en línea ha sido acusada de profundizar la polarización política de Estados Unidos y contribuir a la desconfianza en el gobierno. Los riesgos se destacaron en 2016 cuando los trolls rusos crearon cuentas falsas para difundir y ampliar las publicaciones en las redes sociales sobre temas controvertidos.

GUERRA DE LOS BOTS Y CYBORGS

Los soldados de a pie desechables en este conflicto digital son bots. En el contexto de las redes sociales, estos programas autónomos pueden ejecutar cuentas para difundir contenido sin participación humana.

Muchos son inofensivos, twittean poemas al azar o fotos de mascotas. Pero otros no son buenos y están diseñados para parecerse a los usuarios reales.

Un estudio realizado por investigadores de la Universidad del Sur de California analizó los tweets relacionados con las elecciones enviados en septiembre y octubre de 2016 y descubrió que 1 de cada 5 fueron enviados por un bot. El Pew Research Center concluyó en un estudio de 2018 que las cuentas sospechosas de ser bots son responsables de hasta dos tercios de todos los tweets que enlazan con sitios web populares.

Mientras que los usuarios de Twitter de carne y hueso a menudo publican algunas veces al día, sobre una variedad de temas, los bots más obvios tuitean cientos de veces al día, día y noche, y a menudo solo sobre un tema específico. Es más probable que vuelvan a publicar contenido en lugar de crear algo original.

Y luego está el cyborg, una especie de cuenta híbrida que combina la incansabilidad de un robot con la sutileza humana. Las cuentas de Cyborg son aquellas en las que un humano periódicamente se hace cargo de una cuenta de bot para responder a otros usuarios y publicar contenido original. Son más caros y requieren más tiempo para operar, pero no se delatan como robots.

“Se puede obtener mucho de un bot, pero tal vez no sea la mejor calidad”, dijo Emilio Ferrara, investigador de ciencia de datos de la Universidad del Sur de California que coescribió el estudio en bots de Twitter. “El problema con los cyborgs es que son mucho más difíciles de atrapar y detectar”.

SPOT THE BOTS

Los bots pueden ser difíciles de detectar, incluso para los mejores investigadores.

“Tenemos 12 formas de detectar un bot, y si alcanzamos siete u ocho de ellos, tenemos una confianza bastante alta”, dijo Graham Brookie, director del Laboratorio de Investigación Forense Digital del Consejo Atlántico, una organización con sede en Washington, DC que estudia conexiones entre redes sociales, ciberseguridad y gobierno.

No obstante, Brookie recordó el caso de una cuenta de Twitter de Brasil que se publicaba casi constantemente, a veces una vez por minuto, y mostraba otras características similares a bots. Y sin embargo, “Fue una abuelita quien dijo:” ¡Soy yo! “

Su prevalencia y la dificultad de identificarlos ha convertido a los bots en una especie de coco digital y ha transformado el término en un insulto, utilizado para despedir a otros usuarios de redes sociales con opiniones diferentes.

Michael Watsey, un hombre de 43 años de Nueva Jersey que a menudo tuitea su apoyo al presidente Donald Trump, dijo que ha sido repetidamente llamado bot ruso por personas con las que discute en línea. Las acusaciones llevaron a Twitter a suspender temporalmente su cuenta más de una vez, lo que lo obligó a verificar que es un humano.

“Todo lo que intento hacer es usar mi derecho a la libertad de expresión de la Primera Enmienda”, dijo. “Es una locura que haya llegado a esto”.

TROLLS Y TUPUPETS

La palabra troll una vez se refirió a las bestias de la mitología escandinava que se escondieron debajo de los puentes y atacaron a los viajeros. Ahora también se refiere a las personas que publican en línea para provocar a otros, a veces para su propia diversión y otras como parte de una campaña coordinada.

Los títeres de calcetín son otro extraño ciudadano de las redes sociales, en este caso un tipo de cuenta impostora. Mientras que algunos usuarios pueden usar cuentas anónimas simplemente para evitar identificarse, el propietario usa las cuentas de títeres de calcetín para atacar a sus críticos o elogiarse a sí mismos. En octubre, el senador de Utah Mitt Romney reconoció operar una cuenta secreta de Twitter bajo el nombre de “Pierre Delecto”, que utilizó para defenderse de las críticas.

VIDEOS FALSIFICADOS: PROFUNDO, BARATO Y BAJO

Deepfakes son videos que se han creado digitalmente con inteligencia artificial o aprendizaje automático para que parezca que sucedió algo que no sucedió. Son vistos como una amenaza emergente, ya que las mejoras en el software de edición de video hacen posible que los embaucadores creen imágenes cada vez más realistas de, por ejemplo, el ex presidente Barack Obama pronunciando un discurso que nunca pronunció, en un entorno que nunca visitó. Son caros y difíciles de crear, especialmente de manera convincente.

Facebook anunció el mes pasado que prohibiría los videos falsos, con excepción de la sátira. A partir de marzo, Twitter prohibirá videos manipulados, fotografías y grabaciones de audio “que puedan causar daño”. El material manipulado pero no necesariamente dañino puede recibir una etiqueta de advertencia. Y YouTube prohíbe los “usos engañosos de los medios manipulados” que podrían presentar un grave riesgo de daño.

Por el contrario, shallowfakes, cheapfakes o dumbfakes son videos que han sido manipulados utilizando técnicas más básicas, como ralentizar o acelerar el metraje o cortarlo.

Los ejemplos incluyen un video manipulado publicado por el Partido Conservador de Gran Bretaña antes de las elecciones del Reino Unido en diciembre que hizo parecer que un funcionario del Partido Laborista estaba luchando por responder a una pregunta sobre el Brexit.

Debido a que son fáciles de fabricar y de bajo costo, las falsificaciones baratas pueden ser tan peligrosas como su primo más elegante, las falsificaciones profundas.

“Deepfakes se está volviendo más realista y más fácil de hacer”, dijo John Pavlik, profesor de periodismo en la Universidad de Rutgers que estudia cómo la tecnología e Internet están cambiando los hábitos de comunicación. “Pero no es necesario tener un software especial para simplificar estos”.

Los investigadores que estudian los cambiantes hábitos de los medios de comunicación de los estadounidenses recomiendan que las personas recurran a una variedad de fuentes y perspectivas para sus noticias, usen el pensamiento crítico al evaluar la información en las redes sociales y piensen dos veces antes de volver a publicar afirmaciones virales. De lo contrario, dicen, la información errónea continuará fluyendo, y los usuarios continuarán difundiéndola.

“La única solución”, dijo Ferrara, “es la educación”.