¿Bot, troll o humano?

Las redes sociales parecen estar inundadas de bots: estos programas automatizados que fingen ser y hablan como humanos. En Twitter apareció un artículo de CNN que mencionaba que casi la mitad de las cuentas que mencionaban al Covid-19 eran probablemente bots. Darius Kazemi, investigador de la naturaleza y comportamiento de estos, es escéptico ante esa estadística por lo que decidió investigarlo, como lo contó a The New York Times. Aquí te decimos qué encontró y dónde está el problema.

¿Qué es cada uno?

Para empezar, hay que tener claro si se trata de un bot, un troll o un incluso un cyborg, ya que es común que se confundan. Los trolls son humanos antagonistas que sólo provocan peleas mientras que los cyborgs son cuentas que manejan humanos pero que a veces integran bots a ellas. Los bots son totalmente automatizados y pueden programarse con cualquier tema aleatorio. Un ejemplo es Two Headlines –creado por el propio Kazemi–, el cual busca en Google News dos encabezados al azar y los mezcla con palabras clave en Twitter resultando en algo sin sentido, cómico y que se actualiza cada hora. Por ejemplo:

¿Son realmente un problema?

Kazemi cree que son los culpables fáciles. La fuente del artículo de CNN es un comunicado de Carnegie Mellon University dirigido por la Dra. Carley que confirma haber reunido 200 millones de tweets de bots discutiendo el Covid-19, el doble comparado con desastres naturales previos, crisis y elecciones, pero no encontró un trabajo de investigación ni datos duros que lo confirmen. Al compararlo con Twitter, la compañía declaro que no había evidencia que confirmara que se trata de bots. Entonces, ¿quién tiene razón?

La presión por publicar rápido información sobre el Covid-19 tanto para científicos y medios ha aumentado de tal manera que empuja a que lleguen a conclusiones sin tener un ojo crítico o revisar los datos ya que quieren cumplir con el servicio de informar a las personas del Covid-19. Por esto, la Dra. Carley explicó que tuvo que apresurarse a mandar conclusiones preliminares antes de poder publicar la nota completa.

https://twitter.com/tinysubversions/status/1263675864568356864?s=20

La falta de datos concretos preocupa a Kazemi y no es el único que lo piensa. Brendan Nyhan, profesor de gobierno en la Universidad de Darmouth, dice que las personas se deberían de preocupar por la exposición que tienen los tuits y no por el número, ya que los bots pueden postear infinitamente. Alex Stamos del Observatorio del Internet de Stanford notó que la desinformación de la desinformación sigue siendo desinformación y es el problema. Y para Kate Starbird, al igual que para Kazemi, la clave está en que los investigadores deben ser precisos en cómo hablan de los comportamientos y la clasificación de los bots.

El ‘falso positivo

Existe el Botometer, una herramienta de detección que determina con una calificación de 0 a 5 el comportamiento de una cuenta de Twitter. El 0 es que es más parecido a un humano y el 5 a un bot. Kazemi usó los datos que alimentan a esta herramienta para comprobar su existencia. Encontró otro problema: no es totalmente confiable. Cualquier cuenta automatizada puede ser considerada un bot aunque se trata de repetidores de noticias o cuentas de clínicas locales que postean el mismo contenido diario sobre lavarse las manos usando el #Covid19. Y hasta humanos que no usan la jerga común o comparten noticias dando falsos positivos.

Aún los bots declarados pueden tener una puntuación de solo 1.8 en el Botometer como es el caso de Galaxy Brain Bot.

También existen los fans como el “Army” de BTS que son cuentas de humanos pero que se comportan como bots al apoyar movimientos cómo el Black Lives Matter o el lanzamiento del último video del grupo de K-pop.

Entonces, ¿realmente afectan?

Según la Dra. Carley, todo está en el uso que se les quiere dar a estos bots, ya que son solo software que puede ser programado para el bien o para el mal. Ya sea para apoyar un movimiento como #BlackLivesMatter o esparcir información errónea del Covid-19.

La máxima aspiración de la investigación de esto, es entender si realmente afectan. Para Sarah Jackson, profesora adjunta de la Universidad de Pennsylvania, lo importante es enfocarse en donde están los bots y con quién interactúan. En su investigación, se dio cuenta que los bots por lo regular están en la periferia del tema, interactuando con muy pocas personas. Cree que es una distracción sugerir que son los líderes de la conversación o que influyen en las personas que activamente están tuiteando sobre el tema. No hay datos que indiquen que cambian nuestras creencias y comportamientos como sociedad.

Para Kazemi, saber si es un bot o no sigue siendo una línea confusa porque siguen evolucionando o arrojando falsos positivos. La cuestión real es entender que los humanos están detrás de todo esto, tanto los que arrojan encabezados alarmistas como los que apoyan las causas y hasta los programan los bots que solo se suman. Sin datos concretos, no podemos saltar a conclusiones.