Twitter y su gato encerrado

Publicado: 2 febrero 2021 a las 12:00 pm

Categorías: Artículos

Por  Antonio Salgado Borge

No existen, al menos por el momento, evidencias de que Twitter México esté operando en contra de AMLO o de Morena. Por desgracia, hay evidencias sobradas de que, si así lo deseara, podría hacerlo.

La decisión tomada por Twitter de eliminar cientos de cuentas, incluyendo algunas que marcadamente difundían contenido a favor de AMLO, ha sido recibida con indignación por los seguidores del Presidente.

La crítica ha girado en torno a la supuesta parcialidad de Twitter, y se ha sustentado aludiendo al hecho de que Hugo Rodríguez, actual director de políticas públicas para esta red social en mercados hispanohablantes, militó y trabajó en el PAN en los inicios de su carrera.

En este artículo argumentaré que no hay, al menos por el momento, evidencias concretas de que Twitter esté inclinando la balanza en contra de Morena, pero sí las hay de que podría hacerlo, si así lo deseara.

El encierro

El jueves pasado, en una muy interesante mesa de análisis en Aristegui en vivo, Hugo Rodríguez justificó el reciente bloqueo de cientos de cuentas de la siguiente forma. Primero explicó que existen dos tipos de grupos de reglas que esta empresa utiliza para retirar cuentas tóxicas.

Un grupo que tiene que ver con el contenido que desde esos perfiles se publica. Por ejemplo, Donald Trump fue bloqueado hace unas semanas porque sus tuits incitaban la violencia. Este no es el grupo de reglas que está detrás del bloqueo que ha enfurecido a seguidores de AMLO.

El otro grupo de reglas al que aludió Rodríguez está relacionado con el comportamiento de las cuentas. Este directivo explicó que en este grupo se incluyen los siguientes comportamientos inaceptables:

a) Manejar múltiples cuentas. Este esquema permite amplificar artificialmente contenidos, frecuentemente a través de retuits.

b) Automatismos o bots. Se trata de cuentas no operadas por seres humanos y que generan una buena cantidad de spam.

c) Cuentas falsas. Es decir, cuentas de personas que se hacen pasar por otras.

De acuerdo con Rodríguez, las cuentas bloqueadas recientemente caen en alguno de los supuestos que implica este grupo de reglas de comportamiento.

Me parece inobjetable que Twitter cuente con un grupo de reglas para eliminar cuentas tomando como criterio su comportamiento. Aunque este grupo de reglas no apela específicamente a naturaleza del contenido compartido, su implementación es una herramienta indispensable para limitar la toxicidad de los contenidos que circulan en esta red social.

Dado su volumen y la lógica con que opera, el ecosistema que conforman las cuentas que violan las reglas de comportamiento tiene la capacidad de funcionar como dique que encauza el sentido en que fluye la discusión en Twitter. Lo anterior es particularmente notable en el caso de la discusión política; tal como ha explicado con claridad Carlos Páez -director de Mesura- a la audiencia de Aristegui Noticias, entre 30 y 50% de las cuentas que difunden contenidos políticos son automatizadas.

A lo anterior tenemos que sumar que este ecosistema es utilizado para amplificar artificialmente el odio, las teorías conspirativas y para polarizar. Esta estrategia infla artificialmente el peso de este tipo de contenidos y engancha a algunos usuarios a adoptar el tono o las ideas que así se difunden.

Finalmente, la operación de este ecosistema tóxico constituye lo que Peter Pomerantsev ha llamado “censura a través de ruido”. Para este analista, estamos ante un movimiento táctico que no censura haciendo la información escasa, sino haciéndola abundante; un esquema que es utilizado abusivamente para limitar los derechos humanos (This is Not Propaganda, p.44).

La cantidad de los contenidos y su intensidad hace que, en los hechos, la voz de las usuarias y usuarios de carne y hueso y genuinamente interesados en la discusión sea silenciada. Este tipo de censura es generalizada y tendría que recibir mucha más atención de la que ha recibido hasta ahora.

Para efectos de este análisis lo importante es que, dada la presencia del ecosistema tóxico aquí descrito, eliminar cuentas con base en su comportamiento es claramente un criterio adecuado. En los hechos, este grupo de reglas constituye un edificio cuyas paredes encierran y protegen las conversaciones de usuarias y usuarios con intenciones genuinas.

El gato

Hugo Rodríguez tiene razón cuando defiende la existencia de las reglas de comportamiento. También acierta cuando afirma que, dado que se trata de políticas institucionales de esta empresa que aplican a nivel global, “la moderación de contenidos no funciona por la decisión de una persona”.

El problema es que en el mismo cuarto que Twitter ha construido para proteger a sus usuarias y usuarios hay un “gato encerrado” que no permite afirmar contundentemente que este es el caso.

Tres preguntas que Hugo Rodríguez no ha logrado responder directa y honestamente ayudan a indetificar a este “gato” y a notar lo que tendría que pasar para que éste sea liberado.

1. La primera pregunta que tendría que responder Rodríguez es ¿por qué ahora y no antes? Es decir, si estas cuentas existen desde hace tiempo, y si las reglas de comportamiento no son nuevas, hace falta una explicación que incluya las razones por las que no se actuó en el pasado y por las que se escogió el momento actual para hacerlo.

Twitter podría responder que no hay momento malo para empezar a aplicar reglas que son claramente benéficas. Pero a ello se debe responder que, aunque lo anterior es en principio cierto, esta aplicación se ve enturbiada por el hecho de que coincidió con las críticas del Presidente a esa red social durante una mañanera.

El problema de fondo no es el grupo de reglas, sino la discrecionalidad con que éstas han sido aplicadas. Es decir, si estas reglas hubiesen sido implementadas a rajatabla desde que fue diseñado, nadie en su sano juicio estaría polemizando sobre un posible sesgo en contra de AMLO.

2. La segunda pregunta que tendría que responder Rodríguez es por qué las reglas de comportamiento se aplican inconsistentemente; por ponerlo de otra forma, ¿por qué aplican para unas cuentas, pero parecen no alcanzar a otras?

Hugo Rodríguez argumentó en Aristegui en vivo que en ocasiones no existen evidencias suficientes para aplicar estas reglas. La idea aquí es que es más importante evitar falsos positivos que evitar falsos negativos.

Aunque este principio es defendible, me parece que ponerlo sobre la mesa sólo ayuda a enturbiar el panorama. Y es que la noción de que no hay evidencias suficientes está viciada de origen. En primer lugar, tal como argumentó Carlos Páez en el mismo programa, existen sistemas y parámetros conocidos y accesibles para identificar ecosistemas tóxicos. Además, existen casos obvios de cuentas que caen en alguno de los supuestos que se agrupan en las reglas de comportamiento.

Por ponerlo en palabras de Pomerantsev, existen mapas de redes generados por científicos de datos; un proceso llamado surfacing: “uno toma una palabra clave, un mensaje, una narrativa y la lanza… Los científicos hacen surfacing de la gente, los medios de comunicación, las cuentas de redes sociales, bots, trolls y ciborgs que están empujando o interactuando con estas palabras clave, narrativas y mensajes” (This is Not Propaganda, p.8).

La existencia de este ecosistema y de las herramientas necesarias para detectarlo nos muestra que estamos, nuevamente, ante un problema de discrecionalidad. Twitter puede identificar con precisión a los integrantes de ecosistemas tóxicos y bloquearlos, pero en ocasiones opta por no hacerlo. Esto significa que, aunque las decisiones en Twitter no sean tomadas por una sola persona, existe un grupo de individuos que termina apretando el botón de encendido o apagado de las reglas de comportamiento.

No es ningún secreto que este tipo de botones existe en Twitter. Por ejemplo, la decisión inicial de aplicar las reglas de contenidos de esa red social para suspender la cuenta de Donald Trump con base en sus contenidos no la tomó Dorsey, sino sus lugartenientes. El CEO de Twitter se encontraba en la Polinesia francesa y cuando se enteró hizo saber su molestia. Es decir, si Dorsey no hubiese estado de vacaciones, criterios internos o no, probablemente Trump no hubiese sido suspendido originalmente.

3. Finalmente, la tercera pregunta que debería atajar Rodríguez es: ¿por qué este ecosistema sigue disponible y listo para ser utilizado por el mejor postor, incluyendo gobiernos y partidos políticos?

Responder apelando al hecho de que Twitter es la única plataforma que no permite publicidad política equivale a eludir esta pregunta. Para ser claro, la decisión de esa red social de no aceptar pautas políticas es encomiable. Sin embargo, lo que aquí se está preguntando es por qué el tiempo pasa y todo cambia menos la existencia de ese ecosistema tóxico.

Tampoco es aceptable responder que Twitter no vende automatizaciones ni bots. Lo que se discute no es si esa empresa crea y comercializa estas figuras, sino el hecho de que permite, desde hace años, su existencia.

El problema de fondo es que el modelo de negocio de Twitter -y el de otras redes sociales- está diseñado para atrapar atención de sus usuarios. El ecosistema tóxico es funcional para atrapar esa atención y para mantener a las personas interactuando. Desde luego, este ecosistema es un arma de doble filo, pues su excesivo protagonismo puede saturar y desmotivar a usuarios reales. En consecuencia, en términos comerciales lo conveniente para Twitter es contenerlo, no eliminarlo.

Conclusión

No existen, al menos por el momento, evidencias de que Twitter México esté operando en contra de AMLO o de Morena. Por desgracia, hay evidencias sobradas de que, si así lo deseara, podría hacerlo. El problema es, en el fondo, uno de modelo de negocio y de discrecionalidad. Dentro de las paredes que Twitter dice haber construido para proteger a sus usuarias y usuarios hay un “gato” encerrado. Y las sospechas no cesarán hasta que sea liberado.

Fuente

https://aristeguinoticias.com/3001/opinion/twitter-y-su-gato-encerrado-articulo/