Desde que Elon Musk adquirió Twitter, los mensajes de odio aumentaron un 50% y recibieron un 70% más de likes

  • Publicado el 14/02/2025

En octubre de 2022, Elon Musk adquirió Twitter por 44.000 millones de dólares. Fue, posiblemente, una de las mayores acciones de la derecha global de los últimos años. La que ayudó a instalar un fenómeno creciente: la naturalización de los mensajes de odio.

Se puede apreciar cuando alguien entra en lo que hoy se llama X (modificación de nombre que impulsó el propio Musk a los pocos meses), pero ahora una investigación le puso números: la cifra de mensajes de odio en X subió 50% desde que Elon Musk lo compró y los mensajes con odio recibieron también un 70% más de likes en ese período.

«Los likes generales solo subieron un 4%. El contenido de odio aumentó mucho más de lo que debiera», remarca el experto en comunicación política, Mario Riorda.

La investigación sobre el odio

Musk, entonces CEO de Tesla y SpaceX, sostuvo que compró Twitter para defender la libertad de expresión y protegerla del pensamiento «woke» (un término que se refiere a una postura crítica sobre temas de injusticia social, discriminación racial, desigualdad de género, entre otros). Y que en su gestión derrotaría «a los robots de SPAM».

Sin embargo, el trabajo de los investigadores de la Universidad de California (EE UU), Daniel Hickey, Daniel M. T. Fessler, Kristina Lerman y Keith Burghardt descubrió que el aumento del discurso de odio justo antes de que Musk comprara X persistió, y que la tasa semanal de discurso de odio fue aproximadamente un 50% más alta que en los meses anteriores a su compra, «aunque este aumento no puede atribuirse directamente a ninguna política de X». Mientras que a nivel general la actividad de publicaciones solo creció un 8%. Las de odio subieron casi seis veces más.

«El aumento se observa en múltiples dimensiones del odio, incluido el racismo, la homofobia y la transfobia», apuntaron. También hay un mayor compromiso, apoyo y acompañamiento a las publicaciones de odio: «la tasa semanal en la que se le dio «me gusta» al contenido de odio también aumentó significativamente (un 70 %), en contradicción con las afirmaciones de Musk sobre la disminución de la interacción con el material de odio (y en contraste con un modesto aumento del 4 % en los «me gusta» dentro de la muestra de referencia)».

Modo fake
Además de medir el discurso de odio, también hicieron lo propio con la presencia de cuentas no auténticas (fake) en la plataforma; estas cuentas se utilizan a menudo en campañas de spam e información maliciosa. Musk había prometido combatirlas.

«No encontramos ninguna reducción (y un posible aumento) en la actividad de estos usuarios después de que Musk compró X, lo que podría indicar otros resultados negativos, como la posibilidad de estafas, interferencia en las elecciones o daños a las campañas de salud pública. En general, el aumento a largo plazo del discurso de odio y la prevalencia de cuentas potencialmente no auténticas son preocupantes, ya que estos factores pueden socavar los entornos en línea seguros y democráticos y aumentar el riesgo de daños fuera de línea», señalaron los investigadores.

«Desde su adquisición, se han realizado muchos cambios en las operaciones internas de la empresa, así como en la experiencia del usuario en la plataforma. Inmediatamente después de la compra, hubo una reorganización del liderazgo y la mayoría de los trabajadores, incluidos muchos dentro del equipo de confianza y seguridad, abandonaron la empresa a través de renuncias y despidos», describe el trabajo.

El Consejo Asesor de Confianza y Seguridad, que asesoraba sobre la moderación de contenido, se disolvió. Además, la demografía de X probablemente cambió después de la compra de Musk, con una disminución observada en la actividad de muchos activistas ambientales y muchos usuarios migrando a Mastodon, Threads y BlueSky.

El equipo de investigación enfatiza que las plataformas generalmente moderan el contenido que es dañino para otros usuarios, como el discurso de odio. Un aumento del discurso de odio en una plataforma de redes sociales convencional como X es preocupante por varias razones: «La prevalencia del odio en línea está vinculada a los crímenes de odio fuera de línea (en la vida real, no virtual), y las víctimas del odio a menudo informan una disminución del bienestar psicológico. Además, la exposición a ideologías de odio puede aumentar los prejuicios y disminuir la empatía hacia los grupos externos».

«Públicamente, X ha adoptado la postura de “libertad de expresión, no libertad de alcance”, afirmando que, si bien la plataforma adoptará un enfoque más flexible para controlar el discurso de odio, no mostrará el discurso de odio a muchos usuarios –continúan–. Musk y X han afirmado que la exposición general a contenido de odio y spam en X ha disminuido desde la adquisición de Musk. Sin embargo, estas afirmaciones carecen de transparencia y, por lo tanto, deben evaluarse de forma independiente. Por ejemplo, X podría tener una definición fundamentalmente diferente de discurso de odio que la comunidad de investigación en general, ya que ahora consideran que ‘cisgénero‘ es un insulto, a pesar de que este es un término ampliamente utilizado por aquellos en comunidades médicas y de no conformidad de género».

Y acotan: «Si bien no podemos estar seguros de que la cantidad de “me gusta” que recibe una determinada publicación se corresponda directamente con la cantidad de vistas que recibe esa publicación, encontramos que estas dos métricas están fuertemente correlacionadas».

Moderación de contenidos y discurso de odio en las redes
Las plataformas de redes sociales emplearon o suelen emplear variadas estrategias para moderar su contenido. Las plataformas a menudo moderan para reducir la exposición de los usuarios a contenido como discurso de odio o desinformación, y la forma más común de moderación es la eliminación de publicaciones que contienen este tipo de discurso o cuentas que a menudo los difunden.

«Un análisis de la eliminación de la plataforma de usuarios destacados que regularmente publicaban discursos ofensivos en X encontró que sus seguidores publicaron contenido menos tóxico después. De manera similar, los métodos para moderar rápidamente en X pueden reducir las publicaciones dañinas –enfatizan los autores–. También se utilizan técnicas de «moderación suave», que implican colocar etiquetas de advertencia en las publicaciones para alertar a los usuarios de que pueden contener información errónea».

Dan el ejemplo de la plataforma Reddit, donde se imponen intervenciones similares en foros completos (llamados «subreddits»): «un análisis de la prohibición de comunidades de odio en Reddit encontró que el discurso de odio general en la plataforma disminuyó como resultado . Reddit también impone una moderación suave en las comunidades, llamadas “cuarentenas”, que advierten a los usuarios que el contenido de la comunidad que están a punto de ver contiene material potencialmente ofensivo. Se ha demostrado que las cuarentenas reducen la actividad dentro de las comunidades problemáticas».

También hay usuarios que intentan detener la propagación y el impacto de contenido dañino en una plataforma: «se ha demostrado que una de las formas más destacadas de esto, conocida como “contradiscurso” (discurso que denuncia activamente el discurso de odio), reduce el odio en X, la cual también obtiene información de los usuarios que refuta la información errónea, mostrando refutaciones en las publicaciones que las reciben con su función de ‘notas de la comunidad'».

Está visto que Musk nunca intentó apaciguar los discursos de odio, más bien los promueve, lo que se vio expuesto de sobremanera en la campaña presidencial de Donald Trump, para quien trabajó activamente. Hoy es funcionario de su gobierno. Pero no es solo Elon. El propio Milei utiliza X para multiplicar ataques, luego potenciados por su ejército de trolls. La última víctima: María Becerra. En paralelo, otro magnate tecnológico (no por nada son los más «amigos» de los líderes de derecha outsider que promueven la violencia como forma de gobierno), Mark Zuckerberg, anunció semanas atrás que iban a dejar de regular contenidos, en línea con Musk.

Signos de estos tiempos. ¿A quién le sirve propagar discursos de odio? ¿A quién le sirve una sociedad aturdida y violenta en medio de una crisis socioeconómica y un feroz ajuste?

Incivilidad
En un artículo para la Revista Anfibia, Mario Riorda retoma un concepto de la investigadora Emily Sydnor, experta en comunicación política y psicología política de Syracuse Univesity: el de  «Incivilidad». Sostiene que a mayor incivilidad, mayor será la interacción con la política: «genera engagement, como les encanta decir a los estrategas digitales. Pero a un alto costo: altera la calidad de esa interacción. Atrae, llama la atención. Crea agenda y genera debate. Pero, sobre todo, la incivilidad crea incivilidad. Aleja las partes, ahonda las distancias y promueve el odio».

¿Qué produce la incivilidad? Ansiedad, miedo, frustración, incitación a la ira. Disgusto. «La incivilidad lleva a puntos de no retorno y requiere más incivilidad todos los días. «Se torna inflamatoria del debate, incendiaria. Lleva a límites insospechados sus consecuencias. Crea un clima cultural que vuelve cotidiana la violencia discursiva (como mínimo). Vale corregir el punto anterior: la incivilidad crea más incivilidad para seguir persistiendo».

Y añade que quienes hacen política en el terreno de la creación constante de conflicto no necesitan de la reacción de quienes tienden a evitarlo: «ello es creador de impotencia: si alguien contesta la incivilidad, funciona. Si alguien la ignora, también, aun con el silencio de quién está al frente. Por eso activa tantas dudas en los actores destinatarios de cómo reaccionar».

La conflictividad puede tener una doble dimensión: el desacuerdo sobre la sustancia política (preferentemente las políticas sobre las que se decide) y el nivel de incivilidad en el ambiente: «muchas veces la incivilidad es una táctica para llamar la atención cuando la agenda sobre las políticas decrece. La incivilidad es un total vacío de respeto, pero muchas veces tapa la ausencia de visibilidad sobre un tema». 

 

 

Nota Tiempo Argentino-Por Gustavo Sarmiento