El algoritmo de TikTok favorece la expansión de contenidos de extrema derecha, según un estudio
El estudio se ha realizado con la red social en los Estados Unidos
TikTok recomienda cuentas de organizaciones relacionadas con el asalto al Capitolio
Aunque son organizaciones prohibidas por la red social, terminan encontrando su hueco
La lucha de las redes sociales por perseguir e intentar eliminar de sus entornos los discursos de odio, los bulos, las famosas 'fake-news' o la información peligrosa (contra la salud pública, como las informaciones contra las vacunas o negando la pandemia, por ejemplo) no da tregua. Y es que, aunque Facebook, Twitter o Tik-Tok prohiban o etiqueten ciertos contenidos o den de baja algunas cuentas que vulneran sus condiciones de uso en este sentido, los responsables de estos discursos encuentran resquicios para seguir apareciendo.
Un estudio ha demostrado ahora que el algoritmo de recomendación de cuentas de TikTok favorece la aparición de contenidos e información relacionada con cuentas de extrema derecha en los Estados Unidos, incluidas aquellas organizaciones relacionadas con la toma violenta del Capitolio del pasado 6 de enero.
MÁS
En concreto, el contenido de las organizaciones de extrema derecha Three Percenter, QAnon, Patriot Party y Oath Keeper está siendo favorecido por este algoritmo de la red social de vídeos, según una investigación de la organización de estudios sobre los medios Media Matters for America.
Hay que resaltar que el contenido de estas cuatro organizaciones está prohibido por TikTok. Sin embargo, la investigación ha constatado que si un usuario sigue las recomendaciones de cuentas de la red, finalmente encuentra una de estas organizaciones y que, si decide seguir a alguna de ellas, esto le llevará a recibir sugerencias de seguimiento del resto de cuentas de extrema derecha.
El estudio de Media Matters for America ha identificado seis patrones frecuentes a través de los cuales TikTok lleva a mostrar contenido y ofrecer el seguimiento de una o varias de las cuentas. Que esto ocurra "ni siquiera requiere que se les busque", aseguran los autores del estudio.
El proceso de aparición comienza con la pestaña 'Para ti', donde la red social muestra contenido recomendado para el usuario basado en su algoritmo, partiendo de las cuentas que sigue y el contenido visualizado anteriormente. Allí aparece contenido de una o varias de las organizaciones que, si el usuario decide seguir, llevará a la recomendación de las siguientes. La conclusión de la investigación es que "los usuarios pueden ser fácilmente expuestos a cuentas y contenido de extremistas de ultraderecha" y recibir cada vez más contenido de ellos.