Las guías que usan los moderadores para eliminar contenidos de TikTok
Los contenidos prohibidos los dividen en diez categorías
Su intención es mejorar la transparencia y ganarse la confianza de los usuarios
La plataforma TikTok ha publicado por primera vez las guías que utilizan con sus principios rectores de moderación por lo que ahora todo el mundo puede comprobar cómo se modera y regula el contenido dentro de la plataforma y cuáles son las diez categorías en las que se dividen los contenidos prohibidos.
La aplicación de ByteDance ha publicado la guía de moderación por la que sus trabajadores regulan los contenidos que aparecen el la 'app' con el objetivo de aumentar la transparencia y ganarse la confianza de sus usuarios, como han explicado en un comunicado.
MÁS
En ella TikTok ha recopilado las violaciones de los términos de la aplicación en diez categorías, en las que se recoge una explicación del motivo por lo que está prohibida además de detallar que tipo de conducta entra en cada categoría, y ha comenzado a enviar notificaciones a los usuarios para consultarlas.
La primera categoría recoge las publicaciones que muestran personas y organizaciones peligrosas, como terroristas, asesinos, traficantes, etc. Otra de las categorías son los contenidos que muestren productos ilegales o bienes regulados como las armas o drogas, mientras que la tercera se refiere a los vídeos que muestran contenidos gráficos violentos como mutilaciones o crueldad animal.
La cuarta categoría recoge las publicaciones que muestren suicidios, autolesiones y actos peligrosos mientras que también se eliminan los discursos de odio contra la raza, nacionalidad, religión o orientación sexual. La siguiente parte recoge las publicaciones que muestren acoso o intimidación.
TikTok también prohíbe los contenidos que muestran la desnudez y actividades sexuales, así como los que vulneran la seguridad de los menores. La red social musical también ha restringido los contenidos que dañen a la integridad y autenticidad. Por último la décima categoría se encarga de regular las publicaciones que supongan una amenaza de seguridad para la plataforma.