Las redes sociales son una fuente de entretenimiento y de distracción, pero cada vez son más los estudios que alertan sobre su diseño adictivo, especialmente nocivo para los usuarios jóvenes.
Hace unos días, la radio pública de Kentucky hizo públicos una serie de documentos internos de TikTok que confirmarían la compañía propietaria, ByteDance, sabía que su algoritmo era adictivo para los usuarios jóvenes pero no hizo nada para evitarlo. Los papeles forman parte de una investigación que enfrenta a 14 fiscales contra la compañía, y en la que se hace explícito que los usuarios solo necesitan 35 minutos para engancharse a la plataforma. La compañía ha negado las acusaciones y ha afirmado que la información está descontextualizada.
Consultamos a Ana Freire, doctora en informática y vicedecana de Impacto Social e Innovación Académica en la UPF Barcelona School of Management. Ella ha impulsado el proyecto STOP, que ha estudiado los problemas de salud mental en las redes sociales a través de la inteligencia artificial.
Pregunta: ¿Cómo funciona el algoritmo de recomendación de una red social como TikTok?
Respuesta: Estos sistemas recopilan gran cantidad de datos de cada uno de sus usuarios, como datos demográficos, contenidos que habitualmente ven (intereses) o su comportamiento en la plataforma (cómo y con quién/qué interactúan). Esto les permite conocer muy bien a cada usuario y ofrecerle así una visión personalizada de la plataforma: contenidos que probablemente le gusten, contactos que quieran seguir o anuncios en los que hagan click.
P: ¿Y en la salud mental?
R: Ya empiezan a salir los primeros estudios que aseguran que las redes sociales causan problemas de salud mental. Es decir, no solo existe correlación, sino causalidad entre el uso masivo de las redes sociales/dispositivos móviles y los problemas de salud mental, especialmente en adolescentes. En particular, el libro ‘La generación ansiosa’, de Jonathan Haidt, autor del libro y psicólogo social estadounidense, defiende que la epidemia de problemas de salud mental en la adolescencia (que ha tenido un incremento de un 150% entre 2010 y 2020) no puede ser explicada por ningún otro factor económico o social.
P: ¿Qué ganan las empresas haciendo que los usuarios pasen más tiempo conectados?
R: Habitualmente estas plataformas no cobran a los usuarios por el uso que hacen de las mismas, sino que cobran a empresas que anuncian productos en ellas. Cada vez que un usuario visualiza un anuncio, o hace clic en él, las plataformas están ganando dinero. Por eso interesa que los usuarios estén la mayor parte del tiempo conectados y así puedan ver o hacer clic es una mayor cantidad de anuncios. De ahí que desarrollen lo que se denomina "tecnología persuasiva", que incluye técnicas que favorecen la adicción de las personas a estas plataformas.
P: ¿Qué se puede hacer para revertir esta situación?
R: Lo más efectivo, que ahora mismo falta, es más educación y regulación. Por un lado, acciones educativas que enseñen tanto a adultos (especialmente padres y madres) como a niños cómo usar adecuadamente las redes para poder sacar provecho de ellas, sin caer en una adicción desmesurada y sin ser manipulados por estas tecnologías persuasivas. Hace poco conocí un proyecto alemán que enseña en los colegios cómo utilizar Instagram con un programa que es prácticamente una réplica de esta red social. Además, permite ver todos los datos que Instagram guardaría de cada usuario, y esto es impactante para los jóvenes.
Por otro lado, aplicar una regulación dirigida a plataformas, para que las redes puedan ser más seguras. Hay ya esfuerzos al respecto, como el reglamento de servicios digitales de la Unión Europea. De hecho, uno de sus objetivos es crear un espacio digital que respete los derechos fundamentales de todos los usuarios. Por contra, solo es aplicable en Europa y tiene sus limitaciones.
P: ¿Se debería equilibrar un poco más los intereses de las tecnológicas con los de los usuarios?
R: Sin duda, se trata ya de un tema ético. Viendo los efectos secundarios que estas plataformas están teniendo en sus usuarios, urge que se tomen medidas, especialmente relativas a la moderación de contenidos automatizada, para que los contenidos ofensivos o desagradables no se publiquen ni se recomienden en redes. Hoy en día casi todas las plataformas usan una aproximación híbrida entre moderación automatizada y humana, pero no filtra contenidos adecuadamente. Esto se podría implementar de forma más eficiente a través de modelos de IA, lo que además evitaría que moderadores humanos tuviesen que ver esos contenidos. Además se debería mejorar la verificación de edad, para restringir el acceso a menores, o incluso ciertos contenidos.
P: ¿Se debería prohibir entonces el uso de redes sociales a menores?
R: A pesar de ser un discurso que se pone sobre la mesa, se debería prohibir a menores de 18 años, como ocurre con la conducción, por su falta de madurez y los efectos negativos que esto puede ocasionar. Un problema que podría afectar a la aplicación de esta prohibición es que no disponemos todavía de mecanismos que aseguren de modo fiable la edad real de un usuario en las redes, lo que implica que muchas veces falsifiquen su edad para poder hacer uso de las redes.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.