El Tribunal Supremo de Estados Unidos cuestiona la responsabilidad de Google y Twitter en los asesinatos de dos víctimas del terrorismo islámico

  • Las dos demandas consideran que las tecnológicas son responsables del contenido de los usuarios

  • Los dos casos surgen de la misma demanda pero giran en torno a dos leyes diferentes

  • De prosperar las acciones judiciales, las reglas de internet cambiarían drásticamente

¿Deberían las empresas tecnológicas ser legalmente responsables de los contenidos que publican sus usuarios y las recomendaciones que hacen los algoritmos informáticos de las plataformas internautas? Estas y otras preguntas se están debatiendo en la Corte Suprema de Estados Unidos tras dos demandas presentadas por dos familias que han perdido a un ser querido en atentados terroristas perpetrados por el ISIS.

En los dos casos, los demandantes consideran que las empresas de las redes sociales son responsables de avivar la violencia con las publicaciones y de la recaudación de fondos del grupo Estado Islámico, aunque sostienen algunas diferencias. Surgen de una misma demanda, pero se argumentan por separado ante el tribunal porque giran en torno a la interpretación de dos leyes diferentes. De prosperar las demandas, contra Google por un lado, y por otro contra Twitter, Facebook y Alphabet (principal filial de Google), habría consecuencias de grandes dimensiones con implicaciones en la libertad de expresión que alterarían drásticamente las reglas por las que se rige internet en la actualidad.

La familia González contra Google

En el primer caso, la empresa matriz de YouTube, Google, fue demandada por la familia de Nohemí González, una estudiante estadounidense-mexicana de 23 años de la universidad estatal de California que estaba pasando un semestre en París estudiando diseño industrial. González fue asesinada por miembros del grupo terrorista ISIS en una serie de atentados que dejaron 130 muertos en noviembre de 2015.

Los padres de Noemí buscan responsabilizar al gigante tecnológico alegando que sus algoritmos informáticos ayudaron a ver determinados contenidos extremistas que incitan a la violencia terrorista y al reclutamiento de más adeptos. “Queremos que haya un mayor control y ya no solo con los grupos terroristas sino con todo tipo de actividades delictivas. Hemos llegado hasta aquí para el cambio de las redes sociales”, han declarado los padres de la joven asesinada.

Reynaldo González, padre de la víctima mortal, critica que YouTube no se limita a un papel pasivo que permita a los usuarios ver lo que buscan, sino que su algoritmo recomienda videos basados en el historial de cada usuario. Sus abogados defienden que aquellos que han visto videos de propaganda islamista, reciben también más contenidos de ese tipo, facilitando su radicalización.

La Ley de Comunicaciones a examen de los jueces

En el caso de la demanda de la familia González, lo que se cuestiona la máxima autoridad de la justicia en EEUU es el alcance de la Sección 230 en la Ley de Comunicaciones adoptada en 1996 y que da poder a las compañías tecnológicas para moderar el contenido de los internautas, al mismo tiempo que las protege de ser demandadas por lo que publican. “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”, establece la Ley. En función de ello, se exime a las plataformas de responsabilidad por los contenidos de sus usuarios.

Los abogados de Google argumentan que tratar a YouTube como el editor de videos del grupo Estado Islámico contravendría la Sección 230. Sin embargo, lo que complica las cosas es la definición en el acto de lo que es un proveedor de contenido de información. Se define como una persona o entidad responsable de crear o desarrollar contenidos “total o parcialmente”. El demandante argumenta que, si se promocionan videos del grupo Estado Islámico a través de miniaturas en la plataforma, YouTube es responsable de la creación de contenido y, como tal, puede ser considerado responsable de sus consecuencias.

La defensa de Google

En un escrito presentado ante el Tribunal, la compañía que contiene la página web más utilizada en el mundo expone que el procedimiento informático algorítmico es la única forma de organizar la ingente información que se vuelca cada día en la red: “Los algoritmos de recomendación son los que hacen posible encontrar las agujas en el pajar más grande de la humanidad”.

Si organizarlos elimina el blindaje de responsabilidad- subraya la empresa-, no habrá forma de salvar “las recomendaciones de búsqueda y otras herramientas básicas de software que organizan una avalancha de sitios web, vídeos, comentarios, mensajes, listados de productos, archivos y otra información por la que, de otro modo, sería imposible navegar”.

Google también manifiesta en su defensa que, a lo largo de los años, YouTube ha invertido en tecnología, equipos y políticas para identificar y eliminar contenido extremista. “Trabajamos regularmente con las fuerzas del orden, otras plataformas y la sociedad civil para compartir inteligencia y mejores prácticas. Socavar la Sección 230 haría más difícil, no más fácil, combatir el contenido dañino, lo que haría que Internet fuera menos seguro y menos útil para todos nosotros”, defendió José Castañeda, portavoz de Google, en un comunicado.

En paralelo, grupos de libertades civiles advierten que los cambios en la Sección 230 podría debilitar irreparablemente la libertad de expresión y en el contenido de internet. Responsabilizar a las empresas por sus sistemas de recomendación podría “conducir a una represión generalizada del discurso legítimo político, religioso y de otro tipo”, ha señalado Evan Greer, un activista por la libertad de expresión y los derechos digitales.

La Sección 230 es aplicable a las redes sociales como Facebook, YouTube, Twitch o Twitter, pero va mucho más allá. Numerosas funcionalidades de Google, TripAdvisor, Yelp, Reddit, Craiglist, Apple o Microsoft dependen de alguna manera de las aportaciones de sus usuarios y ese blindaje de responsabilidad ha sido clave para el progreso de sus contenidos. Dichas compañías se han personado en los casos para defender su posición en un frente común.

Twitter contra Taamneh

La otra demanda, con tintes muy parecidos a la de la familia González, es la presentada por la familia de un joven jordano, Nawras Alassaf, contra Twitter, Facebook y Alphabet. Alassaf falleció en un ataque del Estado Islámico a un club nocturno en Estambul el 1 de enero de 2017 durante la celebración de Año Nuevo y en el que fallecieron un total de 39 personas. La demanda alega que la tecnológica no controló la plataforma de redes sociales en busca de cuentas o publicaciones del ISIS y, por tanto, no hicieron lo suficiente para frenar la difusión de contenido violento.

En este caso se acusa a las plataformas de las redes sociales de haber “ayudado e instigado” al terrorismo al no haber hecho lo suficiente para eliminar el contenido del grupo Estado Islámico y recomendar videos de la organización terrorista con sus algoritmos. La demanda se centra en la violación de la Ley Antiterrorista de 1990, enmendada, que impone responsabilidad civil por ayudar a un ataque terrorista.

¿Brindó la empresa asistencia sustancial al grupo terrorista? El profesor de derecho de la Universidad de Washington, Eric Schnapper, en representación de los demandantes, dijo que no tenían que demostrar que las acciones de Twitter derivaron en un ataque específico, sino que ayudaron a la "empresa terrorista". Los denunciantes consideran que la tecnológica proporcionó apoyo material al Estado Islámico al facilitar infraestructura y servicios que le permiten “promover y llevar a cabo actividades terroristas”, sin hacer seguimiento y eliminar de manera proactiva dicho tipo de contenido.

El hecho de que Twitter sea consciente de que “entre sus miles de millones de usuarios había seguidores de ISIS que violaron sus políticas” no hace que la empresa sea responsable de “ayudar e instigar un acto de terrorismo internacional”, ha dicho también otro de los letrados que representa a Twitter, Seth Waxman.

Escepticismo judicial por el cambio

Algunos jueces de la Corte Suprema han transmitido su escepticismo respecto de la demanda contra Twitter, mientras sopesaban si responsabilizar a las empresas de Internet por el contenido polémico de los usuarios. El presidente del Tribunal Supremo, John G. Roberts Jr., se quejó de que el estatuto antiterrorista es vago y está lleno de factores que un tribunal debe considerar al decidir la responsabilidad.

En lo que se refiere a la Sección 230, aunque algunos juristas parecían mostrarse inclinados a limitar las protecciones de responsabilidad, hubo poco consenso sobre cómo hacerlo. La jueza Elena Kagan afirmó que la Sección 230 está desactualizada, pero debe ser arreglada por el Congreso, no por la corte.

El juez Brett Kavanaugh, advirtió frente a un futuro hipotético en el que ese blindaje no exista: "Cada día se realizan miles de millones de consultas en internet. Cada una de ellas abriría la posibilidad de una demanda".

Aunque el debate sobre el blindaje de responsabilidad de las Big Tech, está ahora sobre la mesa, la decisión del Supremo -de mayoría conservadora- sobre las dos demandas no llegará hasta el verano.

Republicanos y demócratas están de acuerdo con el cambio

El hecho de que las empresas de tecnología rindan cuentas por su sistema de recomendación también se ha convertido en un grito de guerra también para los legisladores republicanos y demócratas, creando cierto consenso en el espectro político. Los republicanos afirman que las plataformas han suprimido los puntos de vista conservadores, mientras que los demócratas consideran que los algoritmos de las plataformas están amplificando el discurso de odio y otros contenidos dañinos. Tanto Joe Biden como su antecesor Donald Trump han pedido cambios en la medida.