En Estados Unidos las compañías de internet no son responsables legalmente de los contenidos publicados por sus usuarios; sin embargo, varias demandas contra Google, Facebook y Twitter podrían cambiar esta ecuación luego de que La Corte Suprema de Estados Unidos decidiera abrir un caso para evaluar cuál es la responsabilidad de las grandes tecnológicas en esta materia.
¿Cuál será el impacto de la decisión que tomará el Tribunal Supremo de USA?
Por Gabriel E. Levy B.
www.galevy.com
Google, Facebook, Twitter y otras compañías con plataformas que ofrecen servicios de redes sociales, por primera vez en la historia de los Estados Unidos, podrían ser juzgadas por los contenidos que distribuyen; un hecho sin precedentes, pues la ley estadounidense establece que las compañías de internet no son responsables de los contenidos publicados por sus usuarios. Sin embargo, la sumatoria de hechos polémicos y un cúmulo de demandas, terminaron por desencadenar una revisión por parte del Tribunal Supremo de los Estados Unidos[1].
El problema en contexto
La Corte Suprema o Tribunal Supremo, es el órgano de mayor rango existente en los Estados Unidos en el campo jurídico. Se trata de la cabeza del poder judicial federal. Se compone de un presidente (Chief Justice) y ocho jueces asociados (Associate Justices), que son nombrados por el presidente de los Estados Unidos y confirmados mediante el “consejo y consentimiento” del Senado del mismo país.
La Corte Suprema es la única corte establecida por la Constitución de los Estados Unidos. Todos los demás tribunales han sido creados por el Congreso. La Corte posee la facultad de revisión judicial y de declarar inconstitucionales leyes federales o estatales y actos de los poderes ejecutivos federal y estatales. Sus decisiones no pueden ser apeladas.
Plataformas exentas de responsabilidad
Históricamente las plataformas han gozado de inmunidad bajo una disposición conocida como sección 230, que es parte de la Ley de Decencia en las Comunicaciones de 1996.
La sección 230 se ha convertido en un objetivo de los republicanos más conservadores en el congreso y en otros ámbitos políticos, incluido el expresidente Donald Trump, quienes afirman que esta norma permite que las empresas tecnológicas de tendencia izquierdista censuren las voces de derecha.
El caso en cuestión
El Tribunal Supremo de Estados Unidos, a partir de un cúmulo de demandas y situaciones concretas, ha decidido abrir un caso de revisión jurídica que involucra temas claves conexos como “la discriminación positiva en el acceso a las universidades”, “el medio ambiente”, “las reglas electorales” y “la discriminación de los homosexuales” y, muy puntualmente, “la responsabilidad que tienen las grandes compañías tecnológicas en el contenido que publican sus usuarios en las redes sociales”.
La demanda más icónica es la interpuesta por los familiares de Nohemí González, víctima de los atentados del 13 de noviembre de 2015 en Francia. La estudiante universitaria estadounidense de 23 años fue una de las 131 personas asesinadas por los terroristas del Estado Islámico en una serie de atentados en París, incluyendo la sala de conciertos Bataclan.
González fue asesinada en un restaurante donde se encontraba cenando ese día. El caso comenzó años después cuando los familiares demandaron a Google por YouTube en tribunales menores de los Estados Unidos, que desestimaron todas las demandas; no obstante, la familia continuó insistiendo hasta que, finalmente, la Corte Suprema aceptó revisar el caso.
Los motivos de las demandas
Una de las constantes identificadas en algunas masacres icónicas es que los autores han retransmitido en directo sus actos a través de las redes sociales, razón por la cual el tribunal examinará en qué medida se puede responsabilizar a Google de la matanza del Bataclan en París, por haber permitido la difusión en su plataforma YouTube la difusión de vídeos que incitaban a la violencia islamista.
Los tribunales hasta ahora, en los primeros fallos, han interpretado que la sección 230 inmuniza los servicios informáticos cuando se dedican a actividades tradicionalmente realizadas por editores, como decidir si mostrar o editar contenido de terceros. Pero la tesis jurídica de los abogados de la familia de González sostiene que las recomendaciones son un asunto diferente que no puede equipararse con un ejercicio editorial.
En particular la familia de la víctima afirma que YouTube no se limita a un papel pasivo que permite que los usuarios busquen qué ver, sino que su algoritmo recomienda videos basados en el historial de cada usuario. Con ello, quienes consumen videos de propaganda islamista reciben más contenidos de ese tipo, facilitando su radicalización.
“Si la sección se aplica a estas recomendaciones generadas por algoritmos es de enorme importancia práctica, los servicios informáticos interactivos dirigen constantemente esas recomendaciones, de una forma u otra, a prácticamente todos los adultos y niños de Estados Unidos que utilizan las redes sociales”[2].
Aparte de la tesis jurídica que sustenta la demanda.
Otros de los casos que revisarán las cortes son contra Twitter, Google y Facebook en relación con el atentado en una discoteca de Estambul de 2017, con 39 muertos.
La respuesta de las grandes tecnológicas de Silicon Valley
Google responde que el único vínculo entre el atacante de París y YouTube fue que uno de los atacantes era un usuario activo de la plataforma y que una vez apareció en un vídeo de propaganda del ISIS.
“Este tribunal no debe adoptar a la ligera una lectura de la sección 230 que amenace las decisiones organizativas básicas del internet moderno”[3], sostiene la tesis presentada por Google.
En el de Twitter, la Corte Suprema no evaluará el rol de los algoritmos, sino que intentará determinar “si las redes sociales pueden ser demandadas por presunta complicidad en un acto de terrorismo, cuando las plataformas han albergado contenidos de usuarios que expresan en general su apoyo al grupo que está detrás de la violencia, aunque no vayan referidos a un atentado en concreto”.
Ambos casos serán un primer pulso en una batalla que se extiende acerca de la inmunidad que deben tener o no las compañías en cuanto a los contenidos de sus usuarios y, al tiempo, sobre el margen que tienen para su política de moderación.
Varios jueces del Supremo, entre ellos los conservadores Clarence Thomas y Samuel Alito, habían expresado ya su interés en admitir casos sobre la moderación de contenidos en Internet, lo que podría indicar una cierta tendencia intervencionista por parte del supremo; sin embargo, es prematuro pues el debate interno que debe surtirse apenas comienza.
En caso de que finalmente se determine que las plataformas poseen algún nivel de responsabilidad, esto podría cambiar para siempre el concepto de redes sociales tal y como lo conocemos, pues podría desencadenar mayores controles, incluyendo el denominado “control previo”, que en últimas terminaría impactando en la libertad de expresión globalmente.
En conclusión, por primera vez en la historia, la Corte Suprema de Justicia de los Estados Unidos entrará a revisar la responsabilidad que tienen las plataformas digitales sobre el contenido que distribuyen; con ello, es posible que, eventualmente, se desconozca la inmunidad de la que gozan dichas plataformas en virtud de la sección 230 de la Ley de Decencia de Comunicaciones. Si esta corte declara que, en efecto, tienen algún tipo de responsabilidad, se podría cambiar el futuro de las redes sociales tal y como las conocemos.