Icono del sitio Cápsula Virtual

El Supremo de EE UU se inclina por suministrar el abrigo de las redes sociales por su contenido | Tecnología


La jueza Elena Kagan se sinceró el martes: “Somos un tribunal. Efectivamente no sabemos de estas cosas. Ya sabe, estos no son los nueve mayores expertos en Internet”. El Tribunal Supremo de Estados Unidos estaba analizando el importancia de “las 26 palabras que han creado el internet de hoy”, como las definió el abogado de Google (copiando una expresión usada muchas veces). Se proxenetismo del artículo que permite a las plataformas y redes sociales rechazar contenido que consideren inapropiado y que al tiempo las viga de responsabilidad frente a los contenidos que suban terceros. Tanto en esa apariencia del martes como en la celebrada este miércoles, los jueces parecieron humillar por suministrar ese abrigo.

Se debatían dos casos diferentes. En el del martes estaba en el punto de mira si las recomendaciones del operación de YouTube (y por extensión de cualquier red social) están protegidas igual que los propios contenidos de terceros. Los familiares de Nohemi Gonzalez, una de las víctimas de los atentados del Estado Islámico que conmocionaron París el 13 de noviembre de 2015, en la sala de conciertos Bataclan y otros lugares de la renta francesa, demandaron a Google, dueño de YouTube, por la difusión de vídeos del Estado Islámico.

En el caso cuya apariencia se celebró este miércoles, se analizaba si las redes sociales en caudillo, y Twitter como primer demandado en particular, habían favorecido el mejora de ciertas organizaciones terroristas. En este caso la demanda la presentaban los familiares de una víctima del atentado terrorista contra la discoteca Reina de Estambul en el que murieron 39 personas en la fiesta de Nochevieja de 2016, año nuevo de 2017.

La norma a debate, y de cuya interpretación depende el futuro de internet, es el renombrado artículo 230 de la Ley de Respeto en las Comunicaciones de 1996, que establece: “Ningún proveedor o afortunado de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”.

Los jueces del Supremo no serán los mayores expertos en internet, como reconocía Kagan, pero dejaron imaginar su postura. El hecho de que hubiesen admitido los dos casos a la vez y las dudas expresadas en el pasado sobre esa descarga de responsabilidad llevaban a pensar en que abordaban los casos dispuestos a cambiar la interpretación de la norma. Sin retención, de lo escuchado en estos dos últimos días se deduce que se inclinan por suministrar ese abrigo.

En el primer caso, Gonzalez contra Google, el abogado de los el de los familiares de Nohemi Gonzalez ha ido cambiando de argumentos. Al final, su queja se centraba en la forma en que el operación de YouTube invita a quienes ven vídeos del Estado Islámico a ver otros similares. “En algunas circunstancias, la forma en que se organizan o presentan los contenidos de terceros podría transmitir otra información del propio demandado”, dijo, reduciendo su argumentación a las miniaturas que sugiere la plataforma mientras se ve otro vídeo.

Los jueces mostraron rápidamente su desconfianza. Clarence Thomas y otros jueces dijeron que les parecía frecuente que YouTube mostrase vídeos de gatos a quienes ven vídeos de gatos, o de cocina a los que ven vídeos de cocina o de carreras o del ISIS… “Creo que tiene que darnos un ejemplo más claro de lo que quiere asegurar exactamente”, le retó. John Roberts, presidente del tribunal, además manifestó que le costaba hacer responsable a Google si lo que hay es un operación genérico, no uno destinado a promocionar el contenido terrorista.

Elena Kagan se manifestó en esa misma raya: “Esta es una disposición prealgoritmo y todo el mundo está haciendo todo lo posible para investigar cómo se aplica en un mundo post-algoritmo”, dijo, para luego concluir: “Los algoritmos son endémicos de Internet, que cada vez que alguno mira poco en Internet, hay un operación involucrado”.

La jueza Sonia Sotomayor reprochó al cultivado que en su demanda, un párrafo tras otro, aseguraba que TouTube era responsable por no tener retirado el vídeo de su plataforma y, sin retención, en la apariencia admitía ahora que no tenía por qué hacerlo y que el problema estaba en que su operación lo recomendase verlo. “¿Los proveedores de Internet pueden ser responsables de qué? ¿De mostrarme el posterior vídeo similar al que estoy viendo?”, preguntó escéptica.

Aunque el abogado de la clan González insistió en que cuando la plataforma empieza a sugerir cosas que no has pedido expresamente ya no debería estar blindada, no parecía convencer a los jueces. “No entiendo cómo una sugerencia frío sobre poco en lo que has expresado interés es complicidad [con el terrorismo]. Estoy intentando que nos explique cómo poco que es standard en YouTube para prácticamente cualquier cosa en la que tengas interés de repente equivale a complicidad porque estás en la categoría Estado Islámico”, le dijo Thomas.

El magistrado Samuel Alito además pareció recusar esa argumentación: “Me temo que estoy completamente confundido con el argumento que está esgrimiendo. (…) ¿Está actuando [Youtube] como un editor solo por mostrar estas miniaturas de vídeos de ISIS a posteriori de una búsqueda de vídeos de ISIS?”, dijo, reduciendo al disparatado el argumento: “¿Así que si quieren que ese artículo les proteja, no deberían usar miniaturas?”

Sonia Sotomayor y Elena Kagan dijeron que quizá haya un punto intermedio entre esa argumentación tan floja de las miniaturas y no poner término alguno. Frente a la indigencia de trazar esa raya divisoria, Kagan se preguntó: “¿No es eso poco que debe hacer el Congreso, no el Tribunal?”

La norma se dictó en 1996, cuando no existía ni Google, ni Youtube, ni Facebook ni Twitter. Demócratas y republicanos han pedido modificarla, con diferentes argumentos. Y en esto, como señaló el magistrado Neil Gorsuch, el posterior paso es la inteligencia fabricado: “En un mundo post-algoritmo, la inteligencia fabricado puede crear algunas formas de contenido. Genera poesía. Genera polémicas (…) Eso sería contenido que va más allá de escoger, designar, analizar o digerir contenido. Y eso no está protegido” por el renombrado artículo 230, en su opinión.

Y el magistrado Brett Kavanaugh expresó su preocupación por todas las opiniones aportadas a la causa que señalan que retirar ese abrigo pone en peligro internet tal y como hoy lo conocemos, sobre si “hacer eso, retirarse ahora de la interpretación que ha estado en vigor, crearía una gran conmoción económica, en realidad rompería la peculio digital con todo tipo de pertenencias sobre los trabajadores y los consumidores, los planes de renta…”, señaló, para concluir: “No estamos en condiciones de dar cuenta de ello (…) ¿Somos en realidad el entraña adecuado para apartarnos de lo que había sido el texto y la interpretación coherente en los tribunales de apelación?”, apuntando además al Congreso.

Roberts, encima, señaló que teme un auge desmesurado de las demandas si se retiraba la descarga de responsabilidad a las tecnológicas por contenidos de terceros.

La abogada de Google, Mújol Blatt, defendió el uso de algoritmos y de recomendaciones como poco consustancial con la actividad de los servicios de internet. “Toda publicación requiere estructura y transmite inherentemente ese mismo mensaje implícito”, dijo. Según Blatt, el apartado c.1. del artículo 230 “refleja la valor del Congreso de proteger a los sitios web por propagar el discurso de otras personas, incluso si publican intencionadamente el discurso dañino de otras personas”. “El Congreso tomó esa valor para impedir que las demandas judiciales asfixiaran a Internet en sus inicios. El resultado ha sido revolucionario. Los innovadores abrieron nuevas fronteras para que el mundo compartiera información infinita, y los sitios web necesariamente eligen, seleccionan y organizan qué información de terceros ven primero los usuarios”, añadió, para advertir: “Exponer a los sitios web a la responsabilidad por aconsejar implícitamente contenidos de terceros desafía el texto y amenaza la internet de hoy”.

Entender terroristas

El caso de este miércoles, Twitter contra Taamneh, tenía rudimentos en global y otros diferentes. La demanda de los familiares de uno de los asesinados en el atentado de Estambul sostiene que Twitter, Facebook y Google tienen responsabilidad en el atentado porque el Estado Islámico usó las redes sociales para ingresar su notoriedad, transmitir sus mensajes y, en última instancia, enterarse terroristas. Un tribunal inferior admitió a trámite la demanda y los jueces del Supremo deben lanzarse si sigue delante o no.

De nuevo, los jueces se mostraron más de costado de las tecnológicas que de la otra parte, pese a una intervención de la jueza Kagan, en que comparó a las tecnológicas con los bancos, a quienes se persigue en casos de enlucido o financiación del terrorismo. “Estamos acostumbrados a pensar en los bancos como proveedores de servicios muy importantes a los terroristas. Tal vez no estemos tan acostumbrados, pero parece ser cierto que varios tipos de plataformas de redes sociales además proporcionan servicios a los terroristas”, dijo.

La mayoría de los jueces parecieron humillar más por la posición que expuso el magistrado Alito, quien señaló que no tendría sentido que las compañías telefónicas fueran consideradas responsables de la actividad delictiva de las personas que utilizan sus teléfonos. ¿Qué pasaría si la compañía “sabe que una persona en particular tiene informes penales y probablemente se dedica a actividades delictivas y utiliza el teléfono para comunicarse con otros miembros de la costado? ¿Es eso complicidad con los delitos que cometen?”.

La ley antiterrorista castiga a quienes ayuden a sabiendas a una persona a cometer un acto terrorista. La jueza Amy Coney Barrett subrayó que no hay suficientes hechos concretos que sustenten la demanda, más allá de proclamas generales sobre que las redes, y en particular Twitter, se usasen para reemplazo en caudillo o radicalización de seguidores. Pero no hay en la demanda pruebas concretas como mensajes directos, hilos de comentarios u otros indicios de que la red estaba siendo utilizada para coordinar actividades para un ataque terrorista”.

En un momento entregado, la jueza Sonia Sotomayor le dijo al abogado de Twitter, Facebook y Google, Seth Waxman, que le ayudara a esbozar cómo sería una opinión si el tribunal fallara a gracia de sus clientes. “Escríbemelo”, le dijo. El magistrado Brett Kavanaugh resumió el argumento de Waxman de esta guisa: “Cuando hay un negocio oficial que proporciona servicios sobre una almohadilla ampliamente habitable … no va a ser responsable en virtud de este artículo, incluso si sabe que la clan mala utiliza sus servicios para cosas malas”. Y Waxman mostró su acuerdo: “Correcto, a menos que tenga conocimiento concreto, en este caso, serían cuentas o mensajes, que están, de hecho, siendo utilizados para planear o cometer un acto terrorista, incluyendo un ataque como el que hirió al demandante. Es asegurar, tiene que tener un conocimiento concreto en ese contexto. Esa es nuestra norma”.

Las sentencias de los dos casos se espersan para el mes de junio, cuando acaba el curso contencioso antaño de las ocio. Es el mes en que suelen concentrarse las sentencias más relevantes.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.



Creditos a Miguel Jiménez Comienzo

Fuente

Salir de la versión móvil