Icono del sitio Cápsula Virtual

Europa inaugura su aparejo para cascar las cajas negras de los algoritmos en Internet | Tecnología


María y Alejandra utilizan la misma red social, sin secuestro, el contenido al que acceden es muy diferente. Todo depende de la información que introducen en sus búsquedas, con esos datos los motores de búsqueda pueden resistir a ofrecer un contenido tan hiperpersonalizado que pueda resistir a imaginar realidades tan diferentes para cada una de ellas, con los riesgos añadidos tanto para ellas como para el resto de la sociedad. Este es un caso práctico con los que ya está trabajando el equipo multidisciplinar de trabajadores del Centro Europeo para la Transparencia Algorítmica (ECAT por sus siglas en inglés) que este martes se inaugura de modo oficial en Sevilla y que está llamado a convertirse en la principal aparejo de la Comisión Europea para certificar que las grandes plataformas digitales cumplen con los principios para certificar el buen funcionamiento y el control de contenidos ilícitos y perjudiciales en Internet que recoge la Directiva de Servicios Digitales, que entró en vigor el pasado mes de noviembre.

Los mecanismos de transparencia establecidos en la DSA y que las grandes plataformas digitales (las que tienen más de 45 millones de usuarios y suponen el 10% del mercado potencial europeo), que obligan a sus propietarias a identificar y controlar los riesgos de sus sistemas algorítmicos hubieran podido alertar a María y Alejandra. Controlar que los gigantes de Internet realizan correctamente esa autoevaluación y anticiparse en presencia de cualquier posibilidad de evadirlos será una de las principales funciones del ECAT. El centro tiene la enorme responsabilidad de cascar las cajas negras de los sistemas algorítmicos, descifrarlos y afianzar que cumplen con los criterios de la legislatura europea.

“Este es un gran paso porque hay una enorme futuro, ya que estamos mostrando al mundo que aplicar normas acaba marcando la diferencia sobre el dominio y que eso puede cambiar la conducta de las grandes plataformas, que deben hacerse cargo su responsabilidad social y no solo mirar por el crecimiento de su negocio”, señala un suspensión funcionario de la Comisión involucrado en la implementación de la DSA. Los algoritmos y su uso son objeto de debate en muchos ámbitos, la diferencia que marca el ECAT es que su investigación se realiza con el propósito de apoyar a los servicios legales de la Comisión para afianzar que la legislatura se cumple.

El ECAT tiene su pulvínulo en la sede en el Centro Global de Investigación (JRC) que la Comisión tiene en Sevilla. De momento cuenta con 10 expertos en distintas materias no solo relacionadas con la informática, la inteligencia fabricado o el Big Data, pero además con disciplinas de carácter social, porque uno de los objetivos es detectar que las grandes compañías y buscadores cumplen con las obligaciones relacionadas con la protección de la infancia, que no se incita a la violencia de tipo o que los contenidos no son un peligro para la vitalidad mental. El objetivo es que en los próximos meses el equipo se amplíe hasta los 30 especialistas y que en una segunda escalón crezca hasta los 40.

Por otra parte de la tarea de supervisión de la documentación que los gigantes de Internet les brinden sobre su autoevaluación, que es previamente auditada por una tercera empresa, el ECAT puede además iniciar investigaciones a través de denuncias de terceros o cuando detecte que no se está cumpliendo con la DSA. Toda esa información servirá para poder armas causas legales contra estas empresas en el caso de que haya evidencias de malas prácticas. Con todo, desde la Comisión se quiere dejar claro que el ECAT no pretende ser un “Ocupación de la Verdad”. “Si detectamos que se está alojando o se está derivando a contenido ilegal o se está distribuyendo información falsa y no se elimina y se corrige, podemos comportarse. La carga de probar que no están actuando correctamente recae en las empresas”, señala el funcionario. En este sentido, Bruselas está trabajando en establecer los parámetros para que las grandes compañías puedan realizar sus autoevaluaciones de peligro en materias como la privacidad, la protección de la vitalidad mental…

En esa tarea de cascar las cajas negras hay tres pasos de transparencia que las grandes plataformas y los buscadores deben alcanzar. El primero llega al usufructuario medio. “Las compañías deben advertir en un jerga que sean capaz de entender los menores existencia que acceden a sus redes, de modo que se les puedan ofrecer mejores opciones de navegación”, señala otro responsable del ECAT. “Esto otorga veterano capacidad y poder al usufructuario”. El segundo nivel es el que atañe a la sociedad civil, expertos, ONG… —”esto nos ofrecería un tipo de información e informes de divulgación para los expertos”, señala el técnico―. El segundo nivel muestra el parámetro prospectivo que además imbrica al ECAT. El nuevo centro quiere servir de puente entre la institución -universidades y grupos de investigación- y la empresa privada -unos acuerdos que aún están por definir-.

El tercer nivel es el más importante para los investigadores. Ese implica resistir a las tripas del operación y para poder investigarlas y ceder hasta ellas, la Comisión puede designar expertos o auditores.

Las conclusiones de las investigaciones sobre el funcionamiento de los sistemas algorítmicos y su impacto además será compartidas con el manifiesto, siguiendo con el impulso divulgador que además corresponde al ECAT, pero además con el afán de poder retratar el comportamiento de las grandes compañías. La Comisión elude entrar en las posibles fricciones o desencuentros que puedan encontrarse con los gigantes de Internet, acostumbrados a competir en un entorno más desregulado como el de EE UU y prefiere abordarlo como una oportunidad para mejorar su imagen y producir confianza ofreciendo oportunidades en el mundo digital.

El ECAT, de la mano de los expertos, está llamado a convertirse en el auxilio de la Comisión no solo para comprender y destripar como funcionan los sistemas algorítmicos para advertir y evitar enseres indeseados, sino para certificar a través de la transparencia, que lo que es ilegal en la vida positivo además lo es en las redes sociales.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para admitir nuestra newsletter semanal.



Creditos a Eva Saiz Escolano

Fuente

Salir de la versión móvil