Icono del sitio Cápsula Virtual

Un categoría de expertos en inteligencia fabricado rompe con el Gobierno por discrepancias éticas | Tecnología


Las relaciones entre el Gobierno castellano y los máximos especialistas del país en inteligencia fabricado (IA) se están enturbiando. La semana pasada dimitieron tres miembros del Consejo Asesor de Inteligencia Sintético, un víscera consultivo constituido en 2020 para “certificar un uso seguro y ético de la IA”, “compuesto por expertos españoles de agradecido prestigio internacional”, tal y como lo describe la web de La Moncloa. Según ha podido aprender EL PAÍS, otros integrantes del categoría se han planteado además la salida, aunque no la han concretado.

El detonante ha sido la firma de un convenio de colaboración entre el Gobierno castellano y un instituto de investigación de Emiratos Árabes Unidos, ADIA Lab. La Secretaría de Estado de Digitalización e Inteligencia Sintético (Sedia), dependiente del Profesión de Asuntos Económicos y Transformación Digital, anunció la semana pasada que el citado laboratorio de Emiratos había predilecto Explosivo como ubicación para su sede europea. El centro recibirá una inversión original de cinco millones de euros, si perfectamente los socios emiratíes se comprometen a aumentar esa cuantía poniendo en marcha varios proyectos de investigación.

El acuerdo “causa gran preocupación, pues contradice los principios de ética y seguridad con los que el Gobierno castellano se comprometió a desarrollar nuevas tecnologías”, lee una carta abierta que publica este martes este folleto, firmada por cuatro destacados investigadores en la disciplina, dos de ellos miembros hasta la semana pasada del consejo asesor. ADIA Lab es un centro investigador “financiado por un Gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en particular de mujeres, de las comunidades LGTBQI+ e inmigrantes”, recuerda el texto.

La audacia del empleo de aliarse con Emiratos Árabes Unidos causó malestar entre un categoría amplio de miembros del consejo asesor, molestos ya por su papel testimonial en las decisiones estratégicas relacionadas con la IA. Las reacciones no tardaron en producirse. Algunos propusieron una dimisión en masa, aunque esa opción se enfrió con el paso de las horas. El primero en renunciar al puesto fue Carles Serra, director del Instituto de la IA del CSIC. Comunicó su audacia el miércoles, 24 horas posteriormente de conocerse el acuerdo con ADIA Lab.

Consciente de que la situación lo requería, el empleo convocó una “reunión urgente” del consejo al día ulterior. La dirigió la secretaria de Estado, Carme Artigas. “Algunos de los miembros nos pidieron conocer el detalle del acuerdo y se organizó una videoconferencia informal”, explican desde el empleo. “Dos de sus miembros manifestaron su disconformidad y se les explicó con todo detalle el acuerdo y el impacto que supondría para el conocimiento investigador”.

Lo que ahí se dijo no evitó que se fueran dos expertos más de ese víscera. Esa misma perplejidad presentó su dimisión Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología y fundadora de centros como Algorithm Watch o The Ethical Society. Al día ulterior lo hizo Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Práctico de Northwestern University, en Silicon Valley (San Francisco), catedrático de la Universidad Pompeu Fabra (Barcelona) y Premio Doméstico de Informática. Ningún de los tres expertos ha recibido comunicación alguna por parte de la Secretaría de Estado tras presentar su dimisión.

“Conveniente a la heterogeneidad de sus miembros, es difícil encontrar posturas consensuadas, lo que enriquece el debate y aporta nuevos puntos de paisaje. Por lo que la disparidad de criterios entre los miembros es habitual, siempre desde el respeto a todas las opiniones”, argumentan fuentes de la Secretaría de Estado. “Consideramos muy positivo que una institución de prestigio investigador que cuenta en su consejo con premios Nobel elija instalarse en España antaño que en otros países europeos como Francia o Alemania. Respetamos la audacia de los miembros del consejo asesor que consideren que ya no quieren seguir aportando su visión a este víscera y agradecemos su participación hasta la aniversario”, añaden desde Sedia.

“Un acuerdo gubernativo para instalar un laboratorio de IA en España financiado por un país autocrático que viola los derechos humanos, en particular los de la mujer, no es éticamente aceptable”, explica Baeza-Yates. “De hecho, es incompatible con el espíritu mismo del consejo asesor, que tiene como una de sus misiones velar por la ética de la IA en España. Por estas razones no puedo legalizar con mi silencio iniciativas que vulneran principios básicos de la ética científica y por ende renuncié al consejo”.

“La audacia de firmar un convenio con ADIA Lab no solo ha sido una ápice muy profundo que colmó el vaso: es un indicador de la dinámica defectiva del consejo asesor y de un posicionamiento por parte de la Secretaría de Estado que se halla en profunda contradicción con los objetivos de ética y seguridad por los que se creó el consejo asesor”, señala por su parte Jaume-Palasí.

Según ha podido aprender este folleto, un categoría de ONG enfocadas en derechos humanos, derechos digitales e inmigración prepara además una carta abierta en la que dejar licencia su rechazo al convenio firmado entre el Gobierno y el centro de investigación de Emiratos Árabes Unidos.

Otra queja recurrente entre algunos miembros del categoría de expertos es que el Gobierno no acudía a ellos para que lo asesorase antaño de tomar decisiones estratégicas. “El consejo ha tenido principalmente un rol embellecedor. No hemos sido consultados para evaluar el impacto de sistemas de IA o emitir recomendaciones en los temas positivamente relevantes”, se queja la filósofa. “Desde hace dos primaveras, los pocos encuentros que hemos mantenido han tenido más perfectamente un carácter declarativo en el que se nos informaba con presentaciones muy condensadas sobre los proyectos de la Secretaría de Estado”.

Los firmantes de la carta, entre los que se encuentran Ramon López de Mántaras, uno de los pioneros de la IA en Europa, y Carmela Troncoso, experta en seguridad algorítmica y desarrolladora del protocolo técnico que se usó en las apps de rastreo de la covid, reconocen la valentía que tuvo el Gobierno al identificar los desafíos que supone la IA para la sociedad y en querer tomar cartas en el asunto. El consejo asesor se creó en 2020 para “proporcionar recomendaciones independientes sobre las medidas a adoptar para certificar un uso seguro y ético de la IA”. Pero lamentan que, al aliarse con Emiratos Árabes Unidos, se ignoren “los principios éticos en la posesiones, en la ciencia en normal y en la IA en concreto”.

Aguas turbulentas en la Secretaría de Estado

La salida de 3 de los 18 expertos que conforman el consejo asesor no es el primer conflicto que se genera en la Secretaría de Estado. El área ha vivido varias convulsiones desde que vio la luz en enero de 2020. La titular del área, Carme Artigas, ha tenido tres jefes de salita en menos de tres primaveras. Varios asesores han sucio el equipo en este tiempo, incluyendo fichajes realizados a petición expresa de Artigas, como es el caso de la científica de datos Mara Balestrini, quien abandonó el puesto a los tres meses de conmover.

Igualmente hubo bajas entre funcionarios de parada nivel, que buscaron acomodo en otros ministerios, tal y como publicó El Confidencial. Entre ellos Fernando de Pablo, secretario normal hasta el 12 de mayo de 2020; María José Gómez, subdirectora normal de Talento y Plan Digital; David Pérez, coordinador del radio de Tecnología y Plan Digital, o Amparo Peris, subdirectora normal adjunta para la Sociedad Digital.

A los dos meses de constituirse el área dirigido por Artigas, España fue confinada. La Secretaría de Estado lideró el plan de desarrollar una aplicación de rastreo de los casos de covid, que implicó la coordinación de varios ministerios y grupos de trabajo. La mayoría de las horizontes del equipo de Artigas se produjeron durante ese proceso. La aplicación tan solo fue capaz de comunicar 150.000 contagios en casi dos primaveras.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para tomar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Manu González Pascual

Fuente

Salir de la versión móvil