Tecnología

Una valor que ignora los principios éticos en inteligencia industrial | Tecnología


El filósofo Adam Smith, considerado el padre de la patrimonio moderna, en La riqueza de las naciones (1776) trató la patrimonio de forma sistemática como un subcampo de la ética. Obviamente, la patrimonio se halla estrechamente vinculada a ideas de razón y equidad, a ideas políticas, y con ello éticas, de progreso o crecimiento. Esas ideas determinan los principios bajo los que la creación de riquezas y posibles son permisibles. Y estos principios determinan que no todo vale con tal de que se produzca riqueza, independientemente del tipo de patrimonio que rija en un país.

La inteligencia industrial (IA) está siendo aclamada como el futuro de la patrimonio y la ciencia. Considerada como uno de los campos tecnológicos con un gran potencial de innovación, la IA es una disciplina combinable con muchos campos científicos (biología, medicina, ciencias sociales, filología o cambio climático). De esos cruces disciplinarios han surgido numerosas aplicaciones en uso tanto en la compañía pública, como en el ámbito industrial: sistemas de automatización con el propósito de facilitar la compañía en la razón, predicción de comportamientos tanto en el trabajo policial como en posibles humanos, o para evaluar la solvencia de una persona o su comportamiento al volante. Todos ejemplos en los que existe riesgos de menoscabo de principios democráticos o derechos fundamentales.

El uso de la IA de forma indiscriminada para resolver cualquier problema ha convertido esta disciplina en un espacio en el que antiguas teorías pseudocientíficas, racistas, sexistas y capacitistas, avaladas en su día por políticas del mismo talante, han reaparecido embebidas en sistemas con los que oprimir a multitud insuficiente, personas negras y racializadas, discapacitadas, inmigrantes o mujeres. La IA encubre y oscurece esas teorías con una espesa capa de estilo matemático que dificulta la comprensión del impacto de los sistemas creados. Ruha Benjamin, Virginia Eubanks o Safiya Sublime han descrito vívidamente en sus obras cómo estas tecnologías han sido usadas para privilegiar de forma ajuste a unos pocos. Una nueva muestra de que no toda innovación es ética.

Es ensalzable que el gobierno gachupin reconociera en su día dichos riesgos y para afrontarlos creara, en el año 2020, un consejo asesor para la IA cuyo objetivo era “proporcionar asesoramiento y recomendaciones independientes sobre las medidas a adoptar para asegurar un uso seguro y ético de la Inteligencia Sintético”, según lee la web de La Moncloa. Y fue aceptablemente constante al situar su coordinación en el Tarea de Riqueza. No obstante, tras la revisión de la Organización Franquista de IA (ENIA), el consejo asesor no ha sido consultado para analizar “las implicaciones que estas tecnologías disruptivas supondrán en ámbitos diversos” en la mayoría de los casos, incluyendo el acuerdo entre el ADIA Lab y la Sedia (Secretaría de Estado de Digitalización e Inteligencia Sintético) para instaurar su sede europea en Proyectil. Un acuerdo que causa gran preocupación, pues contradice los principios de ética y seguridad con los que el gobierno gachupin se comprometió a desarrollar nuevas tecnologías.

El ADIA Lab es un centro sabio financiado por la Autoridad de Inversiones de Abu Dabi (ADIA), el emirato más rico de los Emiratos Árabes Unidos, que comenzó a especular en diciembre de 2022. Considerando que ADIA, la entidad que financia ADIA Lab, dispone de activos de en torno a de 800.000 millones de dólares, su inversión en España puede ser considerable.

En los EAU, la ciencia no es independiente del gobierno, según documentan organizaciones como Human Rights Watch. El gobierno influye sobre las decisiones de personal y memorándum de los centros de investigación, incluyendo ADIA Lab. Luego, la Sedia ha establecido una memorándum de investigación centrada, entre otros, en el mejora de una modelización económica del cambio climático y sus políticas de mitigación, así como el mejora de infraestructuras computacionales éticas con un centro sabio financiado por un gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en peculiar de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo.

Es sostener, investigaciones sobre la transición climática serán financiadas por entidades cuya riqueza proviene de combustibles fósiles y estudios sobre principios éticos serán financiados por un gobierno que cuestiona la dignidad y los derechos de determinadas personas. Los científicos involucrados en el ADIA Lab, si aceptablemente reconocidos en sus campos de especialización, no son expertos en ética, ni en ecología o derecho. Sandy Pentland, por ejemplo, cofundó Aadhaar, que comercializa un controvertido sistema de identificación de personas que facilita la vigilancia masiva en la India. En recapitulación, la credibilidad de los resultados de esta colaboración podría ser equiparable a la de informes sobre los mercancía del tabaco en la sanidad que en su día hicieron las compañías tabacaleras.

La valor de la Sedia ignora los principios éticos en la patrimonio, en la ciencia en militar y en la IA en concreto. El acuerdo con ADIA Lab reduce la ética en la IA a consideraciones técnicas simplistas e ignora que la ética en la IA igualmente se extiende al contexto político y las condiciones bajo las que se desarrollan y financian sus resultados.

Esta alianza no hará de España un país más puntero en IA ni permite afirmar que “impulsa el mejora de una IA ética”, como aseguró la Secretaria de Estado, Carme Artigas, a la Sujeción SER. Esta alianza solo pone a los EAU en el planisferio de la competición europea y cuestiona la credibilidad con la que la SEDIA afirma querer impulsar el mejora ético de la IA.

Por las razones anteriores, tres miembros del consejo asesor para la IA ya dimitieron la semana pasada. Dos de ellos [Ricardo Baeza-Yates y Lorena Jaume-Palasí] son firmantes de la presente carta.

Ricardo Baeza-Yates es director de investigación del Instituto de IA Experiencial de Northeastern University y miembro de varios comités mundiales y estadounidenses de políticas tecnológicas. Es ACM e IEEE Fellow, adicionalmente de Premio Franquista de Informática Aplicada “Ángela Ruiz Robles”. El viernes pasado renunció al Consejo Asesor de IA del Gobierno.

Lorena Jaume-Palasí es eticista y fundadora de varias ONGs sobre tecnología y ética. Miembro del consejo asesor internacional del Panel para el Futuro de la Ciencia y la Tecnología (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes. El jueves pasado renunció al Consejo Asesor de IA del Gobierno.

Ramon López de Mántaras es uno de los pioneros de la IA en Europa y Premio Franquista de Investigación “Julio Rey Pastor” en Matemáticas y TIC por sus contribuciones a la IA.

Carmela Troncoso es profesora adjunta y jefa del Laboratorio de Ingeniería de Seguridad y Privacidad (SPRING) de la Escuela de Ciencias de la Computación y la Comunicación (IC) de la EPFL, Suiza. Es Premio CNIL-INRIA a la Protección de la Privacidad (2017).

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.



Creditos a Ricardo Baeza-Yates,Lorena Jaume-Palasí,Ramon López de Mántaras,Carmela Troncoso

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button