Skip to content Skip to footer

¿Máquinas con ética? Cómo enseñar recatado a los ordenadores al traducir deontología a números | Tecnología


Hay tres medios básicos en la fórmula matemática para enseñar un código deontológico a las máquinas. Y no se diferencia mucho del cóctel ético que manejamos las personas. Hecho, valía y norma conforman esta tríada con la que juegan los investigadores para establecer limitaciones que controlen el comportamiento de las inteligencias artificiales.

Para las personas, el valía equivale a una especie de norma social, comúnmente aceptada: sabemos que mentir es una batalla moralmente reprobable. Y las normas ayudan a formalizar la idea de valía en un código forense. “Las normas prohíben, como se prohíbe fumar en espacios cerrados, pero el valía asimismo te ayuda a promover acciones buenas, como por ejemplo hacer un donativo o ser amables”, expone Maite López-Sánchez, investigadora en IA y catedrática de la Universitat de Barcelona, que trabaja en sistemas para introducir principios éticos en sistemas de inteligencia industrial.

Las personas aprendemos este situación, que sirve para delimitar nuestro comportamiento, durante el proceso de socialización. Pero en las máquinas hay que traducir todo a números y funciones matemáticas. El objetivo final es proporcionar una ordenamiento de las acciones. “Al final las máquinas están muy integradas en la sociedad y acaban tomando decisiones que nos afectan a las personas. Sería deseable que estas decisiones estuvieran alineadas con lo que nosotros entendemos que es correcto, que se integraran aceptablemente socialmente”, sostiene la investigadora.

López-Sánchez acude a lo más fundamental para explicar la requisito de tener máquinas con ética: “Puedo tener un coche autónomo y, si le doy el objetivo de llevarme al trabajo, el coche haría la ruta que fuera más eficaz o más rápida. Nosotros tenemos muy claro que quiero alcanzar a mi trabajo, pero no quiero atropellar a nadie. No sería moralmente correcto”. Pero la casuística va mucho más allá de los supuestos extremos. “Hay muchos aspectos a tener en cuenta para conducir correctamente. No se negociación solo de no saltarte las normas, sino de hacer aceptablemente las cosas, como ceder el paso a un peatón, ayudar una distancia de seguridad o no ser agresivo con el claxon”, añade la investigadora.

La ética en las inteligencias artificiales asimismo sirve promover un tratamiento igualitario. “Si es un sistema de toma de audacia para conceder un seguro médico, lo que queremos es que sea un operación que no tenga sesgo, que trate de la misma modo a todas las personas que evalúe”, apunta López-Sánchez.

En los últimos abriles, han saltado a la palestra sesgos algorítmicos de todo tipo. Un sistema desarrollado por Amazon que seleccionaba candidatos para un puesto de trabajo favorecía los currículums de hombres frente a los de mujeres. Lo hacía porque se entrenó con mayoría de currículums masculinos y no hubo forma de corregir esta desviación. Otro operación, en este caso utilizado por el sistema retrete en Estados Unidos, penalizaba a las personas negras frente a las blancas a igualdad de importancia clínica, de forma que se asignaba un decano peligro a los blancos y, luego, se les daba prioridad en la atención médica.

Adicionalmente, los sistemas autónomos lidian con problemas relacionados con la propiedad intelectual o con el uso de datos privados. Una fórmula para evitar estas deficiencias consiste en establecer autolimitaciones en el diseño del operación. Ana Cuevas, profesora del dominio de Método y Filosofía de la Ciencia en la Universidad de Salamanca, defiende este enfoque proactivo: “No tenemos que esperar a que las cosas se produzcan para analizar los riesgos que pueden tener, sino partir del supuesto de que ayer de crear un sistema de inteligencia industrial tenemos que pensar qué tipo de sistema quiero crear para evitar ciertos resultados indeseables”.

Ética en el lengua de las máquinas

La preparación de un corpus ético en las máquinas es un trabajo relativamente nuevo. La comunidad científica lo ha abordado sobre todo desde el punto de panorámica teórico, pero no es tan popular descender al espinilla para concretar títulos en cifras y doctrina morales en ingeniería. En el camarilla de investigación de Sánchez-López, WAI, de la Universitat de Barcelona, exploran este campo de forma positivo.

Estos investigadores vinculan los conceptos de valía y batalla en el diseño de los sistemas. “Tenemos unas funciones matemáticas que nos dicen que para un determinado valía, una cierta batalla de la máquina se considera positiva o negativa”, cuenta López-Sánchez. Así, en el ejemplo del coche autónomo, una conducción suave en una carretera con curvas se considerará positiva en presencia de el valía de la seguridad. Aunque si se observa desde el prisma del valía de la amabilidad con los otros conductores, el transporte podría arriesgarse aumentar su velocidad si nota que entorpece el ritmo de otros automóviles.

En este caso concreto habría un conflicto entre títulos, que se resolvería con una ponderación. Previamente, se establecen preferencias que indican qué títulos prevalecen. Todo el conjunto comprende fórmulas entrelazadas, que por otra parte deben contener la variable de la norma. “Hay otra función que estipula que una norma promueve un valía”, apunta la investigadora. “Y tenemos asimismo funciones que observan cómo una norma evalúa la batalla y asimismo cómo evalúa el valía dicha batalla”. Es un difícil sistema en el que la feedback es secreto.

Cuando López-Sánchez deje de evaluar se refiere directamente al educación de las máquinas. Una de las formas que tienen de cultivarse es por refuerzo, como las personas, que actuamos aceptablemente porque se nos premia y evitamos hacerlo mal porque se nos castiga. En la inteligencia industrial asimismo sirve este mecanismo.

“Las recompensas son números. Los premios se los damos con números positivos y los castigos se los damos con números negativos”, explica la investigadora del WAI. “Las máquinas intentan sacar cuantos más puntos mejor. Así que la máquina va a intentar portarse aceptablemente si le doy números positivos cuando hace las cosas aceptablemente. Y, si cuando se porta mal, la castigo y le libre puntos, intentará no hacerlo”. Como para instruir a los niños, se puntúa con fines educativos.

Pero existen muchas cuestiones por resolver. Para originarse, poco tan sencillo como arriesgarse qué títulos queremos introducir en las máquinas. “La ética se desarrolla de formas muy diferentes. En algunos casos tendremos que hacer cálculos utilitarios, de minimización de los riesgos o de los daños”, señala la profesora Cuevas. “Otras veces a lo mejor tenemos que usar códigos deontológicos más fuertes, como establecer que un sistema no puede mentir. Cada sistema necesita incorporar ciertos títulos y para esto tiene que activo un acuerdo comunitario y social”.

En el laboratorio de López-Sánchez bucean en estudios sociológicos para encontrar títulos comunes entre las personas y a través de diferentes culturas. Al mismo tiempo, toman como relato documentos internacionales, como la Enunciación Universal de Derechos Humanos de la ONU. Aunque habrá aspectos más difíciles de consensuar a nivel mundial. Así lo cree Cuevas: “Las limitaciones de las máquinas tendrán sus fronteras. La Unión Europea, por ejemplo, tiene su forma de hacer las cosas y Estados Unidos tiene otra”, enfatiza, en relato al diverso choque regulatorio que se da a cada banda del Atlántico.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para aceptar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Pablo G. Bejerano

Fuente

Leave a comment

0.0/5