Skip to content Skip to footer

Margaret Mitchell: “Las personas a las que más perjudica la inteligencia sintético no deciden sobre su regulación” | Tecnología

Margaret Mitchell, nacida en Los Ángeles, prefiere no proponer la momento que tiene. No queda claro si es por coquetería o porque vela por la privacidad y el buen uso de los datos. Podría ser esto zaguero, ya que es una de las mayores expertas en ética aplicada en la tecnología, y ha dedicado su carrera a disminuir los sesgos de los algoritmos. Fundó y dirigió el área de ética de la inteligencia sintético (IA) en Google adjunto a Timnit Gebru, hasta que ambas fueron despedidas con pocos meses de diferencia hace tres abriles. Ahora supervisa el área de ética en Hugging Face, es una de las 100 personas más influyentes de 2023 según la revista Time, y fue una de las conferenciantes más esperadas en la Smart City Expo celebrada en las instalaciones de Fira de Barcelona.

Pregunta. ¿Cómo reaccionan las tecnológicas cuando se advierte sobre problemas éticos?

Respuesta. A las personas con las que trabajaba en Google en realidad les apasionaba. Quizá en un nivel más elevado de la compañía no estaba muy claro que lo que hacíamos era importante, quizá no lo entendían.

P. ¿Por qué la despidieron?

R. No fue porque cierto pensara que nuestros trabajos sobre ética no eran adecuados. Estuvo más relacionado con diferencias de poder, y sobre todo porque se trató a mi colíder [Timnit Gebru] como si fuese menos que sus compañeros, por racismo. No podía hacer como que no lo había conocido o que no diría ausencia. Fue parte de una discusión más larga sobre poder y discriminación sistémica.

P. ¿A los desarrolladores de IA les importa la ética?

R. Depende de quién. He trabajado con muchos que siempre están atentos a hacer las cosas admisiblemente. Pero la civilización del mundo del crecimiento tecnológico y la ingeniería tiende a mejorar un comportamiento alfa, donde quieres ser el primero en sacar poco o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones éticas.

Las perspectivas marginadas no se tratan como igual de importantes en el crecimiento de las tecnologías

P. ¿Cómo funcionan la discriminación y los sesgos en los algoritmos?

R. Empieza desde el principio: si las decisiones no las toma un clan inclusivo de personas diversas, no serás capaz de incorporar riqueza de pensamiento en el crecimiento de tu producto. Si no se invita a la mesa a personas marginadas, los datos y la modo en que se recopilarán reflejarán la perspectiva de los que tienen poder. En las compañías tecnológicas, tienden a ser, de forma muy desproporcionada, hombres blancos y asiáticos. Y ellos no se dan cuenta de que los datos que manejan no son completos, porque reflejan su visión. Así, si las perspectivas marginadas no son tratadas como igual de importantes en el crecimiento de la IA, se crearán tecnologías que no funcionarán para personas marginadas, o hasta les harán daño. Por ejemplo, coches autónomos que no detectan a los niños, porque los datos que controlan no tienen en cuenta sus comportamientos más caóticos o erráticos. Esto ya ocurría con los airbags, que hacían más daño a las mujeres, porque habían sido diseñados sin tener en cuenta que hay personas con pechos. Hay que prestar atención a las características marginadas o que son tratadas como menores.

Margaret Mitchell, retratada después de su conferencia en el salón Smart City Expo, en Barcelona.
Margaret Mitchell, retratada luego de su conferencia en el salón Smart City Expo, en Barcelona.Albert Garcia

P. ¿Cuáles son los grupos más discriminados en las IA?

R. Las mujeres negras, personas no binarias, parentela de la comunidad LGTBIQ+ y personas latinas. Esto lo ves igualmente en quién trabaja en las compañías tecnológicas y quién no.

P. ¿Cómo se puede certificar que la tecnología respetará los títulos éticos?

R. Diferentes personas pueden tener diferentes títulos, y poco que me ayuda a navegar en este problema es la idea del pluralismo de títulos. Me preocupa la idea de que la IA debe tener un maniquí genérico de títulos, yo prefiero la idea de una IA enfocada en tareas y títulos específicos. Tienes que individualizar más los modelos para tener en cuenta los títulos en cada situación, el contexto y las características de los datos que recopilas.

Las compañías tienen que revelar los detalles básicos de sus datos de entrenamiento para la inteligencia sintético

P. ¿Equivocación regulación y transparencia?

R. Las compañías tienen que revelar los detalles básicos de sus datos de entrenamiento para las IA. Quizá no hacerlos públicos para todos, pero sí demostrar a auditores independientes que hay equidad en sus datos y que usan un contexto auténtico, no estereotipado.

P. ¿Qué piensa de los que pedían una pausa en el crecimiento de IA?

R. Fue poco raro. Resultó que venía de un clan que alertaba sobre los riesgos, pero lo que quería era tener más poder influenciando a los políticos. No iba de hacer las cosas admisiblemente, iba de tener poder. Decían que se ha llegado a un punto en el que la IA es beneficiosa, así que había que detener antiguamente de que dañara a la parentela. Pero lo cierto es que ya hay parentela que está siendo dañada, poblaciones no consideradas por ellos, y esto me hizo percatar asco. Claro está, ahora ellos tienen un sitio en la mesa para discutir sobre regulaciones.

P. ¿Es animoso sobre el futuro de la IA?

R. No lo soy, no. Porque creo que la parentela que más probablemente se verá perjudicada por la tecnología no está en los puestos donde se palabra de regulaciones, ni toma decisiones en las grandes tecnológicas. Hay cosas que se mueven, hace cuatro abriles nadie hablaba de ética, pero esto no significa que de aquí a 10 abriles estemos mejor. Hay muchos caminos beneficiosos para la humanidad y no son los que se están siguiendo.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para cobrar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Josep Catà Figuls

Fuente

Leave a comment

0.0/5