Skip to content Skip to footer

Cómo evitar que la inteligencia industrial falle más con las mujeres en los diagnósticos médicos | Tecnología


Aburrida en un hospital de Nueva Elástica, Diane Camacho le contó a ChatGPT los síntomas que sufría, y le pidió que hiciera una tira con los posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho, y la sensación de que su corazón “se paraba y arrancaba”. El chatbot de OpenAI le dijo que la ansiedad era el dictamen más probable. Camacho pidió de nuevo el pronóstico para un hombre con los mismos síntomas, con la sorpresa de que la inteligencia industrial le advirtió de la posibilidad de que sufriera embolia pulmonar, un síndrome coronario agudo o una cardiomiopatía, pero ni rastra de la ansiedad. Así lo publicó Camacho hace unas semanas en la red X (ayer Twitter).

La inteligencia industrial generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones a través de un educación inconsciente. Si los datos son incompletos o no representativos, los algoritmos pueden ser sesgados. Al hacer muestreos, los algoritmos pueden caer en errores sistemáticos y preferir unas respuestas frente a otras. Frente a estos problemas, la ley europea de inteligencia industrial aprobada el pasado mes de diciembre prioriza que la aparejo se desarrolle con criterios éticos, transparentes y atrevido de sesgos.

Los dispositivos médicos, según la norma, son considerados de stop peligro y deberán cumplir con requisitos estrictos: tener datos de ingreso calidad, registrar su actividad, tener una documentación detallada del sistema, dar información clara al sucesor, contar con medidas de supervisión humana y con un stop nivel de robustez, seguridad y precisión, según explica la Comisión Europea.

La startup de Pol Solà de los Santos, presidente de Vincer.Ai, se encarga de auditar a las compañías para que puedan cumplir con las condiciones europeas. “Lo hacemos a través de un sistema de encargo de calidad de algoritmos, modelos y sistemas de inteligencia industrial. Se hace un dictamen del maniquí de lengua, y lo primero es ver si hay un daño y cómo lo corregimos”. Por otra parte, si una compañía cuenta con un maniquí sesgado, les recomienda que se advierta con un descargo de responsabilidad. “Si quisiéramos distribuir un fármaco no apto para niños de 7 abriles, sería impensable no avisar”, ilustra Solà de los Santos.

En el entorno de la vigor, las herramientas de inteligencia industrial (IA) empiezan a ser habituales en pruebas de dictamen por imagen y en programación. Ayudan a los trabajadores sanitarios a acelerar el trabajo y a ser más precisos. En radiología son “sistemas de ayuda”, indica Josep Munuera, director de Radiodiagnóstico del Hospital Sant Pau de Barcelona y hábil en tecnologías digitales aplicadas a la vigor. “Los algoritmos están adentro de aparatos de resonancia magnética y reducen el tiempo de elaboración de la imagen”, explica Munuera. Así, una resonancia que duraría 20 minutos se puede acortar a tan solo siete minutos, gracias a la presentación de algoritmos.

Los sesgos pueden originar diferencias en la atención médica según el productos, el categoría étnico o el demográfico. Un ejemplo se da en las radiografías de tórax, según explica Luis Herrera, arquitecto de soluciones en Databricks España: “Los algoritmos utilizados han mostrado diferencias en la precisión según el productos, lo que ha llevado a diferencias en la atención. En concreto, la precisión en el dictamen a mujeres era mucho beocio”. El sesgo de productos, señala Munuera, es un clásico: “Tiene que ver con los sesgos poblacionales y las cojín de datos. Los algoritmos se alimentan o preguntan a bases de datos, y si las bases de datos históricas tienen sesgos de productos, la respuesta será sesgada”. Sin secuestro, añade: “El sesgo de productos en vigor existe, independientemente de la inteligencia industrial”.

Cómo evitar los sesgos

¿Cómo se entrena de nuevo la cojín de datos para evitar los sesgos? Arnau Valls, ingeniero coordinador del área de Innovación del Hospital Sant Joan de Deu en Barcelona, explica cómo se hizo en un caso de detección de covid en Europa, mediante un cálculo desarrollado con población china: “El conveniencia del cálculo cayó un 20% y aparecieron falsos positivos. Se tuvo que crear una cojín de datos nueva y se añadieron imágenes de población europea en el cálculo”.

Para enfrentarnos a un maniquí sesgado como usuarios, debemos ser capaces de contrastar las respuestas que nos da la aparejo, indica Herrera: “Debemos fomentar la conciencia sobre los sesgos en IA y promover el uso del pensamiento crítico, así como exigir transparencia a las empresas y validar las fuentes”.

Los expertos coinciden en no utilizar ChatGPT con una finalidad médica. Pero José Ibeas, director del categoría de Nefrología del Instituto de Investigación e innovación del Hospital Universitario Parc Taulí de Sabadell (Barcelona), sugiere que la aparejo evolucionaría positivamente si el chatbot pregunta a bases de datos médicas. “Se está empezando a trabajar en ello. La forma de hacerlo es entrenar la cojín de datos de los pacientes con el sistema de OpenAI utilizando algoritmos e ingenieros propios. De este modo, se protege la privacidad de los datos”, explica Ibeas.

La tecnología de ChatGPT sí es útil en el entorno médico en ciertos casos, reconoce Ibeas: “La capacidad que tiene de originar estructuras, anatómicas o matemáticas, es total. El entrenamiento que tiene en estructuras moleculares es buenísimo. Ahí positivamente se inventa poco”. Coincidiento con el resto de expertos, Ibeas advierte que la inteligencia industrial nunca sustituirá a un médico, pero puntualiza: “El médico que no sepa de inteligencia industrial será reemplazado por el que sí sepa”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para aceptar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Natalia Ponjoan

Fuente

Leave a comment

0.0/5