La inteligencia artificial (IA) es un avance en los diagnósticos médicos por imagen, pero está lejos de ser infalible y “justa”. Si los algoritmos se entrenan sobre bases de datos que no contemplan diversidades poblacionales, de género o de orientación sexual, su aplicación puede ser errónea en los casos particulares. Mejor dicho: discriminatoria y peligrosa. Un equipo del Conicet Santa Fe y la Universidad Nacional de Litoral (UNL) que busca detectar y mitigar esos rasgos “hegemónicos” fue reconocido internacionalmente.
Enzo Ferrante es doctor en Matemática e Informática y además, ingeniero de Sistemas. El trabajo por lo que lo premiaron junto a su equipo lo realiza en el Instituto de investigacion en Señales, Sistemas e Inteligencia Computacional –Sinc(i)– de Santa Fe. Desde Francia, conversó con el programa ABC.
La investigación en modelos de inteligencia artificial (IA) aplicados al análisis automatizado de imágenes médicas, para una mayor precisión y velocidad en diagnósticos que van del cáncer de mamas a la esclerosis múltiple, se expande aceleradamente. Pero no sin problemas: hay márgenes de error por ciertos “sesgos” que remiten a las bases de datos sobre las que “aprenden” los algoritmos. Ello ocurre si hay una sobre-representación de ciertos tipos poblacionales. Esos “errores”, en realidad, son predicciones desiguales y discriminatorias. Sobre este panorama investiga el equipo de Ferrante desde hace tres años. Google lo destacó por “anticipar problemas de equidad en modelos de aprendizaje automático para imágenes médicas” en los Google Award for Inclusion Research (Premio para la Investigación de Inclusión).
El interés de Ferrante por la IA data de hace más de 20 años, cuando lo eligió para su tesis de grado. El trabajo sobre los sesgos en el Sinc(i) comenzó en 2019. Recuerda que un disparador fue el artículo “alarmante” que le acercó Erica Hynes, la entonces ministra de Ciencia, Tecnología e Innovación Productiva de Santa Fe, la primera mujer en la Argentina en ocupar un cargo similar. El investigador rememora el título de la publicación: AI isSexist and Racist. It’s Time to Make it Fair (La inteligencia artificial es sexista y racista. Es hora de volverla justa). Sus autores son James Zou y Londa Schiebinger.
La entrevista completa se puede escuchar acá ↓
Los algoritmos de aprendizaje automático buscan detectar patrones en conjuntos de datos para usarlos en predicciones. Es un subcampo de la inteligencia artificial en el que los datos son la materia prima del proceso de aprendizaje por el que los sistemas son entrenados
“En los últimos años, nos abocamos a los sesgos algorítmicos: cuando un sistema empieza a tener un rendimiento sistemáticamente peor en un grupo poblacional respecto de otros. En hombres o mujeres, de piel blanca o piel oscura”, simplifica Ferrante.
“Si los datos usados para el entrenamiento no representan a la población en la que se va a utilizar el sistema, éste funciona mal“, explica. Y repasa: “Comenzamos auditando algunos modelos y después nos enfocamos en el uso para imágenes médicas”. La intención es, señala, “anticiparse a los hechos”. Advertir “ojo, que tal vez en la población en la que vas a usar el sistema éste puede estar sesgado, aunque antes no lo haya estado”.
Lo que indagan en Santa Fe
En la IA hay varios paradigmas de aprendizaje. Uno de los más utilizados es el aprendizaje supervisado, en el que los sistemas son sometidos a un proceso de entrenamiento que es guiado por anotaciones o etiquetas. En el caso del diagnóstico por imágenes, es un médico el que pone esa referencia junto a, por ejemplo, una radiografía, para indicar que corresponde a un paciente con neumonía o cardiomegalia (corazón dilatado). “Todo se acopla a la base de datos, y así el modelo interpreta la imagen de acuerdo a lo que el médico indicó. Son funciones matemáticas que toman una imagen y las mapean a una etiqueta de salida. Son reconocimiento de patrones” que permiten traspolar resultados ante imágenes nuevas, explica Ferrante.
Y va al punto: “El problema es que a veces hay correlaciones espurias. Por ejemplo, si hay algo presente en todas las personas que tienen cardiomegalia pero no es la causa de la enfermedad, como por ejemplo, determinada altura, y el modelo interpreta que esa característica es suficiente para hacer el diagnóstico”. Esa, sigue, es una de la causa de los sesgos, que muchas veces pasan desapercibidos a causa de los propios prejuicios de quienes diseñan o utilizan los sistemas.
¿Que es lo que hacen Ferrante y su equipo para detectar estos problemas? “En gran medida, las investigaciones son simulaciones. Se arman escenarios y se vuelcan preguntas del tipo «qué pasaría si entreno esta base de datos sólo con hombres o con mujeres, cuál sería su rendimiento». Todo esto se hace en contexto de laboratorio, en computadoras en las que se procesan esos planteos hipotéticos”, resume el integrante del Sinc(i).
Por la justicia algorítmica
El trabajo escaló en ambiciones. “Pasamos de métodos de auditoría a otros de mitigación. Es decir, una vez que se detecta que el modelo está sesgado, ¿cómo se resuelve? ¿Se rebalancea la base de datos? Esa es la solución más directa, pero a veces no es posible, no hay acceso. Entonces, se piensa en si se puede minimizar el sesgo por el lado de la metodología, de los algortimos, para ajustar el proceso de aprendizaje, acercarlo a un lugar más justo”, enumera los caminos posibles. Esto es lo que en general se denomina “justicia algorítmica”.
De hecho, dentro de las Ciencias de la Computación se creó un campo de estudio denominado “justicia algorítmica en aprendizaje automático”, área novedosa a la que se dedica el grupo de Ferrante. El equipo tiene varias publicaciones pioneras en prestigiosas revistas como Proceedings of the National Academy of Sciences y Nature Communications.
La IA ayuda, no reemplaza
ferrante aclara que “todo el desarrollo de la IA en medicina es de soporte a la decisión del médico, no hay reemplazo del profesional humano, que además asume la responsabilidad, porque de lo contrario se pierde ese elemento esencial”.
Lo alivia de las tareas repetitivas, sigue el investigador, y cita un ejemplo: los radiólogos deben dibujar en la tomografía los órganos que no se van a irradiar, y eso en imágenes 3D, lo que lleva mucho tiempo y con la IA se puede automatizar con precisión. “En esas tareas se le reduce al médico la carga de trabajo”, insiste.
Y remite al libro del médico estadounidense Eric Topol “Medicina profunda: cómo la inteligencia artificial puede hacer que la atención médica vuelva a ser humana”. El autor señala que la IA empoderará a los médicos y revolucionará la atención al paciente porque la medicina se ha vuelto inhumana. La relación médico-paciente, señala, está rota porque los médicos están demasiado distraídos y abrumados para conectarse realmente con sus pacientes. Y así abundan los errores médicos y los diagnósticos erróneos.
La IA, propone Topol, tiene el potencial de transformar todo lo que hacen los médicos, desde la toma de notas y los escaneos hasta el diagnóstico y el tratamiento, reduciendo en gran medida el costo de los medicamentos y la mortalidad humana. Al liberar a los profesionales de las tareas que interfieren con la conexión humana, puede generar un espacio para la curación real que tiene lugar entre un médico que puede escuchar y un paciente que necesita ser escuchado. Claro está, si la IA no está sesgada. Y ahí es donde trabaja el equipo de Ferrante