La inteligencia artificial (IA) avanza en sistemas de diagnósticos por imagen, pero puede generar resultados erróneos si los algoritmos aprenden sobre bases de datos que no tienen en cuenta diversidades étnicas, de género u orientación sexual. Un equipo del Conicet y de la Universidad Nacional de Litoral (UNL) analiza esos rasgos “hegemónicos” y cómo contrarrestarlos en un proyecto reconocido internacionalmente
La investigación en modelos de inteligencia artificial (IA) aplicados al análisis automatizado de imágenes médicas, para una mayor precisión y velocidad en los diagnósticos que van del cáncer de mamas a la esclerosis múltiple, se expande aceleradamente. Pero no sin problemas: hay márgenes de error fundados en ciertos “sesgos” que producen las bases de datos sobre las que “aprenden” los sistemas de algoritmos. Y es que en ellas hay una sobre-representación de ciertos tipos poblacionales, por lo que pueden conducir a errores, a veces peligrosos, al aplicarse en colectivos diversos. Sobre este panorama investiga un equipo del Conicet Santa Fe que acaba de ser reconocido por Google para los premios Google Award for Inclusion Research (Premio para la Investigación de Inclusión o Google AIR).
El proyecto es dirigido por Enzo Ferrante, investigador en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional –sinc(i)–, dependiente del Conicet y la Universidad Nacional del Litoral. Se llama “Descubrimiento de sesgo no supervisado: anticipando problemas de equidad algorítmica en modelos de machine learning para análisis de imágenes médicas sin anotaciones de referencia”. El reconocimiento internacional es a investigadores que logran trabajos con impacto positivo en el bien común.
Ferrante explicó que Google AIR es un programa internacional altamente competitivo que, en esta ocasión, premió a grupos de la New York University, de Stanford y de seis instituciones latinoamericanas. Entre las últimas, el equipo que integra Ferrante con Victoria Peterson. Ella es la co-directora del proyecto por el Instituto de Matemática Aplicada del Litoral. También participan Diego Milone y Rodrigo Echeveste, más becarios y becarias con tesis doctorales en temáticas afines.
En la IA también hay dependencia y necesidad de Justicia
En materia de salud, los sistemas basados en IA pueden arrojar resultados diferentes según el grupo al que se aplica, lo que produce diferencias que pueden ser muy importantes al momento de diagnosticar y proponer los tratamientos más convenientes. Ante esto, los expertos argentinos alertan sobre el riesgo de reproducir sesgos propios de bases de datos diseñadas en el extranjero, por lo que orientaron sus investigaciones en base a estrategias destinadas a minimizar los efectos nocivos que pueden plantearse a nivel local.
Por eso, dentro de las ciencias de la computación se creó un campo de estudio denominado “justicia algorítmica en aprendizaje automático”, área novedosa a la que se dedica el grupo de Ferrante. El equipo tiene varias publicaciones pioneras en prestigiosas revistas como Proceedings of the National Academy of Sciences (PNAS) y Nature Communications.
En torno al proyecto seleccionado por Google AIR, en los últimos años se ha demostrado que los sistemas de IA pueden estar sistemáticamente sesgados respecto a subpoblaciones en función de características demográficas como el grupo étnico o el género en una variedad de escenarios.
El término “sesgado” hace referencia a modelos de IA que presentan un rendimiento dispar en función del grupo demográfico al que la persona pertenece. Cuando se trata de sistemas de IA que analizan datos de salud, el tema adquiere mucha relevancia para las tareas de análisis de imágenes médicas, como el diagnóstico asistido por computadora. En este caso, sostiene Ferrante, “es vital auditar los modelos considerando diferentes poblaciones, evaluando las métricas de equidad para determinar el potencial desempeño dispar entre los subgrupos, por ejemplo, sistemas que presenten un mejor rendimiento en hombres que en mujeres o en pacientes jóvenes que en pacientes adultos”.
En el proyecto financiado por Google, el objetivo de los investigadores es desarrollar nuevos métodos para el descubrimiento de sesgos no supervisados en ausencia de información demográfica y anotaciones de expertos, que pueden ayudar a anticipar problemas de equidad al utilizarlos en nuevas poblaciones.
“Ser capaces de descubrir este tipo de sesgo en los sistemas de IA, yendo más allá de las categorías demográficas predefinidas, puede resultar muy útil para evitar un rendimiento de diagnóstico dispar, especialmente cuando se consideran aspectos como identidad de género u orientación sexual, que son construcciones culturales fluidas y que pueden cambiar con el tiempo, a través de contextos sociales y no se pueden categorizar fácilmente”, afirma Ferrante.
El proyecto cuenta con el financiamiento y respaldo del Conicet, de la Facultad de Ingeniería y Ciencias Hídricas de la UNL y de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación.