La inteligencia artificial (IA) en la imagen médica está creciendo rápidamente y presenta desafíos y oportunidades en términos de equidad y sesgo. Discutimos la importancia de la equidad en la IA médica, cómo abordar el sesgo y las áreas de investigación prometedoras para garantizar un futuro más justo e inclusivo.

El trabajo en el campo de la inteligencia artificial (IA) ha demostrado que los sistemas de IA pueden ser sistemática e injustamente sesgados en contra de ciertas poblaciones en múltiples escenarios. El campo de la imagen médica, donde los sistemas de IA están comenzando a ser adoptados cada vez más, no es una excepción. Aquí, discutimos el significado de la equidad en esta área y comentamos sobre las posibles fuentes de sesgo, así como las estrategias disponibles para mitigarlos. Finalmente, analizamos el estado actual del campo, identificando fortalezas y destacando áreas de vacío, desafíos y oportunidades que se avecinan. Con el crecimiento exponencial en el desarrollo de sistemas de inteligencia artificial (IA) para el análisis de imágenes médicas, hospitales y centros médicos han comenzado a implementar dichas herramientas en la práctica clínica. Estos sistemas suelen estar impulsados por un tipo específico de técnica de aprendizaje automático (ML) conocido como aprendizaje profundo (DL). Los métodos de DL aprenden representaciones de datos complejas empleando múltiples capas de procesamiento con diferentes niveles de abstracción, útiles para resolver un amplio espectro de tareas. En el contexto de la informática de imágenes médicas (MIC), ejemplos de tales tareas incluyen la clasificación de patologías, la segmentación anatómica, la delineación de lesiones, la reconstrucción de imágenes, la síntesis, el registro y la superresolución, entre muchas otras. Aunque el número de publicaciones científicas relacionadas con los métodos DL aplicados a diferentes problemas MIC en condiciones de laboratorio ha crecido exponencialmente, los ensayos clínicos destinados a evaluar sistemas médicos de IA solo han comenzado a ganar impulso recientemente. La comunidad de investigación de la equidad en ML ha señalado que los sistemas ML pueden ser sesgados en contra de ciertas sub-poblaciones, en el sentido de que presentan un rendimiento dispar para diferentes subgrupos definidos por atributos protegidos como la edad, la raza/etnia, el sexo o género, el estado socioeconómico, entre otros. En el campo de la atención médica, el comportamiento potencialmente desigual de los algoritmos hacia diferentes subgrupos de la población podría incluso considerarse contrario a los principios de la bioética: justicia, autonomía, beneficencia y no maleficencia. En este contexto, fomentar la equidad en MIC se vuelve esencial. Sin embargo, esto está lejos de ser una tarea sencilla: garantizar la equidad en las implementaciones de ML requiere abordar diferentes y múltiples aspectos a lo largo de todo el diseño, desarrollo e implementación. Si bien las implicaciones de la equidad en ML para el amplio campo de la atención médica han sido recientemente estudiadas y discutidas, en este comentario nos centramos en el subcampo de la imagen médica. De hecho, en lo que respecta a los sesgos en los sistemas ML que pueden beneficiar a ciertas sub-poblaciones en detrimento de otras, el campo de la imagen médica no es la excepción. A continuación, comentaremos sobre el trabajo reciente en el campo y destacaremos áreas de investigación inexploradas y valiosas, discutiendo desafíos potenciales y estrategias disponibles.