Publicidad
Publicidad

Identifican posibles fuentes de sesgo en modelos de IA utilizados en imágenes médicas

Los modelos AI/ML de inteligencia artificial y aprendizaje automático tienen sus riesgos, y uno de los principales son los sesgos que pueden darse y proporcionar como resultado un tratamiento diferente de casos médicamente similares.

27/04/2023

Las tecnologías de inteligencia artificial y aprendizaje automático (IA/ML) encuentran constantemente nuevas aplicaciones en muchas disciplinas. En medicina, la IA/ML suele utilizarse para el diagnóstico, el pronóstico, la evaluación de riesgos y la evaluación de la respuesta al tratamiento de diversas enfermedades. En particular, los modelos AI/ML encuentran cada vez ...

Las tecnologías de inteligencia artificial y aprendizaje automático (IA/ML) encuentran constantemente nuevas aplicaciones en muchas disciplinas. En medicina, la IA/ML suele utilizarse para el diagnóstico, el pronóstico, la evaluación de riesgos y la evaluación de la respuesta al tratamiento de diversas enfermedades. En particular, los modelos AI/ML encuentran cada vez más aplicaciones en el análisis de imágenes médicas. Esto incluye imágenes de rayos X, tomografía computarizada y resonancia magnética, entre otras. Un requisito clave para la implementación exitosa de modelos AI/ML en imágenes médicas es garantizar su diseño, capacitación y uso adecuados.

Sin embargo, los modelos AI/ML pueden estar sesgados y dar como resultado un tratamiento diferente de casos médicamente similares. Por ello, es importante abordarlos y garantizar la equidad y la confianza en AI/ML para imágenes médicas. No hacerlo puede hacer variar la respuesta clínica a los pacientes, lo que agrava las desigualdades en el acceso a la atención médica.

Conscientes de ello, un equipo multiinstitucional de expertos del Medical Imaging and Data Resource Center (MIDRC) de EEUU, incluidos físicos médicos, investigadores de IA/ML, estadísticos, médicos y científicos de organismos reguladores, se decidió a abordar esta inquietud en el ámbito médico.

Casi una treintena de fuentes de sesgos

En su trabajo, publicado en el ´Journal of Medical Imaging (JMI)´, describen 29 fuentes de posibles sesgos que pueden ocurrir a lo largo de los cinco pasos clave del desarrollo e implementación de imágenes médicas AI/ML.

Una de las principales fuentes de sesgo, según estos expertos, radica en la recopilación de datos. Por ejemplo, obtener imágenes de un solo hospital o de un solo tipo de escáner puede resultar en una recopilación de datos sesgada. El sesgo de recopilación de datos también puede surgir debido a las diferencias en cómo se trata a grupos sociales específicos, tanto durante la investigación como dentro del sistema de salud en su conjunto. Además, los datos pueden quedar obsoletos a medida que evolucionan los conocimientos y las prácticas médicas. Esto introduce un sesgo temporal en los modelos AI/ML entrenados con dichos datos.

Otras fuentes de sesgo, estrechamente relacionadas con la recopilación de datos, se encuentran en la preparación y anotación de estos. En este paso, se pueden introducir sesgos en función de cómo se etiquetan los datos antes de enviarlos al modelo de IA/ML para el entrenamiento. Dichos sesgos pueden provenir de sesgos personales de los anotadores o de descuidos relacionados con la forma en que se presentan los datos a los usuarios encargados del etiquetado.

También pueden surgir sesgos durante el desarrollo del modelo en función de cómo se razona y crea el propio modelo AI/ML. Un ejemplo es el sesgo heredado, que ocurre cuando la salida de un modelo AI/ML sesgado se usa para entrenar otro modelo. Otros ejemplos de sesgos en el desarrollo de modelos incluyen sesgos causados ​​por una representación desigual de la población objetivo o que se originan en circunstancias históricas, como los sesgos sociales e institucionales que conducen a prácticas discriminatorias.

La evaluación del modelo también puede ser una fuente potencial de sesgo. Probar el rendimiento de un modelo, por ejemplo, puede introducir sesgos ya sea mediante el uso de conjuntos de datos ya sesgados para la evaluación comparativa o mediante el uso de modelos estadísticos inapropiados.

Finalmente, el sesgo también puede introducirse durante la implementación del modelo AI/ML en un entorno real, principalmente de los usuarios del sistema. Por ejemplo, se introducen sesgos cuando un modelo no se usa para las categorías de imágenes o configuraciones previstas, o cuando un usuario se vuelve demasiado dependiente de la automatización.

Además de identificar y explicar detalladamente estas fuentes de sesgo potencial, el equipo sugiere posibles formas de mitigarlas y mejores prácticas para implementar modelos de IA/ML de imágenes médicas. Ello podría facilitar un despliegue más equitativo y justo de dichos modelos en el futuro.

Publicidad
Publicidad
Nuestros Podcasts