IM MÉDICO #60.2 ESPECIAL SALUD DIGITAL

im MÉDICO | 60.2 26 práctica clínica como a la formación en todas las áreas. Es por ello que los profesionales médicos deberán tener una comprensión más profunda sobre este tipo de tecnologías. Sin embargo, tal como considera la Dra. Diana de la Iglesia, doctora en Inteligencia Artificial y directora de Desarrollo de Negocio en Fujitsu, “hay una resistencia al cambio que es obvia, y que, en parte, puede ser culpa de la brecha digital y de toda la formación que es necesaria para los clínicos”. Como recuerda, por su parte, el Dr. Víctor Maojo, catedrático de Inteligencia Artificial de la Universidad Politécnica de Madrid, académico correspondiente de la Academia Nacional de España y miembro de la Academia Americana de Informática Médica, “cuando estuve en la Harvard Medical School (EEUU), entre los años 91 y 93, allí, todos los médicos residentes ya tenían una formación en informática. En concreto, en especialidades como la radiología, un 30% de la formación para residentes estaba relacionada con temáticas que tenían que ver con visualización de las imágenes, temas de física, matemáticas, etc.”. Y es que, a su juicio, “esto es absolutamente necesario”, aunque reconoce que, sobre ello, se percibe interés por parte de las sociedades científicas y de la Medicina en general e, “incluso, entidades tan clásicas como la Real Academia Nacional de Medicina prestan una enorme atención sobre esta cuestión”. Precisamente, según explica el Dr. Said, “desde la SEMI, nuestra idea es ayudar en el plano formativo a todos los internistas que Desafíos de la Inteligencia Artificial centrada en el ser humano Un reciente estudio de la Universidad de Florida Central (EEUU), dirigido por el prof. Ozlem Garibay, cuyos resultados han sido publicados en el ‘International Journal of Human-Computer Interaction’, ha identificado “seis grandes desafíos de la Inteligencia Artificial centrada en el ser humano”. El estudio, elaborado a lo largo de 20 meses, recoge las opiniones de 26 expertos, entre los que se encuentran miembros de la Academia Nacional de Ingeniería e investigadores de América del Norte, Europa y Asia. Dichos desafíos que, a juicio de estos autores, se deben superar para mejorar la relación entre humanos e Inteligencia Artificial pasan por: -Bienestar humano. La IA debería poder descubrir las oportunidades de implementación para que beneficie el bienestar de los humanos. También se debe considerar apoyar el bienestar del usuario cuando interactúa con la IA. -Responsable. La IA responsable se refiere al concepto de priorizar el bienestar humano y social a lo largo del ciclo de vida de la IA. Esto garantiza que los beneficios potenciales de la IA se aprovechen de una manera que se alinee con los valores y prioridades humanos, al mismo tiempo que se mitiga el riesgo de consecuencias no deseadas o infracciones éticas. -Privacidad. La recopilación, el uso y la difusión de datos en los sistemas de IA deben considerarse cuidadosamente para garantizar la protección de la privacidad de las personas y evitar el uso dañino contra personas o grupos. -Diseño. Los principios de diseño centrados en el ser humano para los sistemas de IA deben utilizar un marco que pueda informar a los profesionales. Este marco distinguiría entre IA con riesgo extremadamente bajo, IA sin necesidad de medidas especiales, IA con riesgos extremadamente altos e IA que no debería permitirse. -Gobernanza y supervisión. Se necesita un marco de gobernanza que considere todo el ciclo de vida de la IA, desde la concepción hasta el desarrollo y la implementación. -Interacción humano-IA. Para fomentar una relación ética y equitativa entre los humanos y los sistemas de IA, es imperativo que las interacciones se basen en el principio fundamental de respetar las capacidades cognitivas de los humanos. Específicamente, estos deben mantener el control total y la responsabilidad por el comportamiento y los resultados de los sistemas de Inteligencia Artificial. Fuente: UCF NEWS Por otra parte, como apunta el Dr. Sánchez De Madariaga, “a la hora de poner en práctica este tipo de innovación en un hospital o centro sanitario, inmediatamente, aparecen una serie de problemas burocráticos a tener en cuenta por parte de las comunidades autónomas, las administraciones, el gobierno o el Estado, con lo cual se ralentiza todo. En concreto, se necesitan una serie de permisos y pasos burocráticos que primero hay que superar pero, al ser tan lento el proceso, retrasan mucho la puesta en marcha de cualquier desarrollo práctico”. En esta línea, según el Dr. Said, actualmente,“hay mucho recelo en relación al acceso de datos masivos de pacientes. Y es que los sistemas de todas las instituciones están organizados para salvaguardar esos datos, y choca con el cambio paradigmático en cuanto a que tenemos que empezar a pensar en que esos datos ya no pueden ser guardados por una institución. Ahora tenemos que idear fórmulas para poder hacer uso de ellos de forma externa”. ¿Está el médico preparado? Resulta evidente que, a medida que la IA asume un papel más importante en la práctica clínica, se necesita ampliar los niveles de supervisión sobre los resultados. Nos encontramos, sin duda, ante un nuevo paradigma en Medicina que afectará tanto a la La implementación de la IA va a depender de cuántos recursos utilice cada servicio para implantar este tipo de herramientas

RkJQdWJsaXNoZXIy NTI5ODA=