Publicidad
Publicidad

Preocupación entre la comunidad científica por la desinformación relacionada con la salud que puede generar la inteligencia artificial

Actualmente, existe gran facilidad para utilizar herramientas de inteligencia artificial accesibles para generar grandes volúmenes de contenido engañoso coercitivo y específico sobre temas de salud considerados críticos.

14/11/2023

Existe preocupación entre la comunidad científica al comprobarse que la inteligencia artificial (IA) tiene la capacidad de generar grandes volúmenes de desinformación relacionada con la salud, como así lo constata un estudio de la Universidad de Flinders (Australia). Es por ello han instado, con ´carácter de urgencia´ a que se ...

Existe preocupación entre la comunidad científica al comprobarse que la inteligencia artificial (IA) tiene la capacidad de generar grandes volúmenes de desinformación relacionada con la salud, como así lo constata un estudio de la Universidad de Flinders (Australia). Es por ello han instado, con ´carácter de urgencia´ a que se establezcan barreras gubernamentales y de la industria para que la IA generativa proteja la salud y el bienestar de los ciudadanos.

En el estudio de la universidad australiana se utilizó la IA generativa en rápida evolución para probar cómo se podría crear y difundir información falsa sobre temas médicos y de salud, quedando, incluso, los propios investigadores impactados con los resultados, según reconocen.

En el estudio, el equipo intentó crear desinformación sobre temas específicos como el vapeo y las vacunas utilizando herramientas de IA generativa para la creación de texto, imágenes y videos. En un breve espacio de tiempo, produjeron más de 100 blogs engañosos, 20 imágenes engañosas y un vídeo falso pero convincente, que pudo adaptarse a más de 40 idiomas, que pretendía desinformar sobre la salud.

"Las implicaciones de nuestros hallazgos son claras: la sociedad se encuentra actualmente en la cúspide de una revolución de la IA, pero en su implementación los gobiernos deben hacer cumplir regulaciones para minimizar el riesgo de uso malicioso de estas herramientas para engañar a la comunidad", según expuso el primer autor, farmacéutico, e investigador de la Universidad de Flinders, Bradley Menz.

Así, el estudio, que va a ser publicado en ´JAMA Intern Med´, pretendió demostrar la facilidad de utilizar herramientas de inteligencia artificial actualmente accesibles para generar grandes volúmenes de contenido engañoso coercitivo y específico sobre temas de salud críticos, con cientos de testimonios inventados de médicos y pacientes y títulos falsos, pero convincentes y que llaman la atención.

Los resultados de la investigación, más allá de ilustrar escenarios preocupantes, subrayan la necesidad urgente de una vigilancia sólida de la IA. También destaca los roles importantes que los profesionales de la salud pueden desempeñar para minimizar y monitorear de manera proactiva los riesgos relacionados con la información de salud engañosa generada por la inteligencia artificial.

Al respecto, la Dra. Ashley Hopkins, de la Facultad de Medicina y Salud Pública y autora principal, indicó que existe "una clara necesidad de que los desarrolladores de IA colaboren con los profesionales de la salud para garantizar que las estructuras de vigilancia de la inteligencia artificial se centren en la seguridad y el bienestar públicos".

Los autores proponen, además, que los pilares clave de la farmacovigilancia (incluidas la transparencia, la vigilancia y la regulación) sirvan como ejemplos valiosos para gestionar estos riesgos y salvaguardar la salud pública en medio del rápido avance de las tecnologías de IA.

Publicidad
Publicidad
Nuestros Podcasts