La inteligencia artificial (IA) tiene un gran potencial para mejorar la salud, pero también plantea varios retos, según explicó Marcos Ortega Hortas, profesor de IA en la Universidad de A Coruña. Algunos de los principales retos son la privacidad y la seguridad de los datos, los sesgos y las diferencias en los algoritmos para diferentes grupos de población. También se necesita más claridad y transparencia en cómo funcionan estos algoritmos, para que médicos y pacientes puedan entender y confiar en las decisiones apoyadas por la IA.
Estos temas se debatieron en la IX Jornada ASD, con el título ‘La (R)evolución de la inteligencia artificial (IA) en la Salud’, organizada por la Asociación Salud Digital (ASD).
Marcos Ortega dijo que estos retos son comunes en la aplicación de la IA en varios sectores, pero son especialmente importantes en el ámbito de la salud por su impacto crítico. Añadió que el desarrollo de la IA se basa en la combinación de datos abundantes, capacidad de cálculo y algoritmos que pueden aprender tareas específicas.
Jaime del Barrio, presidente de la Asociación Salud Digital, comentó algunos ejemplos reales de la aplicación de la IA en el sector sanitario a lo largo del tiempo, incidiendo en su capacidad para resolver problemas globales en la atención médica y social. "Se trata de un cambio disruptivo digital, y la salud no es ajena. Ya hay problemas globales, como la atención sanitaria y social, que se pueden afrontar de la mano de la IA", ha afirmado.
Del Barrio enfatizó en la importancia de colaborar e incorporar nuevos perfiles profesionales en el sistema sanitario para trabajar junto con el personal médico. También destacó la calidad de los datos como un factor clave, ya que de ellos depende la utilidad de las conclusiones obtenidas.
Elena Torrente Segarra, directora de salud digital de DKV, subrayó la necesidad de reforzar la protección y seguridad de los datos, enfrentar los sesgos algorítmicos y tener en cuenta las cuestiones éticas y legales.
En relación con los retos para avanzar hacia una IA responsable en salud, mencionó la necesidad de que esta sea "fiable, ética y que no contribuya a incrementar las desigualdades en salud". Señaló algunas barreras como "la falta de estándares, la falta de confianza y aspectos relacionados con la rendición de cuentas".
En este sentido, planteó la cuestión de quién es responsable en caso de resultados negativos en la salud del paciente debido a la IA: el fabricante de la solución o el proveedor sanitario. Segarra resaltó la importancia de avanzar hacia una IA responsable, lo que implica reforzar la confianza, la formación técnica y profesional, así como evaluar su impacto.
Asimismo, se trató la relación entre IA y salud mental, presentando un proyecto innovador del Grupo de Trabajo de Salud Mental Digital de la ASD, liderado por Lucía Halty, directora de la Cátedra de Salud Mental Digital de la Universidad de Comillas.
"El incremento alarmante en las cifras de algunos trastornos mentales está llevando al borde del colapso al sistema actual. En este contexto, la tecnología y la inteligencia artificial emergen como aliadas potenciales tanto para los pacientes como para el sistema de salud", ha declarado la directora de Soluciones Clínicas para el Sur de Europa en BMJ Group y miembro de la Junta Directiva de la ASD, María Gómez.
Según María Gómez, "uno de los desafíos más significativos en el desarrollo de la inteligencia artificial en el sector sanitario es encontrar el equilibrio adecuado entre la libertad para avanzar y la protección necesaria".
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento