miércoles, 13 de mayo de 2026

[ICOMEM] 'Cuándo puede confiar un médico en una herramienta de IA. El ICOMEM acogió la jornada “Horizonte IA”, organizada junto a Elsevier y BiblioMadSalud, para analizar cómo incorporar la inteligencia artificial al ámbito sanitario con datos de calidad, fuentes verificadas, trazabilidad, supervisión profesional y responsabilidad ética'

'La inteligencia artificial ya está transformando la gestión del conocimiento sanitario, la investigación clínica, la formación médica y la toma de decisiones. Pero su incorporación a la práctica asistencial exige condiciones claras: datos de calidad, fuentes verificadas, herramientas transparentes, cumplimiento normativo, integración en los flujos de trabajo y supervisión humana efectiva. Estas fueron algunas de las principales ideas abordadas en la jornada “Horizonte IA: conectando datos, ciencia y decisión clínica”, celebrada en el Aula Jiménez Díaz del Ilustre Colegio Oficial de Médicos de Madrid y organizada junto a Elsevier y BiblioMadSalud. El programa planteaba el debate en torno al impacto de la IA en la formación médica, la investigación clínica y el desarrollo profesional, con especial atención a la colaboración multidisciplinar, la transparencia, la seguridad, la trazabilidad y la ética.

 En un contexto marcado por la rápida expansión de nuevas herramientas de inteligencia artificial, la jornada puso el foco en una cuestión práctica: qué debe comprobar un profesional sanitario antes de confiar en una herramienta de IA y cómo puede incorporarla sin perder seguridad, criterio clínico ni control sobre la información que maneja.

El encuentro reunió a expertos del ámbito clínico, tecnológico, documental, académico y ético para analizar el impacto de estas herramientas en la formación médica, la investigación clínica y el desarrollo profesional. La sesión permitió abordar la IA desde una mirada multidisciplinar, con especial atención a su aplicación real en los entornos sanitarios y a los riesgos que deben evitarse antes de trasladarla a la práctica asistencial.

Desde Elsevier, Álvaro Linage, gerente de cuentas de Clinical Solutions, situó el debate en la necesidad de acercar la innovación tecnológica al conocimiento sanitario con criterios de utilidad real. Su intervención abordó el papel de la IA como apoyo para gestionar, organizar y aplicar mejor la información científica, siempre que las soluciones estén pensadas para responder a necesidades concretas de los profesionales y no solo para ofrecer respuestas rápidas.

También desde Elsevier, la Dra. Mérit Gómez, gerente de Soluciones Clínicas e IA para Sur de Europa, subrayó que antes de incorporar una solución de IA en un hospital, una sociedad científica o una institución sanitaria es necesario evaluarla desde tres planos: el contenido, la tecnología y la regulación. Según explicó, la confianza en estas herramientas depende en gran medida de qué tipo de contenido analizan, si procede de fuentes conocidas y revisadas, y si está basado en evidencia. Además, destacó la importancia de que los sistemas permitan rastrear las citas, comprender el proceso por el que se generan las respuestas y cumplir con las normativas aplicables en el ámbito sanitario y en el tratamiento de datos sensibles.

El papel de la verificación fue uno de los ejes de la intervención de Olga Reillo, responsable de Biblioteca del Hospital Universitario Infanta Sofía y representante de BiblioMadSalud. Reillo recordó que una respuesta generada por IA no debe asumirse como válida sin comprobar antes cuál es su base de conocimiento. “Lo importante no es el resultado, sino que ese resultado esté verificado”, señaló. También defendió que las bibliotecas de ciencias de la salud pueden desempeñar un papel relevante para ayudar a los profesionales a contrastar fuentes, validar información y utilizar estas herramientas de forma transparente y ética.

En la misma línea, Carme Montcusí, bibliotecaria de Ciencias de la Salud en la Universitat Rovira i Virgili, incidió en la importancia de formular bien las preguntas y revisar críticamente las respuestas obtenidas mediante IA. Desde la perspectiva documental, recordó que estas herramientas pueden ser útiles para orientar búsquedas, localizar información o sintetizar contenidos, pero no sustituyen la comprobación de referencias, la evaluación del nivel de evidencia ni el análisis experto de las fuentes.

El Prof. Dr. Juan José Beunza, director de IASalud-UEM de la Universidad Europea de Madrid, puso el foco en la formación de los profesionales sanitarios. A su juicio, cualquier médico necesita comprender los principios básicos de funcionamiento de la IA para poder utilizarla de forma crítica. Sin ese conocimiento, resulta difícil identificar sus posibilidades, sus riesgos y sus limitaciones. Beunza defendió que la clave no está en utilizar IA por inercia, sino en saber en qué tareas, contextos y procesos de decisión tiene sentido incorporarla y en cuáles no aporta valor.

Uno de los mensajes más prácticos llegó desde el ámbito de la informática médica. El Dr. Miguel Pedrera, doctor en Informática Médica y responsable de Better Iberia y LATAM, advirtió de que uno de los errores más frecuentes al implantar IA en centros sanitarios es asumir que los datos disponibles son ya suficientemente buenos. Según explicó, antes de aplicar algoritmos es necesario mejorar la captura, el registro, el almacenamiento y la integración de la información clínica. “No vamos a hacer la casa por el tejado; primero hay que construir los pilares”, resumió. En este sentido, recordó que todavía existen datos fragmentados en diferentes silos y que el paciente aparece, en muchos casos, “a trozos” en distintas bases de datos.

La dimensión ética fue abordada por la Prof. Dra. Coral Calero, catedrática de Informática de la Universidad de Castilla-La Mancha y vocal del Comité Español de Ética de la Investigación. Calero defendió que, antes de aprobar el uso de una herramienta de IA en investigación o asistencia sanitaria, los equipos deben conocer bien el modelo, saber qué datos utiliza, cómo infiere las respuestas y si puede introducir sesgos. “Los modelos son reflejo de los datos, pero no podemos dejarlo ahí: tenemos que conseguir que reflejen la sociedad que queremos”, señaló. La transparencia, la fiabilidad y la ausencia de sesgos fueron algunos de los criterios destacados en su intervención.

El Dr. Daniel Baldó, doctor en Cuidados en Salud y director de Innovación y Transformación Cultural del Colegio de Enfermería de Madrid, centró su intervención en la incorporación real de estas herramientas a los equipos sanitarios. A su juicio, la clave no está solo en formar a los profesionales cuando una solución ya está desarrollada, sino en incluirlos desde el inicio en el diseño. Médicos, enfermeras y otros profesionales asistenciales conocen las necesidades de los pacientes, los obstáculos del día a día y los condicionantes reales de la práctica clínica. Por eso, defendió que deben estar presentes en las mesas de decisión y en los equipos donde se crean nuevas soluciones basadas en IA.

Desde la experiencia de la radiología, una de las especialidades donde la inteligencia artificial tiene más recorrido, el Dr. Ángel Morales, coordinador de la Comisión de IA de la Sociedad Española de Radiología Médica, señaló varios aprendizajes aplicables al conjunto de la medicina. En primer lugar, la IA debe integrarse “como un guante” en los flujos de trabajo; de lo contrario, puede aumentar los tiempos y generar ineficiencias. En segundo lugar, todos los estudios deben mantenerse bajo supervisión humana efectiva. Y, en tercer lugar, es imprescindible evitar el sesgo de automatización: la tendencia a asumir que la IA siempre acierta. Morales recordó que los sistemas pueden generar falsos positivos y falsos negativos, por lo que el criterio del profesional sigue siendo irrenunciable.

La jornada permitió abordar la IA desde una mirada multidisciplinar y eminentemente práctica. Los ponentes coincidieron en que estas herramientas pueden ayudar a mejorar la asistencia, la investigación y la gestión del conocimiento, pero solo si se incorporan con criterios claros: datos robustos, fuentes verificadas, formación profesional, evaluación ética, integración tecnológica, cumplimiento normativo y responsabilidad clínica.

El encuentro, celebrado en el Aula Jiménez Díaz del ICOMEM, formó parte de la iniciativa AI Diálogos Elsevier, bajo el lema “Innovación y conocimiento en salud con inteligencia artificial”, y concluyó con un diálogo abierto con los asistentes sobre los retos que plantea la IA en el presente y futuro de la medicina.'

Fuente: Comunicado del Ilustre Colegio de Médicos de Madrid de 12/05/2026

 

No hay comentarios: