La medicina en Sevilla, al igual que en muchas partes del mundo, está inmersa en una profunda transformación digital. La inteligencia artificial, hasta hace poco considerada una tecnología de ciencia ficción, se ha convertido en una herramienta que irrumpe irremisiblemente en la actividad médica. Sus aplicaciones empiezan a ser múltiples, desde el análisis automatizado de imágenes médicas hasta la predicción de riesgos clínicos o la gestión eficiente de recursos.

No obstante, este avance no está exento de riesgos. Por cada nueva solución que la inteligencia artificial presenta, surgen interrogantes éticos que no podemos ignorar. ¿Es correcto que una máquina tome decisiones sobre diagnósticos y tratamientos sin la intervención de un médico? ¿Qué ocurre si el algoritmo de diagnóstico es erróneo? ¿Se está sacrificando el juicio clínico y el humanismo médico en este proceso de inclusión de la inteligencia artificial en medicina?

Estas preocupaciones fueron el eje central de la conferencia que tuve el honor de ofrecer el pasado mes de mayo en la sede del Real e Ilustre Colegio Oficial de Médicos de Sevilla (RICOMS). En ella se analizaron, entre otros, aspectos éticos y humanísticos de la medicina apoyada en la inteligencia artificial.

Para entender lo que está en juego, es preciso reflexionar sobre el significado de la palabra inteligencia. Aristóteles definía la inteligencia humana como la capacidad de contemplar la verdad, juzgar lo justo y razonar con sabiduría. ¿Puede una máquina, por avanzada que sea, replicar la inteligencia humana? La respuesta es clara: no. La inteligencia artificial carece de emociones, intuición y conciencia moral, elementos esenciales para el acto médico.

La diferencia entre la inteligencia artificial y la inteligencia humana es abismal. La primera destaca por su velocidad, precisión y capacidad de procesar millones de datos para identificar patrones. Pero la inteligencia no es sólo calcular o reconocer patrones. La inteligencia humana en medicina incluye la capacidad de actuar con empatía, de juzgar, de asumir responsabilidades, de comprender la angustia del paciente, su contexto familiar, sus valores y de elaborar análisis éticos. Estas dimensiones intelectuales y emocionales están ausentes en la inteligencia artificial. El médico no sólo lleva a cabo un diagnóstico o una predicción, sino que escucha atentamente, interpreta, acompaña, comunica. La inteligencia artificial puede apoyar, pero no reemplazar todas estas dimensiones humanas.

En la tradición filosófica y médica, un agente moral es aquel que es capaz de tener criterios sobre el bien y el mal y de asumir las consecuencias de sus decisiones. Un agente moral actúa con autonomía, discernimiento ético, y puede reconocer el deber moral y obrar en consecuencia, incluso contra sus propios intereses o deseos. Actualmente, ninguna inteligencia artificial podría ser calificada como agente moral.

Aunque algunos sistemas son capaces de aprender o adaptarse, no tienen conciencia, voluntad ni sentido del deber. La inteligencia artificial, al carecer de conciencia, no puede asumir una responsabilidad. Si un algoritmo falla en un diagnóstico, ¿culpamos al desarrollador, al centro sanitario o al médico? Esta pregunta resalta la necesidad de mantener al médico como centro de la toma de decisiones. Actualmente, el uso ético de la inteligencia artificial depende de quienes la diseñan y la emplean.

Otro aspecto relevante en el empleo de la inteligencia artificial en medicina es la denominada “caja negra” empleada en el desarrollo de algoritmos a través de procesos internos complejos u opacos que resultan incomprensibles para los usuarios humanos, incluidos los profesionales sanitarios. Aunque estos sistemas algorítmicos pueden ofrecer diagnósticos o recomendaciones precisas, no explican de forma transparente cómo llegan a sus conclusiones. Esta falta de transparencia plantea problemas éticos y clínicos importantes: dificulta la validación científica, la toma de decisiones compartidas con el paciente y la atribución de responsabilidades ante errores.

El futuro de la inteligencia artificial en medicina es prometedor, pero requiere un compromiso ético. Desde el RICOMS y la Organización Médica Colegial de España, a través de su Código de Deontología Médica, se proponen reglas éticas específicas para la transformación digital de la medicina y la inteligencia artificial. Por otra parte, las organizaciones médicas demandan la existencia de comités éticos de evaluación de las tecnologías digitales, además de promover una formación que favorezca que los médicos utilicen herramientas digitales, sin perder la esencia humanista.

"La inteligencia artificial debe ser una aliada al servicio del médico, pero no debe sustituir la labor de este". Esta conclusión sintetiza el enfoque ético y esencialmente humanista que presidió la jornada sobre ética asistencial e inteligencia artificial celebrada en el Real e Ilustre Colegio Oficial de Médicos de Sevilla.