Los impactos de la inteligencia artificial (IA) sobre la salud son cada vez más importantes gracias a su capacidad para diagnosticar y predecir enfermedades. Sin embargo, la tecnología no debería “sustituir” la presencia humana. Así lo dijo a La Mañana el filósofo y docente universitario Miguel Pastorino, autor del libro Pensar en la era de las máquinas, que presentó este año en la Feria del Libro. “Ninguna probabilidad puede decretar el destino de una persona”, advirtió el experto.
¿Por qué considera urgente hablar de IA y bioética en este momento?
Porque la IA ha dejado de ser una herramienta periférica y se ha convertido en una fuerza estructurante de nuestra cultura. Hoy condiciona cómo nos relacionamos, cómo consumimos información y, cada vez más, cómo se toman decisiones que afectan la vida y la salud. Estamos frente a una transformación social y cultural sin precedentes: algoritmos que anticipan enfermedades, modelos predictivos que orientan diagnósticos y sistemas automatizados que optimizan gestión hospitalaria. Todo eso tiene un enorme potencial positivo, pero también conlleva riesgos si no se acompaña de una reflexión crítica y de un discernimiento prudente y responsable.
El gran dilema no es tecnológico, sino humano: ¿qué lugar tendrá la persona en este nuevo modelo? Sin un horizonte antropológico y ético claro, corremos el riesgo de que la lógica del dato sustituya al pensamiento y de que la medicina se limite a administrar información sin contemplar la singularidad de cada vida. Si la reflexión llega tarde, la lógica algorítmica puede imponerse silenciosamente, relegando lo más humano del acto médico a un plano marginal.
¿Cuáles son los principales dilemas éticos que plantea la IA en el ámbito de la salud?
El primer dilema es ante el reconocimiento de la dignidad humana que pueda ser relativizada. La IA calcula probabilidades, pero la vida no se reduce a estadísticas. Elegir es un cálculo; decidir es un acto moral, y solo una persona puede discernir desde la compasión, la responsabilidad o el cuidado. Un algoritmo no conoce la esperanza ni el sufrimiento, solo ejecuta. Si nos limitamos a aceptar como determinantes las predicciones algorítmicas, podemos terminar sustituyendo la libertad por obediencia técnica.
Suele decirse que la tecnología es neutral, pero usted sostiene lo contrario. ¿Por qué?
La tecnología no es neutral porque siempre es fruto de decisiones humanas: qué problema aborda, qué datos considera relevantes, qué criterio optimiza. Todo algoritmo está diseñado con una dirección, aunque a veces no sea explícita. Si prioriza la eficiencia por encima de la equidad, prolongará modelos utilitaristas. Si prioriza la rentabilidad, puede desplazar valores no cuantificables, como el tiempo de escucha o la calidad del vínculo médico-paciente. Los diferentes modelos de IA trabajan con datos y hoy se tiende a creer que los datos son objetivos, pero esa postura es epistemológicamente ingenua: los datos no hablan, son mudos. Necesitan ser interpretados desde marcos teóricos. Cuando una sociedad adopta la creencia de que lo cuantificable es lo real, termina sacrificando dimensiones esenciales de la vida humana. La IA puede aumentar capacidades, pero también puede estrechar la visión del mundo si no se acompaña de pensamiento crítico.
¿Qué lugar ocupa la filosofía en este debate sobre tecnología y salud?
Vivimos tiempos donde la inmediatez y la utilidad son los nuevos criterios de verdad. En ese contexto, detenerse a pensar parece improductivo. El pensamiento filosófico no es un lujo intelectual, sino un acto de resistencia cultural. Frente al imperativo de la aceleración, la filosofía exige detenerse y permite preguntar por el sentido, por la verdad y por la justicia. La ciencia observa regularidades; la filosofía busca comprender. Y comprender es más que calcular. Allí donde la estadística mide, la filosofía pregunta por la dignidad, el sufrimiento, el valor de la vida. No se trata de oponer saberes, sino de evitar que el pensamiento quede reducido a una única dimensión. La IA modifica las condiciones del conocimiento, pero la filosofía puede delimitar sus límites y recordar que no todo lo posible técnicamente es legítimo éticamente.
¿Qué relación establece entre la bioética y esta defensa de la filosofía como forma de resistencia?
La bioética es un campo interdisciplinario entre filosofía, ciencias biomédicas y derecho, y no se pregunta solamente sobre lo que se puede hacer, sino sobre qué se debe hacer y qué no debe hacerse bajo ningún riesgo. Cuando hablamos de IA aplicada a la salud, los umbrales éticos deben ser claros: la decisión última sobre la vida de una persona no puede delegarse a una máquina.
¿La IA compromete la autonomía real del paciente?
Sí, y es uno de los riesgos más silenciosos. El consentimiento informado requiere comprender qué se decide. ¿Cómo puede alguien aceptar o rechazar un tratamiento si ni siquiera el profesional puede conocer con claridad el fundamento algorítmico? La opacidad tecnológica puede generar falsas transparencias. Si a un paciente se le indica que su probabilidad de supervivencia es baja según la IA, puede asumir que su futuro está sellado, pero ninguna probabilidad puede decretar el destino de una persona. La vida se decide en libertad, no en cálculo. Por eso, la medicina requiere prudencia y deliberación humana, no mera obediencia técnica.
Usted afirma que la IA nunca podrá reemplazar la relación médico-paciente. ¿Por qué?
Porque la relación clínica es, como sostuvo Pedro Laín Entralgo, una forma de amistad. No se trata de un intercambio técnico, sino de un encuentro donde se comparte vulnerabilidad, palabra y esperanza. Cuando la tecnología se interpone entre dos personas, el paciente deja de ser alguien y pasa a ser algo: un conjunto de datos. La IA puede ayudar y potenciar la capacidad de diagnóstico o de ofrecer respuestas personalizadas, pero nunca sustituir la presencia humana. Una tecnología bien orientada debe estar al servicio de la relación, no en su lugar. El riesgo es que, en lugar de humanizar la medicina, la IA convierta el cuidado en mera gestión. No es un problema de tecnología, sino de mentalidad.
¿Es usted optimista o pesimista frente al avance de la IA?
Ni tecnófobo ni tecnólatra. Creo que los diferentes modelos de IA pueden significar un avance extraordinario para la salud y para muchas dimensiones de la vida humana, pero solo si avanza acompañada de una ética del cuidado y una filosofía crítica y consciente de los supuestos con los que pensamos y actuamos. No se trata de frenar la tecnología, sino de garantizar que no pierda de vista a quién debe servir: a las personas. El humanismo, y no el algoritmo, debe tener siempre la última palabra.




















































