Introducción
La inteligencia artificial ha entrado en el ámbito sanitario de forma rápida y, en muchos casos, sin una reflexión profunda previa. Herramientas capaces de generar texto, imágenes o análisis complejos están ya al alcance de cualquier profesional con conexión a internet.
El problema no es la tecnología en sí, sino el contexto en el que se utiliza: un entorno sensible, con datos especialmente protegidos, decisiones clínicas y una responsabilidad profesional que no desaparece por usar una herramienta automatizada.
Este post no pretende establecer verdades absolutas. Es una reflexión informada sobre riesgos, malas prácticas y el estado actual de la regulación, que todavía está en proceso de consolidación.
Un marco legal que empieza a definirse
Europa ya cuenta con una Ley de Inteligencia Artificial que establece un marco jurídico común. Es el primer intento serio de regular la IA de forma global, pero su aplicación es progresiva y escalonada en el tiempo.
Esto genera una situación particular:
- La ley existe
- Los principios están claros
- Pero muchas obligaciones aún no se aplican plenamente
Estamos, por tanto, en una fase de transición, donde conviven normas nuevas con marcos legales previos (protección de datos, responsabilidad profesional, derechos fundamentales).
El enfoque basado en el riesgo
Uno de los puntos clave del nuevo marco europeo es que no toda la IA se trata igual.
La regulación distingue distintos niveles de riesgo:
- Sistemas claramente inaceptables, que se prohíben
- Sistemas de alto riesgo, sujetos a obligaciones estrictas
- Sistemas que requieren transparencia
- Sistemas de riesgo mínimo o nulo
En sanidad, muchos usos potenciales de la IA pueden encajar en categorías de riesgo elevado, especialmente cuando afectan a la salud, la seguridad o los derechos fundamentales de las personas.
Esto no implica que estén prohibidos, pero sí que requieren cautela, supervisión y responsabilidad.
Responsabilidad: empresas y usuarios
La responsabilidad de las empresas
Las empresas que desarrollan y comercializan sistemas de IA tienen, cada vez más, obligaciones claras:
- Evaluar riesgos
- Mitigar daños previsibles
- Documentar el funcionamiento
- Garantizar supervisión humana
- Informar de incidentes
Sin embargo, no toda la responsabilidad recae en ellas, especialmente cuando hablamos de herramientas de propósito general que pueden usarse en múltiples contextos, incluidos usos no previstos inicialmente.
La responsabilidad del profesional sanitario
Aquí el mensaje debe ser claro, aunque prudente:
El uso de una herramienta de IA no traslada automáticamente la responsabilidad al desarrollador.
El profesional sanitario sigue siendo responsable de:
- Las decisiones que toma
- La información que utiliza
- El tratamiento de los datos que introduce
La IA no asume responsabilidad clínica, legal ni ética.
Protección de datos: un punto crítico
En sanidad, los datos de salud son especialmente sensibles.
Introducir información en herramientas externas plantea preguntas importantes:
- ¿Dónde se procesan esos datos?
- ¿Se almacenan?
- ¿Podrían reutilizarse?
- ¿Permiten identificar directa o indirectamente a una persona?
Aunque la herramienta prometa privacidad, la responsabilidad sobre los datos introducidos sigue siendo del usuario o de la institución.
Derechos de imagen y generación de contenido
La IA generativa ha puesto sobre la mesa problemas que antes no existían a esta escala:
- Generación de imágenes que parecen personas reales
- Representaciones no consentidas
- Contenidos sexualizados o sensibles
Casos recientes, como la polémica en torno a Grok y la generación de imágenes de personas desnudas, muestran limitaciones técnicas y de control evidentes.
No es tanto un problema de mala intención, sino de:
- Falta de filtros eficaces
- Dificultad para identificar a personas reales
- Vacíos legales todavía no resueltos
Malas prácticas habituales
Algunos errores frecuentes en el uso de IA en sanidad:
- Confiar en respuestas sin verificar
- Usarla como fuente primaria de conocimiento
- Introducir datos reales de pacientes
- Generar material docente sin revisar
- Asumir que “si lo hace la IA, está permitido”
La mayoría de estos problemas no son tecnológicos, sino de criterio.
Una mirada ética: más allá de la ley
Además del marco legal, existe una reflexión ética internacional que resulta especialmente relevante en sanidad. No se trata de normas obligatorias, sino de principios orientadores pensados para acompañar el desarrollo y el uso responsable de la inteligencia artificial.
Desde esta perspectiva, la ética no se plantea como un freno a la innovación, sino como una herramienta para prevenir daños y proteger a las personas, especialmente en ámbitos sensibles como la salud.
Dignidad humana como eje central
Uno de los principios éticos más claros es que la IA debe estar al servicio de la dignidad humana, no al revés.
En sanidad, esto implica:
- No cosificar a las personas reduciéndolas a datos
- No despersonalizar la atención clínica
- No delegar decisiones críticas sin supervisión humana
La tecnología puede apoyar, pero la responsabilidad moral y profesional sigue siendo humana.
Supervisión y decisión humanas
Desde un enfoque ético, se insiste en que:
- Los sistemas de IA pueden asistir
- Pueden sugerir
- Pueden facilitar análisis complejos
Pero no deberían sustituir decisiones con impacto irreversible, especialmente aquellas que afectan a la vida, la salud o los derechos fundamentales.
Esto conecta directamente con la práctica sanitaria diaria: la IA puede ayudar a pensar, pero no debe convertirse en el decisor final.
Proporcionalidad y sentido del uso
Otro principio ético relevante es la proporcionalidad.
No todo problema necesita una solución basada en IA.
No todo proceso mejora por ser automatizado.
Antes de usar una herramienta, conviene preguntarse:
- ¿Es realmente necesaria?
- ¿Aporta valor clínico o formativo?
- ¿Introduce nuevos riesgos innecesarios?
Sesgos, discriminación y equidad
La ética de la IA reconoce un riesgo claro: los sistemas pueden reproducir o amplificar sesgos existentes.
En sanidad, esto puede traducirse en:
- Representaciones incompletas de ciertos colectivos
- Recomendaciones menos fiables para poblaciones infrarepresentadas
- Material docente que refuerza estereotipos sin intención explícita
Por eso, revisar críticamente los resultados no es opcional: forma parte del uso responsable.
Privacidad y datos: una cuestión ética, no solo legal
Más allá de la legalidad, el tratamiento de datos de salud plantea una responsabilidad ética directa.
Incluso cuando no hay una infracción formal:
- Introducir datos innecesarios
- Compartir casos reales mal anonimizados
- Usar herramientas externas sin entender su funcionamiento
puede suponer una vulneración de la confianza del paciente.
Evaluar el impacto antes de usar
Desde la ética se propone una idea sencilla pero potente:
pensar en el impacto antes de desplegar o usar una tecnología.
No solo impacto técnico, sino:
- Impacto humano
- Impacto social
- Impacto profesional
Esta evaluación no siempre requiere comités ni documentos formales; a veces basta con detenerse a pensar antes de usar.
Checklist de reflexión antes de usar una herramienta (IA o no)
Antes de utilizar cualquier herramienta externa, conviene hacerse algunas preguntas:
- ¿Qué tipo de información voy a introducir?
- ¿Podría identificar directa o indirectamente a una persona?
- ¿Estoy usando esta herramienta como apoyo o como sustituto del criterio profesional?
- ¿Puedo justificar su uso desde un punto de vista ético y profesional?
- ¿Conozco sus limitaciones y posibles errores?
- ¿Asumo que la responsabilidad final es mía?
Conclusión
La inteligencia artificial ofrece oportunidades reales, pero no es neutra ni está completamente regulada.
Mientras la legislación se consolida y la práctica se adapta, el uso responsable depende, en gran medida, del criterio del profesional.
La tecnología cambia rápido.
La responsabilidad, de momento, sigue siendo humana.
¿Te gusta?
Si quieres, puedes apoyar este contenido con una contribución simbólica.
El pago se procesa a través de Stripe, que puede solicitar el correo electrónico para el recibo. Este sitio no almacena datos personales.