Introducción

La inteligencia artificial ha entrado en el ámbito sanitario de forma rápida y, en muchos casos, sin una reflexión profunda previa. Herramientas capaces de generar texto, imágenes o análisis complejos están ya al alcance de cualquier profesional con conexión a internet.

El problema no es la tecnología en sí, sino el contexto en el que se utiliza: un entorno sensible, con datos especialmente protegidos, decisiones clínicas y una responsabilidad profesional que no desaparece por usar una herramienta automatizada.

Este post no pretende establecer verdades absolutas. Es una reflexión informada sobre riesgos, malas prácticas y el estado actual de la regulación, que todavía está en proceso de consolidación.

💡
Que exista una herramienta no implica que su uso esté completamente definido desde el punto de vista legal o ético.


Europa ya cuenta con una Ley de Inteligencia Artificial que establece un marco jurídico común. Es el primer intento serio de regular la IA de forma global, pero su aplicación es progresiva y escalonada en el tiempo.

Esto genera una situación particular:

  • La ley existe
  • Los principios están claros
  • Pero muchas obligaciones aún no se aplican plenamente

Estamos, por tanto, en una fase de transición, donde conviven normas nuevas con marcos legales previos (protección de datos, responsabilidad profesional, derechos fundamentales).

💡
La existencia de una ley no significa que todos los escenarios estén ya resueltos.

El enfoque basado en el riesgo

Uno de los puntos clave del nuevo marco europeo es que no toda la IA se trata igual.
La regulación distingue distintos niveles de riesgo:

  • Sistemas claramente inaceptables, que se prohíben
  • Sistemas de alto riesgo, sujetos a obligaciones estrictas
  • Sistemas que requieren transparencia
  • Sistemas de riesgo mínimo o nulo

En sanidad, muchos usos potenciales de la IA pueden encajar en categorías de riesgo elevado, especialmente cuando afectan a la salud, la seguridad o los derechos fundamentales de las personas.

Esto no implica que estén prohibidos, pero sí que requieren cautela, supervisión y responsabilidad.



Responsabilidad: empresas y usuarios

La responsabilidad de las empresas

Las empresas que desarrollan y comercializan sistemas de IA tienen, cada vez más, obligaciones claras:

  • Evaluar riesgos
  • Mitigar daños previsibles
  • Documentar el funcionamiento
  • Garantizar supervisión humana
  • Informar de incidentes

Sin embargo, no toda la responsabilidad recae en ellas, especialmente cuando hablamos de herramientas de propósito general que pueden usarse en múltiples contextos, incluidos usos no previstos inicialmente.

💡
La responsabilidad del proveedor existe, pero no cubre todos los usos posibles que haga un tercero.

La responsabilidad del profesional sanitario

Aquí el mensaje debe ser claro, aunque prudente:

El uso de una herramienta de IA no traslada automáticamente la responsabilidad al desarrollador.
El profesional sanitario sigue siendo responsable de:

  • Las decisiones que toma
  • La información que utiliza
  • El tratamiento de los datos que introduce

La IA no asume responsabilidad clínica, legal ni ética.

💡
Apoyarse en una IA no exime de responsabilidad profesional.


Protección de datos: un punto crítico

En sanidad, los datos de salud son especialmente sensibles.
Introducir información en herramientas externas plantea preguntas importantes:

  • ¿Dónde se procesan esos datos?
  • ¿Se almacenan?
  • ¿Podrían reutilizarse?
  • ¿Permiten identificar directa o indirectamente a una persona?

Aunque la herramienta prometa privacidad, la responsabilidad sobre los datos introducidos sigue siendo del usuario o de la institución.

💡
Si no introducirías ese dato en un correo electrónico, probablemente tampoco deberías introducirlo en una IA.


Derechos de imagen y generación de contenido

La IA generativa ha puesto sobre la mesa problemas que antes no existían a esta escala:

  • Generación de imágenes que parecen personas reales
  • Representaciones no consentidas
  • Contenidos sexualizados o sensibles

Casos recientes, como la polémica en torno a Grok y la generación de imágenes de personas desnudas, muestran limitaciones técnicas y de control evidentes.

No es tanto un problema de mala intención, sino de:

  • Falta de filtros eficaces
  • Dificultad para identificar a personas reales
  • Vacíos legales todavía no resueltos
💡
Que una imagen la genere una IA no elimina los derechos de la persona representada.


Malas prácticas habituales

Algunos errores frecuentes en el uso de IA en sanidad:

  • Confiar en respuestas sin verificar
  • Usarla como fuente primaria de conocimiento
  • Introducir datos reales de pacientes
  • Generar material docente sin revisar
  • Asumir que “si lo hace la IA, está permitido”

La mayoría de estos problemas no son tecnológicos, sino de criterio.



Una mirada ética: más allá de la ley

Además del marco legal, existe una reflexión ética internacional que resulta especialmente relevante en sanidad. No se trata de normas obligatorias, sino de principios orientadores pensados para acompañar el desarrollo y el uso responsable de la inteligencia artificial.

Desde esta perspectiva, la ética no se plantea como un freno a la innovación, sino como una herramienta para prevenir daños y proteger a las personas, especialmente en ámbitos sensibles como la salud.

💡
La ética no busca decir qué tecnología usar, sino cómo y para qué usarla.

Dignidad humana como eje central

Uno de los principios éticos más claros es que la IA debe estar al servicio de la dignidad humana, no al revés.

En sanidad, esto implica:

  • No cosificar a las personas reduciéndolas a datos
  • No despersonalizar la atención clínica
  • No delegar decisiones críticas sin supervisión humana

La tecnología puede apoyar, pero la responsabilidad moral y profesional sigue siendo humana.


Supervisión y decisión humanas

Desde un enfoque ético, se insiste en que:

  • Los sistemas de IA pueden asistir
  • Pueden sugerir
  • Pueden facilitar análisis complejos

Pero no deberían sustituir decisiones con impacto irreversible, especialmente aquellas que afectan a la vida, la salud o los derechos fundamentales.

💡
Que una herramienta sea eficaz no significa que deba decidir por nosotros.

Esto conecta directamente con la práctica sanitaria diaria: la IA puede ayudar a pensar, pero no debe convertirse en el decisor final.


Proporcionalidad y sentido del uso

Otro principio ético relevante es la proporcionalidad.

No todo problema necesita una solución basada en IA.
No todo proceso mejora por ser automatizado.

Antes de usar una herramienta, conviene preguntarse:

  • ¿Es realmente necesaria?
  • ¿Aporta valor clínico o formativo?
  • ¿Introduce nuevos riesgos innecesarios?
💡
Usar IA solo porque está disponible no siempre es una decisión ética.

Sesgos, discriminación y equidad

La ética de la IA reconoce un riesgo claro: los sistemas pueden reproducir o amplificar sesgos existentes.

En sanidad, esto puede traducirse en:

  • Representaciones incompletas de ciertos colectivos
  • Recomendaciones menos fiables para poblaciones infrarepresentadas
  • Material docente que refuerza estereotipos sin intención explícita

Por eso, revisar críticamente los resultados no es opcional: forma parte del uso responsable.


Más allá de la legalidad, el tratamiento de datos de salud plantea una responsabilidad ética directa.

Incluso cuando no hay una infracción formal:

  • Introducir datos innecesarios
  • Compartir casos reales mal anonimizados
  • Usar herramientas externas sin entender su funcionamiento

puede suponer una vulneración de la confianza del paciente.

💡
Respetar la privacidad no es solo cumplir la ley, es proteger la relación asistencial.

Evaluar el impacto antes de usar

Desde la ética se propone una idea sencilla pero potente:
pensar en el impacto antes de desplegar o usar una tecnología.

No solo impacto técnico, sino:

  • Impacto humano
  • Impacto social
  • Impacto profesional

Esta evaluación no siempre requiere comités ni documentos formales; a veces basta con detenerse a pensar antes de usar.


Checklist de reflexión antes de usar una herramienta (IA o no)

Antes de utilizar cualquier herramienta externa, conviene hacerse algunas preguntas:

💡
Pararse a pensar antes de usar una herramienta es una forma de proteger al paciente y al profesional.
  • ¿Qué tipo de información voy a introducir?
  • ¿Podría identificar directa o indirectamente a una persona?
  • ¿Estoy usando esta herramienta como apoyo o como sustituto del criterio profesional?
  • ¿Puedo justificar su uso desde un punto de vista ético y profesional?
  • ¿Conozco sus limitaciones y posibles errores?
  • ¿Asumo que la responsabilidad final es mía?

Conclusión

La inteligencia artificial ofrece oportunidades reales, pero no es neutra ni está completamente regulada.
Mientras la legislación se consolida y la práctica se adapta, el uso responsable depende, en gran medida, del criterio del profesional.

La tecnología cambia rápido.
La responsabilidad, de momento, sigue siendo humana.

STRIPE · PAGO SEGURO

¿Te gusta?

Si quieres, puedes apoyar este contenido con una contribución simbólica.

El pago se procesa a través de Stripe, que puede solicitar el correo electrónico para el recibo. Este sitio no almacena datos personales.

¡Enlace copiado!