04 de Diciembre de 2025
Edición 7349 ISSN 1667-8486
Próxima Actualización: 05/12/2025
Inteligencia artificial y seguros de salud

¿El médico o el algoritmo?

Un tribunal federal en Estados Unidos analizó un caso donde se cuestionó el uso de inteligencia artificial en decisiones de cobertura médica. La demanda denunció que un algoritmo se utilizó para rechazar automáticamente tratamientos indicados por médicos, excluyendo la intervención humana en autorizaciones previas.

(Gerd Altmann - Pixabay)

Un tribunal federal de Estados Unidos analizó la responsabilidad de una aseguradora en un caso en el que se cuestiona que las decisiones de cobertura habrían sido delegadas a un sistema de inteligencia artificial. 

Se trata del caso de Humana, que es objeto de una demanda colectiva en la cual, entre otros puntos, los accionantes sostienen que la compañía utilizó el modelo nH Predict, desarrollado por NaviHealth, para evaluar solicitudes de cobertura médica, lo que derivó en rechazos automáticos de tratamientos indicados por profesionales de la salud. Los actores señalaron que la firma utiliza el modelo para suplantar las recomendaciones de médicos reales y las necesidades médicas de los pacientes.

En el caso, el Tribunal de Distrito de los Estados Unidos para el Distrito Oeste de Kentucky, División Louisville, recogió en su resolución que “es la posición de los demandantes que la aseguradora utiliza el modelo de IA nH Predict para dejar de cubrir cuidados sin considerar las necesidades individuales de los pacientes” y que este sistema “arroja recomendaciones genéricas basadas en registros médicos incompletos o inadecuados, sin ajustarse a las circunstancias particulares”

En 2024, el Subcomité Permanente de Investigaciones del Senado de los Estados Unidos  constató que Humana permitía que revisores externos emplearan inteligencia artificial de forma que “excluía a los humanos del proceso de toma de decisiones” en denegaciones de autorizaciones previas. 

 

En 2024, el Subcomité Permanente de Investigaciones del Senado de los Estados Unidos  constató que Humana permitía que revisores externos emplearan inteligencia artificial de forma que “excluía a los humanos del proceso de toma de decisiones” en denegaciones de autorizaciones previas. 

En la documentación aportada al comité, la propia política de la aseguradora sobre “Uso Ético de la Inteligencia Aumentada” reconocía que terceros "pueden utilizar sistemas de inteligencia artificial en apoyo de los servicios prestados a Humana y están comprendidos dentro del alcance de estas directrices”. El contrato con NaviHealth, vigente desde 2017, autorizaba a esa empresa a usar información de salud protegida “en conexión con la herramienta de soporte clínico LiveSafe (o su sucesora) y sus bases de datos relacionadas”, sistema que luego fue renombrado como nH Predict.

Entre los casos expuestos se citó el de una mujer de 86 años que sufrió una fractura de pierna y cuya cobertura fue cancelada después de dos semanas en un centro de cuidados post-agudos, “como resultado del algoritmo nH Predict”. Una investigación publicada por STAT en marzo de 2023 también había señalado que el modelo se creó con la finalidad de ahorrar dinero a las aseguradoras en la atención post-aguda, y recogió testimonios de médicos que describieron criterios rígidos en las autorizaciones. “

El PSI advirtió que Humana era consciente del impacto que estas prácticas podían tener en sus calificaciones de calidad. Un documento interno utilizado en capacitaciones sobre apelaciones mencionaba que la calificación de estrellas se veía afectada por la tasa en que la que  Maximus, la entidad independiente encargada de revisar los casos, revocaba las denegaciones. Según el informe, aunque solo el 12 por ciento de las denegaciones llegaba a ser apelado, más del 80 por ciento se revertía internamente antes de llegar a esa instancia.

En la resolución, el tribunal recogió que “es la posición de los demandantes que la aseguradora utiliza el modelo de IA nH Predict para dejar de cubrir cuidados sin considerar las necesidades individuales de los pacientes” y que este sistema “arroja recomendaciones genéricas basadas en registros médicos incompletos o inadecuados, sin ajustarse a las circunstancias particulares” y avaló el avance de la causa.

 

Documento relacionado:


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
Responsabilidad legal en tiempos de IA
¿Y si la culpa fue del algoritmo?
Demanda por entrenamiento de modelos de inteligencia artificial
¿La IA mira videos XXX?

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2025 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486