Un tribunal federal de Estados Unidos analizó la responsabilidad de una aseguradora en un caso en el que se cuestiona que las decisiones de cobertura habrían sido delegadas a un sistema de inteligencia artificial.
Se trata del caso de Humana, que es objeto de una demanda colectiva en la cual, entre otros puntos, los accionantes sostienen que la compañía utilizó el modelo nH Predict, desarrollado por NaviHealth, para evaluar solicitudes de cobertura médica, lo que derivó en rechazos automáticos de tratamientos indicados por profesionales de la salud. Los actores señalaron que la firma utiliza el modelo para suplantar las recomendaciones de médicos reales y las necesidades médicas de los pacientes.
En el caso, el Tribunal de Distrito de los Estados Unidos para el Distrito Oeste de Kentucky, División Louisville, recogió en su resolución que “es la posición de los demandantes que la aseguradora utiliza el modelo de IA nH Predict para dejar de cubrir cuidados sin considerar las necesidades individuales de los pacientes” y que este sistema “arroja recomendaciones genéricas basadas en registros médicos incompletos o inadecuados, sin ajustarse a las circunstancias particulares”
En 2024, el Subcomité Permanente de Investigaciones del Senado de los Estados Unidos constató que Humana permitía que revisores externos emplearan inteligencia artificial de forma que “excluía a los humanos del proceso de toma de decisiones” en denegaciones de autorizaciones previas.
En 2024, el Subcomité Permanente de Investigaciones del Senado de los Estados Unidos constató que Humana permitía que revisores externos emplearan inteligencia artificial de forma que “excluía a los humanos del proceso de toma de decisiones” en denegaciones de autorizaciones previas.
En la documentación aportada al comité, la propia política de la aseguradora sobre “Uso Ético de la Inteligencia Aumentada” reconocía que terceros "pueden utilizar sistemas de inteligencia artificial en apoyo de los servicios prestados a Humana y están comprendidos dentro del alcance de estas directrices”. El contrato con NaviHealth, vigente desde 2017, autorizaba a esa empresa a usar información de salud protegida “en conexión con la herramienta de soporte clínico LiveSafe (o su sucesora) y sus bases de datos relacionadas”, sistema que luego fue renombrado como nH Predict.
Entre los casos expuestos se citó el de una mujer de 86 años que sufrió una fractura de pierna y cuya cobertura fue cancelada después de dos semanas en un centro de cuidados post-agudos, “como resultado del algoritmo nH Predict”. Una investigación publicada por STAT en marzo de 2023 también había señalado que el modelo se creó con la finalidad de ahorrar dinero a las aseguradoras en la atención post-aguda, y recogió testimonios de médicos que describieron criterios rígidos en las autorizaciones. “
El PSI advirtió que Humana era consciente del impacto que estas prácticas podían tener en sus calificaciones de calidad. Un documento interno utilizado en capacitaciones sobre apelaciones mencionaba que la calificación de estrellas se veía afectada por la tasa en que la que Maximus, la entidad independiente encargada de revisar los casos, revocaba las denegaciones. Según el informe, aunque solo el 12 por ciento de las denegaciones llegaba a ser apelado, más del 80 por ciento se revertía internamente antes de llegar a esa instancia.
En la resolución, el tribunal recogió que “es la posición de los demandantes que la aseguradora utiliza el modelo de IA nH Predict para dejar de cubrir cuidados sin considerar las necesidades individuales de los pacientes” y que este sistema “arroja recomendaciones genéricas basadas en registros médicos incompletos o inadecuados, sin ajustarse a las circunstancias particulares” y avaló el avance de la causa.