Según informan los investigadores, un algoritmo de atención médica implementado a nivel nacional en Estados Unidos --una de las mayores herramientas comerciales utilizadas por las aseguradoras sanitarias para obtener información relativa a las decisiones de atención médica de millones de personas cada año-- presenta un significativo sesgo racial a la hora de predecir los riesgos para la salud de los pacientes negros. Según el nuevo estudio, esta herramienta ampliamente utilizada subestima las necesidades sanitarias de los pacientes negros frente a las de los pacientes blancos. Para una misma puntuación de riesgo, el algoritmo determina que los pacientes negros se encuentran en mejor estado de salud que los blancos que están igualmente enfermos, lo que reduce el número de pacientes negros en los que se identifica la necesidad de atención adicional. Los resultados demuestran que este sesgo se produce porque el algoritmo no predice las necesidades sanitarias sino los costes sanitarios. "...[El]estudio aporta en gran medida un enfoque más socialmente consciente del desarrollo de la tecnología, ya que demuestra cómo la elección de una etiqueta aparentemente inocua (como, por ejemplo, el coste sanitario), inicia un proceso con resultados potencialmente mortales", escribe Ruha Benjamin en un artículo de Perspective relacionado. Las instituciones de atención médica dependen cada vez más de predicciones algorítmicas que ayuden a identificar el riesgo sanitario y a asignar recursos a quienes más los necesitan. Si bien el potencial de sesgo en estos sistemas automatizados supone una preocupación reconocida y creciente, ha habido escasas evaluaciones independientes del sesgo de los algoritmos de atención sanitaria comercial. En esta ocasión, Ziad Obermeyer y sus colegas presentan una de las primeras evaluaciones de un algoritmo de predicción de riesgos de amplio uso en todo el sistema sanitario de EE. UU. El acceso a los datos y las funciones subyacentes de la herramienta permitió a Obermeyer et al. observar el funcionamiento interno del algoritmo, incluidas sus disparidades raciales y la forma en que estas aparecen. El algoritmo utiliza los costes sanitarios como representación de las necesidades sanitarias. Sin embargo, los autores sostienen que los costes de atención médica constituyen una métrica racialmente sesgada. Esencialmente, los negros incurren en costes más bajos que los blancos debido a una falta de acceso y a un racismo sistémico. Por lo tanto, las predicciones de necesidades de atención médica conllevan el mismo sesgo. Obermeyer et al. demuestran que si se reformula el algoritmo usando una representación diferente de las necesidades sanitarias, el sesgo racial se reduce en un 84 %. A la luz de estos hallazgos, los autores están trabajando con el desarrollador del algoritmo para reducir el sesgo.
###
Journal
Science