News Release

汲取计算机科学中的教训可使公平医疗器械惠及大众

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

技术可能会失之偏颇,其设计可能会使某些人群处于不利地位。尽管在多个技术领域中,消除技术中偏差、促进公平的措施都在迅速增长,但Achuta Kadambi认为,就医学工程而言,类似的增长速度还不够快。Kadambi在一篇《视角》文章中写道:“尽管计算机科学公司已终止了有利可图但有偏差的面部识别系统,但带有偏差的医疗设备仍继续作为商品出售。”医疗设备中的偏差会在不同人群中导致不良的性能差异,并加剧不平等的健康状况。例如,用光来监测生命体征(如血液氧合)的光学生物传感器已被证明会因肤色深浅而产生不同效果。由于这些检测与医学预后的严重性有关,因此带有偏差的医疗设备会给黑人及肤色深的患者带来不同的死亡结果。作者概述了令医疗设备出现偏差的三种方式—它们可表现为物理偏差、计算偏差和解读偏差。但是,与计算机科学所面临的类似问题不同,医疗设备中的偏差问题常未得到解决。据Kadami披露,计算机科学会对偏差问题做例行研究并积极解决这些问题。例如,亚马逊公司(Amazon Inc.)最近禁止执法部门使用其面部识别产品,直到这些产品软件中的偏见问题被理解并完全得到解决。医疗产品工程师可以借鉴在这些领域中学到的教训以确保医疗设备公平并防止出现健康上的不平等状况。Kadambi写道:“实现医疗器械公平只不过是该难题中的关键一环,但真正实现公平不外乎简单的设计工程。”他写道:“即使设法造出了一款公平的医疗设备,但其临床使用者仍可能会带着有意识或下意识的偏见。而且,即使有一个从工程角度看是公平的医疗设备,但它也可能无法惠及某些人群。”

对相关趋势感兴趣的记者请注意,2019年10月的一则《科学》研究揭示了一种全国性部署的医疗算法(这是医疗保险业者每年为数百万人提供医疗决策信息的最大商用工具之一)如何会在预测黑人患者的健康风险中表现出显著的种族偏见。本研究的作者证明,重新构建该算法可令种族偏见减少84%;他们与该算法的开发者合作以减少其2019年版算法中的偏差。
https://science.sciencemag.org/cgi/doi/10.1126/science.aax2342

###


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.