News Release 

コンピュータ科学の教訓は,医療機器を全ての人に公正なものにできる

American Association for the Advancement of Science

Research News

技術にはバイアスがある可能性があり、そのデザインは特定の人口層を不利にする可能性がある。バイアスに対処し、技術における公正さを促進しようとする努力は、さまざまな技術分野で急速に拡大しつつあるが、Achuta Kadambiは、医用工学における同様な拡大は、十分に早くは生じないと主張している。「コンピュータ科学企業は、富をもたらすがバイアスのある顔認識システムを終わらせたが、バイアスのある医療機器は市販品として販売され続けている」とKadambiがPerspectiveで述べている。医療機器のバイアスは、人口層間での望ましくない性能の差を生じさせ、健康の不平等さに大きな影響を与えうる。例えば、光を利用して血液の酸素化などのバイタルサインをモニタリングする光バイオセンサーは、明るい肌と暗い肌では異なる動作をすることが示されている。これらの指標の一部は重篤な医学的予後となり得ることと関連しているため、このようなバイアスのある医療機器によって、黒人や肌の色が暗い患者の死亡転帰に差が生じる可能性がある。Kadambiは、医療機器にバイアスが生じうる3つの様式(物理的バイアス、計算的バイアス、解釈的バイアス)の概要を述べている。しかし、コンピュータ科学で直面する同様な問題と異なり、医療機器のバイアスは対処されないままであることが多い。Kadamiによれば、コンピュータ科学ではバイアスは定期的に調査され積極的に対処されている。例えば、Amazon Inc.は最近、ソフトウエアのバイアスの懸念が理解され完全に解決されるまで,法的処置により顔認証製品の使用を禁止した。医療エンジニアは、医療機器の公正さを達成し健康の不平等さを予防するために、これらの領域で得られた教訓を利用できるだろう。「医療機器の公正さの達成はパズルの重要なピースだが、1つのピースに過ぎない」とKadambiは述べ、真の公正さの達成が単純なデバイス工学の領域を超えていることを指摘している。「公正な医療機器をうまく設計できたとしても、意識的なまたは無意識のバイアスを持つ医療提供者が使用する可能性がある。工学的な観点で公正な医療機器であっても、幅広い人口層が利用できない可能性がある。」

動向に興味を持たれるレポーターの方々に向けて、2019年10月のScienceの研究では、全国的に配備されたヘルスケアアルゴリズム(医療保険会社が毎年何百万人もの人々にヘルスケアの決断について情報を提供するために使用している最大の市販ツールの1つ)が黒人患者の健康リスクの予測において重大な人種的バイアスをどの程度示したかが明らかにしています。研究の著者は、このアルゴリズムを改良することで人種的バイアスが84%減少することを示し、2019年の発表時にバイアスを減少させるためにアルゴリズムの開発者と協力していたものです。
https://science.sciencemag.org/cgi/doi/10.1126/science.aax2342

###

Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.