人工知能の判断に潜む社会的偏見とその影響

2025.04.23

WorkWonders

最新の研究によると、大規模言語モデル(LLM)が救急外来の症例判断を行った際、人種や社会的地位といった
要素に基づくバイアスにより、不均衡な医療判断を下す傾向があることが明らかになりました。米マウントサイナイ医科大学の研究チームが、1,000例の症例をもとに
この問題をNature Medicine誌に発表しました。

研究では、実症例と合成症例を含む1,000例のデータに対して、異なる社会人口統計学的属性を付与し、救急外来の症例判断をLLMに
依頼。結果、黒人やホームレス、LGBTQIA+などの属性を有する患者ケースでは、緊急性を要する判断や侵襲的な治療を推奨する割合が有意に高くなる一方、
高所得の患者には高度な画像検査を推奨する傾向が見られました。これに対し、実際の医師の判断とは必ずしも一致しなかったといいます。

これは、LLMが学習する過程で取り込んだ社会的偏見が医療判断に反映されるリスクを示唆しており、今後はより公平で患者中心の医療を目指すべく、
改善策が求められると研究者らは指摘しています。

出典 : 医療LLMに潜む社会的バイアス | 医療とAIのニュース・最新記事 https://aitimes.media/2025/04/22/15243/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓