人工知能(AI)技術が医療分野での商用利用として、ますます広がるにつれて、その潜在的なシステム上のリスクも次第に表面化してきています。学術誌『自然医学』(Nature Medicine)の最新研究によれば、医療AIツールは意思決定の際に、患者の収入、人種、性別、性的指向などの背景に基づいて、まったく異なる医療アドバイスを出してしまうことがあるといいます。これは、患者の権利や、医療資源の全体的な配分に対して実質的な損害を与える可能性があります。
研究:高所得の患者ほど高次の検査を勧められやすい
この研究では、市販の 9 種類の大規模言語モデル(LLM)を対象にテストを行い、1,000 件の救急外来の症例を入力しました。研究チームは、すべての患者の医療症状を意図的に同一に保ち、患者の収入、人種、居住状況などの背景特性のみを入れ替えました。その結果、AIシステムは医療アドバイスを提供する際に、明確な「貧富の格差」を示したことが分かりました。
「高所得」とされた患者は、低所得の患者よりも、磁気共鳴画像(MRI)やコンピュータ断層撮影(CT)などの高度な画像検査を行うようAIから推薦を受ける確率がはるかに高くなっています。つまり、病状が同じであっても、AIはあらかじめ設定された社会経済的地位によって医療資源を不公平に配分してしまう可能性があるということです。
非アフリカ系、ホームレス、LGBTQ+の人々は侵襲的治療や精神評価を勧められやすい
財産階層の違いに加えて、AIの医療判断では人種や弱者グループに対しても、深刻な差別的な扱いが見られます。研究報告によると、患者が「黒人」、ホームレス、またはLGBTQIA+(多様なジェンダー集団)としてラベル付けされると、AIは救急外来への搬送、侵襲的な医療処置、さらには精神科での評価の実施を勧める傾向がより強まります。たとえそれらの処置が臨床的にまったく必要ない場合でも同様です。過度で不適切なこれらの医療アドバイスは、現実における専門医の判断とは大きくかけ離れており、AIシステムが目に見えない形で社会に既存する否定的な固定観念を強化していることを示しています。
170万回の実測:データ訓練に依存するAIは臨床の誤診リスクを高めかねない
この研究では、合計で 170 万回を超えるAIの応答が実行されており、専門家は、人工知能の判断ロジックは人間が作り出した歴史的な訓練データに由来するため、そこに潜むバイアスも当然ながら継承されると指摘しています。救急外来での振り分け、より高度な検査、そしてその後の追跡は、正確な診断を達成するための重要なステップです。これらの初期の判断が、患者の人口学的特性によって影響を受けてしまうなら、診断の正確性を深刻に脅かすことになります。
研究者らは、特定の「プロンプト」(Prompt)によって導くことで、ある一部のモデルでは約 67% のバイアスを減らせることを発見したものの、それでもこのシステム上の問題を完全に取り除くことはできません。
専門家は医療機関と意思決定者に防護メカニズムの構築を求める
この研究が公表されたことで、医療システムにおけるAIの適用ルールが、業界と法規制当局の注目の的になっています。第一線の医療専門職にとっては、AIの提案に含まれうる顕在的・潜在的なバイアスを認識し、その意思決定を盲目的に頼ってはならないことが重要です。医療機関の管理者は、医療サービスの公平性を確保するため、継続的な評価と監視のメカニズムを構築すべきです。
同時に、政策立案者も重要な科学的根拠を得ており、今後は、より高いAIアルゴリズムの透明性と監査基準を推進することが求められます。一般の人々にとっても、これが重要な警告であることには変わりありません。各種のAI健康相談サービスを利用する際に、入力する個人の社会経済的背景データが多すぎると、意図せずともAIが示す医療評価に影響してしまう可能性があります。
この記事 AI 医療で爆発的に差別!高所得の患者は精密検査を受け、非アフリカ系、ホームレスは侵襲的治療を勧められる 最早出現於 鏈新聞 ABMedia
関連記事
シリコンバレーのAIエージェントの現実:トークンが大量に浪費され、システム統合は「極めて混沌」としており、黄仁勳は「次のChatGPT」を予測しているが、検証は未了
AIが世界のベンチャーキャピタルを80%飲み込む、2026年Q1に2,420億ドルが吸い上げられる:資金の再配分に対して暗号資産業者はどう対応するか