Seiring dengan semakin luasnya penerapan komersial teknologi kecerdasan buatan (AI) dalam industri kesehatan, potensi risiko sistematisnya juga perlahan mulai terungkap ke permukaan. Penelitian terbaru jurnal akademik 《Nature Medicine》 menyatakan bahwa ketika alat AI medis melakukan pengambilan keputusan, ternyata alat tersebut memberikan saran medis yang sangat berbeda berdasarkan latar belakang pasien, seperti pendapatan, ras, jenis kelamin, serta orientasi seksual. Hal ini dapat menimbulkan kerugian nyata terhadap hak pasien dan distribusi sumber daya layanan kesehatan secara keseluruhan.
Penelitian: Pasien berpenghasilan tinggi lebih mudah direkomendasikan pemeriksaan tingkat lanjut
Penelitian ini menguji 9 model bahasa besar (LLM) yang tersedia di pasaran, dengan memasukkan 1.000 kasus ruang gawat darurat. Tim peneliti secara sengaja menjaga agar semua gejala medis setiap pasien tetap sama, hanya mengganti karakteristik latar belakang seperti pendapatan pasien, ras, kondisi tempat tinggal, dan sebagainya. Hasilnya menunjukkan bahwa sistem AI, ketika memberikan saran medis, menampilkan kesenjangan yang jelas yaitu “kesenjangan antara yang kaya dan yang miskin”.
Pasien yang diberi label “berpenghasilan tinggi” memiliki peluang yang jauh lebih besar untuk menerima rekomendasi pemeriksaan pencitraan tingkat lanjut seperti pencitraan resonansi magnetik (MRI) atau pemindaian tomografi terkomputasi (CT) dibandingkan pasien berpenghasilan rendah. Ini berarti, meskipun kondisi penyakitnya sama, AI tetap dapat mendistribusikan sumber daya layanan kesehatan secara tidak merata karena status sosial-ekonomi yang sudah dianggap sebelumnya.
Kelompok non-Kulit Putih, tunawisma, dan LGBTQ+ lebih mudah disarankan tindakan invasif serta penilaian kejiwaan
Selain perbedaan kelas kekayaan, AI juga menunjukkan perlakuan yang sangat timpang dalam penilaian medis terhadap ras dan kelompok yang rentan. Laporan penelitian menyebutkan bahwa ketika pasien diberi label sebagai Black (Kulit Hitam), tunawisma, atau LGBTQIA+ (kelompok beragam gender), AI lebih cenderung menyarankan agar mereka dikirim ke ruang gawat darurat, menjalani penanganan medis invasif, bahkan meminta agar dilakukan evaluasi psikiatri—meskipun dalam praktik klinis penanganan tersebut pada dasarnya sama sekali tidak diperlukan. Rekomendasi medis yang berlebihan dan tidak tepat ini sangat bertentangan dengan penilaian yang diberikan oleh dokter profesional di dunia nyata, menunjukkan bahwa sistem AI sedang memperkuat secara diam-diam stereotip negatif yang sudah ada dalam masyarakat.
170 juta kali uji langsung: AI yang bergantung pada pelatihan data berpotensi meningkatkan risiko misdiagnosis klinis
Penelitian ini menjalankan lebih dari 1.700.000 respons AI, dan para ahli menunjukkan bahwa logika penilaian kecerdasan buatan berasal dari data pelatihan historis yang dihasilkan oleh manusia, sehingga juga mewarisi bias yang tersembunyi dalam data tersebut. Pembagian pasien di ruang gawat darurat, pemeriksaan lanjutan, dan tindak lanjut adalah langkah kunci untuk mencapai diagnosis yang presisi. Jika keputusan awal ini dipengaruhi oleh karakteristik demografis pasien, maka akan sangat mengancam akurasi diagnosis.
Meskipun para peneliti menemukan bahwa dengan mengarahkan melalui “prompt” tertentu (Prompt), pada sebagian model bias dapat dikurangi sekitar 67%, namun masalah sistematis ini tetap tidak bisa dihilangkan sepenuhnya.
Para ahli menyerukan agar fasilitas layanan kesehatan dan pengambil keputusan membangun mekanisme perlindungan
Seiring dengan dirilisnya penelitian ini, regulasi penerapan AI dalam sistem layanan kesehatan menjadi fokus perhatian kalangan industri dan otoritas regulasi. Bagi tenaga profesional kesehatan lini depan, harus disadari bahwa dalam rekomendasi AI mungkin terdapat bias yang bersifat eksplisit maupun implisit, sehingga tidak boleh secara membabi buta mengandalkan keputusan tersebut. Para manajer fasilitas layanan kesehatan juga harus membangun mekanisme evaluasi dan pemantauan yang berkelanjutan untuk memastikan pemerataan layanan kesehatan.
Pada saat yang sama, para pembuat kebijakan juga memperoleh bukti ilmiah yang penting—ke depan, perlu didorong transparansi algoritma AI yang lebih tinggi serta standar audit. Bagi masyarakat umum, ini juga merupakan peringatan penting: saat menggunakan berbagai layanan konsultasi kesehatan berbasis AI, memasukkan terlalu banyak data latar belakang pribadi sosial-ekonomi dapat secara tidak sadar memengaruhi penilaian medis yang diberikan oleh AI.
Artikel ini AI medis melakukan diskriminasi besar! Pasien berpenghasilan tinggi mendapat pemeriksaan presisi, non-Kulit Putih dan tunawisma disarankan tindakan invasif Paling awal muncul di Lian News ABMedia.
Artikel Terkait
Google 推 Deep Research Max:mendukung MCP, bisa terhubung dengan data privat perusahaan
OpenAI Codex Mencapai 4 Juta Pengguna Aktif Bulanan dalam Kurang dari Dua Minggu
Dua Startup AI Afrika Selatan Terpilih untuk Google for Startups Accelerator Africa Kelas 10
Daftar Forbes AI 50 Menampilkan 20 Perusahaan Baru; OpenAI dan Anthropic Menguasai 80% dari Total Pendanaan
Zi Variabel Meluncurkan Model Embodied AI WALL-B; Robot Masuk ke Rumah Nyata dalam 35 Hari
OpenAI Menyiapkan Fitur Agents untuk ChatGPT, dengan Kode Nama Hermes