Langkah terbaru OpenAI ke bidang kesehatan menarik perhatian ketat dari para ahli privasi dan advokat. Perusahaan ini telah memperkenalkan ChatGPT Health, sebuah fitur yang memungkinkan pengguna mengunggah catatan medis dan informasi kesehatan secara langsung ke platform. Sementara OpenAI memposisikan ini sebagai alat pendukung yang dikembangkan bersama dokter, peluncuran ini memicu pertanyaan yang lebih dalam tentang bagaimana data kesehatan sebenarnya dilindungi di era AI.
Pengamanan Teknis Terdengar Menenangkan—Tapi Para Ahli Katakan Tidak Cukup
Menurut OpenAI, ChatGPT Health menerapkan beberapa langkah perlindungan: percakapan kesehatan tetap terenkripsi dan terisolasi dari obrolan biasa, data tidak akan digunakan untuk pelatihan model, dan fitur ini hanya menampilkan informasi kesehatan umum daripada saran medis yang dipersonalisasi. Untuk pertanyaan dengan risiko lebih tinggi, sistem menandai risiko dan mengarahkan pengguna untuk berbicara dengan profesional kesehatan yang sebenarnya.
Di atas kertas, pengamanan ini tampak kokoh. Namun, advokat privasi menunjukkan adanya celah mendasar. “Bahkan dengan janji perusahaan tentang perlindungan privasi, kebanyakan orang tidak memiliki transparansi nyata, persetujuan yang bermakna, atau kendali sejati atas apa yang terjadi dengan informasi mereka,” peringatkan J.B. Branch, seorang analis akuntabilitas teknologi besar. “Data kesehatan membutuhkan lebih dari sekadar regulasi mandiri.”
Masalah Entitas yang Dilindungi HIPAA
Di sinilah lanskap hukum menjadi kabur. Hukum privasi federal—khususnya HIPAA—memang melindungi data kesehatan ketika disimpan oleh organisasi medis tertentu: kantor dokter, rumah sakit, perusahaan asuransi. Tetapi entitas yang dilindungi HIPAA hanya mewakili sebagian kecil dari ekosistem data kesehatan.
Ketika perusahaan AI atau pengembang aplikasi kesehatan menyimpan informasi kesehatan Anda, perlindungan HIPAA tidak otomatis berlaku. “Dokter Anda memiliki kewajiban HIPAA. Perusahaan asuransi Anda memiliki kewajiban HIPAA,” jelas Andrew Crawford, penasihat kebijakan senior di Center for Democracy and Technology. “Tapi pembuat aplikasi kesehatan, perusahaan perangkat wearable, dan platform AI? Kewajiban entitas yang dilindungi HIPAA itu tidak berlaku bagi mereka.”
Ini menciptakan kekosongan tanggung jawab. Tanpa legislasi privasi kesehatan federal yang komprehensif, beban tanggung jawab sepenuhnya ada di tangan pengguna individu untuk memutuskan apakah mereka percaya bagaimana platform tertentu menangani data paling sensitif mereka.
Mengapa Ini Penting Sekarang
Waktu peluncuran ChatGPT Health sangat penting. OpenAI mengungkapkan awal tahun ini bahwa lebih dari 1 juta pengguna berinteraksi dengan chatbot setiap minggu tentang bunuh diri—sekitar 0,15% dari basis pengguna ChatGPT saat itu. Volume ini menegaskan bagaimana platform ini telah menjadi sumber daya kesehatan mental de facto bagi jutaan orang, baik secara sengaja maupun tidak.
Peluncuran fitur kesehatan khusus ini memperbesar peluang dan risiko. Lebih banyak orang kemungkinan akan berbagi riwayat medis yang sensitif, perjuangan kesehatan mental, dan kekhawatiran tentang kesejahteraan dengan ChatGPT. Protokol isolasi perusahaan dan komitmen non-pelatihan menawarkan beberapa jaminan, tetapi mereka tidak mengatasi kerentanan inti: apa yang terjadi jika aktor jahat menargetkan platform ini, atau jika kebijakan data berubah di bawah kepemimpinan perusahaan yang baru?
Celah Privasi yang Lebih Luas
Crawford menekankan masalah struktural: “Hukum kita menempatkan seluruh beban pada konsumen untuk mengevaluasi apakah mereka nyaman mempercayai perusahaan teknologi dengan data kesehatan mereka. Itu salah. Ini menempatkan risiko pada individu alih-alih mewajibkan perusahaan teknologi memenuhi standar yang jelas dan dapat ditegakkan.”
Fitur ini akan diluncurkan awalnya kepada pengguna ChatGPT tertentu di luar UE dan Inggris, dengan ketersediaan yang diperluas ke platform web dan iOS dalam beberapa minggu mendatang. Tetapi terlepas dari tempat peluncurannya, percakapan tentang data kesehatan, platform AI, dan apakah kerangka hukum yang ada cukup akan semakin intensif.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Peluncuran ChatGPT Health Mengungkap Zona Abu-abu dalam Perlindungan Data Kesehatan
Langkah terbaru OpenAI ke bidang kesehatan menarik perhatian ketat dari para ahli privasi dan advokat. Perusahaan ini telah memperkenalkan ChatGPT Health, sebuah fitur yang memungkinkan pengguna mengunggah catatan medis dan informasi kesehatan secara langsung ke platform. Sementara OpenAI memposisikan ini sebagai alat pendukung yang dikembangkan bersama dokter, peluncuran ini memicu pertanyaan yang lebih dalam tentang bagaimana data kesehatan sebenarnya dilindungi di era AI.
Pengamanan Teknis Terdengar Menenangkan—Tapi Para Ahli Katakan Tidak Cukup
Menurut OpenAI, ChatGPT Health menerapkan beberapa langkah perlindungan: percakapan kesehatan tetap terenkripsi dan terisolasi dari obrolan biasa, data tidak akan digunakan untuk pelatihan model, dan fitur ini hanya menampilkan informasi kesehatan umum daripada saran medis yang dipersonalisasi. Untuk pertanyaan dengan risiko lebih tinggi, sistem menandai risiko dan mengarahkan pengguna untuk berbicara dengan profesional kesehatan yang sebenarnya.
Di atas kertas, pengamanan ini tampak kokoh. Namun, advokat privasi menunjukkan adanya celah mendasar. “Bahkan dengan janji perusahaan tentang perlindungan privasi, kebanyakan orang tidak memiliki transparansi nyata, persetujuan yang bermakna, atau kendali sejati atas apa yang terjadi dengan informasi mereka,” peringatkan J.B. Branch, seorang analis akuntabilitas teknologi besar. “Data kesehatan membutuhkan lebih dari sekadar regulasi mandiri.”
Masalah Entitas yang Dilindungi HIPAA
Di sinilah lanskap hukum menjadi kabur. Hukum privasi federal—khususnya HIPAA—memang melindungi data kesehatan ketika disimpan oleh organisasi medis tertentu: kantor dokter, rumah sakit, perusahaan asuransi. Tetapi entitas yang dilindungi HIPAA hanya mewakili sebagian kecil dari ekosistem data kesehatan.
Ketika perusahaan AI atau pengembang aplikasi kesehatan menyimpan informasi kesehatan Anda, perlindungan HIPAA tidak otomatis berlaku. “Dokter Anda memiliki kewajiban HIPAA. Perusahaan asuransi Anda memiliki kewajiban HIPAA,” jelas Andrew Crawford, penasihat kebijakan senior di Center for Democracy and Technology. “Tapi pembuat aplikasi kesehatan, perusahaan perangkat wearable, dan platform AI? Kewajiban entitas yang dilindungi HIPAA itu tidak berlaku bagi mereka.”
Ini menciptakan kekosongan tanggung jawab. Tanpa legislasi privasi kesehatan federal yang komprehensif, beban tanggung jawab sepenuhnya ada di tangan pengguna individu untuk memutuskan apakah mereka percaya bagaimana platform tertentu menangani data paling sensitif mereka.
Mengapa Ini Penting Sekarang
Waktu peluncuran ChatGPT Health sangat penting. OpenAI mengungkapkan awal tahun ini bahwa lebih dari 1 juta pengguna berinteraksi dengan chatbot setiap minggu tentang bunuh diri—sekitar 0,15% dari basis pengguna ChatGPT saat itu. Volume ini menegaskan bagaimana platform ini telah menjadi sumber daya kesehatan mental de facto bagi jutaan orang, baik secara sengaja maupun tidak.
Peluncuran fitur kesehatan khusus ini memperbesar peluang dan risiko. Lebih banyak orang kemungkinan akan berbagi riwayat medis yang sensitif, perjuangan kesehatan mental, dan kekhawatiran tentang kesejahteraan dengan ChatGPT. Protokol isolasi perusahaan dan komitmen non-pelatihan menawarkan beberapa jaminan, tetapi mereka tidak mengatasi kerentanan inti: apa yang terjadi jika aktor jahat menargetkan platform ini, atau jika kebijakan data berubah di bawah kepemimpinan perusahaan yang baru?
Celah Privasi yang Lebih Luas
Crawford menekankan masalah struktural: “Hukum kita menempatkan seluruh beban pada konsumen untuk mengevaluasi apakah mereka nyaman mempercayai perusahaan teknologi dengan data kesehatan mereka. Itu salah. Ini menempatkan risiko pada individu alih-alih mewajibkan perusahaan teknologi memenuhi standar yang jelas dan dapat ditegakkan.”
Fitur ini akan diluncurkan awalnya kepada pengguna ChatGPT tertentu di luar UE dan Inggris, dengan ketersediaan yang diperluas ke platform web dan iOS dalam beberapa minggu mendatang. Tetapi terlepas dari tempat peluncurannya, percakapan tentang data kesehatan, platform AI, dan apakah kerangka hukum yang ada cukup akan semakin intensif.