ChatGPT 健康推出揭露健康數據保護的灰色地帶

OpenAI 在醫療領域的最新動作正引起隱私專家和倡導者的密切關注。該公司推出了 ChatGPT Health,一個允許用戶直接將醫療記錄和健康資訊上傳到平台的功能。儘管 OpenAI 將此定位為與醫生合作開發的支持工具,但此舉也引發了對於在 AI 時代中健康數據實際如何受到保護的更深層次疑問。

技術保障聽起來令人安心——但專家表示還不夠

根據 OpenAI 的說法,ChatGPT Health 實施了多項保護措施:健康對話保持加密並與普通聊天隔離,數據不會用於模型訓練,且該功能僅提供一般健康資訊而非個人化醫療建議。對於較高風險的查詢,系統會標記風險並引導用戶與實際醫療專業人員溝通。

在紙面上,這些防護措施看起來相當堅固。然而,隱私倡導者指出一個根本的缺口。「即使公司承諾隱私保護,大多數人也沒有真正的透明度、意義深遠的同意或對自己資訊的實質控制權,」大科技責任分析師 J.B. Branch 警告道。「健康數據不僅僅是自我規範就能保障的。」

HIPAA 覆蓋實體問題

這裡的法律環境變得模糊。聯邦隱私法——特別是 HIPAA——確實在某些醫療機構持有健康數據時提供保護:醫生診所、醫院、保險公司。但 HIPAA 覆蓋實體僅代表健康數據生態系統中的一小部分。

當 AI 公司或健康應用開發者存儲你的健康資訊時,HIPAA 的保護並不自動適用。「你的醫生有 HIPAA 義務,你的保險公司也有 HIPAA 義務,」民主與科技中心的高級政策顧問 Andrew Crawford 解釋。「但健康應用開發商、穿戴裝置公司和 AI 平台?這些 HIPAA 覆蓋實體的要求並不延伸到他們身上。」

這造成了一個責任空缺。沒有全面的聯邦健康隱私立法,個人用戶必須自行決定是否信任某個平台處理他們最敏感的數據。

為何這個議題現在格外重要

ChatGPT Health 推出的時機具有重要意義。今年早些時候,OpenAI 公布超過 100 萬用戶每週與聊天機器人討論自殺問題——約佔當時 ChatGPT 用戶基數的 0.15%。這個數字凸顯了該平台已經在無形中成為數百萬人的心理健康資源,無論是有意還是無意。

推出專門的健康功能,既帶來機會,也伴隨風險。更多人可能會與 ChatGPT 分享敏感的醫療史、心理健康困擾和健康關切。公司的隔離協議和不將數據用於訓練的承諾提供了一些保障,但它們並未解決核心的脆弱點:如果有惡意行為者攻擊平台,或在新公司領導下數據政策改變,會發生什麼?

更廣泛的隱私差距

Crawford 強調了結構性問題:「我們的法律將全部責任都放在消費者身上,讓他們評估是否信任科技公司處理他們的健康數據。這是倒過來的。這樣是在將風險轉嫁給個人,而不是要求科技公司制定明確、可執行的標準。」

該功能將首先在歐盟和英國以外的選定 ChatGPT 用戶中推出,並在接下來的幾週內擴展到網頁版和 iOS 平台。但無論在哪裡推出,關於健康數據、AI 平台以及現有法律框架是否足夠的討論都只會越來越激烈。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)