ChatGPT健康发布揭露健康数据保护中的灰色地带

OpenAI 在医疗领域的最新举措正引发隐私专家和倡导者的密切关注。该公司推出了 ChatGPT Health 功能,允许用户将医疗记录和健康信息直接上传到平台。虽然 OpenAI 将此定位为与医生合作开发的支持工具,但这一推广引发了关于在 AI 时代健康数据实际如何保护的更深层次问题。

技术保障听起来令人放心——但专家表示还不够

据 OpenAI 介绍,ChatGPT Health 实施了多项保护措施:健康对话保持加密并与普通聊天隔离,数据不会用于模型训练,该功能仅显示一般健康信息而非个性化医疗建议。对于高风险查询,系统会标记风险并引导用户与实际医疗专业人员沟通。

在表面上,这些防护措施似乎很坚固。然而,隐私倡导者指出存在根本性差距。“即使公司承诺保护隐私,大多数人也没有真正的透明度、意义上的同意或对自己信息的真正控制权,” 大型科技公司问责分析师 J.B. Branch 警告道。“健康数据不仅仅靠自我监管就能保障。”

HIPAA 受保护实体的问题

这也是法律环境变得模糊的地方。联邦隐私法——特别是 HIPAA——确实保护由特定医疗机构持有的健康数据:医生诊所、医院、保险公司。但 HIPAA 受保护实体仅代表健康数据生态系统中的一小部分。

当 AI 公司或健康应用开发者存储你的健康信息时,HIPAA 的保护并不自动适用。“你的医生有 HIPAA 义务,你的保险公司也有 HIPAA 义务,” 民主与技术中心高级政策顾问 Andrew Crawford 解释道。“但健康应用制造商、可穿戴设备公司和 AI 平台?这些 HIPAA 受保护实体的要求并不适用于它们。”

这造成了责任真空。没有全面的联邦健康隐私立法,责任就完全落在个人用户身上,用户必须自行决定是否信任某个平台处理他们最敏感的数据。

这为什么现在很重要

ChatGPT Health 推出的时机非常关键。今年早些时候,OpenAI披露每周有超过 100 万用户与聊天机器人讨论自杀问题——大约占当时 ChatGPT 用户总数的 0.15%。这一数据强调了该平台已成为数百万人的事实上的心理健康资源,无论是出于设计还是偶然。

推出专门的健康功能,既带来机遇,也伴随风险。更多人可能会与 ChatGPT 分享敏感的医疗史、心理健康困扰和健康关切。公司的隔离协议和不用于训练的承诺提供了一些保障,但它们并未解决核心漏洞:如果有恶意行为者攻击平台,或在新公司领导下数据政策发生变化,会发生什么?

更广泛的隐私差距

Crawford 强调了结构性问题:“我们的法律把全部责任都放在消费者身上,让他们评估是否信任科技公司处理他们的健康数据。这是倒过来的。风险应由科技公司承担,而不是让个人承担。”

该功能将首先在欧盟和英国以外的部分 ChatGPT 用户中推出,未来几周将在网页和 iOS 平台上扩大。无论在哪个地区推出,关于健康数据、AI 平台以及现有法律框架是否足够的讨论都只会变得更加激烈。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt