Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
ChatGPT健康发布揭露健康数据保护中的灰色地带
OpenAI 在医疗领域的最新举措正引发隐私专家和倡导者的密切关注。该公司推出了 ChatGPT Health 功能,允许用户将医疗记录和健康信息直接上传到平台。虽然 OpenAI 将此定位为与医生合作开发的支持工具,但这一推广引发了关于在 AI 时代健康数据实际如何保护的更深层次问题。
技术保障听起来令人放心——但专家表示还不够
据 OpenAI 介绍,ChatGPT Health 实施了多项保护措施:健康对话保持加密并与普通聊天隔离,数据不会用于模型训练,该功能仅显示一般健康信息而非个性化医疗建议。对于高风险查询,系统会标记风险并引导用户与实际医疗专业人员沟通。
在表面上,这些防护措施似乎很坚固。然而,隐私倡导者指出存在根本性差距。“即使公司承诺保护隐私,大多数人也没有真正的透明度、意义上的同意或对自己信息的真正控制权,” 大型科技公司问责分析师 J.B. Branch 警告道。“健康数据不仅仅靠自我监管就能保障。”
HIPAA 受保护实体的问题
这也是法律环境变得模糊的地方。联邦隐私法——特别是 HIPAA——确实保护由特定医疗机构持有的健康数据:医生诊所、医院、保险公司。但 HIPAA 受保护实体仅代表健康数据生态系统中的一小部分。
当 AI 公司或健康应用开发者存储你的健康信息时,HIPAA 的保护并不自动适用。“你的医生有 HIPAA 义务,你的保险公司也有 HIPAA 义务,” 民主与技术中心高级政策顾问 Andrew Crawford 解释道。“但健康应用制造商、可穿戴设备公司和 AI 平台?这些 HIPAA 受保护实体的要求并不适用于它们。”
这造成了责任真空。没有全面的联邦健康隐私立法,责任就完全落在个人用户身上,用户必须自行决定是否信任某个平台处理他们最敏感的数据。
这为什么现在很重要
ChatGPT Health 推出的时机非常关键。今年早些时候,OpenAI披露每周有超过 100 万用户与聊天机器人讨论自杀问题——大约占当时 ChatGPT 用户总数的 0.15%。这一数据强调了该平台已成为数百万人的事实上的心理健康资源,无论是出于设计还是偶然。
推出专门的健康功能,既带来机遇,也伴随风险。更多人可能会与 ChatGPT 分享敏感的医疗史、心理健康困扰和健康关切。公司的隔离协议和不用于训练的承诺提供了一些保障,但它们并未解决核心漏洞:如果有恶意行为者攻击平台,或在新公司领导下数据政策发生变化,会发生什么?
更广泛的隐私差距
Crawford 强调了结构性问题:“我们的法律把全部责任都放在消费者身上,让他们评估是否信任科技公司处理他们的健康数据。这是倒过来的。风险应由科技公司承担,而不是让个人承担。”
该功能将首先在欧盟和英国以外的部分 ChatGPT 用户中推出,未来几周将在网页和 iOS 平台上扩大。无论在哪个地区推出,关于健康数据、AI 平台以及现有法律框架是否足够的讨论都只会变得更加激烈。