Claude用户注意别急着点接受Anthropic正在悄悄收集你的数据

所有 Claude 用户,请记住这个日期:9 月 28 日。

这不是 Claude 推出新模型或者新功能的日子,而是你是否愿意把自己的对话和代码贡献给 Anthropic 用于模型训练的最后期限。

8 月 28 日,Anthropic 正式更新了其面向消费者的《用户条款》和《隐私政策》。

小火箭shadowrocket

这次调整的影响范围很大:所有 Claude Free、Pro 和 Max 用户。

最关键的变动有两个:

你的聊天和代码数据,可以被用来训练模型了(前提是你点了“同意”);

数据保存时间从 30 天延长至最长 5 年(仅限“你同意”的那部分)。

Anthropic 说:

“我们希望借此提升 Claude 的能力,尤其是代码生成、分析推理、安全识别等方面。”

听起来很合理。

话外音其实是:我们真的很缺训练数据。

并且,实际操作上,那个提醒弹窗里的设计,太容易让人“误点击”了。

来看看这个弹窗长什么样。

小火箭shadowrocket

默认开启数据共享 + 5 年数据保留;

主按钮是一个大大的“Accept”,深色、够醒目,非常容易直接点击。

合起来,就是典型的“默认你同意”,不细看你还真以为只是个新版用户协议的提示。

不少外媒,如 The Verge 和 Tom’s Guide 已经点名批评这种设计是典型的“Dark Pattern”(暗黑交互)。

如果你是开发者、研究人员,或在 Claude 上有聊敏感话题的习惯,比如业务方案、代码逻辑、产品预测,建议你仔细查看这个弹窗的每个细节。

新用户应该是 100% 能在注册登录的时候看到这个提醒弹窗。

老用户,如果你还没看到这个弹窗,别急,Anthropic 表示将陆续推送通知,所有用户最晚需在 9 月 28 日前完成选择,否则将无法继续使用 Claude。

除了弹窗,Anthropic 同样也会发邮件提醒现有用户。

这里附上邮件的完整内容,有点长。

小火箭shadowrocket

Anthropic 这波更新,并非突发奇想。

两个背景:

1. 版权侵权官司刚刚和解

就在这次政策更新前不久,Anthropic 才刚刚与多位作家达成了著作权集体诉讼和解。

模型训练能不能用用户的内容,法律边界模糊,因此他们现在极度在意“获得用户主动授权”。

2. 推出了“预防性免疫”训练法

Anthropic 近期自曝:他们在搞一种“类疫苗式训练”,让模型接触轻度“有害人格”,提前学习识别恶意诱导。

听上去像是“让模型训练抗病毒体质”,但训练数据的来源,必须有一定自由度,才能覆盖足够多的场景。

所以,用户数据的引入,不只是“更聪明”,也关系着“更安全”。

这就是 Anthropic 这次政策调整的“逻辑基础”。

如果无意间点了同意,也不用担心,你可以随时在设置里关掉这个选项。

操作路径: Settings 设置 -> Privacy 隐私 -> Help improve Claude 开关,关掉它就行。

小火箭shadowrocket

划重点:关闭后,之前同意的数据将不再用于“未来训练”,但可能已进入现有模型中。

结语

AI 模型进步需要数据,这点没人否认。

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/149.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>