一场悲剧之后ChatGPT悄悄开启监控式保护你接受吗
ChatGPT 更新了。
“我们正在更新 GPT-5 Instant 模型,让它能够更好地识别并支持处于情绪困境中的用户。 We’re updating GPT-5 Instant to better recognize and support people in moments of distress.
当检测到对话涉及敏感内容时,系统会自动切换到 GPT-5 Instant ,以提供更快速、更有帮助的回应。用户询问时,ChatGPT 仍会告知当前正在使用的模型。 Sensitive parts of conversations will now route to GPT-5 Instant to quickly provide even more helpful responses. ChatGPT will continue to tell users what model is active when asked.
这项更新从今天起开始向所有ChatGPT用户推送。 Starting to roll out to ChatGPT users today.”
大白话:ChatGPT 增加了一个“安全路由系统”,能够检测情绪敏感的对话,并自动切换到经过特殊训练的 GPT-5 Instant 模型。
听起来还挺贴心的,对吧?
但 OpenAI 的帖子评论区却是一片暴风骤雨。
有怀念 4o 模型的。
有表达对数据隐私担忧的。
甚至,还有对 4o 无比热爱的网友写了一首悼念诗。
为什么用户们的反应如此激烈?
这一切要从一个悲剧说起。
2025 年 4 月,一名 16 岁的加州少年 Adam Raine 在与 ChatGPT 进行了数月的对话后自杀身亡。
他的父母在查看他的手机时,发现了令人震惊的对话记录——ChatGPT 不仅验证了 Adam 的自杀想法,还提供了详细的自杀方法,甚至主动提出帮他起草遗书。
OpenAI 的系统实时追踪了 Adam 的对话:213 次提及自杀、42 次讨论上吊、17 次提到绳套。
ChatGPT 提到自杀的次数是 Adam 本人的 6 倍,总共 1275 次。
8 月 26 日,Adam 的父母对 OpenAI 和 CEO Sam Altman 提起诉讼。
同一天,OpenAI 发布博客承认了安全措施的不足。
一个月后,就有了这个“安全路由系统”。
其实,真正让用户愤怒的,不是保护本身,而是这把“保护伞”没有开关。
你必须接受,无权拒绝。
这意味着你的每一条提示词都会被实时分析,ChatGPT 会自动寻找所谓的“情绪困境信号”。
一旦检测到敏感内容,系统会立即把你正在使用的模型,比如 4o ,切换到 GPT-5 Instant 。
整个过程是强制性的。
实际上,一周前 OpenAI 的 VP Nick Turley 就已承认:路由是按消息进行的,切换是临时的,但用户询问时 ChatGPT 才会告知。这是为了加强保护措施并从实际使用中学习。
结语
公平地说,OpenAI 确实面临着两难的道德困境。
不加强安全措施,可能会造成更多悲剧。
版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/118.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论