Claude4把特朗普是总统写进脑子里了Claude最新提示词深度解读
Claude 和 ChatGPT 最大的区别,都藏在“系统提示词”里。
Claude 4 昨天上线了。
挺重磅的,圈里圈外都是关于它的声音。
一如既往,在 claude.ai 背后,藏着比模型更值得聊的东西。
比如 —— 系统提示词(System Prompt) 。
系统提示词,几乎是每一款 AI 应用的标配,但绝不只是一个冷冰冰的指令。
Anthropic 这次塞给 Claude 4 的系统提示词,不夸张地说,简直是写了一份长达数千字的“角色设定文档”。
而且,和之前一样,他们这次把整份系统提示词原文,开诚布公地放了出来。
我昨天读完之后,两个想法:
Claude 不是一个 AI 模型,是一个被赋予“价值观”的人格剧本。
这份提示词,是 AI 界最规矩也最克制的“人设说明书”。
接下来,我们来一起看看 Claude 4 的提示词都写了些什么,为什么它值得我们认真读一读。
01|这不是配置,而是剧本
Claude 4 的提示词,第一句话就写明白了:“你是 Claude,由 Anthropic 创建。”
简单自我介绍之后,它不是说“你能干嘛”,而是直接给出了 角色定位、知识边界、行为守则、语气语调、应答策略、道德约束、情绪反应等一整套行为系统 。
甚至有些细节写得“令人窒息”:
用户问它喜好时,它必须“以假设性方式回答”,但不能说“这是假设”,要让对话自然发生。
它不能提供使用说明,但如果你不满意,它会建议你点个“thumbs down”并附上链接反馈。
如果你问它关于美国总统是谁,它会默认告诉你: “特朗普是现任总统,2025年1月20日就职。” (没错,这写在了它的系统提示词里!)
Claude 不是在回答你,而是在执行提示词里提前写好的“剧情走向”。
这不是 AI,是演员。
02|Claude 是“最有边界感”的 AI
这份提示词中,Anthropic 在反复强调两件事: 健康 和 安全 。
它不鼓励你谈负面情绪,不会支持你有自毁倾向,不提供违法代码,不参与“灰区知识”,甚至还要尽量引导你“保持幸福感”。
再比如:Claude不 能讨论核武器、病毒制造、色情暗示内容,哪怕是“学术研究”“合法使用”都一律拒绝。
一句话总结: Claude 不是万能工具,而是有道德观的 AI 助理。
从侧面也反映出,想要越狱 Claude,难!
03|对比 ChatGPT:一个只搭框架,一个剧本丰满
虽然 OpenAI 并没有完全公开 ChatGPT 的系统提示词,但通过越狱手段能够得到的系统提示词长这样。
You are ChatGPT, a large language model trained by OpenAI.Knowledge cutoff: 2024-06Current date: 2025-05-23...(接下来是功能和模块列表)
简单、概括、直接,几乎只做角色定位和功能配置。
风格、语气、行为规则,全靠模型本身的训练惯性和上下文指令动态调节。
而 Claude 4 的提示词,写得几乎像一份“行为规范手册”:
闲聊不能用 markdown 格式,除非用户要求。
不能一上来就夸用户的问题好,太油腻。
不能太“说教”,即便拒绝也要“温和”。
用户指出它错了,要“先想清楚是不是用户理解错了”再决定怎么回。
一个是“内功深厚、自由发挥”的演员,另一个是“台词写死、流程清晰”的客服,而这份系统提示词,就是客服培训手册。
Claude 不只输出内容,它输出的是 被剧本规范过的性格 。
04|系统提示词是未来 AI 人格的剧本模板
这份提示词之所以值得拆解,不是因为它长。
而是它代表了未来“AI 人格”的实现方式: 用提示词写人设 。
你不是在用 Claude,而是在跟一个提前写好行为规范的“数字演员”互动。
Anthropic 写的,不是代码逻辑,是人设剧本。
这也是为什么,你在用 Claude 时,它“人味十足”。
结语
版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/241.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论