字节那句“Context, not Control”,成了我调AI提示词的“通关密码”
日期:2026-01-11 15:50:06 / 人气:8

在字节上班时,“Context, not Control”是刻在内部协作DNA里的一句话——别用死流程、死审批控人,把目标、边界、“为什么做”讲清楚,优秀的人自会做对决策;越想把每一步都钉死,越容易把人变成等指令的执行器。
后来我开始和AI深度协作(处理信息、写内容、归纳改写),折腾过无数复杂提示词后发现:调AI的本质,竟和管人一样,核心也是这八个字。更反直觉的是——AI似乎更“吃”“要它做什么(do)”的指令,对“不许它做什么(not-do)”的排斥感更强。
一、AI的“逆反心理”:为什么“not-do”总翻车?
很多人写提示词的第一反应是划红线:
“不要AI味”“不要瞎编”“不要营销感”“不要提某品牌”……
这种写法的问题,不是“不对”,而是天然有两大短板:
第一,只给红线,不给路。你说“不要营销感”,AI不知道你要它往哪走——是像新闻稿?报告?个人叙述?吐槽?没给路径,它只能靠猜。猜对了你觉得“懂你”,猜错了你觉得“很笨”。
第二,会把禁区塞进注意力里。提示词里反复提“不要提X”,X反而成了上下文的高权重词。就像“别想粉色大象”的梗——越禁止,越先出现在脑子里。
我的经验很粗暴但有效:能用do解决的,尽量别用not-do。具体可落地为四种写法:
1. 禁止项→允许项白名单
❌ 不要:不要提价格、不要提竞争对手、不要用夸张形容词。
✅ 改成:只允许出现以下信息类型:{功能、限制、适用场景、步骤};措辞风格:{中性、可验证、避免评价性形容词}。
白名单直接缩小“搜索空间”,让AI在“能做什么”里找答案,而非在“不能做什么”里试探边界。
2. 禁止项→明确替代动作
❌ 不要:不要编造数据。
✅ 改成:如果缺少数据,输出“未知/待验证”,并列出你需要的3条补充信息(字段名即可)。
把模型从“自作聪明补全”,拉回“缺口处理流程”,避免它“硬编”。
3. 禁止项→校验规则+返工机制
❌ 不要:不要出现任何品牌名。
✅ 改成:输出后自检:扫描是否包含品牌名;若有,重写对应句子为“类别词/泛称”,并在末尾给出替换清单。
把口头禁令变成“可执行、可复现”的流程,AI照做即可,减少随机性。
4. 禁止句→反例示范
直接给1-2句“错误示例”,再给“正确示例”。模型对边界的理解,会比只读“不要这样”更清晰。研究显示,结构化的负面示例(negative demonstrations)是有效信号,但需避免情绪化否定。
二、从“写指令”到“给上下文”:用“上下文工程”稳AI输出
后来我学会用“工程思维”看提示词——AI表现不稳定,往往不是指令不够严,而是上下文不够清晰。我把这套方法叫“上下文工程”,核心是四个动作(无需技术背景,纯语言管理):
1. 显性化:把“默认标准”写成动作
很多人说“不要AI味”,是把复杂审美当常识,但AI不知道你的“常识”。它只知道训练语料里“像样文章”的腔调——往往正是你讨厌的。
解法:把“审美”翻译成“动作”。比如:
“句子短一点。少用形容词,多用动词。先讲事实再给判断。”
把模糊要求变成具体动作,AI才有机会做对。
2. 降噪:别把资料库当输入
AI的“记忆力”有限,喂一吨资料反而会淹没关键信息。有效上下文是“这一步需要的那几条”。给它三条关键事实,比一吨资料更能帮它搭结构。
3. 提纯:替它先读一遍,再让它写
长研报、长材料直接塞进去,AI抓重点会不稳定。我的习惯是先压成“可执行摘要”:关键数字、核心事实、已知缺口,再让它基于摘要生成。先提纯,再生成,信息密度更稳。
4. 隔离:把“规矩”和“材料”分开
很多人指令失效,是因为把“要求”(希望AI怎么做)和“材料”(希望AI用什么信息做)混在一起,模型分不清。类比做菜:规则是食谱,材料是原材料。
我的做法:用“规则:/材料:”或分段隔开,哪怕简单格式也够用。
三、实战案例:从“控制”到“上下文”的效果对比
案例A:新闻编译
❌ 控制型(not-do):不要瞎编,不要营销,翻译地道点。
✅ 上下文型(do):
1)事实边界:只基于原文;
2)兜底动作:信息不足就标【待确认】;
3)执行路径:固定结构“核心事实→关键数据→下一步”。
本质:不是“更严”,而是“更可走”。
案例B:数据打标/分类
❌ 控制型(not-do):每个维度都要打标,不许留空。
✅ 上下文型(do):
1)宁可留空也不要硬猜;
2)留空要说明触发逻辑缺失在哪;
3)判断优先级:品牌词优先,泛词靠后。
本质:不是逼它“必须给答案”,而是教它“什么时候该闭嘴”。
最后:我对“Context, not Control”的AI版翻译
放到AI这件事上,我现在的理解更直白:
别把AI当下属管,像对强同事一样给上下文。
你把目标、边界、路径、兜底讲清楚,它自然能跑对方向;你只画红线不给路,它就只能在红线边上反复试探。
稳定性的来源,从来不是更严厉的约束,而是更充分的理解——对AI如此,对人亦然。
作者:天辰娱乐
新闻资讯 News
- 女尊又开始流行了?藏在爽感背后...01-11
- AI跌落硬件重力井:2026年CES...01-11
- 吉利长城秀肌肉、英伟达放大招:...01-11
- 字节那句“Context, not Contr...01-11

