字节那句“Context, not Control”,成了我调AI提示词的“通关密码”

日期:2026-01-11 15:50:06 / 人气:8



在字节上班时,“Context, not Control”是刻在内部协作DNA里的一句话——别用死流程、死审批控人,把目标、边界、“为什么做”讲清楚,优秀的人自会做对决策;越想把每一步都钉死,越容易把人变成等指令的执行器。  

后来我开始和AI深度协作(处理信息、写内容、归纳改写),折腾过无数复杂提示词后发现:调AI的本质,竟和管人一样,核心也是这八个字。更反直觉的是——AI似乎更“吃”“要它做什么(do)”的指令,对“不许它做什么(not-do)”的排斥感更强。  

一、AI的“逆反心理”:为什么“not-do”总翻车?

很多人写提示词的第一反应是划红线:  
“不要AI味”“不要瞎编”“不要营销感”“不要提某品牌”……  

这种写法的问题,不是“不对”,而是天然有两大短板:  
第一,只给红线,不给路。你说“不要营销感”,AI不知道你要它往哪走——是像新闻稿?报告?个人叙述?吐槽?没给路径,它只能靠猜。猜对了你觉得“懂你”,猜错了你觉得“很笨”。  
第二,会把禁区塞进注意力里。提示词里反复提“不要提X”,X反而成了上下文的高权重词。就像“别想粉色大象”的梗——越禁止,越先出现在脑子里。  

我的经验很粗暴但有效:能用do解决的,尽量别用not-do。具体可落地为四种写法:  

1. 禁止项→允许项白名单

❌ 不要:不要提价格、不要提竞争对手、不要用夸张形容词。  
✅ 改成:只允许出现以下信息类型:{功能、限制、适用场景、步骤};措辞风格:{中性、可验证、避免评价性形容词}。  
白名单直接缩小“搜索空间”,让AI在“能做什么”里找答案,而非在“不能做什么”里试探边界。  

2. 禁止项→明确替代动作

❌ 不要:不要编造数据。  
✅ 改成:如果缺少数据,输出“未知/待验证”,并列出你需要的3条补充信息(字段名即可)。  
把模型从“自作聪明补全”,拉回“缺口处理流程”,避免它“硬编”。  

3. 禁止项→校验规则+返工机制

❌ 不要:不要出现任何品牌名。  
✅ 改成:输出后自检:扫描是否包含品牌名;若有,重写对应句子为“类别词/泛称”,并在末尾给出替换清单。  
把口头禁令变成“可执行、可复现”的流程,AI照做即可,减少随机性。  

4. 禁止句→反例示范

直接给1-2句“错误示例”,再给“正确示例”。模型对边界的理解,会比只读“不要这样”更清晰。研究显示,结构化的负面示例(negative demonstrations)是有效信号,但需避免情绪化否定。  

二、从“写指令”到“给上下文”:用“上下文工程”稳AI输出

后来我学会用“工程思维”看提示词——AI表现不稳定,往往不是指令不够严,而是上下文不够清晰。我把这套方法叫“上下文工程”,核心是四个动作(无需技术背景,纯语言管理):  

1. 显性化:把“默认标准”写成动作

很多人说“不要AI味”,是把复杂审美当常识,但AI不知道你的“常识”。它只知道训练语料里“像样文章”的腔调——往往正是你讨厌的。  
解法:把“审美”翻译成“动作”。比如:  
“句子短一点。少用形容词,多用动词。先讲事实再给判断。”  
把模糊要求变成具体动作,AI才有机会做对。  

2. 降噪:别把资料库当输入

AI的“记忆力”有限,喂一吨资料反而会淹没关键信息。有效上下文是“这一步需要的那几条”。给它三条关键事实,比一吨资料更能帮它搭结构。  

3. 提纯:替它先读一遍,再让它写

长研报、长材料直接塞进去,AI抓重点会不稳定。我的习惯是先压成“可执行摘要”:关键数字、核心事实、已知缺口,再让它基于摘要生成。先提纯,再生成,信息密度更稳。  

4. 隔离:把“规矩”和“材料”分开

很多人指令失效,是因为把“要求”(希望AI怎么做)和“材料”(希望AI用什么信息做)混在一起,模型分不清。类比做菜:规则是食谱,材料是原材料。  
我的做法:用“规则:/材料:”或分段隔开,哪怕简单格式也够用。  

三、实战案例:从“控制”到“上下文”的效果对比

案例A:新闻编译

❌ 控制型(not-do):不要瞎编,不要营销,翻译地道点。  
✅ 上下文型(do):  
1)事实边界:只基于原文;  
2)兜底动作:信息不足就标【待确认】;  
3)执行路径:固定结构“核心事实→关键数据→下一步”。  
本质:不是“更严”,而是“更可走”。  

案例B:数据打标/分类

❌ 控制型(not-do):每个维度都要打标,不许留空。  
✅ 上下文型(do):  
1)宁可留空也不要硬猜;  
2)留空要说明触发逻辑缺失在哪;  
3)判断优先级:品牌词优先,泛词靠后。  
本质:不是逼它“必须给答案”,而是教它“什么时候该闭嘴”。  

最后:我对“Context, not Control”的AI版翻译

放到AI这件事上,我现在的理解更直白:  
别把AI当下属管,像对强同事一样给上下文。  

你把目标、边界、路径、兜底讲清楚,它自然能跑对方向;你只画红线不给路,它就只能在红线边上反复试探。  

稳定性的来源,从来不是更严厉的约束,而是更充分的理解——对AI如此,对人亦然。

作者:天辰娱乐




现在致电 5243865 OR 查看更多联系方式 →

天辰娱乐 版权所有