00:00 / 01:12
连播
清屏
智能
倍速
点赞2
00:00 / 00:53
连播
清屏
智能
倍速
点赞2
00:00 / 05:45
连播
清屏
智能
倍速
点赞30
00:00 / 03:28
连播
清屏
智能
倍速
点赞3
从官方Prompting教程中,我总结出三大条十小条技巧 1. 上下文工程:先让模型知道自己在哪 1.1 角色和场景必须显式声明,不能让模型猜。 Demo第一版只说"分析这个表单",模型直接把瑞典语车祸报告当成滑雪事故。不是模型蠢,是没给约束。经验法则:如果实习生看到你的prompt也会问"这到底是什么场景",那上下文就不够。 1.2 语气和置信度要主动控制。 明确告诉模型"不确定就别猜"。在保险理赔这种场景,模型编造一个结论比说"无法判断"危害大得多。 1.3 不变的领域知识塞进system prompt。 Demo中的表单有17个固定字段,每次调用都一样。提前告诉模型字段含义,省去每次重新理解的token消耗,还能用prompt caching降成本。判断标准:100次调用都不变的信息就该在system prompt里。 1.4 用XML标签分区组织信息。 把用户偏好、表单说明、任务指令用标签隔开,模型能精准理解每段内容的用途并回溯引用,比一大段自然语言清晰得多。 2. 推理引导:控制思考路径而不只是描述结果 2.1 指定分析顺序,先高确定性后低确定性。 Demo中要求先读结构化表单再看手绘草图,因为表单是确定性事实,草图是模糊信息。反过来会产生确认偏误。这个原则在所有多源信息场景通用。 2.2 让模型展示中间过程。 要求"逐一检查每个复选框"后,模型会列出每个框的状态。看似啰嗦,实际是你的debug日志——出了问题能精准定位是哪一步理解出错。 2.3 用few-shot示例教灰色地带。 规则处理黑白分明的情况,边界案例靠示例教。3-5个精选的带标注案例,效果往往超过多写500字规则。图片可以base64编码嵌入system prompt。 3. 输出控制:让结果可工程化 3.1 末尾重申关键约束。 长prompt中模型对开头和结尾记忆最强,中间容易被稀释。超过800字的prompt,关键规则在开头和结尾各写一遍。 3.2 用标签约束输出格式。 用<final_verdict>包裹结论,推理过程自由发挥。模型有空间充分思考,应用只需解析固定标签。 3.3 用Extended Thinking反向优化prompt。 查看模型的内部推理过程,把它自发做对的推理步骤显式写进系统提示词。 #claude #编程 #程序员 #prompt
00:00 / 24:46
连播
清屏
智能
倍速
点赞0
00:00 / 00:51
连播
清屏
智能
倍速
点赞3
00:00 / 01:41
连播
清屏
智能
倍速
点赞4
00:00 / 00:15
连播
清屏
智能
倍速
点赞43