00:00 / 02:16
连播
清屏
智能
倍速
点赞35
00:00 / 00:39
连播
清屏
智能
倍速
点赞31
00:00 / 04:36
连播
清屏
智能
倍速
点赞110
如果你来设计投放Skills能力库,你会怎么做 场景:投放 Agent / 高风险自动化场景 一、先判断 目标不是更智能,第一版先降出错率。真正风险:乱调预算 / 乱碰规则 / 钱瞬间烧掉,不敢用 Agent ≠ 不够聪明,而是不可控 👉 面试官信号:你在从风险出发,而不是能力出发 二、整体设计原则 先稳地基,再谈智能;确定性优先;高风险场景 = failure-first;不从高阶策略入手 三、拆链路:三段式结构 1️⃣ 信息准备(只给事实,不给判断) Facts only;结构化沉到 Skills;预算 / 出价上下限 / 地域 / 人群限制;投放表现:稳定信号 + 异常点摘要;不给原始表,不给噪音;判断权留给 Agent 👉 面试官点:你知道怎么“喂信息”,而不是堆数据 2️⃣ 执行操作(收得最紧的一层) 越靠近钱,越不能自由发挥;所有花钱动作封进 Skills;固定模板 + 明确阈值;一次只允许改一个参数;禁止连续乱调;全量操作日志;可追溯 / 可回放 / 可追责 👉 面试官点:你知道什么地方必须“系统说了算” 3️⃣ 结果校验 & 兜底(安全网) 消耗异常;指标波动超阈值;品牌 / 平台红线;自动检测;自动回滚到上一个稳定状态;不允许无限“智能尝试”;试错有护栏 👉 面试官点:你不是指望模型自觉 四、明确“不做什么” 第一版不做完整投放策略生成;不做多目标复杂优化;不做黑盒式“为什么这么投”。原因:强经验依赖、难评估、难追责,留给后续演进 👉 面试官信号:你知道该“克制” 五、成功标准 Prompt 是否明显变简单;执行是否更稳定、可复现;出问题是否更容易定位;Skills 是否可被多个 Agent 复用;系统复杂度是否下降 高风险场景,先做可控,再谈智能。 #llm #大模型 #AI #互联网大厂 #面试题
00:00 / 03:27
连播
清屏
智能
倍速
点赞21
00:00 / 01:37
连播
清屏
智能
倍速
点赞54
00:00 / 01:00
连播
清屏
智能
倍速
点赞133
OpenAI前首席科学家一句话让AI回答质量翻倍 #OpenAI #AI #karpathy #提示词 #skills OpenAI 前首席科学家 Andrej Karpathy 发了一个推特 看到那一刻,我感觉我半年的探索都白费了 我用了这个办法,AI 回答质量翻倍 以前为标题卡壳的时候,我的办法是什么呢?写提示词 写了很长很长的提示词——什么数字要、情绪词要、对比要、反常识要,一大堆 输入进去,AI 出来一堆标题,选一个还不错的 但我现在的做法不一样了 我直接问:"最强大脑怎么写标题?" 差异是什么?长提示词能给我一堆还不错的选项 但这个问法,AI 会自动召唤咪蒙、召唤李教授——那些真正懂标题的人 质量反而比我写一大堆提示词出来的东西还更好 写代码的时候也一样 遇到问题,我现在不是问"怎样优化这个函数",而是问"最强大脑怎么处理这个代码问题" 效果?同样有效 有时候我遇到产品问题,说实话,我不知道怎么去思考 那我就问:"最强大脑怎么思考这个产品问题?" 结果非常好 AI 给出来的思路,完全不同于我自己能想到的东西 最有意思的是人生焦点问题 当我遇到一些问题,我想要去深度思考的时候,我现在不会再满足于我原来写的那些提示词了 我直接问:"最强大脑会怎么思考?" 结果呢?AI 自动召集一些我根本不知道的人,给出来的答案非常好 Karpathy 发的那个推特,核心意思是这样的: 不要把 LLM 当成一个有想法的实体,而是把它当成一个能模拟任何人的模拟器 LLM 本身没有'观点',但它能呈现出任何人的思维方式 当你问'你怎么看'的时候,你实际上是在触发 AI 的某种'平均观点' 但当你问'某个大师会怎么说'的时候,你就是在让 AI 模拟那个人的真实思维方式 一个是模糊的综合,一个是精准的深度 这就是我半年探索都没想明白的东西 长提示词做什么呢?它在限制 AI 的模拟能力 你给 AI 设定了一堆规则——必须包含数字、必须有反差、必须有情绪——然后 AI 按照你这些规则去综合,出来的东西就是在你的框架内的最优解 但"最强大脑"这个问法不一样 它没有限制,反而是在激发 AI 的模拟能力 它让 AI 直接呈现出那个领域最强的人会怎样思考、怎样处理这个问题 一个是"指导",一个是"模拟" 指导有上限,模拟没有上限
00:00 / 02:21
连播
清屏
智能
倍速
点赞6836