今天我们要聊的是一个叫做 caveman 的 东西,它其实是通过一种非常简单的 system prompt, 对, 让 ai 的 回复变得更加简洁高效。不错, 这个话题最近特别火,那我们就直接开始吧。我们先来看看这个 caveman 它本身的这个项目,在开元社区,它到底是引发了什么样的反响。 caveman, 其实它在 github 上面的这个描述就只有一行,就是一个让 ai 闭嘴的 system prompt, 然后他三天的时间就获得了四千一百多个 star, 在 hack news 的 首页是七百三十五分。哇,这个增长速度真的有点吓人啊。 对,那这个东西它为什么会火呢?其实它的实现并不复杂,但是它背后解决的问题是很多人都遇到,但是没有被很好的解决过的,所以大家的反响才会这么激烈。明白了,那我们来聊一聊,就是这个 caveman, 它的原理到底是什么?它是怎么做到让 ai 回答的更加简洁的? 它的核心就是它会在你的这个提示词前面加上一行 return very short responses, no preamble, no self reference, no filler use plain text。 就 它会强制地让 ai 直接回答问题,不要说一些多余的话,就这么简单。对,就这一句话就可以改变 ai 的 这个回答方式吗?因为它并没有去改变模型本身,它也没有做任何的 fine tuning, 它只是通过这种 system prompt 的 方式让 ai 去掉了那些解释啊,铺垫啊,还有一些寒暄,直接给你答案,或者说没有答案就会告诉你,没有, 它就像一个原始人一样。嗯,就是非常的直接高效。对,所以 kiffman 它有三档不同的强度,那它分别适合用在什么样的场景下面呢? 它的第一档是默认的,就只是把那些多余的词语去掉,但是它还会保留一些结构,比如说标题啊,代码啊,它都还是会保留的,所以它还是很适合日常的使用的。 第二档是 strong caveman, 它就会更加的激进,它就只会给你最核心的那个答案,就其他的什么都没有了。 那第三档 extreme caveman 就 更加极端了,它的输出几乎就是最小化的,它就只适合那些自动化的任务,就机器去读的人看起来就会很费劲。哎,那这么说的话,这三档还挺灵活的。 对啊,这个设计确实很贴心啊。没错,它就是把简洁变成了一个可以随时去调整的一个参数。嗯, 所以不管你是在跟 ai 聊天,还是说你要跑一个脚本,你都可以找到一个最适合你的那个模式。那我们接下来要讲的就是实测的数据了。嗯,我也很好奇,就是用了 caveman 之后,到底在 token 的 节省上面和这个响应速度上面到底能有一个什么样的提升? 作者做了十个不同的任务的测试,然后发现 token 的 节省率是在百分之二十二到百分之八十七之间,平均下来有百分之六十五。 哦,那也就是说你同样的钱现在可以多问将近三倍的问题。那这个响应速度呢?用户在使用的过程当中会有明显的变化吗?有的,因为返回的内容变短了嘛,所以 api 的 响应速度也快了差不多三倍。对,这本来可能要等八秒的,现在两三秒就可以拿到结果了。 这个对于高频的请求来说,体验感的提升是非常明显的。明白了,那 cavemen 在 实际使用的时候,它有没有什么特别要注意的地方?它只是压缩了返回的 token, 它不会影响模型内部思考的 token。 就 如果你的模型是用 chain of thought 这种推理方式的话,它想的过程还是一样的,只是说出来的部分变少了。哦,原来只是输出变短了。对,那这个工具本身会不会占很多 token 呢?呃,它本身大概要占几十个 token, 所以如果你的任务本身就非常非常小的话,你省下来的 token 可能还没有它占的多。对对,所以就是任何工具都有它的适用范围。好的,然后我们就来看看这个学术上的一些支撑。嗯, 有哪些研究是可以证明让 ai 回答得更简洁,其实是不会降低回答质量的?最近有篇论文,它的编号是 a r x v 二四零一点零五六一八。 他做了一个实验,就是他把练式思考的长度减少了百分之四十九。然后他发现,除了数学推理的准确率下降了百分之二十七以外,其他的像解释啊,分析啊,规划这些任务几乎没有受到任何影响。看来在很多任务里面,简短的回答其实也够用了嘛。 而且更有意思的是,另一个论文编号是 a r c 二六零四点零零零二五。它发现在特定的场景下,给小模型加上一个简洁的约束,它的准确率可以提升百分之二十六,甚至可以让小模型反超大模型 就是少即是多,这个原则在 ai 里面也是非常非常有效的。那是不是所有的任务都能从这种简洁的约束当中获得同样的好处呢?不是的,就是解释类的任务,它的帮助是最大的,因为本来就很多废话嘛,你把废话去掉对内容没有什么影响, 但是像短的代码重构这种本身就已经很精讲了,你再去约束它其实也没有什么用好的。然后我们要讨论的内容是这个 caveman, 它的这个病毒式的传播,它是怎么做到在极短的时间内在开发者社区里面引发这么大的轰动的?它的作者是一个十九岁的荷兰的 ios 开发者, 他其实只花了十分钟就把这个东西写完了,然后他就发到了 gitup 上面,结果三天的时间就有超过四千一百个 star, 在 hack news 上面有七百三十五个 upload, 三百二十条评论, 评论区都炸了,大家都在讨论这个东西,这也太疯狂了吧。那大家对于这样一个简单的创新都有什么看法呢?很多人觉得终于有人把大家都想做但没人做的事情做了, 当然也有人说这算什么创新,不就是一行 prompt 吗?但是其实历史上有很多很伟大的东西,回过头来看也就是一个很简单的想法, 然后它的安装也超级简单,就一行命令, npx skills add julius proceed caveman 就 装好了。那我们最后来总结一下这个 caveman 项目给我们带来的关于 ai 工程和产品设计上面的一些核心的洞察,或者说一些启发。第一个就是 system prompt 其实是非常非常强大的, 就你可能只需要加一行命令就可以彻底地改变 ai 的 行为,你根本不用去动模型的参数,这个东西其实现在很多人都没有意识到它的潜力,对这个确实有点反直觉,对,就这么简单的一个东西居然可以产生这么大的影响。第二个呢就是开发者的痛点,其实就是创新的一个信号, 就大家都在抱怨说 ai 太啰嗦,但是只有他真正的动手写了一个东西去解决这个问题,所以有的时候你身边人的这些焦虑啊,这些吐槽啊,其实就是一个巨大的机会,所以说光抱怨不行啊,得有人跳出来做点什么没错。然后第三个就是透明带来信任, 就这个东西它的 system prompt 是 完全公开的,谁都可以看,谁都可以改,所以大家反而更愿意去用它,这是一个很重要的原则,就是在开源社区里面。还有最后一个就是简洁,应该是你一开始就要考虑的,而不是说等你东西都做完了之后再去删减。 就现在我们很多 ai 的 产品都在追求如何让 ai 说得更多,但是其实有的时候让 ai 说得更少,反而更有价值,确实是这样。 那今天我们聊的这个 cavemen, 它是如何通过最简单的方式让 ai 变得干脆利落,然后我们也聊了背后的一些原理和它可能会带来的一些影响。 ok, 那 这期节目咱们就到这里,然后感谢大家的收听,咱们下期再见吧,拜拜。拜拜。
粉丝180获赞1306


最近科索更新了三点零版本,用的真的不要太爽了,它有两个大的改动,一个叫做智能体窗口,简单来说呢,以前你要开好几个窗口, i、 d、 e, 终端、聊天面板互相切换很累,现在全合并了, 而且呢,可以同时跑 n 个代理,每个在不同的仓库里干活,互不干扰。工作模式发生了巨大的改变,开发者从编码者变成了任务的分配者和决策者。我们可以在查看点击命令面板输入 agent 的 window, 还可以把这个项目跳转到一个新的用户界面,这就是 ctrl 三点零的多 a 准的新界面。终端发生了大变,天呐,下面保留了简单的几个项目选项,文件编辑试图和帮助。 左边呢是我多个项目的工作区,你可以选择按时间、按状态或者按云端 pc 来进行排序,中间就是常规的 a 准聊天框。 同时这里也可以切换项目和终端运行,还可以连接 s, s, h, 这样呢,右边可以弹出项目的分支,可以打开 github 的 分支,浏览器和终端,还有文件的工作目录。点击文件,右边就是文件的内容,点 击这个 open edit window 啊,就会跳转到这个项目的编辑文件里面。我们可以在任意设备点击,打开这个网址,就会跳转到我们的云端 cursor 操作界面上, 我们可以选择自己的 get up 项目跟分支,也可以选择模型和使用 m c p。 如果完成了环境设置,还能解锁项目的测试。 因为看不到代码,我就问他现在代码开发到什么程度了,他告诉了我历史的提交和现在代码状态,并告诉了我下一步的目标。 接着我们就可以在这基础上继续开发了,实现了跨终端的开发效果,而不局限于坐在电脑前面。在云端的右上角,也可以通过 open in desktop 回到我们的 ctrl 编辑界面上, 而且呢,这两种界面能够并存,用户可以随时的来回切换。第二个改动叫做 design mode 设计模式。前端的同学啊,有福了, 你直接在浏览器里面标注 ui, ai 呢,就能看得懂你到底想要改什么。以前要截图告诉他改哪里改哪里,还要找对应的 ui 元素或名字,现在呢,直接把它画出来就行,大大的减少了沟通成本。我们可以打开自己创建的浏览器界面, 下面有个设计模式,比如点击这个按钮,直接修改文字,点击确认 就会看到这个对话框在修改了,这时候这个元素的名字就有变化了。很多人纠结到底用 coco 还是 coco 比较好?其实我个人认为这两者的产品定位完全不一样,两者可以结合起来一起使用。 coco 相较于 coco 呢,最大的核心优势在于啊,将 ai 深度集成到了你熟悉的 id 环境中,提供了可直观可控制的开发体验,有 design 多种符合流程的模式,对新手和习惯使用 vsco 的 开发者更友好。 我整理了一套科学的实战课程,小白也能听懂,主打少踩坑,把东西做出来,让你进化为了二零二六年的新物种。

明知道科室的 ai 很 强,却因为用惯了 ide 迟迟没有切换。别纠结了,今天教你三步设置,让你的科室变得和 ide 一 样好用。第一步,快捷键无缝衔接 从 ide 切换到科室,第一大难题可能就是快捷键。直接装这个插件,可以在科室里完美复刻 ide 快 捷键,熟悉的重构、跳转等全部回归肌肉记忆,完全不需要更改。 第二步,搞定 java 环境。 cursor 有 丰富的插件来支持 java 开发,装上 java 扩展包和 spring boot 等插件,像项目管理、 my 构建、运行 spring 的 服务等这些核心功能完全够用。 第三步,解决调试痛点。很多人吐槽 cursor 调试 java 不 如 idea 方便装这个插件。 平时用科室的 ai 狂写代码,遇到复杂 bug 一 键切回 idea, 写代码用 ai, 调 bug 用 idea, 这才是最高效的工作流。 最后,无论是用科室还是 idea, 核心都是帮我们更高效地写出高质量的代码。这种传统 idea 加现代 ai 技术的组合,是一个值得尝试的新选择。 我整理了一份科室复刻 idea 配置清单,放在了评论区。关注我,解锁更多实战技术干货,记得点赞关注哦!

hello, 大家好,欢迎收看阿翔聊 ai, 今天的视频价值人民币五十元。我们在使用 koser 的 时候,有一些模型是无法使用的,比如 cloud opus, 这个时候呢,它就会提示我们在当前的地区,我们的模型是无法使用的。这个问题我们应该如何解决呢?下面阿翔来告诉你, 我们点击刻字中的设置,然后在这里面搜索 http, 然后找到 http compatibility mode, 点击现在是 http。 二,我们设置为 http 一 点一, 然后我们关闭 cursor, 这个时候你要施展魔法,打开你的魔法,然后将你的魔法区域设置为阿美丽卡或者是别的区域,最好开启全军模式, 这个时候我们重新启动 cursor, 注意这里的模型是 opus。 四点五,我们来输入一个问题,就叫 啊,让它解释一下当前这个文件中所有的红星异是什么意思, 注意 http 一 点一会导致模型回复的速度减慢。好了,我们看到开始回复了,你学会了吗?

零零后马龙一个视频讲明白三个编程 agent 的 体感区别, caller, cloud code code x 天天有人吹,到底有啥不一样?听完你比大部分程序员还门清。 caller 是 个图形化界面的 ui, 呈现的感觉是个代码编辑器,核心是后面的 ai 随便切。 cloud gpt gemini 写不好再换一个体感就像你坐在旁边的同事,脑子还是能换的那种。 另外两个登录官方账户之后只能用他们公司自己的模型,都是命令行在黑框打字,用法完全不同。可 outcode 像一把瑞士军刀,你指一个问题,他推理一下直接切进去去修, 能接工具,能派小弟分头干活快种狠。但是对代码的整体情况没有那么明白。 codex 风格相反,一个需求或者 bug 说出去,他先把整个项目看完一遍再去下手, 所以体感非常慢,等三十来分钟很正常,但是经常一次性成功改的全面说人话。 coser 是 编辑器, ai 脑子随便切。 cologad code 是 瑞士军刀,指哪打哪。 code x 是 解剖刀,慢,但是一个没漏。下次聊聊这三个月费怎么买最便宜?评论区说说你最喜欢哪个?

