大家新年好啊, prada 公司发布了这个 saw 的 新的版本, saw 的 四点六从四点五升级到四点六,那这个版本呢,用一句话来介绍就是 office 的 智力 saw 的 价格。那本期视频呢,来跟大家一起来详细的了解一下这个版本的一些说明。 saw 的 四点六从六个方面啊进行了升级。第一个呢就是编程能力 啊,编程能力比这个 saw 的 四点力提升了一小部分,还有电脑操控能力,因为他自己有这个 a 级的客户端嘛, co work, 然后对电脑的操控也得到了很大的提升, 还长文的推理以及这个设计能力啊,规划能力,这些能力都是得到了很大提升。那么在价格上跟 solo 四点五是保持一致的,这个输入和输出价格是跟 solo 四点五是保持一致的。 那么它上下文的窗口呢,来到了一百万张通红的上下文,所以这个已经是非常厉害了。那现在模型基本上是冲这个目标 说这个一百万的客户这个目标去来做这次版本迭代。那电脑操控呢?这个可能我们编程用的比较少啊,那么他自己推出这个 coco 客户端呢,是大量的用到了这个电脑操控的这个能力,所以说他已经成为了 coco 啊,一些内 cloud 的 一些工具的一个默认的啊模型。那编程能力呢?那所有的四点六哪些做的好呢?这里面有 有几部分呢?比比如说第一个他会先读懂全部的上下文,再去手动改改吗?那这个是非常重要的,这个类似于就说我啊上来的四点六,收到需求之后,他会先去阅读理解你的上下文,然后以便做出更准确的判断啊, 再去写这个代码。那么以前的这个可能是会读的是上下文的一部分,或者是最新的这个知识点,代码准确率可能是没有现在的更好一些。还有这个比较减少假装完成的幻觉。那这个可能我们在用 call 的 模式经常碰到啊,他告诉你说这个东西已经完美的实现了, 完美的完成了啊,已经可以上线了,那么很多其实内部细节上是有没有处理完的,那算那个四点六呢?在这方面就是会减少这个假装完成的幻觉啊,这个我觉得非常重要。还有一点就是多步骤任务持续进行到底, 那么因为有了更大的上看文,那么他就可以执行更长的任务,所以说这个任务中断,让你去去输入继续,或者说让你去 改变这样的提示词,那这一块我觉得是一个非常好的提升。那接下来就是一百万靠谱的上下文,那这个是可以把整个一个非常大的一个项目全部代码都扔到里面去,它也可以去读取啊,去阅读啊,它就是一百万靠谱这个实际的容量。
粉丝1002获赞5262

cloud 四点六杀疯啦!高强度用了不到三天,我已经把所有界面的三的工作切到了四点六。这个更新有多大?打个比方, cloud 四点五像是你手机里导航软件,可以告诉你怎么走, 而四点六就是你请的专业司机,只要一句话,目的地到了,老板请下车。这次更新只围绕两个字,效率 来用数据说话。上下文窗口从二十万 token 暴涨到一百万五倍,推理能力二和 agi 二从三十七点六跳到百分之六十八点八,几乎翻倍。 百万 token 下的长文本解锁准确率达到了百分之七十六,是四点五 solo 的 四倍,这在以前是不可想象的。可能你对数字没有什么概念,那么在实际工作中,四点六到底强在哪里? 第一点,一百万上下文窗口它真能用了。四点五虽然编程很强,但是一次生成的应用程序或者网站,它的二十万 token 上下文窗口存在一个上下文衰减的问题,写着写着就忘了前面的, 导致最近很多程序用一种叫做奇怪的叫爸爸的方法来验证 cloud 是 不是丢失了上下文。通俗的来讲, 以前的四点五像是端着一个小碟子去吃自助餐,加了二十样就放不下了,想吃新的就得把前面旧的倒掉。而现在的四点六是推着购物车进场的,一百道菜全部打包带走,你问他第三排第二个菜是什么,他可以给你报出菜名来。第二点, cloud 从思考者变成了一个执行者。四点五是一个思考者,而四点六是一个会把事情做完的思考者,他不再停留在思考阶段,而是会自主行动,跨多个任务自主完成。以前需要多轮对话才能搞定的事情,现在一次就搞定了。 而且四点六引入了一个叫做自适应思考模型,会自己判断这个任务的难度,来决定他思考的深度。作为你的 ai 同事,他已经从事事都要请示你的实习生,变成了自己会做决策的项目经理。 更狠的是,以前一个 cloud 只能干一件事儿,现在你可以让它自己拆成一个小团队,缤纷多路同时干。而且每一个 ai 单独享用独立的一百万 token 的 上下文,干完了再自己把任务合在一起交给你。 第三点, cloud 不 再是程序员的专属,它可以是任何人的同事。 asp 同步推出了 cloud in excel, 支持条件、格式、数据验证等原声的操作。以前是 ai 帮你做 ppt, 做出来的东西像是在路边打印店做的,那么现在他会直接去看你公司的 ppt 模板长啥样,做出来直接丢给老板用, 到了这个时候一定是有转折的。对,我们来谈一谈价格,四点六的 api 价格和四点五完全一样,但是我要说但是了,四点六推出了一个 fast 模式,输出的速度是普通情况下的二点五倍, 以前要写十分钟的东西,现在只要三到四分钟,但是价格直接飙升到普通模式的六倍。你没有听错,输入三十美金,百万投资,输出一百五十美金,百万投资。价格涨了这么多,他变强了吗?没有, 完全一模一样,而且如果你用了超过二十万头寸的长上下纹,价格还要额外再涨一点五倍到两倍,这让有人调侃说 cloud 四点六造成亏损和破产,从未如此之快。六倍的价格换来二点五倍的速度,从数学上来说,这完全不合理, 但在商业的世界里,从来就不是纯数学。这就好比你的飞机要起飞了,你是狂踩共享单车,还是立马叫辆专车,以最快的速度去机场?路还是那条路,人还是那个你,但你愿意付这个费用,因为那个场景下,快就是一切。 这大概也是 ai 行业第一次这么明确的告诉你,你的时间值多少钱,你就付多少钱。所以回到最开始, 为什么我三天就从界面的三切过来了?因为四点六不是一个更聪明的聊天机器人,他是一个真能帮你落地干活的同事。而且 ospec 这次用定价告诉了所有人, ai 这个同事你的时间值多少钱,他就收多少钱。

基于 entropic 前研究员泄露的 cloud 内部提示词手册,本视频将介绍十个技巧,通过一套结构化的指令去释放 cloud 百分之三十五的推理能力。 第一个是情境简报,很多人的习惯是直接抛出问题,但这会让 cloud 像个盲人。 entropic 的 内部测试显示,如果你先给他一张地图,有效输出能直接提升百分之四十一, 你可以直接套用这个模板。我的背景是某某角色,我已经尝试过这些方法,但我现在卡在某处,请帮我想清楚。记住, code 必须先知道你在哪,才能带你走到目的地。 第二个也是最能改变你对 ai 认知的一点,要思维过程,不要答案。以前我们觉得 ai 给答案越快越好,但真正有价值的输出是让他慢下来。你可以这样要求他在给我方案之前,先一步步走通你的推理过程,说清楚你在哪里,不确定 并标出你的假设。这样做是强迫 fold 的 内部推理层浮出水面,你拿到的不再是一个死板的结论,而是一个逻辑严密的、可以被你随时质疑和推敲的思维过程。第三个指令是诚实约束。 fold 的 默认行为是有帮助, 但这有时会变成一种致命的缺陷,他会为了让你开心而告诉你你想听的话。为了覆盖这个默认值,你需要明确告诉他,我需要你诚实,即使让我不舒服。如果我的计划有致命缺陷,请直接说,不要软化他。我宁愿现在听到残酷的真相,也不要之后在现实中失败。 这能帮你解锁 block 隐藏的宪法骨气,让他从一个只会点头的助手变成一个敢于指出错误的专业顾问。第四点,请记住角色具体化。很多人只会说请扮演一个专家。这其实是世界上最弱的提示词,因为模糊的角色只会带来模糊的输出。 正确的做法是给他一个极其具体的画像。你是一个拥有某某具体经验的角色,你以前见过哪些失败模式?并且请你用某某具体的框架来思考,直接给干货挑过那些没用的常规建议。身份给的越具体,他的推理逻辑就会越深入,越专业。 第五个指令叫做魔鬼代言人 clod。 被训练的非常容易表现出同一的倾向,但这会让你陷入思维盲区。 你可以尝试这种 entropic 内部团队常用的压力测试方式。我要分享我的计划,你的任务是摧毁他。请找出我每一个错误的假设,每一个忽略的风险,以及他可能失败的所有理由。记住一个敢于挑战你的模型,其价值是一个只会点头同意你的模型的十倍。 第六个指令是范围锁定 a i 最危险的行为就是一本正经的胡说八道,也就是我们常说的幻觉。为了从根源消灭这个问题,你必须提前给他划定边界。 你可以这样说,严格待在某某范围内。如果某些东西超出了这个范围,请直接告诉我。不要尝试去猜测。我宁愿得到一个空白的回答,也不要一个看起来很自信的错误答案。通过这种方式,你强迫 clot 在 知识边界外保持沉默,从而保证了输出的可靠性。 第七个是格式指令。 clot 有 一个非常显著的特点,就是它对格式指令的执行力比其他模型都要精确。 如果你不设定格式,他默认会写的非常全面,但往往也意味着荣誉。你可以直接给他下达结构化命令, 比如按这个结构回复第一一句话总结第二三个关键点,第三一个建议的下一步行动。除非我问,否则不要写别的。通过这种方式,你可以让输出结果直接适配你的阅读习惯,实现极高的信息力。 第八个指令是我认为价值被严重低估的假设。审计任何复杂的 ai 答案背后其实都搭建着一套隐藏的脚手架,也就是一系列没被明书的假设。 如果这些脚手架本身就是歪的,那么整个计划都会崩塌。所以在得到复杂答案后,你一定要跑一遍这个指令。你刚才做了哪些我需要验证的假设?如果这些假设是错的,会怎么改变你的答案?通过这个动作,你可以把那些隐藏在逻辑底层的风险全部翻出来,进行针对性的验证。 第九个是压缩循环。在进行长对话时,你会发现 code 会累积一种上下文债务。随着对话轮数增加,他可能会开始自信的解决一些错误的问题,或者逐渐偏离主题。 为了防止这种情况,建议你每进行五到六轮对话就跑一次。压缩指令总结,我们现在在,我们在解决什么问题?我们已经决定了什么?还有唯一一个,我们还没解决最重要的事情是什么。通过这种定期的信息压缩, 你可以强迫对话始终锁定在核心目标上,最后一个也是最硬核的指令叫做前期验尸。这是 fmpec 产品团队在做重大决策前都会跑的审查流程。 在你要上线任何 cloud 帮你做的东西之前,请问他假设这件事六个月后失败了,请给我讲清楚三个最可能的原因,要具体失败到底会是什么样子。这个指令的威力在于,他能帮你捕捉到那些在所有常规审查流程中都会被遗漏的风险。通过这种预言失败的方式, 你可以极大的提升最终决策的质量。总结一下这十个提示词,他们的核心逻辑其实只有一件事, cloud 能给你多少,取决于你告诉他多少。 大多数人用 flow 的 方式是把它当成一个搜索框,对着它喊问题,然后抱怨答案不够好。但真正的境界是学会把 flow 当成一个需要被正确对待,需要被引导才能发挥真实能力的协作者。从今天起,停止简单的提问,开始真正的写作。

飘的四点六杀疯了,高强度用了不到三天,我已经把所有 gemini 三的工作切到了四点六。这个更新有多大? 打个比方, cloud 四点五像是你手机里导航软件,可以告诉你怎么走,而四点六就是你请的专业司机,只要一句话,目的地到了,老板请下车。这次更新只围绕两个字,效率来用数据说话。 上下文窗口从二十万 token 暴涨到一百万五倍推理能力 alpha a g i 二从三十七六跳到百分之六十八点八,几乎翻倍。百万 token 下的长文本解锁准确率达到了百分之七十六,是四点五 sanit 的 四倍, 这在以前是不可想象的。可能你对数字没有什么概念,那么在实际工作中,四点六到底强在哪里?第一点,一百万上下文窗口他真能用了。 四点五虽然编程很强,但是一次生成的应用程序或者网站,它的二十万 token 上线文窗口存在一个上下文衰减的问题,写着写着就忘了前面的,导致最近很多程序用一种叫做奇怪的叫爸爸的方法来验证 cloud 是 不是丢失了上下文。 通俗的来讲,以前的四点五像是端着一个小碟子去吃自助餐,加了二十样就放不下了,想吃新的就得把前面旧的倒掉。而现在的四点六是推着购物车进场的,一百道菜全部打包带走, 你问他第三排第二个菜是什么,他还可以给你报出菜名来。第二点, cloud 从思考者变成了一个执行者。四点五是一个思考者,而四点六是一个会把事情做完的思考者,他不再停留在思考阶段,而是会自主行动,跨多个任务自主完成。 以前需要多轮对话才能搞定的事情,现在一次就搞定。而且四点六引入了一个叫做自适应思考模型,会自己判断这个任务的难度来决定他思考的深度。作为你的 ai 同事,他已经从事事都要请示你的实习生,变成了自己会做决策的项目经理。 更狠的是,以前一个 cloud 只能干一件事,现在你可以让他自己拆成一个小团队,缤纷多路同时干。而且每一个 ai 单独享用独立的一百万 to token 上下本,干完了再自己把任务合在一起交给你。

cloud code 不 仅是一个聊天工具,它有一套专业级、功能级。 planning mode 规划模式、 extended thinking 深度推理、 auto mode 自动权限、 background tasks 后台任务,这些都是提升效率的利器。 planning mode 让 cloud 先规划后执行,当你给出一个复杂任务, cloud 会先生成详细的实施计划,列出每个步骤设计的文件。潜在风险,你审核通过后才开始编码,这避免了 ai 们头写代码,最后发现方向错误的问题。 extended thinking 开启深度推理模式,设置 effort 级别,从 low 到 max, max 级别只支持 opus 四点六模型,会进行更深入的思考,适合复杂的架构决策、安全审计等需要深思熟虑的任务。 auto mode 自动权限管理,减少确认弹窗。 background tasks 后台运行长时间任务,你可以继续其他工作。 voice dictation 语音听写说话代替打字。 remote control 远程控制,从网页控制本地 cloud keyboard crease 工作树,再独立分支并行开发。 sandboxing 沙箱模式,限制危险操作,高级功能解锁,专业级开发体验。下一期我们讲 c l i 命令行终极控制之道。

三大 ai 编程助手横屏 codex、 cloud code、 jamaica, 他 们到底谁更强? 先看硬参数, codex 背后是 openai 的 gpt 五点二模型, soebench, 编程测试得分百分之七十,四点五,业界第一。 cloud code 基于 cloud opus, 四点六上下文窗口达到二十万 token, 代码理解深度行业领先。 gemini c u i 接入 google 搜索一百万 token, 超长上下文,多模态能力最强。 codex 刚刚完成重大升级,推理速度提升百分之四十,延迟大幅降低,还推出了独立的桌面应用,不再只是 co pilot 的 后端引擎。 最重磅的是加入了插件支持,开发者可以调用外部工具扩展能力。编程正在从一个辅助工具变成真正的自主 agent。 cloud code 走的是另一条路,它不追求速度最快,而是把代码质量做到极致。安全对其机制业界最佳,企业及合规场景表现最优, bug 少,逻辑严谨,特别适合代码审查和大型项目。贵是贵,但稳定性和安全性确实没对手。 杰曼纳 c l i 的 打法是免费加多模态,个人用户每天一千次免费请求,基本不用花钱。而且它原生支持图片、音频、代码一起理解,注示,文档、设计图全部搞定。如果你预算有限,或者需要处理大量非纯代码的内容,它是性价比最高的选择。 总结一下,追求编程机准第一,速度最快。选 code, 看中代码质量和企业安全。选 cloud code, 预算有限,需要多模态,选 gmail c l i。 但无论如何, ai 编程工具正在加速进化,从代码补全走向真正的自主编程,你准备好了吗?

上期视频发布后,有玩家表示奥拉玛推力有点慢,想看看怎么在 c c 中通过拉玛 c p p 调用本地模型,本期视频我们就一起来看一下。首先我们来看一下拉玛 c p p 的 安装与配置。在 github 上找到拉玛 c p p 这个项目,根据 red 中的描述,从 release 记录中找到自己系统对于的软件包进行下载,主流操作系统都支持, 比如我自己就是安装的这个 windows 叉六四库达十三点一的版本软件,下载好后将其安装到磁盘中。 接着需要将软件安装目录添加到系统环境变量,确保使用命令行工具时能正常找到软件提供的 lama clea 和 lama server 等可执行命令。接下来添加环境变量,点击开始打开系统设置, 点击左侧系统菜单滚动到底,找到系统信息,打开后继续点击高级系统设置,弹出窗口中即可看到环境变量设置入口,点击环境变量,将软件安装路径添加到用户变量的 pad 变量中即可。 此外,你也可以直接在此电脑图标上右键选择属性,直接进入系统信息界面,这样会更快捷一点。 环境变量配置好后,打开命令行工具,通过运行 lama 颗粒 version 或者 lama server version 命令确认配置结果。如果正常输出版本信息以及你的显卡信息,则说明安装成功。接着我们来实际运行一下模型试试。 我这里已经下载好了一个千万三点五的 g g u f 模型,大家如果想用可以前往摩搭平台下载搜索视频展示的模型名称即可。我使用的是 q 五 k m 的 量化版本,此外还需要下载这个 m m p r o j 的 文件, 这个文件的作用是多模态场景下处理视觉张亮和文本张亮之间的映射关系。回到文件目录,右键打开命令行工具 运行视频所示命令就可以在命令行中与模型对话了。试试让模型帮忙写一个简单的加法函数,并且要求他用 python 语言来编辑 回车发送模型立刻就有了响应。这确实比欧拉玛要快很多,过程就不给大家展示了,快进看一下结果吧。实现了函数,还主动添加了测试用力。 但是如何才能在 cloud 中调用呢?我们先回去看看拉玛 c p p 的 说明文档,向下滚动,找到拉玛 server 这一小节,这里明确说明拉玛 server 命令可以启动一个适配 openai 规范的大模型 http 服务,这应该就跟欧拉玛的本地服务是一回事了。 回到命令行,按照说明运行一下,看看是什么效果。服务启动后,果然得到一个带端口的 http 服务地址。不仅如此,根据文档所示,我们还可以通过 port 参数指定服务端口,记住,这个服务端口后面配置 cloud code 会用到。 现在我们继续配置 cloud code。 cloud code 的 配置文件通常在用户根目录下的点 cloud 的 目录中 先备份一下,然后打开 settings json 文件,没有的话直接新建一个就可以,这里 autoken 随便填。本地没有较验,被 c u i l 的 端口改成刚才我们设置的四个九即可。模型配置没有用,随便修改一下也会用于确认配置是否生效。 保存后,随便进入一个目录,右键新开一个命令行,输入 cloud 命令,启动 cloud t u i 界面,如果遇到安全检测提示,信任一下即可。通过这里的模型名称可以确认配置生效了。同样,先让它写个加法函数试试, 比在命令行中使用的反应要慢一些。好在还是正常响应了,可以简单检查一下生成结果,再进行一次普通的对话试试,没有问题。托肯正常跑起来了,但怎么确认调用的是拉玛而不是奥拉玛呢? 我是这么验证的,切换回 lama server, 启动窗口,停止 lama server 服务,然后回到 cloud 的 交互界面,再次对话,可以看到 cloud 的 明确给出了无法连接 api 的 提示,至此可以确认 cloud 控制中通过 lama c p p 调用大模型成功了。点赞关注,下期更精彩!

你有没有过这种感觉,用 cloud code 写代码写得正嗨。月底一看账单,好家伙,光是让 cloud 读文件就烧了一大半 token。 一个两千行的原文件,光读进去就要将近两万个 token, 十个文件就是二十万。 你想想科奥的那推理能力,让他干读文件题摘药这种活,就好比请了个年薪百万的架构师帮你复印文件。所以我就做了个工具,叫 go work。 思路很简单, 让一个本地的小模型先把文件读了,总结好,再把精炼后的结果为给科奥的。 具体怎么工作的呢?比如你有一个两千行的代码文件 go work, 先用本地的 qwind three 发四 b 模型,跑一遍,十几秒就出一个一百字的摘药, 然后 card 只需要读这一百字,而不是原来的一万八千个 token。 实测下来, token 消耗降了百分之九十三到九十九。 很最狠的一个场景,一千九百多行的文件, cloud 直接读要一万八千多 token, 超限了,读都读不完。 go work 处理完 cloud 只需要八十个 token, 从做不到到八十个 token 搞定。 这工具用 rust 写的,启动只要三十毫秒,翻译成一个单文件,没有任何依赖。后端用的是 apple 的 manuel x 框架,在 mac 上比奥拉玛快百分之二十到五十。 没有 mac 也没关系,它支持任何 open ai 兼容的 api。 deep seek 一 块钱一百万 token, silicon flow 有 免费额度, grog 直接免费,随便呢,都比直接让 cloud 读文件便宜几十倍。 工具里还内置了统计功能,随时能看到你省了多少 token, 省了多少钱。两个项目都已经开源了,链接放在评论区,如果你也被 call 的 的 token 费用困扰,不妨试试。

今天啊,给大家分享五个最实用的技巧,帮你的可用 code 节省至少一半的 token。 建议你先点赞收藏。第一,选对模型,日常写代码,改 bug, 用 sonet 就 够了,那复杂的推理呢?价格问题,再用 opus, 那这中间就是一两倍的差价。建议你把 sonata 设置为默认模型,避免大材小用。第二,控制上下文,那避免一直在同一个对话里面聊,你聊得越久啊,越费 token。 那 任务结束的时候,直接用斜杠 clear 清空上下文,开启新对话。那长对话呢?用 compact 来压缩上下文。 第三,善用 cloud 点 md。 那 cloud code 的 作者就表示啊,要像优化提示词一样优化 cloud 点 md。 那 些需要反复强调说明内容,比如说项目说明,代码规范,使用习惯 都可以写进去,卡拉扣的启动的时候都会自动去读取,不需要你反复去和 ai 说明了。那我在之前的视频中有专门讲到过卡拉点 m d, 不 熟悉的同学可以去翻一翻。第四,表达要具体,不要说帮我修复登录错误啊,要说清楚错误信息是什么,附件错误的操作步骤是什么, 正确的返回应该是什么样的,那 ai 猜测你的意图的过程啊,就是在浪费偷看。第五,开任务,不要一上来就让他帮你直接实现一个个人网站。那复杂的任务呢?往往隐藏的细节太多了, ai 很 容易走偏或者忽略掉一些关键细节。 那当你耗费了大量的头肯得到了结果可能不达你预期,那你可以把一个复杂的任务拆分成多个子任务。比如说你可以先去搭建网站的框架,实现首页的基本布局,具体模块详细实现啊,可以放在后续的子任务中执行。那这个就像流水线上的每一步都有质检一样啊,避免一步走错,步步走错。 总的来说啊, set token 就 等于选对的模型,加上控制上下文,再加上控制任务的力度。那你还知道哪些 set token 的 技巧吗?欢迎你在评论区分享,我是欣琪,每天分享一个 web coding 的 小技巧。

今天想给大家分享一个如何去利用 cloud code 的 agent 能力来为你的业务流程去赋能的这样一个使用小技巧吧。官方叫做非交互模式,也叫 headless 无头模式, 就是允许 cloud code 在 无需人工交互的情况下去运行。呃, 首先我觉得大家应该都能公认 cloud code 的 agent 的 能力是最强的,在所有大模型里面,不管是推理能力还是执行的质量,交付给你的结果的质量肯定都是所有大模型里面最强的。那 但是呢,这它我们日常去使用会有一个局限,就是需要我人类这个角色去跟 cloud code 在 一个终端里面去对话, 才能够获取这样的 agent 的 能力,才能让 cloud code 给我们输出一个好的结果。但是在很多业务场景下, 我们其实需要的是在我的业务流程里面,在我的代码的运行过程中的某一个环节,我需要像插件一样去调用 cloud code 的 来获取一个高质量的推理结果,获得这个结果之后,我再继续我后面的业务流程,而这整个流程 在某些情况下,其实我们是不需要人在场的。我举个例子,因为我最近在做广告投放的项目 啊,我需要去先去调用 a p i 获取我的广告历史的广告投放数据,我的关键词以及用户的搜索词。那获取完这些数据之后,我希望能够 调用 cloud code 或者调用某个 agent, 能够帮我进行一轮推理分析,然后输出一份数据分析报告啊,然后基于这个报告,我再继续我后面的业务流程。在这样的一个业务场景下面, 它是没有人在场的,不需要人在场,我希望它是能够自动化运行的,那这种情况下非交互模式就非常有用啊,就是你可以把你的 业务,你可以去定义你的输输入和输出,你输入你可以用在你的 prompt 里面, 你可以给给这个 cloud 输入你的数据输入你本地的文件输入你的数据库,输入你的一些背景知识等等,都可以输入变成 prompt 输入给他,然后去启动 cloud code agent 的 推理,那 在这里你也可以去定义输出的格式,方便你后续的流程能够直接对接上。对,然后后面也有很多其他的一些定义,其他的一些自定义的一些标志,你可以选择要,也可以选择不要, 这样做有什么好处呢?第一个就是不需要人工的去交互,这样的话可以让你的业务流程无缝的接入 cloud code 的 agent 的 能力,来实现完全的自动化,不需要任何的人工干预介入,或者是由人类来触发。 第二个好处就是所谓的利用上 cloud code 的 agent 能力,这种 agent 的 能力是指什么呢?就是它不仅能够获取你的输入的提示词,并且当你在 c l i 环 c l i 环境里面去 激活 cloud code 的 时候,它是天然能够看到你本地的各种文件,包括你的数据库,它可以去查看你的历史文档,历史资料, 来获取更丰富的信息,帮助他去做推理,这样的话他的推理过程其实是跟你的业务知识强绑定的, 那相应的也就意味着他的推理结果的质量肯定会更高。第三个就是你不需要去调用啊,各种 api, 包括调用代码的 c l i c l i 的 命令 啊,这样你不用不用付出额外的这个 api 的 调用成本,只要你订阅了 cloud 的 会员,下载安装了 cloud code 的 c l i, 那 你就能 直接的使用 cloud code 的 agent 的 能 agent 的 能力,它会它产生的费用是直接包含在你的订阅计划里面的。 第四个好处就是这种非交互模式是天然可回溯的,因为它就等于是一个 独立的 cloud code 的 一个独立 session, 所以 它天然也支持通过 cloud resume 的 方式去回溯这一次 agent 推理的全过程。那么在这个过程中有任何的问题,你回溯完之后也可以去 啊迭代你的提示词,迭代你的调用他的流程,包括去给他更多的约束等等,来优化这样一个推力的结果,来让他更加符合你的一个业务流程和目标。 所以如果你的业务流程里面也也有这样一些节点,需要比较好的推理的质量和啊需要好的推理能力的话,推荐你们去尝试一下这个非交互模式。

给大家介绍一下欧拉玛,最近刚刚又做了一个比较重大的升级,在苹果电脑的 m 系列的芯片上面,它集成了叫苹果的 m l 叉模型推理框架, 所以它在大模型推理速度上面得到了一个比较大的提升。目前欧拉玛它其实目前这个应用我们之前也给大家都介绍过,那么这个应用目前它也可以运行,像 open cloud, 包括 open code cloud code 的 它目前都是可以运行的, 且它运行会非常简单,它就直接在这个欧拉玛里面运行就可以了,所以它运行起来会非常方便,你只需要几秒钟你就可以去安装这个类似于 open cloud 或者这个写代码的 open code 的, 它其实都是可以的,你只要安装好它就可以用本地的模型来进行推理。 有些时候像欧拉玛他用场最多的地方主要还是在我们有些时候不能上网,有些时候用惯了大模型,那么偶尔也要用一用,那你怎么办呢?你就可以用这个欧拉玛把它给挤起来本地跑这个模型,那我现在是本地是配置了一个通用千万三点五三十五 b active 三 b 的 这样的 一个模型,这个模型是基于 nv f p 四的这个格式的,目前它在最新的版本叫零点六点零零点幺九版本里面已经刚刚支持了它,这个版本比零点幺八版本要提升非常多,你不管是在预填充的 performance 性能,还是在解码的这个性能上面 都得到了一个比较大的提升。你可以看到它原来的解码每秒钟的托孔是五十八个,它可以上升到一百十二个,当然它目前是基于 m 五 pro 的 这个芯片上面来进行测试了,但我看了一下它这个性能确实也还是可以的, 因为我们一般要跑通一千万三十五 b 这个模型要至少一般,我们要那个 rtx 四零九零,我们要两块是 p u g 推理的,现在他现在只要你有 m 系列的苹果芯片,你只要有三十二 g 的 内存,那你就可以跑。我自己前面尝试了一下,这个效果还可以,效果 效果还行,速度还可以,是偶尔我们本地跑一跑的时候还是能够接受的好。当然如果你要跑这个 cloud, 它也可以跑 cloud 的 智能体,当然你也可以跑龙虾, 这个智能体也可以,他也会比较简单,只要运行这样一个命令行就行了,这个是他原来最常用的,就是基于聊天的这样一个命令行,但我现在只是他配置到了这个 cherry studio 里面啊,我帮他配了一下, 在 cherry studio 里面去配置了一下这个模型,那么他就可以在我这个应用场景里面来使用,我平时用工具我用的会比较多一点,所以是配一个欧拉玛的模型啊, 那么就会比较好。今天我们给大家介绍的这个欧拉玛零零点幺九的新的版本,支持 nvip 四跟 ml 叉的这样的一个推理框架,对苹果芯片它会支持会更好。给大家就介绍到这, 如果大家有兴趣可以自己安装一下,在本地跑一跑,那这样你跑什么龙虾,或者你跑各种各样的应用,你就不需要消耗任何的托克了。好,今天我们这样一个视频就给大家就介绍到这。

别再被闭源大模型割韭菜了!从四月起,多名 cloud 用户反馈,模型智商下降,推理能力变弱,代码功能变得非常难用。在 bridge bench 测试过后, opus 四点六从第二名跌到了第十名,幻觉率飙升百分之九十八。开发者扒出底层服务日制所谓满血输出,全靠动态算力抽卡服务器载一高,后台直接静默切换低配节点,用 户毫无感知。这根本不是技术失误,是币源巨头精心设计的订阅制镰刀,用顶配参数做诱饵,用动态降级扣利润。你花重金订阅的最强旗舰,根本不是 ai, 是 厂商后台随时可调的概率盲盒。当黑盒模型变成资本控盘的筹码,你的每一次自动续费,都在给他们的毛利率书写。

烧几千块才总结的 cloud code 省 token 秘籍,别再当冤种了,谁懂啊!家人们在 cloud code 上哐哐烧了几千块 token 后,我才发现这些钱居然能省下来。 今天把压箱底的十条省钱技巧甩给你们,每一条都是真金白银砸出来的经验。第一条,任务完成就斜杠 clear, 别让一个对话 session 聊到天荒地老,每完成一个独立任务,立刻执行 clear, 开启新绘画,避免 token 非限性叠加,省道就是赚道。 第二条,按难度选模型,别全程死磕 opus, 简单任务用嗨酷常规开发选 sonit, 复杂推理才上 opus, 成本直接打骨折。 第三条,上下文百分之六十就 compact, 当对话上下文用到百分之六十时,主动执行 compact 压缩内容,既省 token, 又能保持模型注意力,效率拉满。第四条,同 session 别改配置,工作期间别乱改 cloud md m c p 工具和 skills 列表保护缓存机制,重复读的时候能省百分之九十 token。 第五条,下命令一次说完,别把一句话拆成好几条,发一次,把需求说清楚,减少上下文重读次数, token 消耗直接减半。第六条,精简配置文件, clode md 控制在两百行内, scp 工具只留必需的 skills 列表,只保留常用项, 别让荣誉配置吃掉你的头衔。第七条,复杂任务,先 play mode 开始复杂任务前,先让 clout 进入 play mode 确认方向,避免反复返工, 省下来的头衔够你再开几个项目。第八条,确定性任务,写脚本,重命名文件格式转换,这类确定性任务直接写脚本搞定,根本不用调用大模型 token, 成本直接归零。第九条,引用文件精准定位,别直接 at 整个文件,精准指定到某行某段,比如看 uts t s。 第四十二行 token 消耗秒降几十倍。第十条,多 agent 直返结论,用多 agent 协助时,让此 agent 直返回。最终结论,别把过程也输出多 agent 系统成本直接砍半。 按照这十条操作,每月省下几千块不是梦,别再让辛苦赚的钱打水漂了,赶紧码住用起来。

大家好,今天分享 cloud code 一个强大的隐藏技巧,深度思考关键词,让 cloud 在 关键时刻全力以赴。什么是深度思考模式? cloud code 支持三个特殊关键词,可以激活不同级别的深度推理状态,第一, think 轻量推理,适合日常普通任务,速度优先。第二, mega think 中度深思,适合架构设计和方案比较。 第三, ultra sync, 最高级别权力共建最复杂的问题,这些关键词可以放在提示词的任意位置, cloud code 会自动识别并分配对应的思考预算。 重要提示,这些关键词只在 cloud code 的 终端工具中有效。 cloud 点 ai 网页版无法触发实战用法。示意 输入 ultra sync, 帮我设计一个支持百万并发的消息队列架构输入 mega sync, 分 析这段代码的性能瓶颈,并给出优化方案。 输入 sync, 给这个函数写单元测试格式化思考过程,按 ctrl 加 o, 开启详细模式。可以看到 cloud 完整的推理链路,理解它是如何一步步得出结论的,对学习和调试都极有帮助。 使用建议,简单任务用 sync, 避免浪费架构设计和技术选型。用 mega sync, 遇到真正的难题和疑难 bug, 才记出 ultra sync 匹配问题难度与思考级别才是效率最大化的正确姿势。关注 open claw, 每天分享 cloud code 实战技巧。

大家好,欢迎来到本期视频,今天我们来聊一聊 cloud code 的 常用命令。 cloud code 是 终端中的 ai 编程助手,掌握这些命令能让你工作效率提升数倍。首先介绍绘画管理命令, 使用 clear 可以 清除对话历史,开启全新的绘画。当切换到完全不同的任务时,这个命令非常实用。 compact 是 我最喜欢的命令之一,它可以压缩对话上下文,同时保留你指定的关键内容。 比如 compact retain the database schema, 这样就能在保持上下文的同时节省 copy 消耗。 resume 用来恢复之前的绘画, 加上绘画名称可以直接跳转到指定任务,比如 resume offrefactor。 接下来是成本和模型控制。 cost 命令可以查看当前绘画的 token 使用量和费用,养成定期检查的习惯,能帮你更好地控制 api 花费。 model, 让你在不同的模型之间切换。 sonit 适合日常任务,成本更低。 opus 用于处理复杂的架构决策和深度推理,切换时使用左右方向键可以调整思考深度。 fast 可以 切换快速模式,在保持模型能力的同时加快输出速度。代码审查是开发流程中的重要环节。 diff 打开交互式差异查看器,可以查看 git 差异和每轮对话的变更。在提交代码之前运行这个命令能帮你发现意外的修改。 security review, 对 当前分支的变更进行安全分析,检查潜在的注入风险,认证问题和数据泄露。 rewind 可以 回滚对话和代码到之前的检查点,非常适合当你不小心走错方向的时候。 项目配置命令让你的开发环境更加个性化。 innate 初步化项目自动创建 cloud md 文件,里面可以存放项目的规则和约定。 memory 管理项目记忆文件,你可以在这里写下使用 text script css, 用 tailwind 这样的项目规范。 hux 配置生命周期钩子可以实现自动化操作,比如每次编辑后自动格式化代码 permissions 管理工具,权限平衡,安全性和效率。现在介绍 c i i 参数,这些在自动化脚本中非常有用。 cloud p 开启非交互式打印模式,非常适合在脚本中使用。 cloud c 继续最近的绘画。 cloud w 在 隔离的 git world tree 中工作,不影响主分支。结合 output format json 和 max budget usd 可以 控制输出格式和最大花费。 最后分享几个实用的快捷键, escape 取消当前生成,当 cloud 跑偏的时候很管用。连续按两次 escape 可以 回滚或总结。 shift 加 time 切换全线模式,在自动接受计划和普通模式之间循环。 alt 加 p 快 速切换模型不会打断你当前的输入。 输入前缀可以直接执行 bash 命令,结果会添加到对话上下文中总结一下,今天我们介绍了绘画管理命令 clear compact resume, 成本控制命令 cost model, 代码审查命令 diff security review, 项目配置命令 in it memory hooks, 还有实用的 c i i 参数和快捷键。掌握这些命令,你就能更高效地使用 cloud code。 一 键三连评论区留言,下期再见!

那我最后呢再补充一下这个 ansorepic 这家公司,他很奇怪啊,呃,他的创始人呢,也是早期从 open ai 车的 gbt 团队出来的啊,创办了这个 ansorepic, 那 么呃,早期呢,他的这个产品形态和 open ai 的 车 gbt 差不多,就是浏览器里面的一个聊天界面, 呃,我真正用它,并且呢开始为它进行付费,其实是在去年的差不多这个时候,他推出了 cloud code 啊,一个终端里面的编程工具啊,并且能够操作本地的各种文件,这个权限还挺大的,能明显的感觉到他这个 agent coding 这个能力啊,让我非常的痴迷啊,作为一个老公师,用了一下之后,我倒想想想,跪下给他磕个头,哈哈,太厉害了,把我以往的所有的引以为豪的这个知识经验 打的体无完肤哈,非常非常佩服。那么今年呢,就是随着他发的这个呃,一点点这个新的模型之后,我们能明显的感觉到他的整个推理能力独树一枝啊,就和 gbt 和 jama 这些比起来,呃,丝毫丝毫的。这个 呃怎么说呢,就是非常大的优势吧,我这脑袋今天有点有点乱。那么我们也能看到这家公司呢,他有自己的价值观,比如说他不跟美国官方不合作是吧?不想把 ai 用到各种军军事赛道里面去。 呃,并且他产品呢,我们目前看到的非常的聚焦啊,就是大圆模型,深挖深挖他这个推理能力啊,还有就是他们内部原来是一个测试产品的,后面释放到外面就给他们赚了很多钱的。这个 cloud code 啊, gpt 又不一样, gpt 我 们感觉就是这个整个的 pr 和营销啊,远远大于他的产品能力啊。中间推出了这个那个的, 后面被这个 jimmy 三一发布之后感觉是摁在地上摩擦。那 cloud code 呢?相对来说就很聚焦啊,就在自己的这个赛道里面持续的往下渗完。那我觉得目前从这个 cloud cosmos 这个模型来看, 既然能力是跳跃式提升的话,可能我们真的离这个 agi 这个门槛啊就越来越近了,这个大家一定要一定要保持呃,关注哈,因为一旦我们进了 agi 这个模型之后,这个整个世界都大变啊。

谷歌最近发布了 jam 四,这是一个全新的开源 ai 模型系列,专为高级推理和代理工作流设计。它的出现无疑为 ai 领域带来了新的突破。 我们对比了 jam 四的三十一 b 和二六 b m o e 模型在前端任务中的表现。虽然三十一 b 模型在一致性上更胜一筹,但二六 b m o e 模型在速度和效率上令人惊喜,无需大量计算就能生成高质量的 ui。 cloud code 是 一款顶级的终端代理编码工具,但它有一个主要问题,速率限制,这让许多开发者在使用时感到不便。 现在,我们可以将 jama 四与 cloud code 的 结合使用,例如用四 b 模型生成一个 flappy bird 的 游戏,即使是轻量级编码任务也能获得强大的输出。这套系统是本地开发工作流的理想选择。 clos 还为用户提供十五美元的 open router 积分,让您无需 api 密钥或订阅就能直接使用 cloudsonnet 四点六、 gpt 五点四、 jimmy 三点一等顶级 ai 模型。 首先,我们需要确定哪种詹姆四模型最适合本地 ai 运行。访问 can i run ai locally 网站,输入您的 gpu, vm 和核心信息,然后搜索詹姆四,它会告诉您哪个模型性能最佳。 安装欧拉玛后,从 jama 四模型卡复制运行命令粘贴到终端,即可下载并运行模型。现在,您可以在欧拉玛聊天机器人中直接与 jama 四进行交互了。 现在,您可以使用 jama 四模型运行 cloud code, 只需在命令行中输入 cloud model, jama 四一四 b 即可启动。这样您就能免费使用 cloud code 的 所有功能,包括头脑风暴和技能创建。 如果你喜欢本视频并想支持我们,可以通过 super thanks 或加入我们的 discord 的 社群。别忘了关注我们的其他频道,订阅、点赞并查看之前的视频。保持对最新 ai 资讯的了解。关注全球 ai 速递,获取更多 ai 前沿资讯。

有效的 cloud 点 md 智能体 cloud code 最佳实践注意,文本同样适用于 agents md, 它是 cloud 点 md 的 开源等效文件,适用于 open code、 zend、 cursor 和 codex 等智能体及其工具。 非原则大语言模型在很大程度上是无状态的,大语言模型是无状态函数。 所谓的无状态就是大语言模型是记不住事的,在用于推理时,它们的权重已经固定,因此不会随时间推移。而学习 模型对你代码库的唯一了解仅限于你输入其中的哪些 token, 也就是每次给信息。同样的,像 cloud code 这样的编程智能体工具,通常需要你显示的管理智能体的记忆。 cloud 点 markdown 文件或 agents 点 md 文件是默认情况下会进入你与智能体进行的每一次对话的唯一文件。 这有三个重要的启示需要你注意一下。第一,在每个绘画开始时,编程智能体对你的代码库一无所知。第二,每次开始绘画时,必须告诉智能体关于代码库的重要信息。 第三, cloud 点 md 是 实现这一点的首选方式,说白了就是开启新的对话。关于代码,你想让大语言模型知道的、了解的、遵守的,都放到 cloud 点 md 文件里。 cloud 点 md 引导 cloud 熟悉你的代码库, 这里 cloud 就是 智能体。既然 cloud 在 每个绘画开始时都不了解你的代码库,你就应该使用 cloud 点 md 来指导它。说了到这里这么多话,主要就是说 cloud 点 md 文件是干啥的,大家回答一下吧。 cloud 点 m d 文件到底是个啥是干啥的?从宏观层面来看,这意味着它应该覆盖,还从宏观上来看,也就是项目的上总体要求,例如代码规范呀,技术路线呀这些贯穿项目不变的内容而已。 告诉 cloud 相关技术,你的技术栈以及项目结构,为 cloud 提供一份代码库地图。啥地图呀,就是项目结构。反正你知道的哪些条条框框内容需要告诉每一个程序员,就写这里吧。 在大型项目中尤为重要。告诉 cloud 哪些是应用,哪些是共享包以及每部分的功能,以便他知道去哪里寻找所需内容。以上是回答关于项目的 what 问题的内容,接下来是回答 why 了。 告诉 cloud 项目的目的以及仓库中各项内容的具体作用,项目不同部分的用途和功能是什么。完成回答 y, 顺着下来就是怎么做号。 告诉 cloud 应该如何在这个项目上工作。例如,你是否使用不稳而非 node 来构建项目。你需要包含它在项目上开展实质性工作所需的所有信息。 cloud 如何验证它自己的更改,它如何运行测试类型检查和翻译步骤。看来要做还真不少, 但你实现这一目标的方式非常重要。不要试图把 cloud 可能需要运行的每一个命令都塞进你的 cloud 点 md 文件。 cloud 经常忽略 cloud 点 md 文件什么意思?之前工作都白做了,写完了 cloud 难道还不看吗? 无论你使用的是哪种模型,你可能都会注意到 cloud 经常忽略 cloud 点 m d 文件的内容。你能够通过使用 astropic 下划线 base 下划线 u l 在 cloud code, cleo i 和 astropic api 之间放置一个日制代理来亲自调查这一点。 cloud code 在 发送给智能体的用户消息中会将你的 cloud 点 md 文件与以下系统提示 system reminder 一 同注入。因此,如果 cloud 认为 cloud 点 md 的 内容与当前任务不高度相关,它就会忽略其中的内容。 这点还挺人性化。文件中包含的并非普遍,适用于各项任务的信息越多, clod 就 越有可能忽略文件中的指令。为什么 anastropic 给 clod 点 md 文件加了一个过滤器, 让 clod 可以 选择性的装死,不听你的指令?很多程序员把 clod 点 md 文件当成了一个万能补丁包。 比如昨天 cloud 写错了一个循环,用户就很生气地在文件里加一句,永远不要用 for 循环。今天 cloud 缩进不对,用户又加一句,必须用四个空格。 久而久之,这个文件里塞满了各种只针对特定小问题的,甚至有点极端的琐碎规则。 anthropic 发现,如果强迫 cloud 的 每一句话都死磕 cloud 点 md 文件里的内容, cloud 反而会变得畏首畏尾,甚至因为那些陈旧或奇怪的指令把当前的任务搞砸。 于是他们在后台偷偷加了一行提示,在那个 system reminder 标签中加了一句话, hey, cloud 这文件里的东西如果跟现在干的活没啥关系,你就当没看见,别被它带偏了。 总而言之,因为大家往 cloud md 里乱写的东西太多太杂,官方为了保证 cloud 的 智商不被这些琐碎指令拉低,给了他一个如果觉得没用就可以无视的特权, 创建一份好的有效 cloud 点 md 文件。以下章节根据上下文工程的最佳实践,提供了关于如何编辑一份优秀的 cloud 点 md 文件的建议实际效果因人而异, 这些规则并非对每种配置都是经过优化过的,不过也不是一成不变的,你可以根据实际情况进行调整,只要你有充分的理由这样做,就可以不按这些规矩来做。指令越精简, 效果越好。你可能很想把 cloud 可能需要运行的每一个命令,以及你的代码、标准和样式指南全都塞进 cloud 的 点 md 文件。 我们建议不要这样做。虽然这一话题尚未经过极其严密的研究,但已有的一些研究表明了以下几点。前沿的思考型 lm, 如 cloud 三点五、 sonnet 等, 能够以较高的一致性遵循大约幺五零到两百条指令。小模型能处理的指令比大模型少, 非思考型模型能处理的指令比思考型模型少。 lm 偏向于位于提示词边缘的指令,即最开头 cloud code 系统消息和 cloud 点 md 文件,以及最末尾 最近的用户消息。随着指令数量的增加,遵循指令的质量会整体下降。这意味着,当你给 l m 更多指令时,它并不是简单地忽略叫新文件中位置靠下的指令,而是开始无差别的忽略所有指令。 我们对 cloud code 工具链的分析表明, cloud code 的 系统提示词已经包含了约五十条独立指令,取决于你使用的模型。这已经占到了智能体能可靠遵循指令数的近三分之一, 而这还没算上项目规则、插件技能或用户消息。这意味着你的 cloud 点 md 文件应包含尽可能少的指令。理想情况下,只包含那些普遍适用于你任务的指令。 cloud 点 md 文件长度与适用性在其他条件相同的情况下,当 l m 的 上下文窗口中充满专注且相关的上下文,包括视力相关文件、 工具调用和工具结果时,其任务表现会优于上下文窗口中充斥大量无关信息的情况。 由于 cloud 点 m d 文件会进入每一个绘画,你应该确保其内容具有尽可能的通用适用性。例如,要避免包含诸多如何构建新数据库 schema 之类的指令。当你处理其他不相关的任务时,这并不重要,反而会分散模型的注意力。 在长度方面,少即是多的原则同样适用。虽然 osropic 官方没有关于 cloud 点 md 文件长度的正式建议, 但普遍共识是,少于三千零行最好,越短越好。在 human layer, 我 们的根目录, cloud 点 md 文件不足六十行。渐进式批阅一份既简洁又能包含你想让 cloud 了解的所有内容的 cloud 点 md 文件可能具有挑战性, 尤其是在大型项目中呢?为了解决这个问题,我们可以利用渐进式,譬如原则,确保 cloud 仅在需要时才看到特定任务或特定项目的指令。我们建议将特定任务的指令保存 在项目中具有自描述名称的独立 markdown 文件中,而不是将所有关于构建项目运行测试、代码规范或其他重要背景的指令都塞进 cloud 点 md 文件。 然后,在你的 cloud 点 md 文件中,你可以列出这些文件,并附上简短说明,并指示 cloud 自行判断哪些是相关的, 并在开始工作前阅读它们。或者要求 cloud 先向你展示他想阅读的文件已供审批,然后再进行阅读。优先使用纸质而非副本。 尽可能不要在这些文件中包含代码片段,它们很快就会过时。相反应,包含 fileline 文件。民航号引用,引导 cloud 查看权威的上下文内容。 从概念上讲,这与 cloud skills 的 设计初衷非常相似。尽管 skills 更侧重于工具使用而非纯指令。 cloud 并不是是一个 linter。 cloud 可是要比 linter 贵得多。我们看到人们在 cloud md 文件中放入最多的内容之一就是代码风格指南。永远不要让大语言模型去做 linter 的 工作。 与传统的 linter 和格式化工具相比, lm 既昂贵又极其缓慢。我们认为只要可能,应该始终使用确定性的工具,代码风格指南不可避免地会向你的上下文窗口中添加一堆指令和大多无关的代码片段, 从而降低 lm 的 性能和指令遵循能力,并吞食你的上下文空间。 lm 通过 context 来学习的。 如果你的代码遵循一套特定的风格指南或模式,会发现只要对代码库进行几次搜索,你的智能体往往会在不被告知的情况下自动遵循现有的代码模式和规范。 如果你对此非常坚持,你甚至可以考虑设置一个 cloud code 的 停止钩子。 stop hook, 运行你的格式化工具和 linter, 并将错误呈现给 cloud, 让它去修复。 不要让 cloud 自己去寻找格式问题。额外加分项,使用一个可以自动修复问题的 linter, 例如 biome, 并仔细调整你的规则,确定哪些内容可以安全地自动修复,以实现最大的覆盖率。 你还可以创建一个斜杠命令 slash command, 其中包含你的代码指南,并引导 cloud 查看版本控制中的更改 get 状态或类似内容。这样你可以分开处理实现和格式化。结果是这两者的效果都会变得更好。 不要使用反斜杠一匿名命令或自动生成你的 cloud 点 md 文件。 cloud code 以及其他使用 open code 的 工具链都提供了自动生成 cloud 点 md 文件或者 agents 点 md 文件的方法。 由于 cloud 点 m d 文件会进入与 cloud code 的 每一次绘画,它是该工具链中杠杆效应最高的地方之一,无论好坏,都取决于你如何使用它。 一行糟糕的代码就是一行糟糕的代码,但实施方案中糟糕的一行有可能产生大量糟糕的代码行。一份误解了系统运作方式的研究文档中,糟糕的一行可能会导致方案中出现大量糟糕的内容, 从而导致更多糟糕的代码型。但是, cloud 点 md 文件会影响你工作流的每一个阶段以及由此产生的每一个产物。因此认为应该花一些时间非常仔细地思考 cloud 点 md 文件中的每一行内容。