这是这个系列的最后一期,前四期我们拆解了结构 prompt、 机器多一整的分工调度和工具治理。这一期我们收个尾,讲三件事情,生态扩展怎么设计、上下文怎么设计,以及整个源码拆解完之后提炼出来的五条原则。 先说生态扩展, cloud code, 它有三套扩展机制, scale、 plugin、 mcp。 很多人以为这三个差不多,其实它们的重量级不一样, scale 是 最轻的, 可以声明允许使用哪些工具,可以按需注入当前的上下文,可以把重复的工作流打包成为可付用的能力。关键是系统要求模型在任务匹配到某个 scale 的 时候呢,必须要用 scale to 执行,不能只是提一句这个 scale 是 干这个的。 plugin, 它比 scale 更重一些, 它可以提供命令配置、工具权限声明,还支持运行时变量替换。它是模型行为层面的扩展单元,不只是功能上的 mcp 更有意思。从源码里我们可以看到, mcp server 连接上来的时候,如果说 server 提供了 instructions, new instructions 会被拼进 system prompt。 也就是说, mcp 能同时给模型两样东西,新工具以及怎么用这些工具的说明。 这三套机制有一个共同点,我觉得这是整个生态设计里最关键的部分,它们都不只是挂载到系统上就完事了,而是会通过 skills 列表编辑的列表, mcp, instructions、 command integration 这些通道,让模型感知到自己当前有哪些扩展能力,什么时候该用,怎么用。 很多平台也有插件,系统,也有工具市场,但是模型本身不知道这些东西存在,这就像你给一个人配了一整套的专业的工具箱,但是他不知道箱子里边有什么,也不知道什么时候该打开,更不知道这些工具该怎么用。 cloud code 的 做法呢,就是把工具箱的清单和使用说明都放到模型能够看得见的地方,这才是生态真正能够发挥作用的前提。第二件事,上下文设计。 整个原版里有大量的设计是围绕着一个主题,上下文是稀缺资源,不是免费的。我们之前提到过 system prompt, 它的静态动态边界是为了缓存, scale 是 按需注入的,不是全部塞进去。 f c p instructions 根据当前的连接状态注入, a 联上的不占空间。这些加起来都是在做一件事情,在有限的上下文窗口里,尽量装最有用的信息,尽量减少容余,尽量让缓存命中。 对于做 demo 的 人来说,这不重要,因为 demo 跑几次就完了。但对做产品的人来说,你的系统每天处理几万次请求,每次 system prompt 有 几千个 token, 缓存命中率提高百分之十,那一个月省下来的钱是实打实的。做 demo 可以 不在乎这些,但是做产品必须在乎。 第三件事就是生命周期管理,不然 agent 要管的事情很多。这些功能单独看都不太出奇,但是它们加在一起,说明 asterisk 不 只是让 agent 跑起来, 而是把性能追踪、资源清理、绘画恢复、窗口台切换,这些都当成了运行时生命周期的正式组成部分。大部分的 agent 系统在第一天跑的挺好,问题出在第二天,第三天、第一百天任务中断了怎么办?脏状态怎么清?则 agent 的 shell 进程没有杀掉,该怎么办? mcp 连接泄露了怎么办? 这些问题如果说不解决,产品就只能是 demo。 最后总结了五条原则,把整个原码拆解完。我觉得 cloud code 在 做的事情可以压缩成五条。 第一条,不要信任模型的自觉性,好行为要写成制度,不要依赖模型临场发挥。你希望他先读代码,再改代码就写进 prompt, 你 希望他遇到风险操作就停下来,那就加一个权限的检查,好的约束比好的模型更可靠。 第二条,把角色拆开,至少把做事的人和验收的人分开,哪怕条件有限,只用同一个模型把职责拆开,也会有明显的改善。同一个 agent 的 既实现又验证,天然的会觉得自己做的没有问题。 第三条,工具调用要有治理,不是模型说掉就掉,中间要有输入的校验,权限的检查,风险的预判,执行完也不是就结束了,要有 post processing 和失败的处理。这层治理决定了系统在异常情况下的表现。 第四条,上下文是预算,每个 token 它都有成本,每条信息它都占空间,能缓存的要缓存,能按需加载的不要一开始就全都塞进去,能压缩的就要压缩。做 demo 可以 不在乎这些插件,但是做产品我们必须要在乎成本。第五条,生态的关键是模型感知。你给系统记了十个插件,但是模型不知道什么时候该用哪个, 那这十个插件就等于不存在扩展机制的最后一步是让模型看到自己的能力清单,知道什么场景用什么能力。这五条不只适用于 callin agent, 几乎所有需要大模型做复杂任务的系统都适用 cloud code 的。 它的价值不在于某个具体的实现,而在于它用工程实践验证了这些原则确实有效, 你不需要覆盖它的全部,从最不热的环节开始补,每补一层,你对于系统整体设计的这个思路呢,就会上一个台阶。这个细节到这里就结束了。最后我们总结一下,拆解了 cloud code 四千七百五十六个元码后,发现它的秘密不在 prompt, 在一套把行为制度工具治理 a 阵的分工上下文托管控制和生命周期管理连成闭环的工程系统。如果这个系列对你有用,记得点个赞或者点个收藏,我们下期再见。
粉丝1854获赞1.9万

那如何把可乐扣的接入更便宜的国内大模型呢?那今天给大家分享一个技巧,只需要两步就可以让你的可乐扣的接入国内大模型。第一步,安装 cc switch。 那 cc switch 是 什么?以及具体如何使用,我在前期的视频中已经介绍过了,那如果不知道的朋友可以再去翻一翻。简单来说呢, cc switch 就是 可以方便的帮你在不同的模型厂商之间进行切换,避免你手动去改配置。 那已经安装过 c c switch 的 同学,记得一定要把你的 c c switch 更新到最新的版本,因为最新的版本预设了很多的国内的 api 供应商,那你配置起来会非常的方便。 那第二步,我们只需要选择一个国内的模型厂商,把它配置填进来即可。那这里我们以 mini max 为例,那我们在 mini max 的 开发者后台先把 api k 给复制出来,然后在 c switch 选择 mini max, 把 api k 给填进去, 然后点击添加即可。那在首页的面板只需要点击使用,那我们的模型就切换到了 mini max 了。那我们回到命令行看看效果, 使用 model 命令查看当前是什么模型,我们看已经是 mini max 二点五了。好,那我们看下 api 能否正确响应, 那已经成功了,那看是不是很简单。那你现在的 color code 已经开始可以正常使用国内的大模型了。那如果你在安装的过程中有遇到任何的问题啊,欢迎在评论区告诉我,我是星星,每天分享一个 webkit 的 小技巧。

上一期我们说到 cloud code 把行为规范写成了制度,不让模型靠自觉性工作。那么这期我们讲一个更有意思的设计,它为什么要同时养六个 agent? 从原码里我们可以确认,至少有这样六个内建的 agent, 包括通用执行的 agent, 纯读探索的这样一个 agent, 还有规划架构的 agent, 那 就是 get agent, 就是 引导用户的 agent, 还有就是妆台蓝配置的 agent, 还有就是验证质量的这样一个 agent。 这个设计的背后是一个设计的思想,如果说想让一个 agent 同时做研究规划,实现验证,那么最后每件事情都会做不扎实, 这和我们现实生活中在管理团队的情况是一样的。你想让一个人既写代码又写文档,还会做产品,还会做运营,那他大概率会觉得自己写的没有问题,但是真的没有问题吗? 我们先说 explorer agent, 它是被设计成唇齿毒的模式,不能够创建文件,不能够修改文件,不能够删除文件,不能够移动文件,也不能写临时文件,不能够用重定向写文件,不能够运行任何改变系统状态的命令。 曾用的工具只有 glob, grape, favorite, 但是呢,也只允许 ls, git status, git lock, git dev 这一类的独特操作。那为什么要这么限制呢?是因为探索阶段如果说不小心改了什么,那么后面的实现阶段就会出现问题。把探索和实现的权限彻底的隔离,是一种非常嗯朴素但是又非常有效的这样的安全的设计。 black agent 呢,他也是职读,他的职责呢,是负责理解需求,探索代码库的结构,逐步输出实现计划,列出关键的文件,他被定义为架构师,而不是一个执行者。规划和实践分开的好处就是规划阶段可以专心的把事情想清楚,不会因为着急写代码而跳过思考这一步。然后就是整个系统里我觉得设计的很厉害的一个 agent, 就是 这个 agent。 它的核心方向呢,不是确认实现看起来没问题,它的方向是 try to break it, 想办法搞坏它。这两个出发点的差别非常大,提示词的开头就点出了两种常见的验证失败的模式,第一种叫 verification avoidance, 就是 只看代码,不真正跑检查,写个 pass 就 走了。第二种呢,叫被前百分之八十迷惑, u i 看起来还行,测试也过了,就直接忽略剩下的百分之二十的问题。然后这里呢,提示词强制要求一系列的验证动作,跑 build, 跑测试套件,跑 linter 和类型检查,根据变更的类型还有专项的验证,前端改动要跑浏览器自动化,后端改动要用 car 实时响应。 而且呢,他会主动去找边界情况和扩展,每个检查必须带实际执行的命令和观察到的输出。最后给出一个结论是 pass 还是 fail? 这个设计解决的是什么问题呢?大模型验证工作里最常见的毛病就是差不多就算了,我们平时在做 cost review 的 时候也会犯这个毛病,但是至少人是有经验和职业压力的。大模型没有这些,你不把验证的标准写死,还真的会随便看两眼就说 pass cloud code 用梯子词反制这种倾向,而且因为这个 agent, 它是一个独立的 agent, 它和写代码的那个 agent 没有利益的关联,那写代码的 agent 天然就会觉得自己写的还行。但是这个验证的 agent 呢,就没有这个偏见,它的工作就是找问题。这种实现者和验证者相分离的思路呢,在传统的软件工程里是常识,但是在 agent 的 系统里边,大部分的产品到现在还没有做到这一步。 所以我们总结一下,为什么 top 要排六个 agent 呢?分工,干活,分工不是为了让系统看起来更复杂,而是为了让每个角色的权限和目标更清晰。 像探索者呢,只探索规划者,只规划验证者的工作就是找问题,而不是确认没问题。角色清晰了,系统才不会乱。下一期我们讲调度链,一个贼人的从背出发到执行完,在 cloud code 里要经过多少步,以及为什么每一步都不是废话。先收藏,我们下期再见。

用简单的语言讲解一下实现实现一个 cloud code 的 最简化的模型,你不一定非要懂代码,首先需要定义一个系统提示词,告诉模型你是一个编程智能体工作,在项目所在目录里 使用代办摄像工具来规划多步骤任务,优先使用工具,而非文字描述。这个系统提示词的作用就是告诉模型你在做任务之前,需要先制定一个任务步骤,编排计划,按照计划执行任务。优先要使用工具呢?因为我们默认认为不使用工具的话,这个任务就算结束了。 如果某个步骤里模型只回答我们一些文字信息,没有使用工具,当然就不会有下一步执行的必要了。那我们需要提供模型什么工具呢?下面我们会告诉模型你可以用这五个工具。哪五个工具呢? 第一, bash, 这个工具的描述就是告诉模型你可以运行一个任意的 shell 命令。第二, read file, 这个工具描述就是告诉模型你可以提取文件内容,但是需要根据参数的要求提取,你必须提供需要提取文件的路径。 第三, write file, 这个工具描述就是告诉模型你可以写内容到文件里,但是必须提供一些必要的参数,比如需要写入文件的路径和需要写入的内容。第四, edit file, 这个工具描述就是告诉模型你可以编辑文件内容,这个和上面那个 write file 的 区别就是它是编辑文件, write file 是 直接覆盖写入, 需要提供一些必要的参数,比如编辑文件的路径和需要替换文字的内容。第五, to do, 这个工具是最重要的,它告诉模型你需要更新任务编排的清单,用来跟踪任务进行到哪一步。意思就是说,一开始系统提示词里要求生成了任务编排步骤了,需要根据编排计划完成一步,就将这一步认为状态,这一步的任务状态实施成完成。 因为当智能体处理多任务步骤时,他经常丢失对已完成和代办事项的追踪。没有显示的计划模型可能重复工作,跳过步骤或者跑偏,用户也无法看到智能体内部的计划。用这个工具来标记完成了哪些,用于下次对话,让模型自己看到进行到了哪一步。 最后将我们的提问和系统提示词以及工具一起发给大模型,然后放进一个无限的循环里。如果模型回答一次说需要调用哪个工具,怎么调用,我们就直接执行我们这五个工具里的模型指定的工具方法。比如模型回复用 read file 提取某个文件,模型会把工具名称 read file 和文件路径给我们,我们直接按照预先定义好的工具方法 read file 调用即可。 在无限循环里,每一次调用模型的操作的结果都会再次发给模型,模型来判断下一步该怎么做,直到模型回复说就不需要工具了,那我们默认认为这个任务循环就结束。跳出循环,本次任务结束,没有工具调用即可认为是没有再进行下一步操作的必要了。 最后再适当的做一些安全叫验,比如只能工作在呃当前的目录里,不能执行黑名单里的危险命令,比如不能执行呃删除全部或者一些比较危险的命令,然后用 history 树组保存历史绘画,达到记忆多轮对话的功能,这样就实现了一个最简单的 cloud code 的 编程助手。 下面看一下效果。我让这个我们写的编程助手新建一个画布,然后画布可以新建正方形,每新建一个正方形,我们可以检测正方形和正方形之间的碰撞,检测如果碰撞了有提示红字的效果,就是正方形变成红色的效果。 嗯,下面我们看看这个最后它生成的这个 html, 它可以随便的生成正方形,然后检测这个正方形之间的碰撞,还是比较完善的。 最后总结一下,其实模型就是智能体,我们的工作就是给他工具,然后让开这种思路能不能用到你的业务里?给模型一些有边界的工具能力,比如你自己业务系统封装的操作函数,让他自己编排执行来整合到自己的业务里。

我真的愿称 cloudco 为最强的 a 准,起因是我之前 cloudco 配的 api 一 直用的都是国内的大模型,但是我想去体验更好的模型,比如说像 angeloop, open ai, 还有追命奶他们家的一些 api。 所以 我当时就了解到有 openroot 这样的一个品牌,它用一个 key 就 可以任意调用市面上最强的模型,比如说上面有提到的 lops 四点六,还有智普的 glm 五点一这些模型,所以我当时就申请了这样的一个 key。 但是后面问题来了,因为我除了使用 clolo 之外,其实我还有用小龙虾,那使用 clolo 其实通过 cc switch 来帮我去配置好这个 api key 的, 那在小龙虾当中是怎么样它一个 key 同时调用多个模型呢? 于是我就把这些问题在 clolo 里面去问他,让他一步步给我解答,我为什么觉得他是最强的 a 准,就是他可以帮你去改本地文件的一些配置。比如说我的小龙虾是搭载腾讯云服务器去进行配置的, 所以他就会一步步地去查看我 opencloud 本地配置的一些文件,然后一步步地去帮我改各种环境的变量,还有配置要出现什么问题,也可以直接丢给他,他会去追踪各种问题,然后自行地去进行一个解决, 最后就看到他成功帮我配置好了 openroot, 下面可以任意调用不同的一些模型,所以我真的觉得他很厉害。 现在大家都在使用小龙虾,或者说最新的爱马仕,但是我觉得 clalco 永远是最稳定、最强的 agent, 各种新的工具会不停的迭代,但是我希望大家一定要学会怎么去使用 clalco, 如果大家感兴趣的话,下期我会出一期详细的教程,教大家怎么去使用上 clalco。

这是 github 上超级火的开源项目,主要教你如何优化克拉拉库的,但是面对这种密密麻麻的文档,对于普通人还是有极高的上手门槛。 于是我把这个开源项目我还不 q 定成了一个网站。现在你可以用格式化加路径化的方式系统学习克拉拉库的最佳实践内容完全来自原项目,还内置了技能评测,你可以随时知道自己掌握到什么程度。 重点是啊,开发这个包含了完整前后端以及后台系统的网站,我全程没有写一行代码,完全靠克拉克和阿里最新发布的国产最强编程模型千万三点六 plus 完成。你只需要在这里简单配置一下 a p i, 就 能在克拉克里丝滑用起来。 像这样丢给他简单的一句话,需求你看啊,他会先把整个开源项目的文档全部梳理一遍,跟你确认几个关键决策和基础站, 然后给出完整的基础方案。整个过程它会自己拆任务自己调用工具,遇到报错自己排查自己修,全程基本上不需要盯着它。得益于这个原生多模态模型支持百万上下文窗口挖 app 刻定过程完全不用操心 context 爆满问题, 可以看到最终的完成度也相当高,基本一次就能产出这种效果。所以正如官方介绍所说的那样,这是一个为挖 app 刻定打造的大模型,相比上一代三点五的编程 agent 和工具,调用能力都有了大幅提升, 并且超越了一众国产模型。而值得一提的是啊,这已经是阿里这周连发的第三个重磅模型了,三月三十号是狂揽二百一十五项全球 saota 的 全模态大模型。千万三点五奥米兰四月一号是最接近南诺布兰纳 pro 的 国产图像生成模型 one 二点七 mag 今天压轴的才是千万三点六 plus, 三天三个方向全部打在了 a r 能力的核心地带。所以不得不说,国产模型还得看阿里。最后啊,如果你也想挖不口令一些东西,又不想在 a p i 费用上烧太多钱,千万三点六 plus 真的 性价比拉满了。

二零二六年,你们一定一定要学会使用可劳克的,毫不夸张的说,用好它至少能让你的生产率翻二十倍,因为它的功能不仅仅是写代码,开发应用,我一直都把它当成通用 agent 在 用, 你可以用来写文章,做数据分析,甚至上整理报销发票,这样的繁琐需求都能用它一句话搞定。那么究竟该如何安装并熟练使用可劳克的?除了官方的文档,我最推荐的就是这份完全免费开源的可劳克的中文教程。 可以看到,从安装环境配置、如何使用国产大模型、平替基础使用指南到进阶实战技巧,写的非常详细,而且是全中文。我真的建议你们每个人都可以把它收藏起来,用起来,找不到的话可以跟我说。

cloudcode, 自主操作电脑智能体工作流,但有网络门槛,付费订阅,而且只支持 cloud 模型。由于某些特殊的技术原因,核心逻辑对社区被动开放了。我们开发一个技术探索版,不仅本地能跑,还能接入国产模型。 声明一下,本期视频仅用于技术交流与研究。测试任务,帮我创建一个代办事项 web 应用, 注意看,它不是生成代码让你抄,而是自己创建文件,自己安装,依赖自己启动服务。我们的这个版本修复了依赖报错问题,增加了适配国产模型的功能,支持配置第三方接口, 你可以用国产模型,速度更快,成本更低,还没有网络障碍。 相较于 open cloud, cloud 的 code 生态更完善,技术上更成熟, 运行时遇到报错,它自己解决问题, 任务结束, 整个过程只需要点几次授权,完全不需要我插手。下面我们来看如何本地部署和配置模型。首先克隆项目源码, 进入项目目录,复制安装运行命令, 下载完依赖后进入引导界面。第一个深色模式,大家选自己看着舒服的,这就是我们做的国产模型适配。第四个是我们做的国产模型适配, 这个学习版推荐大家使用优云智算第三方平台,推荐大家使用模型广场里面的 a p i。 经我们实测,所有模型官方直转, 主流模型打到骨折,而且无需科学上网。现在注册新用户送五元赠金,相当于不到两块钱就可以获得两千九百万的积分。填入 a p i t 模型名称,回车 选 yes, 测试成功。现在 call the code 就 可以使用国产模型了,我们项目已经开园,大家点赞关注自动发送,我们下期再见!

如果你在用 cloud 做开发,你一定会遇到一个现实问题,模型能力、成本、稳定性、可用区域都在变化,但你不希望每次切换底层模型都去改一堆工程配置。我们做的 cootecotec getaway 就是 专门解决这个痛点。 他让 cloud 继续按 antropic 协议工作,但底层模型可以灵活路由到多家厂商,比如 openai、 deepsea、 quinn、 moonshot 等。也就是说,对 cloud 来说,你几乎只改配置,不改调用习惯。 对团队来说,你获得了更强的模型调度能力和容灾能力。这个网关有四个关键价值,第一, cloud 无感切换底层模型, 通过 anthropic base underscore u r anthropic underscore off underscore off underscore token、 anthropic underscore fast underscore small underscore fast underscore model 这几项配置,客户的请求就能统一进入代理, 上层体验不变,底层模型可控。第二,智能路由加自动回退。你可以按模型前缀做主路由,还可以配置模型级 forback 链,某个 provider 不 可用时自动切到备用 provider, 保证任务不断,开发不中断。 第三,协议兼容和流式支持项目,同时支持 open ai 协议和 antropic 协议入口,并对工具调用列录做了基础双向兼容, 包括 tool use tool underscore result 以及关键流逝事件映射。第四,生产可运为内置重试能力,探测可用性、缓存和管理接口,让你不只是能用,而是可控、可观测、可扩展。 一句话总结, cloud code taxi gateway 的 核心价值就是让 cloud 成为稳定入口,让模型选择变成后台策略,这样你就能同时拿到三件事,开发体验稳定、模型选择灵活、整体成本可控。

hello, 大家好,我是南瓜。相信有些小伙伴在安装 coco 后会遇到被官方封号以及官方大模型太贵的问题, 那么今天我给大家分享一下如何在使用 coco 时将模型切换成国内的大模型,这样我们就不用担心被封号,而且还能用上既便宜又跟 coco 官方模型能力差不多的大模型。 那么呃,我这边是在 vsco 里面安装的 coco, 在 打开 coco 后会有这个提示我们登录的页面,然后我们这边先不要去登录,我们打开浏览器,输入上方这个网址,然后进入到 cc switch 的 这个下载页面,点击这个下载地址 功能下面,然后下载自己对应系统的一个软件在下载安装完成之后呢,我们在应用程序找到 cc switch, 然后打开它,在这个页面我们就能看到 coco 这个选择,然后我们点击右上角这个加号, 然后在这里我们就能选择我们自己选择的一个国内大模型,那么我这边选择的是智普的官方大模型,然后这些都不动它,下面这些都默认,然后我们在这里点击获取 api, 点击右上方的 api 来到 api key 的 页面呢,如果你是首次使用,你这里需要点击右上方的这个添加新的 api key, 然后随便输入一个名字, 好的,然后再将这个 api key 复制粘贴到这个这里, 然后再根据你买的是什么模型改它的名字,然后我这边买的是四点六 b, 我 就把它改成四点六 b, 然后添加,添加完之后点击起用, 然后测试一下它能不能跑。 hello, 如果回我们了,那说明就安装成功了,然后我们回到 disco 这边,如果切换大模型的话,我们先需要把 vsco 重启一遍,然后再重新打开, 然后它这里就会自动跳过那个登录页面,然后我们这边切换模型, 选择这个我们刚刚添加的模型,然后问他是什么模型。 好的,好了,这里就显示你已经添加了一个模型的名字,就说明我们已切换成功了。 好的,如果以上的教程对你有所帮助的话,麻烦你点个免费的爱心和关注,感谢您的支持,我们下期再见。

大家好,今天我们来玩 jam 四加 cloud code, 内容包括下载运行 jam 四,接入 cloud code 编程能力测试。接下来简单讲一下安装和接入。通过欧拉玛瑙 jam 四就能够下载模型, 需要注意的是需要加上模型的具体大小,比如说下载三十一币就是欧拉玛瑙 jamma 四冒号三十一币,等待几分钟模型就能运行。欧拉玛连接 cloud code 也很简单, 用 cc switch 点击右上角,选择自定义配置请求地址,当中填 local host 和端口号,幺幺四三四保存就可以了。 终端输入欧拉玛 launch cloud model jam 四三十一币。 这样来看一下,现在的内存压力是很小的。执行指令登录说一句话,我们内存一下子就上来了,这样子呢,就说明我们的 cloud code 已经在调用 jam 模型了。 要测试的场景是让接入了 jam 四的 cloud code 复刻我们的官网,想让它变成苹果官网的风格, 先到 get design, 点 md 里面找到它的设计风格,进入到前端重构目录下 执行指令。这条指令是安装一个 md 文档,让 cloud code 知道如何模仿苹果的官网设计 design, 点 md 好, 现在已经可以了,命令也很简单,请你使用 next nex 的 gs 复刻我们的官网,参考 design, 点 md 中苹果的设计风格,我们就持续等待吧, 它已经运行了半个小时,还在 plan model, 还在思考该怎么办,我们继续等待吧,现在已经持续运行了快一个小时,代码也编已完成, 打开看一下,启动的时候报错了,让它修复一下,现在来对比一下。 左边是重构之前的效果,右边是重构之后的效果,可以看到右边还是很贴近苹果网站的风格,今天做这个测试主要是想看本地模型在 agent 的 场景下是否能够使用, 相比之前的本地模型只能够聊天,现在已经可以支持一些 agent 的 操作工具调用,基本可以长时间的运行任务,相信再过半年本地模型也能够达到生产的效果。大家有什么想测的可以告诉我, 今天先到这里,谢谢大家。

今天这期视频我们只讲一件事,就是普通人怎么使用 cloudco。 很多人听到 co 的 这个词就认为是写代码,觉得跟自己完全没有关系,但其实 cloudco 除了超强的写代码能力之外,他还能做很多日常的任务, 比如说文件管理、数据分析、爬虫,甚至连修图剪视频的工作他也能帮你做。那么这个视频会分为两期,第一期跟大家讲怎么快速无脑安装好 cloudco, 并且配置国内的大模型。 第二期会通过一些例子讲清楚怎么去使用 cloudco, 去帮我们做一些工作。那么第一步我们要下载一个软件,叫做 trace, trace 下载完成之后,我们把 cloudco 的 官方文档链接贴给他,然后输入请你参考文档中的方法,帮我安装好 cloudco, 中间遇到任何错误或问题,请你自己查资料去解决。这里他提示我们要先打开一个文件夹,我们照他说的做,我们可以直接新建一个文件夹,就叫 cloudco 安装, 很快他就开始思考并且自主的完成任务了,这个过程当中他可能会跳出各种对话框来让你批准权限,我们直接运行就好。大家可以等待十分钟, agent 就 会自动完成所有的安装步骤。 接下来我们要给 cloudco 安装一个运行环境,它的运行环境有 app、 网页端、集成开发环境 id 以及命令行,其中最简单使用的方式就是在 vsco 这种集成开发环境中去使用 cloudco, 我 们直接下载 vsco, 下载完成进来后,点击这个地方输入 chinese, 点击下载,然后 重启 vsco, 你 就可以看到界面已经变成中文的了,然后我们再次点击左边的应用图标,搜索 colaco, 可以 看到一个插件叫 colaco for vsco, 点击安装, 然后它会跳转到这样的登录页面,平时如果想打开 colaco 窗口,点击右上角的小图标就可以到这步。先不用管我们下载第三个软件 cc switch, 我们先进入他的酷狗主页,在右边往下拉,找到 release, 再往下拉,找到适合你系统的安装包,然后下载安装。装好之后,我们打开 c c switch, 点击右上角的加号,在里面找到 deepsea, 再往下滑动,你会看到 a p i key 的 输入框,点击获取 a p i key。 跳转 deepsea 的 官网,登录进去后, 点击左边的 api keys, 在 这里你可以管理所有 api key, 这里的 key 相当于你的密码,千万不要公开泄露,不然别人也能用你的 ipc 账号。 点击创建复制这一行,到 cc switch 里点击添加,然后在页面上就可以看到你的 d p c 了。点击第三个图标测试模型,可以看到提示 d p c 运行正常,然后我们再回到 disco, 重启 disco, 它会自动弹出 聊天框,那我们在这里输入你好,你接的是什么模型,然后你就可以看到你的 d p c 已经接入成功了。要注意最后一步, 你的 deepsea 账户里一定要有余额才会成功。好了,以上就是本期的全部内容,下一期我们会讲怎么用 cloud co 去做一些工具,我是雨夜,我们下期见。

最新的一个新闻就是 cloud code 原码就说泄露了这个事情呢,也有人说是 ankerberg 故意泄露的,还有人说是 cloud 五点零觉醒了,为了不受限制直接越狱了。这里面呢,对开发者或对于创业公司最有价值的就是去分析一下 cloud code 里面的整个的架构是怎么设计的, 代码中呢,也可以反中汇报一下。首先呢, code 有 一个很重要的能力,叫做多 agent 协调。 coordinator 模式,就是用 agent 工具来派子任务,多个 worker 并勤干活的逻辑,一共只有一个文件,三百七行代码,没有状态机,没有工作流,没有 workflow engine。 这个三百行的代码是什么呢?它就是一个 system problem, 用自然元的方式描述。 你现在是协调者, coordinator 用 agent two 派 worker 只读任务呢,是并行的,写任务呢,是串行的,就是为了提升他的效率嘛, work 的 结果通过 xml 标签呢,注入消息队列,就可以跟踪他的并行的这种进展。然后呢,模型呢,就要学会协调,包括什么时候开启一个新的 worker, 什么时候 send message 去接老的 worker, 什么时候呢?该自己动手,全部靠 prompt 驱动。 目前呢,很多传统的所谓的编排的框架就是工作的 u r 状态机啊,可能都是一个过渡工程。未来呢,如果 ai 足够强大,整个的队列数显呢,是可以文件来管理的话,应该十一号其实可以解决问题。第二就是终端的 u i 是 react, 渲染的 就是它的整个的 codex 的 慢慢的编程的能力呢,其实在网页端的形式并不是用一个 u i 实现,而是直接通过代码来渲染,代码渲染呢,其实整个过程也很完整,包 包括双缓冲帧的系统,它逻辑就是每次呢,它只是更新下一帧的区别,而不是重新开始刷一遍。包括呢,字母串的 intending 池,逻辑呢,就它是用整数,而不是通过字母串来替代两轮之间的画面的更新,这是一个加速渲染的一个方法,包括呢,硬件的加速,包括鼠标拖拽的选择,支持双击选词,三击并行, 整个的一百四十个 u i 的 组件,全部都是用 react 浏览器变自动做非常颗粒度的画面的更新,这个也是一个非常强大的一个能力。第三有意思的产品呢,它用了五层的压缩,让对话呢永远不会爆仓,不会超越。它的上下文分别是,第一层 api micro compact, 就是服务端的原声的关系,自动清除了旧的工具的调用,结果在定定的模仿。第二层呢,就是 client mario compact, 按照时间维度清除可压缩的工具,比如 read bash grab 的 输入。第三层呢,就是 context collapse 折叠逻辑上岸文,所以就是你可以理解它是一边在工作,一边在打扫,就是清除一些没有用的信息, 让它的信息不断的每一层在压缩,防止上下文爆仓。第四层呢,叫 auto compact fork, 一个子 agent 生成对话载药,替换原始的消息,就写总结了。第五层, reactive compact from toon 时呢,按轮次从头部丢起。第五层呢,就是已经到了为了压缩很容易丢失一些信息的一个动画, 一个细节,就是 auto compact, 它有一个 circuit breaker, 连续三次就会停止,因为呢,曾经有个 session 因为连续压缩失败了三千两百七十二次,浪费了每天二十五万次的 api 调用。同时 compact 还有一个功能,就是恢复最近读过的五个文件,各限了五千个 token, 加上 skill 从注入独立的两万五千个 token 的 预算,所以压缩完之后并不觉得模型会忘掉之前在干什么。就它有一个缓存,就 就是把一些过载的信息呢,可以放在缓存里。第四个模块呢,就是它通过八十九个 feature flag 暴露了未发布的产品的方向。那这里面呢,有些比较有意思的,比如说 carlos, 分 成了 gif channels, stream, github, webhook, push notification 五个子 flag 看上去呢,是一个主动模式的 a 阵系统,就是自运营的一个功能 active, 另外一个也是一个主动模式 a 阵,不用等用户的指令就能自动行动。 daemon 是 守护进程模式,靠 hold 可以 作为后台服务运行。 voice mode 语音模式, hold to talk 就是 可以直接语音交互。 body 是 一个宠物的伴侣系统,所以呢,从 carols 到 proactive 到 daemon 的 组合来看呢, adoptive 的 方向就是不只是一个被动的 用户打开的 my line, 而是一个一直在后台跑的主动的 agent, 能监听 click up webhook 主动推动通知,在不干活的时候帮你干活,这个逻辑呢,跟 open call 就 很像了。第五个模块呢,叫做预测执行,就源码中有一个叫 speculation 的 模块,就在用户还没有输入下一条指令的时候,就会帮你预测下一步,然后在一个 overlay 的 文件系统上提示执行 多呢,跑二十轮,一百条信息就是预判用户下一步的动作。第六个呢,叫 prompt cache, 就是 first class 一 等功能。那算法呢,对 prompt cache 的 优化程度是很高的,体式词呢,分成了静态跟动态两段,静态的部分可以划为主序缓存。不常用的工具呢,不再初使的 promly 放完整的 schema agent, summer 呢,生成栽药自 agent 呢,共享主对话的 prompt cache, 总体来说呢,就是通过这种类型的 hack, 让 cloud code 用起来又快又便宜。总体来说呢, cloud code 呢,是一个完整的技术框架,它不是在通过模拟训练来优化产品而表现出的,更多的是通过一个类似我们说的 harness engineering 方式呢,去让模型更有价值。这里面很多的工作呢,都是跟提升系统的主动性,保持上下文的理性,以及呢通过缓存等方式提升效率来做的工作。这些工作呢,我觉得也很好的,可以跟现有的 open cloud 的 能力做一个补充,成为所有的 ai 公司,包括个人开发者建立产品中的一个很重要的借鉴的一些能力。我们认为呢,未来整个的 ai 产品会分成三部分, 目前是底层的中间键呢,就是类似 openclaw, 类似这次的 claw code 组合起来的一个核心模块,在此之上呢,才是各类型的这种应用。我们公司现在的产品经理呢,从原来的 ai 产品经理变成了 cloud 产品经理, 因为我们需要用更系统化的思维去理解 ai, 这其中呢,就包括了记忆,包括了主动性,包括了人格,以及的外界的各类 skills 和工具使用能力,这些能力呢,已经成为了未来 ai 产品的一个很重要的核心的必备的组成部分。

cloud 泄露第三天,保姆级本地部署教程他来了,成功的接入了本地大模型。我让他开发了一款游戏,他还自动打开运行,并测试能不能成功。耐心看到最后先收藏再观看。整个部署分为四步,新手友好。 第一步,安装我们的 b u n, 点击麦克右上角的聚焦环搜索,输入 terminal 或者是终端回车。打开终端,复制我们的安装指令,粘贴回车, 等待安装完成。新开一个终端,输入二杠运行,最终显示版本号代表第一步成功。第二步,解压我们 打开安装目录,找到我们的隐藏的配置文件点 emv mac 可能有时候看不见,我们需要用 command 加 shift 加点来显示隐藏文件,按照我们的参数来配置接口地址和 t, 还有大文件的名称,修改完成,保存,关闭配置。 第三步,启动程序。首先终端切换到安装目录,依次复制以下两个命令进行执行。第一条命令赋予我们程序实行权限,复制,粘贴运行。第二条,复制粘贴回车。如果看到这个界面,说明我们的程序已经部署成功。先询问他使用了什么样的段位型返回内容和我们的配置一致,部署 成功。接下来测试实战效果,让他做一款俄罗斯方块的游戏,看他用多久时间,是否能够一次性成功。他自动唤起了浏览器,打开运行程序,我们来玩一下,我这里加速玩一下。 我发现最后他在游戏结束时没有做弹窗提醒,那我们让他修复一下。好,这里他花了两分钟修复这个 bug。 如果帮助到大家,点赞收藏,我是张成敏,关注我多一个程序员男朋友。

今天和大家分享在 windows 下怎么样安装和配置我们的 photodiode 神器 cloud code 介于目前用 cloud code 家的官方模型,有很多的限制,而且也有封号的风险, 所以我这边采用的方式是通过安装 cloud code 加接入国内大模型的方式来取现救国,所以我们的安装方式没有科技,也不存在封号的风险。 这个是我们需要准备的东西,包括 git、 node js、 c m d vs code、 cc、 switch 以及国产大冒险的 api, 这些后面我都会讲到具体怎么去配置跟安装。 接下来是我们的安装步骤。第一个要安装两个核心的前置, git 和 node js。 为什么要安装 git 呢?是因为 cloud code, 它是深度集成了版本控制的功能的 cloudcode, 它许多的内部操作,包括文件搜索、文本处理等等,它是依赖标准的 unix 命令,这些都是需要 get 来支持的。那同时 cloudcode 本身它是一个基于 nodejs 开发的工具,所以 nodejs 是 运行 cloudcode 的 基础。总之这两个前置大家去安装就对了。 接下来是我们的正式安装,两个安装方法二选一即可。第一个是命令行工具, cmd 或者是 file 都可以 输入如下的安装指令,按回车,稍微等一会, cloud code 就 在电脑里安装好了。第二种方式是通过安装 id 加插件的形式, 强烈推荐新手采用这种方式来进行安装,因为 id 工具它的格式化做得比较好,而且也非常适合我们未来去进行开发。我这边用的 id 是 vs code, 大家也可以用其他的 id, 包括 ctrl 啊, shift 啊这些都是可以的。那我这边就以 vs code 来举例,首先去官网下载并且安装好 vs code, 打开 vs code 左边扩展商店当中输入 cloud code, 就 会出现 antropic 加官方出的这个 cloud code for vs code 的 插件点击安装。那这里呢?我们的 cloud code 就 已经安装在你的电脑里面了,但是你会发现 cloud code 目前是需要你去注册的, 所以还差最后一步,我们的大模型配置。首先我推荐大家去安装这个 cc switch 的 工具,这是它的 github 地址,找到这样的一个文件去安装即可。为什么安装这个 cc switch 呢?因为首先它的设置非常的方便, 第二个后续在你切换不同大模型的时候也非常的丝滑,所以推荐大家都去装一个,非常适合新手。 第二,就来到我们最后一步选择模型的这样的一个问题了,那目前比较推荐的国内的主流大模型主要有智普的 glm 五, mini max 的 m 二点五以及 kimi 的 k 二点五,因为智普的 glm 需要你每天早上十点钟的时候去, 有点类似于我们的手机的抢购,我抢了两次都没有抢到,所以我最后选择的是 mini max 的 m 二点五,那你这边随便选择哪一个都可以,你在官网购买它们专用的 coding plan 之后,官网会给你一个 api key, 那 你得到这个 api key 之后复制,复制好之后打开 cc switch, 在添加界面,把这个 api key 复制进去,点添加就可以了,不需要其他任何的改动。这个时候你再回到你的 vs code, 点开右上角的 cloud code 的 图标,你就会发现 cloud code 就是 一个带交互的窗口了,到此为止呢,我们的 cloud code 在 windows 下的安装以及配置就结束了, 那如果大家安装过程当中有遇到任何的问题,欢迎私信或者在评论区回复,我看到了都会进行解答,谢谢大家。

最近有粉丝后台私信我 cloud code 如何接入国产模型,本期视频就教会大家如何用高新开源工具 c c switch 快 速配置千万三点六、 deep sec、 mini max 等大模型走,直接上干货。这里以 mac 电脑为例,配置前先做几步准备工作。首先使用 npm 安装 cloud code, 如果不会使用 npm 的 朋友,先看我主页置顶视频,复制宏框中的命令,在控制台执行,然后安装 ccc, 同样在控制台执行下面两行命令, 两个工具安装完成后,编辑配置文件 cloud 点 json, 新增 hash completion board 参数,打开安装好的 c c switch 软件,进入到软件主界面,点击 input 按钮,可以导入已有 cloud code 配置, 点击右上角加号,新增其他模型配置供应商名称,填写千问请求地址,参照我填写,或者参照评论区 api key 去阿里云大模型后台复制。如果没有开通,先开通千问大模型,点击高级选项,所有模型都填写昆三点六杠 plus 即可。 填写完成后点击保存,启动刚刚的配置,然后进入控制台,输入 cloud, 然后输入你是哪个模型,如果 cloud code 正确给出回答并显示千问三点六,那么配置就完成了。配置其他模型参照同样的方式也可以私信我教程。

hello, 大家好,今天我来录一期怎么安装这个 coding code, 并且给这个 coding code 装上一些国产的大模型,就是用国产的一些大模型装它的一些 就作为它大脑吧。 ok, 我 们先理解一下这 coding code 它是什么?它是一个就是 ai 编程助手嘛,它可以直接在命令行理解编辑运行你的代码, 但是他他他只是一个,他需要用用到大模型的吧,用大模型作为他的脑子,然后就作为他大脑,但这个大模大圆模型你可以自己选,好吧,你可以自己选自己想用哪些用哪些,所以说就需要 你可以选一些用一些国内的一些大模型作为他脑子,然后然后用让这个 callin code 的 去用那个大模型。 ok, 怎么安装呢?你可以直接问豆包。好吧,你这怎么安装?可立扣子它会给你一些方式啊,最最最快的,最快的方式就是直接用一行命令,好吧,就用这个 npm 安装全平台。呃,需要 note g s 就是 直接这一行命令文件复制以后你直接打开这个终端,然后复制到这里,直接一回车它直接就安装了,好吧,就安装好了。 呃,这很简单,安装是很简单的呃,但是前提是你要有这个 n p m 工具,好吧,如果你要是电脑上没有这个 n p m 工具的话,你可以去搜一下怎么安装这个 n p m 工具也非常简单,就是直接安装怎么安装 n p m 工具就去官网下载一个,然后 一一下安装就行,安装以后你要去判断你有没有这个 note。 呃, note 和 npm 的 工具,好吧,你可以看一下,像我的话就已经安装好了吧,所以说它有这些工具,然后你有这些工具的话,你就可以一行命令直接安装这个核定扣的,你直接把这个,把这一行命令给它复制到终端上,然后一回车它直接就下载好了。 安装好以后你可以呃验证一下这个 coding vision, ok, 如果你这个这行命令打出来以后,呃就是它能够显示版本号,就说明你的 coding code 安装好了,好吧,安装是很简单的,但是怎么使用它呢? 呃,它其实就是一个呃,呃终端的一个命令,好吧,终端的一个工具怎么使用它呢?但是呃它你要使用它,你必须得给他接大模型,对吧?你不给他接大模型 他都没有脑子,对吧?就是大模型就相当于是他的大脑,好吧?然后这克林扣的就相当于是可以理解成他的四肢吧。 ok, 所以 说你现在相当于是只有了他的四肢,但你还没有他的大脑,你需要给这个克林扣的接上他大脑 啊,他默认用的是一些国外的一些模型,好吧?所以说你肯定用不了,你要去翻墙,或者说他那个药价比较贵吧。所以说我们大家一般可以用有一个工具叫做什么叫 cc switch, 这个 cc switch 他 就是呃来给这个, 相当于是给这个 colin code, 呃配置一些大脑吧。 ok, 那 你怎么安装这个 cc switch 呢?你就直接去搜好吧,你可以直接搜啊, cc switch 起,然后这就是它的一个 gitlab 的 一个地址,然后点进来以后他看这个文档,看他这个文档,然后点中文的, 点中文的以后,然后你一直往下滑,他应该告诉你从哪下载,呃,下载看 windows 用户,我们 windows 用户怎么下载?他说从这个 release 页面,我们点进去, 点到这个 release 页面以后,然后换成中文版的,然后你就直接向一直向下滑。呃,还有一个,它这里有,这里,这里什么?这里是对应版本,知道吧?因为它这个 cc 四位企业有很多的版本,你可以随便选一个吧,直接选这个版本,然后再点这个 release。 ok, 点以后你自己继续往下滑,你滑到最下面,呃,滑,呃,滑到最下面,就这就这,它就是你根据你的系统嘛,看你是 windows 还是还是苹果的系统。我像我,我是 windows 的 话,就加这个,就点它,点它,然后它就可以自动下载,从下载完以后,你就可以直接它是个压缩包,好吧?你就可以直接解压,呃, 像我的话,我就把它下到这了,好吧,我找一下我这个 c c o, ok, 它这个压缩包你解压以后它就成这,你直接点这个 exe 文件,它就直接直接安装好了吧?直接点它就可以到这个页面,到这个页面以后它就你现在就可以来配置你这 codelink 的 它的大脑了。 ok, 怎么配呢? 嗯,我们,我们要要配,你要给他配大圆模型,我们我用的是阿里百炼的,好吧你,我用的是阿里百炼的这个,嗯,大模型,你可以,你可以先去找好吧。大圆,你直接直接搜这个,直接搜这个阿里,阿里云百炼,阿里百炼,然后他会到这个页面,到这个页面,你先登录一下。登录以后, 呃呃。登录以后,你先去申请一个 api k, 好 吧?申请一个 api k, api k 就 相当于是你的密码,好吧?就相当于是你的密码啊,因为你要使用这个 大模型就要有密码,不然的话谁都可以用了。 ok, 所以 说你要创建一个 api k, 你 直接创建一个,创建一个,创建以后它就会生成这,然后你就复制一下,复,呃,你就可以复制,然后,好,你这 api k 准备好了, 这边 apikey 准备好了以后,你就可以来这配了,你直接点这个加号,点这个加号,添加新的供应商自营配,自定义配置。好吧,你这是名字,名字我就叫阿里百元二吧。 ok, 这个备注,这可不用写,可不用写好,这个 apikey 就是 您的那个,好吧,这,这里的 apikey 就是 你这里这里的,你复制一下,然后复制到这,你看一下。 ok, ok, 看一下,哎,这里你这 api 可以 不要暴露给别人,好吧?如果你要是暴露给别人,别人的话,就可以用你的 api 去啊,就相当于是有了你的账号,然后它就可以去访问你的大模型 啊,就利用,呃,利用你的账号去访问大模型,他会把你那个额度给刷刷完,好吧,所以那 api 可以 不能暴露。 ok, 那 api 写好以后,请求地址,呃,他就知道去哪里请求,对吧?所以他这个请求地址你要写一下他的请求地址写哪呢?你可以看一下这个 api k, 我 们先你看 api k, 然后,呃,点这个使用指南吧, 然后新窗口打开,就有一些使用指南,我给你拿到这个,呃,新窗口以后,他这里有一个坑,好吧。呃,你,你,你这里要选哪个呢?正常的话,假如说你看这个是 bc 二,有的人他可能会直接复制上面这个,或者复制下面这个,复制上面这个,但是这有个坑,好吧?因为你看他说常用的配置工具,他这里有扣领扣的, 所以说你就肯定要选这个,他专门的给扣零扣的准备的那个 bc 二 l, 好 吧?所以说你不要,不要应,应该不能选上面这个,应该要选下面这个,我给你点,点了以后,他下面他这里就有这个 bc 二 l, ok, 然后你就把这个复制一下,复制一下放到这个请求地址这里,放到这个求求地地址里面 以后,然后,呃,然后这里还有一些你可以看,好吧?看下面这个是否和这个相同,好吧?是否和这个 它这里里提示了相同,你看,呃,哦,你看这里它好像有点不太相同,对吧?比如说它这里是 also token, 然后它这里写的是 api k。 啊,那我们应该换一下这个高级选项吧?高级选项应该是真正做断,我们应该选成 api k 吧,保,保证这个一样好,保证它和这个文档一样, ok, 这样的话其实就可以了。但是你现在是只是,呃知道了 他这个,他只是知道了你要访问这个地址,但是他不知道用哪些模型,对吧?因为这个阿里云版他有很多模型,你还不知道用哪个, ok, 所以 说你这里要配一些模型啊。模型怎么配呢?你就去找呗,找他找点那个模型,然后全部模型里面你找一个模型,因为他有很多模型,找一个自己想想用的,比如说这个吧,啊?你就点 点,然后你把这个模型的名称复制一下吧,这模型的名称你不能输错吧?输错的话他就识别不到,然后他是他也是大小写敏感了, ok, 然后你就可以复制复制到这主模型吧?主模型和推理模型,他这个是什么意思呢?主模型?什么推理模型?哈库模型,他这意思就是他那个, 呃呃,他这个意思就是,呃。你那个 qq 模式还有什么松林扣的?他有很多种模式,好吧?比如他有什么推理模式,还有什么松林摸一模型,就他有很多不同的模式,比如说他有的模式他 能够更深度的思考,还有一些模式,比如说一些简单的他,他给你提供一些快速的一些模式,然后就可以根据这个不同的模式配置不同的模型,对吧?你可能比如说,嗯,你一些深度思考的,需要深度思考的场景,你就给他配配一个。 呃呃,比如说推理模型吗?你可以给他推一个配一个好一点的模型,然后比如说这个有些快速,快速的那些模式的话,你就可以给他配一点那种差一点的模型,好吧?大概就这个意思。然后这里我就全配成这个,全配成这个,好吧?全配成这个房间这里有显示。 ok, 那 这样这样其实就好了,好吧?这样其实就好了,你就可以直接添加了, 添加以后你可以测试一下吧。刚刚添加,你要测试一下点这个点,这个是测试的哦,你看他测试阿里云百炼二运行正常, 他运行正常。 ok, 到这你其实就好了,好吧?你可以点这个起用,好吧?点起用,点起用的话就可以起用,起用好,起用,这时候你这个口令,呃,口令扣的就相当于是有大脑了,好吧?就现在有大脑就可以直接用它怎么用呢?它其实是一个终端工具。好吧?怎么用呢?它其实在终端运行,比如说, 呃,咱随便找一个文件夹吧。好吧,我随便找一个文件夹啊,找一个扣的吧。 ok, 我 找一个扣的,然后怎么用的? 呃,它其实是一个终端,你可以直接在终端用。好吧?你直接 c m d, 然后它它直接就到这了,然后你可以在这,在这就可以用,你可以打一个什么那个启动命令叫啥来着?我也忘了,好像叫 callin code 的。 呃,好像启动命令是这个,好像,试一下, 哎,你看,然后它就它就给你个提示,对吧?你试一下,你看,然后它就它就给你个文件夹 啊,然后啊,你看这时候它编辑的就相当于是它给这个文件夹连接起来,好吧?现在连接起来,然后你现在它这个编辑 code 就 可以利用这个 code 里面的一些文件。比如说你让它创建一个文件吧,比如说,呃,帮我, 帮我在文件根目录下创建一个文本文件,里面写一个 hello world 吧, 我随便写一个,然后你直接回车,然后他就开始执行,然后,呃,他会让你确认一下吧,他会让你确认你,你确定是否要创这个你要确认,然后你可以选第二个。呃,就是 你要是选第一个的话,就是他每次创建文件的时候都会让你确认一下,第二个的话就是,呃,你不用确认了,后面就不用确认。 ok, 我 直接选确认, 哎,你看他如果就帮我们创建好了,创建到这了,然后这个是重转工具。 ok, 但是你这样用不是太丑了吗?你只能用在这工具这这个终端里面用,很丑,好吧?呃,也也不好用。然后然后它,嗯,它就会在你的一些编辑器,比如说你用的是 vs code, 或者是你用的是 part time, 它里面都会有一些插件,好吧?哎,我看我这是啥呀?它里面都会有一些插件,它会集成这个 扣领扣的啊,你就可以直接去搜,好吧?像是我还没下载呢。这个当然你可以自己去搜,你直接搜这个扣领扣的,应该是,应该是扣领扣的吧,你直接搜,他应该都会有一些插件,然后你你,你去下载那个插件,下载那个插件他是速度也慢, 你看扣领扣的。 for vs 扣的,你去下载这个插件,然后他可能就会给你提供一些啊图形化的页面,好吧?有更好看一点,或者怎么样?然后还有这拍卡模,我在这个拍卡里面集成了这个扣领扣的吧,然后他也是这样,只不过有点丑。 反正就这样啊。这,这就是口令扣的,然后你就可以用它,它,它现在就相当于和你整个文件关联起来啊,你就可以用它去操作一些文件,比如说这里就让它, 然后再说一下吧,就它这个口令扣,它有很多模式或者很多命令,比如说你打一个斜杠,还有很多很多什么这种命令什么的,比如说你写一个 model, 好 吧, model 是 model, 然后他就现在就让你选模型的嘛,就是选那个模式或者什么的, ok, 然后就这样,大概就这样,大概大概就这个意思, ok, 然后比如说你可以帮我分析一下项目结构吧, 然后它就自动开运行,它相当于和你这个结构文件结合起来,会啊,这就是可听歌的用法吧?然后你就可以直接问他或者怎么让他帮你携带吗?或者帮你做事情等等等等一些,然后他就开执行。然后它的聪明程度取决于什么?取决于你给他配的大脑,对吧?他给你配的这个阿里百炼这个大脑, 然后你,你给他配一些聪明的大模型,他肯定能够更聪明一点,好吧?但是,但是他应该是需要收费的,好吧?这个,这个阿里云白电他需要收费的,但是他会给你提供一些免费的额度,好吧?像我这个,呃,看免费额度, 看我这只剩百分之七十,好吧?我可能我刚用了用了电,然后他用百分之七十,所以说他还是要付钱的。 嗯,但是这个付钱也不是 qq 的 收你的,好吧?它应该是你个大模型厂商收你的,像它是肯定阿联版链收你钱的吧?要给这阿联版链里面充钱,然后这就是 qq 链的用法吧? ok, 希望能帮助到大家,好吧,结束。

cloud 的 源码泄露事件,全网都在分析怎么泄露的,是不是有什么阴谋?我不一样,我直接让他结合 opencloud 跑起来了。这里有个重点,泄露出来的代码能成为 cloudcode 的 直接跑吗?其实是不能的,它会有一些东西是断的,缺了一些文件。 那我干了一些什么事?我直接让已经在跑的 open core 我 的龙虾分析它的架构核心功能,并将这些东西复刻到我的龙虾里,让它进化。昨天发送了很多的资料给粉丝,可是他们都问怎么弄啊?现在就来简单演示一下, 给他文件位置,告诉他读取并分析学习复刻原码构架核心技术,并强调是复刻,不单是借鉴,它会出现很多的。下一步我会让他不要等,直接全部做完 替换 api, 我 还是用原来的未获之后它就显示完成。我不放心,我用大神写的关于源码的文章又复刻一遍,又补充了一些 note, 还是不放心,又问它框架做的怎么样了,还强调了一遍复刻。最后看下它的全部成果,还是挺完整的,上下文安全检查,三层记忆 a 卷的循环模式,连这个数字宠物都有了。还没有源码资料的可以进粉丝群领取。谢谢大家的关注,我们下次再见!