当你不小心安装了个 open curl, 然后发现 token 消耗刹不住了,而且非常健忘。你直接给我去 guitar 输入 cloud man, 你 会发现这是一颗能给你的龙虾赋予持久化记忆的插件。以后你就能像看朋友圈一样,实时看到你的 open curl 到底记住了些什么,而且还能节省百分之九十的 token 消耗。之后你又不小心输入 open viking, 更牛的来了,这是一个专门为你的龙虾设计的开源上下文数据库,它能让你的多个智能体之间共享信息,直接结束那种无法协助的智障模式,而且还能让你的书 token 成本降低大概百分之九十六,任务完成率直线上升。有了它们,你的大龙虾会越来越聪明。这么好的东西,不给你的龙虾配一个吗?
粉丝7.1万获赞62.4万

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

open code 是 近期热度最高的 ai 编程工具,它的最大优势是有开箱即用的免费模型,通过简单配置,还能免费接入 gemine 三 pro、 cloud、 四点五、 opus 等顶级编程模型。 open code 可以 看作是一个开原版的 cloud code, 几乎具备了 cloud code 的 一切功能,而且对中国用户友好,不 会遇到 cloud code 里面限速、封号等一系列麻烦的事情。在 open code 里面有几个可以免费使用的主流模型,非常适合小白上手, ai 编程可以随便造随便玩,还可以用它练习 agent, skills, mcp, sub agent 等高级特性。本期视频是一个 open code 的 完整教程, 主要介绍 open code 的 四种形态,对比其他 ai 编程工具的亮点,还有我们要重点介绍欧买 open code 的 这个超强插件,还有等等的一系列高级用法。 open code 的 有四种形态,分别是命令行、桌面、客户端插件,最后是云端运行环境。我们先来看命令行,这里我准备用第二种方式,也就是 note j s 的 方式来安装。 我们先来到 note g s 的 首页,在这里根据自己的操作系统下载对应的安装包,把 note g s 安装一下。接下来我们复制 n p m 的 安装命令,我们打开一个终端窗口,把安装命令粘贴进来回车,这样就安装完成。输入命令, open code 就 可以直接启动了,进入这个页面打个招呼, 这样就完全配置成功了,非常简单。接下来我们来看客户端版的安装,在这个页面点击下载客户端,然后一路点击下一步完成安装。打开以后选择一个文件夹作为项目文件夹就可以直接开始使用了。 open code 的 客户端并不是一个完整的 ide, 它只有基础的对话框功能,而 而且目前处于贝塔测试版,我试用下来 bug 还是比较多的。所以本期视频我们主要还是以命令行版本为例进行操作。接下来我们来看插件版的安装。使用插件版的 open code 的 前提是需要先把命令行版的安装好,这里我以 vs code 为例,我们打开 vs code, 在 左侧的 extensions 搜索 open code, 然后我们找到这个 open code 插件,点击安装。安装好了以后,我们按快捷键 ctrl shift 加 p, 打开命令面板,敲这个命令, open open code 回车,这样就以插件的形式打开了 open code, 它可以自动关联左侧窗口打开的代码文件。然后我们还可以选中一些代码,点击快捷键, ctrl alt 加 k, 把这些代码直接快捷地粘贴到 open code 的 聊天窗口里面, 这就是插件的全部功能了。最后一个云端运行环境,我们放到视频的最后面再看 open code 最棒的是内置了一些免费的模型,我们敲命令来到软件进来以后,输入命令斜杠 models, 后面带 free 标记的都是一些可以免费使用的模型,特别是 g l m 四点七,还有下面的 mini max 二点一, 编程能力都非常的不错,零配置开箱即用,输入需求就可以直接编程了,很适合新手用它们来练习 ai 编程。接下来我要推荐一个插件叫 open code 的 anti gravity os。 anti gravity 是 谷歌推出的一个 ai 编程的 ide, 它里面十分慷慨地提供了 jimi、 nike 三 pro 还有 cloud opus 四点五这两个顶级的 ai 编程模型,我们可以借助这个插件把这两个顶级模型免费地接入 open code 里面使用,在它的 get up 首页有安装方式, 最简单的就是把这一句提示词复制下来,然后我们来到 open code 粘贴进来开始,这样 ai 就 能自动帮我们完成安装,这里耐心等待一会,这样插件就安装完成了。接下来我们复制这个命令,然后我们打开一个新的命令行窗口,执行这个登录命令。 这里的模型供应商选择谷歌,选这个 anti gravity 的 登录方式 project id, 这里直接回车,这里登录一下自己的谷歌账户, 点击登录,然后把生成的这个 u r l 粘贴进命令行回车,选择 n 回车,这样就配置完成了。我们重启一下 open code 的 斜杠 models, 在 模型选择里面我们就可以选到 jimmy nine 三 pro 还有 cloud opus。 四点五这样打个招呼成功给到了输出就配置完成了。接下来我们把另外一个好用的编程模型 gbt code 也接入到 open code 的 里面。就在前几天, open a i 跟 open code 的 官宣进行了合作, 我们可以直接在 open code 里面使用 chad gpt codex 的 编程套餐。首先我们需要在 chad gpt 的 官网获取一个至少是 plus 以上级别的套餐,在这期视频里面详细的介绍了订阅方法。我们来到 open code 输入这个命令斜杠 connect 回车,这里选到 open ai, 选择 gbt pro, 在 浏览器里打开这个链接,选择继续,这样就登录完成了。然后我们回到 open code 输入命令斜杠 models, 这样就可以选到 chat gbt 的 几个模型了,除了上面这几种接入 ai 的 方式,输入斜杠 connect 命令,可以查找到七十五种 ai 的 接入方式, 几乎囊括了所有的模型供应商。比如我们可以找到 open root, 这里需要我们填写一个 open root 的 api key, 我 们来到 open root 的 官网,点击 get api key 创建一个, 把这个可以复制一下,填写到 open code 的 里面,回车一个 open root 就 能接入市面上几乎所有类型的大模型,而且国内用户也可以很方便的获取额度,可以说我们只要接入了 open root, 就 可以使用几乎一切的大模型。 我找了一个之前常用的经典测试案例来测试一下这里 open code 的 表现有几个亮点。首先在开始之前,他会反向询问我一些问题,比如说只是要代码样例,还是一个完整可以运行的程序,有哪些功能是必须实现的,调用哪个 jimmy 模型,然后环境变量是怎么保存的, 在动手之前他会把所有的需求细节询问清楚,这点非常的不错。然后他列出了一个详细的开发计划,并且分步骤完成,每完成一步都会标记出完成。 第二个亮点就是命令行版的代码比对界面,我觉得是所有命令行类的编程工具里面做的最好的,整个编程过程没有出现错误,也没有出现过需要代码返工的场景,一次性就完成了这个需求的开发。这里我使用的编程模型是 gpt 五点二 codex, 我是通过登录我的 chat gbt plus 订阅的账号把 codex 模型接入进来的,我觉得它在 open code 里面的表现跟使用原生的 codex c l i 的 表现几乎是一致的。 open code 在 底层对各种编程模型都进行了很多工程上的优化,还是很不错的。 喷扣的里面重点突出了一个叫做 session 的 概念。我们每次跟 ai 开启的一个新的对话,就是一个全新的 session, session 可以 后台运行,而且可以多个 session 并行运行,比如这是我们刚才生成的你画我猜的游戏网站,这里我想增加两个功能, 首先我想让画笔可以调整颜色。第二个功能我想增加一个计时器,如果作画超过二十秒,游戏就失败了。我们先输入第一个需求,增加一个计时器,在第一次落笔的时候进行计时,如果超过二十秒,游戏就失败了。开始 在这个任务的执行过程中,我们可以输入 new 命令,创建一个新的 section, 然后开始我们的第二个需求,第二个需求是画笔可以调节颜色。我们输入命令斜杠 sections, 就可以看到我们触发的 session 前面一个打转的符号,表示它正在后台运行。这样我们就创建了两个 session, 让两个需求并行开发,还可以在两个 session 之间互相切换,查看它们的执行状态。好,这样就完成了, 我们可以调整画笔颜色,然后我们开始作画的时候,右上角也出现了一个倒计时,我们成功利用了 session 功能,并行地完成了两个需求的开发。输入斜杠 share 命令, 可以把这个 session 的 对话记录分享成一个网页,网页的地址已经复制进了粘贴版,我们把地址粘贴进浏览器, 就可以看到这个 session 里面跟 ai 的 对话记录,包括它是怎么进行文件修改的?有了这个历史记录以后,我们就可以很方便的把我们的编程过程跟其他的用户进行分享。输入命令 on share 就 可以取消分享, 之前的链接也就变得不可用了。输入命令斜杠 export 就 可以把对话记录导出成一个文件。刚才我又进行了两次对话,先让它把画笔默认改成红色,然后把这个提示删除。 open code 还有一个亮点功能,就是它的时间线,或者说是检查点。我们输入命令斜杠 time line 回车可以看到这个 session 里面的跟 ai 的 对话记录,我们可以选择任意一次的对话记录,选择这个 reward 功能, 把代码跟聊天内容一起回退到这次对话之前的状态,我们可以回到这个时间点再重新进行修改。 在上期视频里面,我们介绍了 agent skills 的 基础概念以及其目录结构,我们可以把 skill 理解成带目录的说明书。每个文件夹都对应一个 skill, 也就是一个技能包。 把一个 cloud code 中的 skill 迁移到 open code 里面非常的简单,我们只需要把目录里面的点 cloud 替换成点 open code 就 可以了。 在上期视频里面,我们一共创建了三个 skills 文件夹,把这三个 skills 迁移到 opencode 里面也非常的简单。我们来到 opencode 的 项目文件夹,新建一个叫做点 opencode 的 文件夹, 进来以后再新建一个 skills 文件夹,然后就可以把这三个技能直接复制进来,这样我们的项目就拥有了那三个技能。我们右键在终端打开,输入 opencode, 启动起来。我问他你有哪些 skills? 这里给出了完整回答,当我们有需要的时候,它就会调用这些 skills 进行工作。接下来我们来看 m c p。 的 配置方法。 open code 里面有两种 m c p, 我 们在文档里面可以找到一个是 local 的 方式, 也就是通过本地命令来执行。还有一个 remote 的 方式,也就是远程调用。我们先以这个 set cn 为例来把它配置一下。我们先来到 open code 的 配置文件夹,用户你的用户名 点 configure, 然后 open code 找到这个配置文件。 open code 点 jason, 来到文档站,这里把 m c p 的 这一段复制一下,粘贴过来。我先把这些多余的逗号去掉,这里填写上 m c p 的 名字,这里我就叫做 set c n 类型的话是本地,然 然后 command 这里填写命令 n p x, 后面是 shift c n, 把这一段复制过来。最后这里还有一个 m c p, 我 们打个逗号,添加上 enable, 表示启动下面没有环境变量,这样一个本地的 m c p 就 配置完成了。接下来我们再看一个远程调用的案例, 我们就以这个 context 七 m c p server 为例。我们回到 opencode 的 文档站,在下面找到这个远程调用的案例,把这一段复制一下,打个逗号,粘贴到配置文件里面来。这里类型是 remote 远程调用 url, 我 们把 context 七的 url 复制一下,粘贴过来。 在 hide 里面我们填上 context 七的这一串粘贴过来,这里它需要一个 apikey, 我 们可以来到 context 七的官网创建 apikey, 把这个可以复制一下,填写到配置文件里面, 把这个 m c p 的 名字改成 contact。 四七,我们重启一下 open code, 输入命令斜线 m c p, 就 可以看到我们刚才配置的两个 m c p, 这就是本地,还有远程调用两种 m c p 的 配置方式。 oh my open code 是 open code 上一个最火的编程插件,它本质上就是一系列的工具加 m c p 加编程 agent 的 组合捆绑包。比如在工具方面,它集成了 l s p 高级版,可以通过编程语言的语法和语义,帮助 ai 快 速理解和定位代码。 a s t 工具可以通过代码的语法术进行关联搜索。 open 工具借助多模态大模型的视觉能力,帮助理解图片还有 pdf 等信息,还有像 delegate task, background task 这些 agent 任务分配和后台调度工具。插件还内置了三个 mcp server web search 用于网络搜索, context 用于获取最新的文档。 group app 用来在 github 仓库快速搜索代码。 插件还内置了七大编程智能体,分别是希奇福斯,它是主智能体,用来规划和调度任务,先知用来做架构设计、代码评审等等。图书管理员用来查阅文献,探索者用来进行网络搜索。还有前端工程师、 文档编辑者,还有多模态等等。插件给每个智能体都分配了一个最适合他工作的大模型,比如前端工程师使用前端能力最强的 jimmy 三 pro 模型,主 agent 使用的是 cloud opus 四点五,据说这是作者花了两万四千美元的 token, 找到最适合的 ai 编程团队。 好,我们把这个插件安装一下,在它的 github 首页,这里有一段提示词,就是 install 开头的这一段,我们把它整个复制下来,我们回到 open code, 把这段提示词粘贴过来。开始安装的时候,插件会询问我几个问题, 他先问我有没有可洛的订阅,这个我是没有的,我有 gbt plus 订阅,用 gbt 去替代可洛的模型,然后问我有没有拆的 gbt 订阅,这里我选择 yes jimmy 订阅,有, 最后选择确认。过了一会,插件成功完成了安装。安装完成以后,我们来到 c 盘用户你的用户名点 config, 然后 open code 的 这个文件夹,在这里面有一个欧买 open code 的 配置文件,这里定义的是欧买 open code 的 七大智能体所用的模型,我们可以根据自己的需要来进行调节。 这里我把希希福斯的模型换成 g b t 五点二,剩下几个的模型都是作者的推荐配置了。然后我们重启一下 open code 的, 我们进来以后看到它显示的默认智能体就是希希福斯。 这个插件主要有几种用法,首先我们可以敲 at, 然后挑选一个智能体给我们干活。还有一个用法就是输入这个魔法词 u l w, 也就是 ultra work。 输入这个魔法词以后,不买 open code 就 会尽可能地调用它的一切潜能,把任务分配给几个智能体,并且并行运行, 由这个主智能体西西福斯进行居中调度。这里他询问我要什么样的网页,我们大体填一下需求,然后开始 我们看到他把任务拆分成了一个 to do list, 然后同时开启了三个后台任务并行执行,然后他对这些后台任务进行疯狂的调度。我们耐心的等待一会,等了几分钟, auto work 模式运行完毕,我们来启动起来看一下效果。一个宠物商店的应用看起来还真是不错, 界面看起来就很清新,它在没有图片素材的情况下,还尽量地用 emoji 给我们配了一些图,整个网站的交互还有动画逻辑看起来都是不错的。如果你有 gbt、 cloud 等几个顶尖模型的订阅,不妨来试一试。这个插件可以综合地调度各个领域最强的模型,完成一个很不错的编程任务。 购买 open 扣的还有一个重要玩法就是我们输入这个命令斜杠 raf 路虎就是拉尔夫循环,这个模式可以强制 ai 长时间的循环,对一个非常难的任务进行持续工作。 比如我可以要求它使用 springboard 四的最新标准重构整个项目,然后直到所有的测试用力都通过,它可以循环连续运行好几个小时,直到最终的任务完成。 刚才我们介绍了命令行、桌面板还有插件等运行环境。接下来我们看云端运行环境,这里我以 github 举例, 它的主要功能是当我们在 github 上面输入斜杠 open code, open code 就 可以在 github 云端进行工作,比如可以为我们解释问题,自动修复问题,并且创建 pr 等等。这里有一个安装方式,我们来试一下。首先第一步,先把项目上传到 github 上面, 这里还是刚才那个宠物商店的应用,点击这里的 south control public 是 branch, 这里我选择 public, 把这个项目变成一个 gitap 上面的公开仓库,点击右下角的 open on gitap, 这样我们的代码就成功上传过来了。接下来我们来到代码文件夹,把这个安装命令复制一下,粘贴过来执行。点击 install, 选择一个模型替工商,这里只能用 api 选择一个模型。然后还有两步需要操作,首先要把项目里这个文件提交到 gitap 上面,它已经准备好了这个配置文件, 我们先把它提交上去,接下来它需要把这两个环境变量填到项目里面,我们来到项目的 sightings, 然后下面的 secret and variables 这里找到 actions, 在 这里的 repository secrets, 我 们把第一个 key 的 名字复制一下,粘贴过来,对应的密钥可以在谷歌的 as studio 创建一个,这样填写过来保存。 接下来第二个 key 复制过来,还是填写相同的密钥,这样填写好了两个密钥。比如某个用户可能会在一处里提一个 bug, 说顶部导航栏 find ipad 跟 adopt null 功能重复, 应该去掉这个 find ipad 就是 这两个功能重复。在这个项目里面就可以直接斜杠 open code, 调出 open code 的 功能, 让 opencode 把这个 bug 修复一下,我们提交这个评论。然后我们来到项目的 actions 里面,可以看到这里有一个 action 就 正在执行了,这个就是 opencode 的 工作流,它现在正在 gitlab 的 云端运行,帮我们来修复这个问题。任务运行完成,我们来到 pullrequest 这里 就可以看到一个代码合并请求。在 file changes 这里可以看到它对代码成功进行了修改,我们只需要点击这个默认设置按钮,就把 open code 这次修改合并到了我们的代码仓库,这样这个一束就成功完成,并且关闭了。 接下来我们再介绍 open code 的 几个其他的重要功能,这些功能其实在之前的 cloud code 还有 codex 的 视频里面已经进行过介绍了,这里我们再快速的过一下。 首先第一个命令斜杠 inate, 这个命令可以让 ai 通读整个项目文件夹,然后把它学到的关于整个项目的知识生成一个 agents 点 m d 文件,这个文件就作为整个项目的系统提示词,可以帮助 ai 快 速地了解项目下一个重要命令。斜杠 compact 用来压缩之前对话的上下文,把之前的对话提炼成一个简洁的摘药来释放模型的上下文窗口。除了这些内置的斜线命令以外,我们也可以创建自己的命令。我们来到 opencode 的 配置文件夹,在这里面可以新建一个 com 的 文件夹,在 这里面就可以以 markdown 文件的形式来定义自定义命令。比如这里我创建一个自定义命令,叫做运行测试,我把官网上这一段样例复制过来粘贴进来,我们可以指定它是 build 或者 play 模式下面的命令,在下面的描述里面写清楚这个命令是做什么用的。 配置完自定义命令,我们可以在 open code 里面斜线,然后是命令的名字,这样就可以运行我们的自定义命令。下一个功能可以定制智能体, opencode 里面预设了 plan 跟 build 两种智能体,我们也可以创建新的。我们来到 opencode 的 配置文件夹,在这里面可以新建一个 agent 文件夹,比如这里我想新建一个 code review 的 智能体,让我新建一个 markdown 文件,在这个智能体的文件里面填上描述类型,它是一个主智能体还是 sub agent? sub agent 的 意思就是它可以由主智能体调度在后台执行,然后填上一个模型,后面是它的描述,就是这个智能体主要做什么事情。 定义好了以后,如果以后 ai 可能需要 review 代码的时候,它就会自动调用起这个 sub agent, 并且在后台运行,帮我们自动完成工作。 我们除了可以把一个智能体定义为 sub agent, 也可以定义为 primary, 也就是主智能体。定义成主智能体以后,我们可以按 tab 键直接显示地切换到这个智能体进行工作,而 sub agent 只能在后台由 ai 自动调度执行。好,这就是本期视频的全部内容了,感谢大家点赞支持,我们下期再见!

小龙虾我用了几天我就把它卸载掉了,原因有两个的哈,一个就很费钱是吧?很烧这个头壳,第二个的话他真的没有想象中的那么智能,是吧?我叫他去做一些一个色表啊,握啊,是吧? 他做出来的那个结果啊,都是乱七八糟的,不是我想要的那种结果,还不如人工做是吧?呃,他的那个技能啊,是 q 啊,那些现在还是不成熟的,等以后成熟的话再使用吧。 就是机这几点我就用了一段时间,我就把它卸载掉了,而且这个软件也不是很安全的,各种 bug 一 大堆,是吧? 然后如果真的你想自动化办公的话,我推荐你用阿里的那个 coldwork, 那 个还可以,我用了,我现在也在用那个,虽然说没有小龙虾那么火,但是它使用起来比较安全简单。

有人设置了一个任务,让 open klo 每隔几分钟帮他查一下时间,一觉醒来,账单来了二十美金,就查了个时间,这不是个案啊。 open klo 本身是免费的,但它运行是需要调用 ai 模型的,而 ai 模型是按 talk 收费的。 说一句话,他思考一次等于几百个 talk, 他 执行一个复杂的任务,几万个 talk, 甚至几十万个 talk。 有人用了两天花了三百美金,有人一个月烧了一点八万块,有人让他帮忙整理邮件,一次对话消耗了十三点六万。 top 什么都没干完,钱先没了。所以,到底是谁在赚钱?全世界数百万人都在免费的养龙虾,但是 a 建成,每一次思考,每一次执行任务背后都有人在收钱。 entropyclot 啊,在搜, openai gpt 的 公司也在搜, google gemini 的 公司也在搜。黄润勋说了一个数字啊, openclot 执行任务消耗的 talkin 是 普通 ai 的 一千倍。那一层人话就是,这场养虾的热潮, 是 ai 公司有史以来最大的一次集体涨收入。那中国用户怎么破局呢?当然了,中国用户是最会省钱的。第一招就是换模型, tip six 成本是 clod opo pass 的 六十分之一,同样的任务便宜六十倍。第二招,本地部署一台 mac mini m, 四二十四小时运营,每个月电费不超过二十块钱,一次性买一段,永久免费。第三招,白嫖。 open clob 官方把 timi 二点五设为默认免费模型啊,有一定的额度,然后你就可以白嫖一点基础的额度。聪明的人已经把月消耗从三百美元降到了二十美元以内。所以养虾这件事情,本质上是一场滔天消耗的生意。 养虾的人是用户,喂食的人是 ai 公司,饲料是 talkin, 买单的是你啊。唯一的问题是你知不知道自己在买单,以及有没有办法让自己少买一点单。如果你再用 open call 或者打算用啊,第一件事情不是学怎么用,是先搞清楚 怎么不被它悄悄烧钱。这坑我踩过啊,想了解的评论区告诉我,我单独出一期怎么把 talkin 的 费用压到最低。

送外卖赚钱买托克,养 open 可乐第一天?嗯,养小龙虾啊。我是昨天晚上动了这个部署一下 open 可乐的心思,看网上都说部署好难,其实实际上操作下来,呃,我本来预算是我,我都说好难了,我预算是花两千块钱给他部署下来,实际操作也就花个几十块钱云端部署一下就搞定了。嗯, 我对这个可乐的 boss 了解其实很早,但是一直都没有想去啊。这个实际去部署一下,因为我觉得还有 可能是就送外卖送的懒了人啊,这都是借口啊。直到昨天晚上我听播客,我听到这个 open 可乐里面现在大家都在封装自己的工作流啊,做成这个 skills, 那 我觉得这个现在很有热度的话,那马上就会推出很多哎,我可以直接接入的这个 skills 的 插件, 所以我得抓紧研究一下了啊,因为我觉得这个让他真正的去帮我执行一些事情已经差不多可以落地了。一向之前的话,我自己去大工作流写这个啊,写一些 pro 的 什么的,我觉得很复杂啊,我也不想干 啊。并没有,就是做到就是我发号施令,他直接去执行啊,也就是正常大家听到的,我不用过程,我只要结果,对吧?我给你一个目标,你,你最终把结果给我,这个还是非常有想象空间的,所以我今天出来送外卖,我都早出来送了,因为, 呃,确实是像大家一直讲的这个烧脱根的,我聊了几句,确实挺烧根的,所以我今天早点出来,我多送点外卖,少吃点饭,就把钱留着给他烧脱根。我当前的规划是先拿出三个月好好研究一下,这期间啊,他要烧多少脱根,我就给他烧,对吧?大不了咱早点出来送外卖,少吃一口饭。 呃,同时这里面还有个核心的问题啊,这个 ai, 这个 agent, 它其实解决的是一个怎么做的问题,但是让他做什么,这是我们所需要思考的问题。所以我觉得早点出来送外卖也很有必要啊,因为送外卖的时候对我来讲是一种心流的状态,脑子里可以去思考很多东西,去想好让他做什么,对吧?我送外卖赚钱买头梗供他学习, 同时呢,嗯,这个 open 可乐他消耗托根去学习,然后再跟我磨合,为这个将来具体的配合执行去做准备,对吧?我送外卖负责指路, open 可乐 负责行路,昨天也就仅仅是把这个 open call 给部署好了。嗯,具体的研究今天回去执行一下。路上也听了不少播客,有一些新的啊,有一些新的思考了,回去立马执行落实一下。大家可以点点关注,看看我这个,看看送外卖的怎么去用这个养好自己的一只小龙虾。

最近我看到网上有很多对于 openclaw 的 误解,说它太贵了,不安全,或者是没有什么用处,只是用来装逼的。虽然我也不是什么龙虾专家,但是呢,我是实打实的 openclaw 用户,所以我会有一些对于产品的一手提。 也正是因为我本人亲手安装了 openclaw, 并且也是在亲手的用它,所以我才会觉得这些都是对于 openclaw 的 误解。那么今天我就来给 openclaw 证明了。首先呢,很多人说它太贵了, token 烧的太快了,如果你每天二十四小时都在跑 opus 模型,并且给它很复杂很难的一些任务的话,那确实 头壳烧的会很快,但是我觉得大部分人应该用不到这个程度吧。并且如果你用量比较多的话,你其实可以考虑很多性价比高的模型,例如很多我们的国产模型,包括 kimi, minimax, 智普,这些模型的价格都很亲民。如果你担心的是费用的问题的话,那我觉得可以这样,你先选一个国产的模型,充个一两百块钱进去, 注意这是一次性的充值,不要让它自动续费。然后你就先用着,你每次用的时候,你回去看一眼这个任务花了多少钱,时间久了,你就会有个概念,就是这个模型的 token 它大概烧的有多快,那从这里开始呢?如果你觉得你的用量会很多, 你也可以考虑换成一个 coding plan, 或者是你觉得质量不够好,你也可以换成一个更贵的模型。但是无论如何,最差的结果就是我们会失去我们一开始 充进去呢,一两百块钱,在此之后,如果我们就是不用了,就不会有更多的损失了。顺便说一下我个人呢,现在用的是智普的 g l m 模型,然后我应该算是一个比较轻度到中度的用户, 我一个星期大概会花八美金左右,也就是五十六块人民币。第二个呢,就是太危险,特别是最近新闻上也很多人看到啊, mata 的 一个高管,他的信箱被删除了怎么怎么样的,或者谁谁谁的钱被偷了等等。 这里我想提一个概念,就是没有什么事情是零风险的,我们现在的电脑就算不安装 openclaw, 随时也可以被黑客攻击,特别是在银行工作过的小伙伴可能都知道,银行追求的从来都不是零风险,而是管理风险,就是我来控制和管理这个风险到底有多大,并且提前做安排,这样一旦出事呢,我是可以 接受最后最差的后果的。这里举一个简单的例子,你不要给他你自己的电子邮箱,你给他单独设置他自己的账户,自己的电子邮箱,有什么事情你就把信息转发给他,让他来看,你也不要把自己的私密信息银行账户给他,有什么事情你可以做一次性的充值,或者单独给他打一部分钱。 假如 openclaw 被攻破了,那么你失去的就是这个机器人,他的这一套账户和你在里面存的一些钱,而不会去影响你本人的这些东西。 那么这里关于安全性呢,还有很多其他防范的操作之后我会单独出一个视频来更系统性的讲一下。那么第三个也是让我为他最打抱不平的,就是很多人觉得 openclaw 没有用,它只是一个社交属性用来装逼的,或者是它只是噱头让网红来讲而已。我可以理解,网上不免有很多人,他们其实没有用过 open, 没有去安装,去部署,或者去动手去试一试,只是在传播一些信息而把这个概念炒起来了。这一类的信息我也会避免去看,但是这个并不妨碍有那么一群人仍然觉得 openclaw 超级好用,例如我自己。 那么我看了一圈下来呢,有一种感觉就是,如果你是一个个人使用者的话,可能对你来说价值不会很高, 因为我看到很多人用它来查自己的 email, 去看天气预报,会提醒自己喝水,甚至去刷自己的社交软件。这些事情我作为一个个人,我都可以自己做,我不一定需要一个 agent 来做它,所以 agent 在 这里能体现的价值是非常有限的。但是呢,你但凡有一点业务,那 openclaw 真的 是太好用了。不管你是音乐老师,还是地产经济,还是健身教练,还是博主,但凡你有一些这种助理或者秘书需要做的工作,它并不是你业务的核心。你其实都可以尝试用 openclaw 来解放你的双手,因为工具说到底它本身是没有价值的, 它的价值来自于它的用户怎么去用它来创造价值。举一个不是特别恰当的例子吧,你把 excel 给一个厨师,他可能觉得就还好。 但是你把 excel 给一个金融分析师,让他来搭一个金融模型,然后用模型来帮他做投资的话,那这个分析师他一定会觉得 excel 超级好用,超级有价值, 一个产品或者一个工具,它的上线仍然是它的用户和这个人而已。所以今天我们提到 openclaw 的 费用和它的安全性,还有它到底好不好用?讲这么多呢,我只是想让大家知道,当一个新的事物出来以后呢,网上一定会有很多人去传它的好和它的坏, 里面可能会有一些噱头,有一些泡沫,也有一些真实的案例。这时候呢,我们作为观众要注意辨别真假。然后呢,是更好的在自己可控的环境中去真正的动手去试一试它, 而不是被谣言和误解提前的就挡在了门外。如果我们只听别人的话,而不愿意去体验或者尝试新的产品的话,那最后耽误的还是我们自己。

今天给大家分享另外一个在 open code 上面的一个插件,上次我分享过欧麦 open code, 下面就有朋友说特别的烧 token, 我 用下来确实也如此。当然除了烧 token 之外,我还遇到另外一个问题,就是因为它会有多个 agent, 但是每一个 agent, 比如说负责后端的,它完全是让这个插件自主的去选择,你自己没有办法指定。 这对我来说是一个问题,因为我在用前端,使用这个 gemini 三 pro 的 时候,我发现它非常慢,所以我不想用它再去写前端,我想把它换成 cloud, 但是我换不了,你只要用这个插件,反正我是没有找到方法去换的, 如果大家有找到的可以告诉我。那针对这两个问题,我就去找了一下,发现还有这么一个插件,它其实是 fork 的 这个 omepin code 的 这个代码 叫 omepin code slim, 就 它完美的解决了这两个问题。第一,它没有那么消耗 token, 另外它可以指定多个 agent, 它们各自用什么模型,这个自由度就非常大了。 那其实它的这个就是多个 agent, 跟那个欧曼 open code 其实差不多,我就不赘述了,我们看一下它这里的描述,你看它可以在这个配置文件下去指定模型到 agent。 那我给大家看一下怎么使用,我们还是到 ide 里面,我还是用的 anti gravity。 那 使用界面其实差不多啊,唯一不同的地方,其实在这里我们看一下它的使用界面,随便看一下,在这里其实都差不多好。 不同的是在这里就是我们来到配置文件的地方,就在我们的用户目录下面的 ctrl 点, ctrl 下面的 open code, 这个文件夹下面有一个叫 oh my open code gong slim 的 这么一个 json 文件。我们来看一下,大家看到在这里它有一个配置各个 agent 的 地方,那这里很好用。首先你可以配置 model, 用哪个模型,用什么 它用哪些 skills, 用哪些 m c p, 比如说这是查文档的,那这里面就有 context seven 前端的它默认配了一个 agent browser, 那 我自己又把 front end design 也加进去了, 所以它不仅可以指定模型,它还可以指定模型用哪些 skill, 用哪些 m c p, 以及它们的思考深度。所以这个我觉得 还挺好用的,大家可以去试一试。如果说你觉得欧麦 opencode 的 插件太消耗 token 了,而且没有办法指定 agent 用什么模型,那这个就可以完美的解决你的问题。

我们经常听到关于 context engineering 的 话题,但你真的知道自己发送给 ai 工具的 context 是 什么吗?如果不知道,这个视频就是为你准备的。我们将深入探讨 open code 的 context 的 引擎, 理解 context 是 如何为每条消息构建的,甚至包括缓存的工作原理,以及如何利用这些知识为你的使用场景构建更好的。你可以充分利用它,特别是减少那些你可能根本不在意的。好了,让我们直接开始,先看看什么是 context。 好 的,屏幕上是我准备的演示文稿,主题是 open code context 深度解析。 这只是关于如何思考 context 的 一个快速概览,但我们会直接进入正题。好的,我们先从 context 是 如何组装的开始说起。我希望你把这个想象成一个 context 三明治。我们从第一个红色层开始, 这是一个非常薄的层,它只是一个 provider entity, 这只是帮助某些模型表现更好,或者绕过某些限制,所以这在 open code 的 entrap 模型中非常流行。他们只是说你是个欺诈者,就这么简单。现在我想讲讲 base prompt, 这是核心指令, 这包括 build 和 plan agents, 这些是实际被执行的核心指令,比如它应该如何工作,以及应该有哪些行为模式,这 就是 base prompt, 这也是你的 agent prompt 加入的地方,或者说归属于 base prompt 之下。好的,接下来我们要讲讲 environment。 什么是 environment? 就是 你的完整代码仓库,所以如果我快速运行一下代码,这里显示的所有内容 就是这个代码仓库,所有这些小文件都会被发送给 agent, 所以 这就是我说的 environment。 然后是自定义规则。如果你有一个 agent md 或 q 的 md 文件,它们会被包含进来。这就像是针对每个 agent 都会被拉取的规则。然后最后是你的工具,也就是你定义的工具。 agent 可以 访问的任何工具, 比如 m, c, p 或者是 read 工具,例子工具等等,这些也会作为 context 被包含进来,告诉 agent 应该如何使用它们。最后,这个三明治的最后一层是你的消息,所有这些内容都会被发送给 antropic 或你的模型提供商来处理。希望你能理解这个三明治的比喻。我是按顺序来讲 的,我想详细讲解的。 open code 的 一个重要概念是, open code 采用的是 opt out 机制,而非 opt in, 也就是说,他们默认提供了大量的功能。因为我认为如果不这样,大多数人可能永远都不知道这些功能的存在,所以你实际上需要主动退出很多功能。这让理解所有底层的 context 变得有些困难。 但我们会在这个视频中详细讲解,让你完全理解。你必须知道的一点是,工具默认是加载的,你会看到这里我们有大约六千,不好意思,大约六千个 token 被消耗。 有些工具在四到一千个 token 之间,我们需要将其设置为 false 或禁用。另一件很重要的事情是,即使是在你的局配置中, 如果你有 agents md 或 code md 或 context md, 这些都会被调用好的,所以要注意这一点。有时候,你的本地项目中可能没有任何 agents md 或 context md, 但在局配置中可能存在并被加载,所以了解这一点很有用。好的,这只是一些基本的提示。 因为 open code 你 可以更改模型提供商。那我这是什么意思呢?我们现在运行 open code, 我 们现在运行 open code。 我 说的这些模型提示是指,当我们在这里进入模型选项,我们可以选择 gemini 或 过其他任何一个。每一个模型实际上都有自己的在 open code 中默认使用的提示。我觉得有趣的是,任何模型的默认回退提示。如果在列表中都是 cran 模型,这很有意思。这也是为什么。我可能建议创建你自己的自定义 agent, 你 可以使用自己的自定义提示,所以这些是默认的基础提示。每个模型都会加载这些提示。好的,我想谈谈一个叫做缓存的概念。我知道我现在跳的有点远, 但你必须考虑缓存。就是当你实际发送消息的时候,让我们看看。假设你在你的上下文窗口中,想象一下,在你的上下文窗口里,你正在发送系统提示词和用户消息。在第一次初识响应时, 这些都会作为 tokens 被消耗,所以这是一倍的价格。本质上这些都会按一倍消耗。但我们知道系统提示词 不会在下一类消息中改变。有没有办法降低这个成本?因为这个不会改变。我们可能知道初始消息也不会改变。当我们得到响应时, ai 会在这里返回一个响应,然后他也会有一个用户消息。 你可能想要回复 ai 的 响应,并有另一个去发起另一个对服务器的响应。但我们已经发送了这两条消息过去了,有没有什么方法 可以降低这个成本?所以我们不必再次发送所有内容。有没有办法降低成本?我们不必把所有这些再发一遍,所以对于另一个请求,我们可以再次支付一倍的成本,这样一个续列下去,成本会越来越高。这就是缓存发挥作用的地方。实际发生的是 第二次响应,不是我们发送所有内容,这一部分实际上是缓存,所以这实际上进入他自己的小缓存区中,大约按零点一倍收费,所以这是正常提示词成本的百分之十。这就是缓存的真正含义,你不需要太担心这个,但我觉得了解底层实际发生的事情很有意思。每个基本的 提示词都会获得缓存,这样就降低了我们的成本。某些提供商从一开始就提供这个功能,我们稍后会详细讨论,这就是缓存的简单介绍。好的,这就是我在这里谈论的内容。第一个提示词,比如说你有九千三百个 tokens, 全价是二十八,但第二个我们理解这九千个是缓存价格, 所以只有原价的百分之十,然后再加上三百二十二个新上下文,所以价格大幅下降,我们节省了相当多的成本,然后他会持续下去,这就是我在这里谈论的主要内容。所以这是在这个例子中进行的。 假设我们有基础提示词和评估工具,请求已发出,我们说好的,我们一定要缓存这个,因为我们知道它不会改变。当请求返回时,我们想要缓存所有返回的内容,它会根据发送的内容命中缓存,它只会发送这两条新消息。作为顶部要处理的 tokens, 你 会在下一个看到。这些会被添加到缓存中,为下一次请求降低成本。缓存生命周期大约是五分钟,五分钟后 它就会过期。每个缓存实际上有时会重置。这是另一个需要注意的事。我正在讲解缓存读取只需百分之十的价格,这真的很实用,所以它真的降低了。好的,这在本地模型上会成为问题。本地模型,实际上本地模型没有缓存。 对于典型的欧拉玛设置,你去比如 a k contacts, 整个上下文都会被使用,没有缓存机制,所以这点需要注意,这不适用于开源模型。 对于开源模型,你真的需要考虑上下文溢出的问题,所以你真的需要限制你的上下文。所以真正理解如何限制发送到开源模型的上下文非常重要。无论如何,我想分解一些发送的 tokens。 在 我深入之前,我到底在谈论什么?让我们直接跳到这个话题, 我就说个你好,然后我们会收到回复,你可以看到,嘿,我是 open code, 它会帮助你,等等。但我们可以看到,你可以在顶部这里看到我们只用了一万一千四百个 token。 好 的,这里到底发生了什么?所以 我实际上要就在这里做一个导出,这样我就能获取绘画 id。 我 们可以看到这里,我拿到了绘画 id。 如果我打开它,我们可以直接看到回复是什么? 为了让这个更清楚一点,我有一个不错的小脚本,我要运行它来获取更多关于这个小绘画的详细信息,所以我现在就运行这个,然后让界面大一点,这样我们可以深入看看发生了什么。所以我们可以看到我们正在使用构建 agent, 它是 co 的 sanit 四点五, 而且提供商是 anfropic。 我 们可以看到输入 token 是 三,因为他说了,你好,输入 token 是 七十三,但这个缓存写入,但这个缓存写入是从哪里来的? 你可能会问,嗯,这就是我们现在要弄清楚的,所以你会看到很多东西,就是你知道的。我们这里有头部,这里你是应用,那就是我说的面包的顶部, 我们有我们的基础。 prompt 大 约有一千七百三十六个 token, 在 open code 中,目前它获取了我们的环境上下文自定义指令,没有自定义指令,所以什么都没找到。 让我们可以看到有很多工具调用被推送,那是大约六千六百零六个 token。 但我们也可以从中看出这些被缓存了,因为,嗯, 它们并没有真正改变,所以 open code 足够聪明,能够判断。嘿,这些代码并没有改变太多,或者这些 token 没有在默认上改变太多,工具上改变太多,所以我们要缓存它们,这就是实际发生的事情, 所以我们可以在这里看到,这就是整个基础的来源。所以估计的 token 对 于系统来说大约是八百三十六,我们在某种程度上是在估计这里会发生什么,所以我们的系统上下文是一万一千缓存你的消息和 ai 的 回复,所以我们可以大致看到这里发生了什么。通过这个 prompt, 希望这样更清楚一些,这就是我们刚才讨论的内容。我来分解一下这些工具是如何代表那个六六零六的。我们知道最昂贵的工具是,比如 dash, to do, to write。 如果你使用 open code, 那 就是实际上看起来像 to do, list 和 multi edit 之类的东西。而基础工具,它们的消耗相当低,我们可以保留 read。 我 觉得这实际上没错,所以当我使用 read 的 时候会多一点。我觉得 list 是。 如果你运行 l s 是 二百六十四,不是 read, 然后 write 和 edit 归为一组。 好的,我想回到这里,我实际上要做这个。我要向大家展示一些方法来减少我们所有的工具数量,尽可能减少。再说一次,让我们看看这个小的。如果我对 build agent 说,你好, 我们看看 token 数量。 token 数量是一万一千四百一十二,但我想向你展示一个我创建的不同 agent。 我 把它叫做 small。 这应该会给我们更多优势。我仍然使用 intropic。 好,我们一会再换模型,但我还是要说同样的话。你好,我们看看有多少 token。 你 可以看到这是一个巨大的改进。我得到了二零六, 我们从一万一降到了二零六。我牺牲了很多。是的,我牺牲了其中一个调用。它提供了那种 agencic 工作流体验。现在这只是一个基础的,非常基础的聊天界面,我可以与之交互。这是一种方法。 然后我还有另一个另一个 agent。 我 想展示叫做 near zero, 我 要做同样的事情。目前是二百零六,所以我们可以看到 near zero 和 small 目前是一样的。让我们快速 看看每个是什么。如果我们进入 small, 我 们可以看到总是回复 hi, 没有别的。这实际上是我的系统提示词。这实际上占用了很多 token。 我 们可以看到工具调用的问题。说,嘿, 拒绝所有工具调用。好的,这就是他如何实际达到那个二百六十的 near zero。 这是实际上我想和大家一起实验的。这样你们可以看到如何更新。所以我找不到一个方法 来禁用所有工具。以一种能百分之百工作的方式。由于某种原因,他仍然在拉取工具的上下文。即使他被禁用了,所以有一个小 bug。 但我确实找到了一个变通方案。 这就是我要向你展示的。所以目前你可以看到我们有这一切。目前,但我可以实际上起用某些。如果我们在这里把 read 设为 true, 这是其中之一。这个我们回去。这是为 near zero 设置的。看,它有这个 read two。 它可以读取并拉取。 让我们用同样的命令复制它。我们可以看到它准备好了一切。好的,这里打开一个新的。我只是要我要打开一个新的 open code, 这样我们可以运行 small 和同样的。让我们看看是否工作。我们可以看到它只回复了 hi, 但让我们看看这个。 如果我们把这个改成 user, 然后我们退出,再做一次。我们可以看到它试图做些什么。在这里,但它并没有真正无法真正到达,所以它在用我们的 token。 但它没有真正理解如何做,所以它理解需要读取文件,但它并没有真正读取去做,因为那是被禁用的。一切 看,我们做了七幺幺,但你可以看到这个读取了,几乎得到了所有细节很好,好的,所以做这一切的最好方法是同样总是从 false 开始。 这主要是,如果你只想减少所有工具调用,然后逐步在下面添加处来把它们加回来。这似乎是目前对我有效。我不知道这是否总是会这样,但我发现这非常有用,特别是如果你想构建开源模型,而且你真的想减少你的上下文窗口。一万一千,只是它似乎不是最佳用法。 对于某些模型来说,尽管默认,虽然默认提示词确实禁用了许多功能,但了解如何优化你自己的 ai agent 始终很有价值,包括所有那些很酷的工具调用和上下文管理。因为上下文工程非常重要,所以这只是个剪短视频介绍上下文在 open code 中的底层工作原理, 这也适用于代码和其他方面。我认为选择加入或退出的方法会因使用的 ai 工具而异,但核心概念基本保持不变。如果你有兴趣制作自己的模型或为开源社区做贡献, 我实际上有一个自己的仓库叫 open agents, 我 目前正在开发中。我正在进行一次重大更新,这样我们可以实际存储不同的提示词,用于不同的模型或不同的 agent, 并实际测试各种场景,使用不同的评估方法来获得正确的响应。我会把链接留在下方,如果你感兴趣,请务必看看。非常感谢观看。

兄弟们,今天来说一下最近很火的一个 open code 的 一个 ai 编程工具,那我在使用期间,我的感受是这款 ai 编程工具我觉得 怎么去形容呢?如果说是工作效率来说的话,我个人还是喜欢 anti gravity, 我 觉得它会比这款工具更好用。这个 open code 的 搭配最火的这个 o my open code 的 这个插件,在编程的一个感受里面就是它的精准度,说它在执行任务呃的这样一个效果, 我的感觉是呃还可以,但是它的 token 消耗我觉得是非常大的,为什么呢?因为之前我用我 gbt 的 一个订阅账户去开发的时候,我觉得我的消耗使用周长周期还是蛮长的,一般来说起码我可以用到个三到四天, 我轻度使用,但是我昨天仅仅只做了两三个对话,一个两三个任务就已经消耗了,已经把我的头梗消耗了,你可以看到右上角这里是十三万多,所以我都感觉他可能是搭配智能点插件。这个欧欧麦 open code 的 这个智能点插件,可能他这个上下文是非常长的, 而且它执行任务的运行时间也是非常长,所以这点我是比较难去忍受的。同样一个任务,如果我用 ingenuity 去执行,我可能三个对话的任务都执行完成之后,这个 open code 它可能一个任务都还没有完成。这里有几个原因,那第一个,我在使用 open code 的 时候,我是没有 cloud 的 一个订阅账户,所以我使用的是 gbt 五点二的 code。 第二个,它可能在使用这个 o my open code 的 这个插件的时候,它可能需要执行很多一些思考啊,然后 根据这个插件的一个内部自连体的一个工作流去运行可能比较复杂的任务,它可能做的会相对比较好一点,但是一些简单的任务,它可能运行的时间,包括上下文不同的消耗,它可能也会比较大。 所以我个人使用感受下来,如果是简单任务,而且没什么开发经验的,我觉得用这款东西你的时间方面能等,我觉得还可以,但是如果说我们开发比较复杂的项目,如果时间方面有效率方面我们要求比较高, 我觉得用它我可能会比较难受,所以我还是觉得用回我之前 alien gravity 搭配 open spike 这款插件,我觉得在 alien gravity 发挥的非常好,可以给大家看一下我昨天做的一个拆分优化的任务,第一个对话创建体案,它会根据我们的需求创建一个体案, 执行完成之后,你看一般两到三个对话,他就把这样一个大型的一个拆分任务完成,完成之后做测试,那等测试再完成之后,我让他再一次确认,对比一下我们给大宝的历史代码,确保这个拆分之后的完整性没问题,他就几乎这个任务就已经完成了。 完成我就进入到一个审查阶段,最后就进行归档,就这么简单三步完成最后一个命令执行完成之后就归档,非常快的,效率非常快的,一般来说二十分钟左右这样一个裁缝任务就解决了。 所以对比下来,我还是更倾向于用 ad gravity 这种 ade 编程工具,当然也有可能是我因为我用了这个插件,这个欧麦 open code 的 这个插件导致开发效率会变慢,那整体的其他的一些测试我这两天我会陆续的去做。 下一期我会给大家分享这个 open code 的 一个详细的一个情况,大家有什么问题也可以在评论区留言,我们一起来交流分享,谢谢大家。 反正给我的感受就是使用 anti gravity 搭配 open spike 是 非常好用的,我们只需在第一个对话里面输入我们的需求,把我们需要给他的资料给了他,他就会立即创建这样一份方案。那这个方案其实他做出来他需要的上下文不是很多, 非常简短的。你看这样,比如说我拆分的一个呃方案,他会告诉我他需要怎么去拆分,新增什么文件, 再做一个计划出来,这个文件就是这个方案的一个计划,还有个进度,他每次完成之后,这个清单会去呃勾选的,所以他首先第一个就是规划我们这个方案,第二个就是执行的一个过程,一个顺序,那整个流程走完之后, 我们这个任务就已经顺势完成。所以我个人觉得 openstack 这个插件搭配 ing gravity 是 比 opencode 的 好用,而且这个开发效率是非常快的,不会像我使用 opencode 的 时候,等半天才完成一个任务,而且它这个上下文喷吐量是非常大的。

泡沫,绝对是泡沫,现在有哪个地方能去做空这个欧美可乐,我现在立马就去,从过年到现在呢,我一直在养龙虾,我不仅在本地部署了,而且呢,我还买了服务器部署在云端。先不说能不能赚到米,就先说有几个人能用的起的。这是我今天烧了一天的淘垦, 我这还算少的,我朋友两周烧了两千道淘垦,我们得出的结论呢就是他现在还不是一个成熟的商业产品。 至于那些说能帮你运营账号赚米的都是引流的,这一波呢,都是那一群上门安装的,卖 talkin 的, 卖服务器的,卖客的给赚了,就我们股民是最惨的,不仅账户被抛空了,还要被一群卖铲子的搞得很焦虑。

都说这个 open 烤肉龙虾机器人烧 token 马上放假了啊,咱本地部署完成之后,这还有两个包月的 token 套餐,有没有高强度的这种 token 消耗的任务?给我来几个,我帮你们跑跑。

open code 这个开源项目最近很多人都在聊,说是 cloud code 的 平替功能呢,和 cloud code 也是一模一样的,所有模型都能用,但是对于我们普通人来说,我们要怎么用? 网上评测我看了不少,但是我还没有看到有人用它完整的演示一遍开发流程,所以今天我来做这个事情。 我会用一套平时我在 cloud code 上使用的开发流程,结合 open code 从零开始开发一个服装电商的模特换衣应用,带你走一遍完整的流程,顺便也测试一下它和 cloud code 到底有什么区别。那我们现在开始 这套方法我之前已经分享过两次了,就是这一期和这一期。现在呢,我把它迭代到了三点零版本。整体流程是这样的,首先用毒蛇产品经理技能收集需求,他会通过追问来完善细节, 然后生成产品文档。接着用 ui 提示词,设计师技能根据文档生成原形图的提示词,然后把提示词丢给 nano banana 生成原形图,再用 google ai studio builder 来开发前端,最后用全站开发工程师技能完成后端的开发和后续迭代。 整个流程是由一个主控的项目规则文件 agent 点 md 来进行统一的调度。这个场景包含了需求收集、原型设计、前端开发、后端改造、功能迭代,基本囊括了日常开发的主要环节, 所以用它来测试,基本可以很好地展示 opencode 的 完整的开发流程。打开 opencode 官网,点进下载页面, opencode 有 四种使用方式,在终端里使用,客户端使用、安装 ide 插件或者集成到 github 这类平台。 我们今天讲的是第一种直接在终端里使用, mac 用户建议安装第一条命令, windows 用户建议用第二条。那我是 mac, 所以 复制第一条命令,按 command 加空格,输入 terminal, 打开终端,把命令贴进去,回车直行, 然后等待它安装完成就行了。这里可能会有一点慢,那就看你网速了。好, open code 我 们已经安装完成了,接下来我知道很多新手看不惯终端的命令行,所以我们就在 cursor 里面启动 open code, 应该会对你友好一些。打开 cursor, 在 terminal 里输入 open code 启动, 启动之后有个快捷键,你一定要记住 ctrl 加 p, 按下去会列出所有的命令。大部分命令可以在之后慢慢熟悉,但有一个现在你就要知道,就是 a 键下面的 switch model 切换模型使用后你会发现有很多模型可以选, 像 chatgbt, 五点二, gmail 三 pro, mini max 这些都有,带有 free 标记的,是免费的。其他那些常用的模型需要你自己去配 api, 想用别家的服务,可以按 ctrl 加 a 添加供应商那支持的还是挺多的。配置也很简单, 比如你想用 google 的 api, 那 就选 google, 然后把 gmail 的 api key 贴进去就可以了。接下来我们来开始配置,这个逻辑和 cloud code 是 一样的, cloud code 的 系统文件夹是点 cloud, 那 open code 这边就是点 open code, 然后这是我提前准备的技能文件, ctrl c 复制,回到 open code, 在 点 open code 的 这个系统文件夹下, ctrl v 粘贴,这样就一次性导入成功了。一共三个技能, 独设产品经理、 ui 提示词设计师,还有全站开发技能。接下来是导入项目规则,在 cloud code 里,顶层的项目规则文件叫 cloud 点 md, 那 我们这次用的是 open code, 它的项目规则文件要写成 agents 点 md 文件名不同,但思路是一样的,都是顶层的项目规则。 回到 open code, 把点 open code 的 这个文件夹收起来,然后 ctrl v 粘贴,这样项目规则就导入了。 注意看 agents 点 md 这个文件和点 open code 这个文件是在同一层级的,这点跟 cloud code 不 太一样。 在 cloud code 里, cloud 点 md 是 放在点 cloud 的 这个系统文件夹里面的,这个很重要,放错的话顶层规则就不会被加载。再来看一下文件结构,这是整套开发流程用到的技能文件,是我平时开发应用和小工具时用到的,当时用的是 cloud code, 所以 cloud 点 md 这个名字没改。 不过没关系, open code 完全兼容,能自动识别好技能和项目规则我们都已经导入完成了,接下来我们来走一遍完整的开发流程,用 open code 来开发辅助电商用的模特换装应用,启动主 agent。 这套开发流程分为几个阶段,每个阶段都有对应的指令 输入 slash help, open code 会列出所有的指令,包含从需求收集、生成原型图、提示词到开发和本地运行的全过程。 接下来我告诉他开发一个网页应用,帮助服装电商生成模特图,支持更换模特的姿势动作,调整服装的配色,还能更换新的搭配方案。声控模型用 gemma 三 pro image preview, 也就是 nano banana pro。 收到需求后,毒蛇产品经理的技能被自动调用了,然后开始针对需求进行追问,上来就说,别给我废话,让我选一个核心,那毒蛇味已经出来了, gbt 五点二骂起人来也是不留情面。 我告诉他,目标用户是独立设计师,功能范围需要支持声图姿势调整、配色搭配和编辑功能。确认没问题后让他继续。 那进入到第二轮追问,他问参考图是什么形态,这是个多选项。那我的设想是,上传的参考图可以是模特的人像照服装平铺图,或者是搭配平铺图, 控制方式可以用 prompt 文字指令,也可以从姿势预选库里面进行挑选,同时还要支持配色面板调色。确认没问题的话我们继续。 好。现在进入到第三轮的追问,问的是账号和付费模式,这个工具是我个人用的,所以不需要付费功能。那存储方面,现在是 mvp 阶段,主要是为了快速演示,暂时不考虑保存,先跳过 确认没问题的话让他继续。好。接下来是第四轮的追问,人脸一致性怎么处理?我的想法是核心需求是保留参考模特的脸部特征,成片的标准是多选, 一个是白底电商主图,一个是澎湃的质感效果。确认继续后,这个时候他已经收集到了足够的信息,开始直接编辑产品需求文档了。 好!运行结束后,他帮我们创建了两个文件,产品需求文档, product spec, 还有变更记录 product spec change log。 先看产品需求文档,因为我们的需求比较简单,生图工具和布局交互也都比较常规,所以他没有问太多交互和布局的细节。 那再看一下圈子 log, 现在是项目的初试阶段,变更记录里也只有一条初试记录,接下来我们有两个选择,直接开始开发,或者根据产品需求文档去生成 ui 原形图的提示词。 原形图提示词是可选的,但我觉得这一步能大大的提升最终效果。正好给大家演示一下输入指令 ui, 让它使用 ui 提示词设计师技能,生成圆形图提示词 好,完成了,提示词保存在了 ui prompt 这个文件里。那我们打开看一下,这就是生成的页面原形图。提示词用法也很简单,直接把提示词复制发给 nano banana pro, 生成产品原型就可以。 目前一共生成了三个页面,主页面、图片预览页面,还有报错页面。接下来我还要做一件事情,这套流程有两种用法, 第一种呢,是生成好原型图后,直接把图发给他,让他在 open code 里面进行开发。那第二种呢,是用 google a s studio 里面的 build 来开发,本期我就会演示第二种,这种方法对新手或者是刚刚接触外部抠钉的人来说,更容易上手,效果也更好。 我告诉他,你先别管 apikey 的 事,我会用 google a s studio 开发前端,开发好了之后,我会把代码发给你,你再帮我改造成前后端分离的项目。 他已经明白接下来要做什么,怎么配合我们,而且还直接给了建议,比如用 google a s studio 开发的话,回来时需要教给他哪些内容,或者开发好了之后让 open code 继续迭代,需要提供哪些信息和资料好。原型图我已经提前生成好了, 现在这个页面是 google a s studio 模型,选的是 nano banana pro。 我 做的事情很简单,把刚才生成的三个页面的提示词完整的贴进去, 顶部加一句话,帮我生成一个三宫格竖向排列的长图,这是一套电商模特试装的网页应用,然后他就开始帮我生成原形图了。 那我们放大看一下,这三张图基本上是按照我们的需求文档里的布局和功能描述生成的,当然后面开发的时候, ai 会拿这个图作为参考,并不会完全的百分百复刻,所以这一点你要注意。为什么要用 ui 提示词来生成原形图?主要呢有几点核心考虑, 第一是速度快,外部口令不需要一开始就追求完美,先把架构快速的搭起来,然后后面再慢慢的迭代 ui 和交互。 第二呢是为了好看,如果你不给 ai 参考图,光靠文字描述让它开发出来的页面通常都很丑,不管你提示词写的多好,在我看来都丑的要命。 所以用 nano banana pro 直接生成原形图设计其实很好,再结合我们这套方式,页面好看,功能呢也符合我们的产品需求,一箭双雕。这就是为什么我觉得这一步非常重要,想要给大家看一下。 好,那原形图已经有了,接下来我们打开 google a s studio, 先开发前端,我们先完整的复制一下 prods bike 里面的产品需求,然后回到 google a s studio builder 告诉他,让他帮我开发一个模特换装的应用, 先把 products back 整个贴给他,然后把刚才生成的 nano banana pro 的 原型图也贴上去。 ai 能力选择这边我们选择 nano banana powered app 和 generate images with nano banana pro, 因为我们的应用需要生图能力,必须调用 nano banana 检查没问题,点击 build 开始。接下来它会自动读取文档和我们发过去的截图进行开发。所以我们稍微等待一下 好,开发完成了。有几个注意事项,第一,记得右上角选择一下你的 gemna api key, 否则无法使用 gemna 三 pro 或者是 nano banana pro 这些付费模型。第二,我们来看一下界面的还原度, 那开发出来的界面和原型图已经有九层相似了,布局,色盘选择,模特姿势这些功能都有。好,我们来测试一下。先上传一张模特图, 再上传一张 gucci 的 最新的女装,一条红色的裙子,风格选择澎湃风格,输出四张模特姿势,选动态走路提示词就先空着,先不填,我们点击生成 好,生成完成了。放大看看,模特的真实感几乎无可挑剔,澎湃的风格,无影墙,走路姿势,人物和衣服的还原度都很好。接下来看一下代码,点击 code, 这就是他开发的所有的前端代码。把代码打包下载,然后找到刚刚我们下载的代码, ctrl c 复制,回到 open code, ctrl v 粘贴代码就导入了,然后告诉 open code 前端已经开发好了,代码放在了这个文件夹里, 这个时候他会问原型图有没有,你需要提醒一下他前端已经开发好了,直接看代码就行。后端部分他建议用 node 加 express, 但我决定选 next, 点 j s 看看他怎么处理, 确认没有问题,让他继续执行。等待开发的时候,顺便说一下,为什么我们要前后端分离。 google a s studio builder 开发出来的是存前端代码, api key 是 直接写在前端里的,那这样部署上线 api 就 会暴露,任何人都能看到。所以我们需要把 api 调用挪到后端,前端只负责界面和交互, 而且后端除了负责调用 api 以外,我们后面迭代的时候,比如要加全线连数据库,或者是业务逻辑,这些也都需要放在后端的 好开发完成了。不过它提醒我们,我们发给他的前端代码的基础是 vt, 不是 next 点 gs, 所以 这一版它用了 express 做后段,因为这是最小的成本,最小的改造方案。但如果我们坚持要移到 next 点 gs, 它也是可以帮我们执行的, 那到这里项目基本就快速完成了。所以接下来我直接输入指令 slash run, 让它在本地跑起来。 ok, 我 们可以看到项目它说启动了,但是显示的状态不正常, 不过没关系,他说他可以帮我们定位和修复好。修复完成了,原来是三千,这个端口被我另一个项目占用了,那他帮我们改成了三零零一端口启动, 如果你想随时停止,可以输入 slash stop, 就 会停掉后台的所有的服务。 ok, 项目启动了,界面功能布局都保持了原样,没有什么问题。 项目虽然跑下来了,但是我们不可能一步到位,所以接下来我们来测试一下迭代功能,我要给他加一个新的需求,我告诉他我想增加一个在页面上配置 api, 并且进行校验的功能。那针对这个功能,他开始追问,首先问我 api 怎么保存,那我选择肯定是存在后端, 然后问我校验的方式,这里我选择的是真校验,需要他发个请求,看看 api 能不能跑通, 确认没有问题,开始开发。顺便说一下我使用的这套开发流程,产品经理和全站开发这两个技能会循环配合,每次新增或修改功能,主 a 阵的会先调用产品经理技能,进入到迭代模式,通过追问补充并且更新产品需求文档和更新日期, 然后才调用全站开发技能去实现代码。这样做的好处是文档始终和代码保持同步,不管是日后自己回顾还是重新开窗口让 ai 接手,都能快速的了解项目的全貌。好,完成了,他说已经更新了产品需求文档和更新日期,那我们看一下更新的内容。 产品需求文档这边第四十九行辅助功能下面插入了 gmail api 保存交换的需求。再看圈趣 log 这边新增的 v 一 点一版本,内容是配置 api key 和交换功能。我们回到网页,应用,左下角已经出现了配置 api key 的 功能,我把我申请的 gmail api key 贴进去, ok, 交换成功,没有问题。好到这里,我们整个的开发流程差不多就走完了。最后我来聊聊我用下来的感受。 先说优点,第一,模型自由度非常的高,这是 open code 的 最大的优势。 cloud code 您只能用 cloud, 对 于使用其他的模型,它基本是严防死守。 open code 呢,你可以随便切换,想省钱就用免费的模型,想要效果更好就换 cloud 或者是 gbt 五点二,灵活很多。 第二呢,是整体的体验和 cloud code 非常的接近,指令逻辑既能加载开发流程,基本和 cloud code 是 同一个思路。 如果你用过 cloud code, 那 上手 open code 几乎没有任何学习成本,不过缺点也是有的, open code 是 开源项目,在使用 agent 或者 skill 的 时候稳定性就会差一些, 特别是多 agent 协助主 agent 调用 sub agent, 或者是主 agent 调用 sub agent 在 调用 skill 的 时候,这类场景复杂的话, cloud code 的 表现依然是最稳定的。 但总的来说,如果你预算有限,或者是想尝试其他的模型, open code 目前是最接近 cloud code 的 开源替代方案。而且说到底,工具本身作用其实有限,真正起到决定性作用的是你在用的那个模型,这才是最重要的。 好,以上就是本期的全部内容,如果对你有所帮助,别忘了点赞以及加入废台俱乐部,这对我们频道真的非常重要,那我们下期见。

这是我被 cloud code 封的第三个号了,申诉也没有用,我现在已经准备放弃官方订阅了,不想折腾了。那 open code 一 直很火,最近我也在开始用它了,尤其是 cloud off 四点六和 gpt 五点三 codex 出来之后, 我现在是多个模型配合去干活。那发挥每个模型的优势,用四点六去做架构设计,用五点三 codex 去做代码执行,如果有前端的一个 ui 需求的话,再拿 gmail 三点零 pro 去做前端的一个 ui。 那 opencode 到底是什么呢?用一句话,它其实就是一个开源版的 curlcode, 功能上的话两者差不多,但 opencode 有 一些独特的优势,就是它是一个任意模型,你可以支持多家厂商的, 你也可以用国产的,你也可以用国外的模型都支持。第二点就是代码完全开源免费,这一点非常重要,你可以自己去改,自己去定制。同时代码开源之后,那开源社区的人就可以去围绕它做很多功能,毕竟人多力量大嘛。比如这个插件 opencode, 这就是社区去搞的,现在已经三十 k star 了。 这个插件其实是一套多 agent 多魔性去协助干活的一个插件,最近我体验下来也挺好用的。它这边准备了十个 agent, 有 主控 agent, 有 去专门干代码的,专门去探索代码的,也专门去做前端 ui 的, 挺好用的。 open code 整个的架构的话,其实跟那个 cloud code 差不多,用户输入成有绘画管理嘛,然后有 agent, 有 plan 就 计划,那 kolco 的 那边也有,那有 build 就是 直接干活的嘛,还有些探索的,其实 kolco 的 那边不是都有吗?以及你制定一些 agent 都有,那调度层这边就有些差别了。关于大模型的调度,因为 kolco 的 那边他只支持 angelic 协议的嘛,那这边的话就是实现了一套支持其他各种供应商的整体的架构的话,其实有很多值得学习的地方,如果大家对 kolco 感兴趣了,可以去他官方原码仓库去拉下来去学一下,那个仓库现在已经一百多 k 了,特别火。 那下面就是这个 oh my open code, 这个是我们今天讲的重点,因为他这一套多 a 镜的多模型的一个机制, 能让一个任务去拆解成各个阶段去开发,有复杂的用复杂的模型,简单的用简单的模型,这种才是一个 理想状态下的一个写作的方式嘛。那它本质上就是我刚才说的,它就是一个插件,通过 open code 暴露的一些钩子去拦截这一个 ai 的 一些行为,它的整个工作流程就是来一个用户输入之后,它去拦截 open code 的 一些钩子,这时候去做一些增强上下文呀,或者去选择多 a 帧特有可能是多个模型去协助,最后返回结果整体的一个流程就是这样子的。 那为什么需要多个代理?哈?他这边说的一个说法是专业的代理去做专业的事情,然后规划和执行分离,可以并行执行,按需去选模型,并且节省成本。那他现在这一个多代理的话, 就像最近 cloud code 新出的那个 agent teams 一 样,只不过 cloud code 它是很久很久之后才出的嘛,这个是老早就有了 omago code, 那 下面是它的一些 agent 的 一个分工,这一个是它的一个主要 agent 是 用了 cloud 的 off 四点六这个模型。 还有一些规划师就是在规划方面以及编排方面,他用的卡尔的最顶尖的模型,那代码磁性这一块的话是用的是 gbt 五点三 codex, 如果是一些比较轻量的任务,你可以用 gm 啊,或者 mini max 啊,以及其他都可以。那些前端这块的话,他用的 jimmy 三 plus 或者 pro, 这样子的话就一个任务进来之后他由这个去规划,规划完了之后,他让 jimmy 五点三去做执行,然后发现有前端任务,他这个时候就用 jimmy。 如果涉及到一些小修小改啊,比如说是一些国际化处理啊,多语言处理,这个时候它就完全可以用很低的那种模型去做这个事情嘛。这样的一个搭配其实我体验下来挺好的。 好,下面我们就开始分别去安装 opencode 和 oemopencode 的 这个插件。桌面端它现在也支持了,支持 macos、 windows、 linux, 我 体验下来的话,它有一些断流的情况,所以说我更推荐大家在使用 cio 版本,我们先来安装一下。 好,它提示我们已经安装了,我们来进去看一下,我们先切到一个免费的模型,你上面搜一个 free 这些模型的免费,我就用 mini max m 二点一吧,我们输入一下测试一下,看它安装好没有。 ok, 如果看到这步就证明你 open code 已经安装好了,这个时候我们就有安装那个插件,因为现在在 ai 时代,其实你安装东西都非常方便,尤其是它如果有文档,有开箱库的话, 你看这一个插件哈,欧麦 opencode 的 一个官方仓库里面直接就告诉你了,你直接用 qq 编辑的去装就行了,我就把这个复制一下,然后粘到刚刚我们开的这个 opencode 的 里面,用免费的 mini max 让他给我们去装,那下面就是他会弹出来让你做一些选择, 可以看到他让我们回答一些问题嘛,你有没有订阅 cloud code, 有 没有订阅 openai, 有 没有一些 jimmy 的 一些 model, 你 就根据自己的情况去选择就行了。强烈建议你不要在 open code 里面去用 cloud 的 模型,通过订阅的方式去用封号的概率非常高。那这边我就说都没有, 待会我也给大家一个配置,直接就可以用了,你只需要去搞一个 api k 过来,你就可以直接把这些模型都用上了,这时候我们都说都没有就完事了,因为这个配置后期都可以去改的。可以看到我们把插件安装成功之后,下面的这一个 a 镜头就变了,变成了 omone code, 它的那一套多 a 型的体系,可以看到它有好几个 a 型的体系可以去用,并且 这个插件那还有个好处,它的兼容性做得比较好。它已经把 cloud code 那 边你有的一些 skills, mcp, 还有那些自定义的命令全部弄过来了,比如说 skills 可以看到我的那些 script 它全部弄过来了,这样非常好。也就是说你可以来回签嘛,你有时候你要回去 copy 到那边用也可以。现在我们开始配模型,你可以通过 connect 这个命令去连接你想要的一些模型, 如果你有恰当的 gpt, 里面就选恰当的 gpt, 你 有其他的你就选其他的。那我这边的话,平时会用 jimmy 三点零去写前端嘛 code, 四点六去写架构和具体的一些代码,然后 gpt 五点三 codex 去做一些代码之星,以及解决一些疑难杂症。我喜欢用每一个模型擅长的能力哈,但是对大家来说的话,你如果像我一样去订阅三家的 ai 模型,其实你要花三分钱。我 订阅的一百刀的 code code, 然后今门来我订阅了两个号,一百四十刀, open ai 我 订阅了二十刀,那加起来就是一百六十刀。并且哈,我们刚也说了,如果你用 code code 的 去 授权到这边 opencode 的 去用的话,你封号的概率特别高。之前我还出了一期视频,专门去讲这个 curlcode 的 大面积去封禁 opencode 的 用户的一个事件, 因为刚开始他是不管的,后面他发现这个 opencode 的 日渐壮大之后,他就开始封禁了,你就不能授权到这里面用。 所以如果你要在 opencode 里面去用 cloudof 四点六的一个模型,我建议大家去用中转站,通过按 api 去计费用多少就算多少。那我这边推荐一个我一直在用的中转站接口 i, opencode 的 这边也已经支持了接口 i, 也就官方支持了嘛。 那前面几期视频我也推荐过,如果我要用到一些国外的模型,按 api 调用的话,我都用的是接口 i, 挺稳定的。最关键的一点,你不需要模仿网络,而且是国内付款的一个方式。 最近他们还专门针对海外的顶尖模型增加了一个套餐的方式,也就是说你可以用一份钱去用国外这些顶尖模型呢,目前有三个档位哈,可以按自己的一个需要去选择,相较于官方 api 按量计费的话,这一个套餐模式帮你省了百分之二十五的钱。 好,下面我们先来去创建一个 api key, 在 这个地方新建,我就随便取一个,我们就取 opencode 的 点击复制。这个时候我们回到 opencode 的 这边 附着 apk 之后,我们供应商选择接口,点 ai 敲击回车,把我们的 apk 输入下,然后保存,这时候你可以看到国内国外的模型都可以用,用一个 apk 你 就解决了多模型的一个适配问题。好,下面我们来进行一些其他的配置。 当你安装完 open code 以及欧曼 open code 插件之后,你会在你的工作目录下面点 config, 下面有一个 open code 目录,这里面有两个节省的配置文件,一个是配置 open code 的 一些模型的,另外一个是配置我们这一个 多 a 帧的协助的时候,它具体用哪些模型。这边的话我给大家直接准备了现成的,你直接到我的一个开源仓库里面直接去复制就可以了。下面来我这一个开源仓库里面,直接把这两个配置可以复制一下,把它粘过去就完事了。 好,我们把它覆盖一下保存,再把 omecode 的 也复制一下回来点击复制。 那这一块的话,你可以根据你自己的需要哈,因为 gpt 五点三这一个扣袋子模型的话,官方是没有出 api 的 版本,那后续如果 open i 那 边出了 api 版本接口, i 这边也会跟上,你就根据自己的需要嘛去看这块要不要注视这个内容,我们来复制一下。 好,我们把它覆盖完了,覆盖完了之后,我们重启一下,你就可以看到 color 的 open 四点六已经可用了, 就这几个 a 帧的,它配置的模型都可用了。那下面我们开始进入实战的一个环节,有了 o my open code 插件之后,我们看一下多 a 帧多模型协助的一个流程。我这边有一个纹身图的 a 帧,我希望让它去加一些功能,在这边加一些删除的动作,能把历史记录删除掉,同时在左下角 做一些设置的动作,可以去更新你的一些头像啊,以及我们那些历史提示词,能支持去快速的复制展开开干, 那提示词的话也比较简单,我们这边加一个 alterwork, 让它去更深入的去工作,去分析。 好,我们切到 opencode 这边,这个就是它的整个架构 agent, 它用的是 off 四点六,那这个的话是干活的 agent, 它用的 gpt 五点三,还有些其他的 agent, 也就说它是多 agent 多模型去写作的一个流程。好,我们把提示词粘过来让它干活, 这里提示 autowork 已经开启了,这个时候可以看到它开启了一个探索的沙背 a 技能吗?用的是很便宜的一个模型,这个过程就跟在 clockcode 的是一样的,这里又开了一个新的, 可以看到它一直在开一些新的沙背 a 技能的任务去做探索。啊。好,这里又开启了一个计划的 task, 也就是一个沙背 a 技能,我可以点进去看一下它在做什么, 可以看到他就是把已有收集到的一些代码信息,整个代码空间来去做一轮分析,让这个 off 四点六做一个计划出来,这个时候他这一个主要的协调 a 技能在等,等他这个后台的这个计划任务完成完了之后,这个时候他再去协调其他的 a 技能去干活。 可以看到它这一个经过几轮的一个探索之后哈它得到了一个突突像,那这个突突像的话,它根据后端、前端以及一些小需求拆成了很多突突像,这个时候它就开始去并行执行修改任务了,可以看到它这里又开启了几个 safari 的。 有一个点要看的话是他的这个三倍镜,他开的时候,他其实这个时候是用的 jamal 三 plus 这个模型,也就说他认为这个任务其你根本就没必要用一个很高的模型去做这个事情,所以说他默认给你路由到了一个简单模型, 它这种规划任务的方式就能把模型最大化的利用起来。复杂的任务用复杂的模型,简单的任务用简单的模型就很完美。可以看到它开始去执行 t 四跟 t 六这两个任务了,而且它依赖关系也找出来了。这个就像前两天发布的 cloud agent teams 的 一个写作流程,只不过这个是老早就有了这个插件老早就有了这种多 a 的 写作,最终被 cloud code 写到一个官方的库里面去了。 然后他们那种通信机制就跟爱信的 tim 是 很像。哎呀妈这个系统通知 coco 的, 其实他很多方案是借鉴了社区的,因为社区搞出来之后, 他觉得确实是 ok, 可以 的,那他就把它集成到 coco 的 里面。所以这 coco 的 从它诞生之后的很多功能迭代都参考了开元社区的一些做法,而且他的也在他的一些技术博克里面有,感谢一些开元社区的人提供了一些解决方案。 就像你做产品一样,你产品迭代的过程中,你光靠产品经理去,有时候发觉不了用户的一些真实的需求,那真实的需求暴露出来之后,社区他就解决了,那你就可以去把一些已经解决的痛点的问题提升到自己的产品里面。 可以看到这所有的凸凸像它全部完成了哈,包含三个任务,我们现在来看一下它整体的效果怎么样。首先是左侧的这个删除功能好,确认删除 ok, 确认可以,并且弹窗也是正常的。其实我们看这个可以复制已有的提示词, 可以复制折叠展开是 ok 的。 下面就是这一个左下角的设置,可以去更新昵称跟头像这一些啊,可以看到他这边其实也做好了。 好,我找一张图像试一下看可以吗?前面加一个我的名字吧,看可以吗? 可以,已经保存了。可以的,这个看起来他做的挺好的,英文啊,英文设置也是 ok 的, 多源设置也是 ok 的。 整体这一次任务的话,他全部搞定了呀,就是虽然不是特别难的,但是他协调了多个 a 镜的去干活,而且都能交付的很完美,中间我没有做任何的介入, 所以说这个工具啊,真的推荐大家去用一下这个多 a 镜的协助真的挺好用的,下面我来总结一下。使用 open code 再加那个插件, open code 再配合你用一个接口外的中转站,可以做到 模型自由稳定,省心,你也不怕被封号。第二个的话是成本灵活,这就是今天所有的视频内容,如果你觉得这期视频对你有帮助的话,可以给我一件善良,谢谢大家。拜拜。拜拜。