别无脑吹科四了,工具选型必须匹配技术战,前端后端即刻最佳,组合完全不同,前端或全站 vs code 加 cloud vs code 插件生态无敌。前端首选无缝切换,可拉的上下文,极大处理复杂的 dom 结构, css 的 样式,可拉的逻辑推理能力是天花板 java 或 go。 后端翠加 colex 配 ai 不是 翠 c n, 通过配置能达到阶梯原则的体验习惯优先。 colex 在 代码谱上延迟极低,更适合后端逻辑的填空题, 专业的人用专业的 id。 最后分享一个,即刻首选 open code 加 colex, open code 开源清亮,命令行为什么不选可拉的?因为它反滑,直接拉黑。没有最好的工具,只有最匹配的组合,你的工具链选对了吗?
粉丝1872获赞1.7万

open code 是 近期热度最高的 ai 编程工具,它的最大优势是有开箱即用的免费模型,通过简单配置,还能免费接入 gemine 三 pro、 cloud、 四点五、 opus 等顶级编程模型。 open code 可以 看作是一个开原版的 cloud code, 几乎具备了 cloud code 的 一切功能,而且对中国用户友好,不 会遇到 cloud code 里面限速、封号等一系列麻烦的事情。在 open code 里面有几个可以免费使用的主流模型,非常适合小白上手, ai 编程可以随便造随便玩,还可以用它练习 agent, skills, mcp, sub agent 等高级特性。本期视频是一个 open code 的 完整教程, 主要介绍 open code 的 四种形态,对比其他 ai 编程工具的亮点,还有我们要重点介绍欧买 open code 的 这个超强插件,还有等等的一系列高级用法。 open code 的 有四种形态,分别是命令行、桌面、客户端插件,最后是云端运行环境。我们先来看命令行,这里我准备用第二种方式,也就是 note j s 的 方式来安装。 我们先来到 note g s 的 首页,在这里根据自己的操作系统下载对应的安装包,把 note g s 安装一下。接下来我们复制 n p m 的 安装命令,我们打开一个终端窗口,把安装命令粘贴进来回车,这样就安装完成。输入命令, open code 就 可以直接启动了,进入这个页面打个招呼, 这样就完全配置成功了,非常简单。接下来我们来看客户端版的安装,在这个页面点击下载客户端,然后一路点击下一步完成安装。打开以后选择一个文件夹作为项目文件夹就可以直接开始使用了。 open code 的 客户端并不是一个完整的 ide, 它只有基础的对话框功能,而 而且目前处于贝塔测试版,我试用下来 bug 还是比较多的。所以本期视频我们主要还是以命令行版本为例进行操作。接下来我们来看插件版的安装。使用插件版的 open code 的 前提是需要先把命令行版的安装好,这里我以 vs code 为例,我们打开 vs code, 在 左侧的 extensions 搜索 open code, 然后我们找到这个 open code 插件,点击安装。安装好了以后,我们按快捷键 ctrl shift 加 p, 打开命令面板,敲这个命令, open open code 回车,这样就以插件的形式打开了 open code, 它可以自动关联左侧窗口打开的代码文件。然后我们还可以选中一些代码,点击快捷键, ctrl alt 加 k, 把这些代码直接快捷地粘贴到 open code 的 聊天窗口里面, 这就是插件的全部功能了。最后一个云端运行环境,我们放到视频的最后面再看 open code 最棒的是内置了一些免费的模型,我们敲命令来到软件进来以后,输入命令斜杠 models, 后面带 free 标记的都是一些可以免费使用的模型,特别是 g l m 四点七,还有下面的 mini max 二点一, 编程能力都非常的不错,零配置开箱即用,输入需求就可以直接编程了,很适合新手用它们来练习 ai 编程。接下来我要推荐一个插件叫 open code 的 anti gravity os。 anti gravity 是 谷歌推出的一个 ai 编程的 ide, 它里面十分慷慨地提供了 jimi、 nike 三 pro 还有 cloud opus 四点五这两个顶级的 ai 编程模型,我们可以借助这个插件把这两个顶级模型免费地接入 open code 里面使用,在它的 get up 首页有安装方式, 最简单的就是把这一句提示词复制下来,然后我们来到 open code 粘贴进来开始,这样 ai 就 能自动帮我们完成安装,这里耐心等待一会,这样插件就安装完成了。接下来我们复制这个命令,然后我们打开一个新的命令行窗口,执行这个登录命令。 这里的模型供应商选择谷歌,选这个 anti gravity 的 登录方式 project id, 这里直接回车,这里登录一下自己的谷歌账户, 点击登录,然后把生成的这个 u r l 粘贴进命令行回车,选择 n 回车,这样就配置完成了。我们重启一下 open code 的 斜杠 models, 在 模型选择里面我们就可以选到 jimmy nine 三 pro 还有 cloud opus。 四点五这样打个招呼成功给到了输出就配置完成了。接下来我们把另外一个好用的编程模型 gbt code 也接入到 open code 的 里面。就在前几天, open a i 跟 open code 的 官宣进行了合作, 我们可以直接在 open code 里面使用 chad gpt codex 的 编程套餐。首先我们需要在 chad gpt 的 官网获取一个至少是 plus 以上级别的套餐,在这期视频里面详细的介绍了订阅方法。我们来到 open code 输入这个命令斜杠 connect 回车,这里选到 open ai, 选择 gbt pro, 在 浏览器里打开这个链接,选择继续,这样就登录完成了。然后我们回到 open code 输入命令斜杠 models, 这样就可以选到 chat gbt 的 几个模型了,除了上面这几种接入 ai 的 方式,输入斜杠 connect 命令,可以查找到七十五种 ai 的 接入方式, 几乎囊括了所有的模型供应商。比如我们可以找到 open root, 这里需要我们填写一个 open root 的 api key, 我 们来到 open root 的 官网,点击 get api key 创建一个, 把这个可以复制一下,填写到 open code 的 里面,回车一个 open root 就 能接入市面上几乎所有类型的大模型,而且国内用户也可以很方便的获取额度,可以说我们只要接入了 open root, 就 可以使用几乎一切的大模型。 我找了一个之前常用的经典测试案例来测试一下这里 open code 的 表现有几个亮点。首先在开始之前,他会反向询问我一些问题,比如说只是要代码样例,还是一个完整可以运行的程序,有哪些功能是必须实现的,调用哪个 jimmy 模型,然后环境变量是怎么保存的, 在动手之前他会把所有的需求细节询问清楚,这点非常的不错。然后他列出了一个详细的开发计划,并且分步骤完成,每完成一步都会标记出完成。 第二个亮点就是命令行版的代码比对界面,我觉得是所有命令行类的编程工具里面做的最好的,整个编程过程没有出现错误,也没有出现过需要代码返工的场景,一次性就完成了这个需求的开发。这里我使用的编程模型是 gpt 五点二 codex, 我是通过登录我的 chat gbt plus 订阅的账号把 codex 模型接入进来的,我觉得它在 open code 里面的表现跟使用原生的 codex c l i 的 表现几乎是一致的。 open code 在 底层对各种编程模型都进行了很多工程上的优化,还是很不错的。 喷扣的里面重点突出了一个叫做 session 的 概念。我们每次跟 ai 开启的一个新的对话,就是一个全新的 session, session 可以 后台运行,而且可以多个 session 并行运行,比如这是我们刚才生成的你画我猜的游戏网站,这里我想增加两个功能, 首先我想让画笔可以调整颜色。第二个功能我想增加一个计时器,如果作画超过二十秒,游戏就失败了。我们先输入第一个需求,增加一个计时器,在第一次落笔的时候进行计时,如果超过二十秒,游戏就失败了。开始 在这个任务的执行过程中,我们可以输入 new 命令,创建一个新的 section, 然后开始我们的第二个需求,第二个需求是画笔可以调节颜色。我们输入命令斜杠 sections, 就可以看到我们触发的 session 前面一个打转的符号,表示它正在后台运行。这样我们就创建了两个 session, 让两个需求并行开发,还可以在两个 session 之间互相切换,查看它们的执行状态。好,这样就完成了, 我们可以调整画笔颜色,然后我们开始作画的时候,右上角也出现了一个倒计时,我们成功利用了 session 功能,并行地完成了两个需求的开发。输入斜杠 share 命令, 可以把这个 session 的 对话记录分享成一个网页,网页的地址已经复制进了粘贴版,我们把地址粘贴进浏览器, 就可以看到这个 session 里面跟 ai 的 对话记录,包括它是怎么进行文件修改的?有了这个历史记录以后,我们就可以很方便的把我们的编程过程跟其他的用户进行分享。输入命令 on share 就 可以取消分享, 之前的链接也就变得不可用了。输入命令斜杠 export 就 可以把对话记录导出成一个文件。刚才我又进行了两次对话,先让它把画笔默认改成红色,然后把这个提示删除。 open code 还有一个亮点功能,就是它的时间线,或者说是检查点。我们输入命令斜杠 time line 回车可以看到这个 session 里面的跟 ai 的 对话记录,我们可以选择任意一次的对话记录,选择这个 reward 功能, 把代码跟聊天内容一起回退到这次对话之前的状态,我们可以回到这个时间点再重新进行修改。 在上期视频里面,我们介绍了 agent skills 的 基础概念以及其目录结构,我们可以把 skill 理解成带目录的说明书。每个文件夹都对应一个 skill, 也就是一个技能包。 把一个 cloud code 中的 skill 迁移到 open code 里面非常的简单,我们只需要把目录里面的点 cloud 替换成点 open code 就 可以了。 在上期视频里面,我们一共创建了三个 skills 文件夹,把这三个 skills 迁移到 opencode 里面也非常的简单。我们来到 opencode 的 项目文件夹,新建一个叫做点 opencode 的 文件夹, 进来以后再新建一个 skills 文件夹,然后就可以把这三个技能直接复制进来,这样我们的项目就拥有了那三个技能。我们右键在终端打开,输入 opencode, 启动起来。我问他你有哪些 skills? 这里给出了完整回答,当我们有需要的时候,它就会调用这些 skills 进行工作。接下来我们来看 m c p。 的 配置方法。 open code 里面有两种 m c p, 我 们在文档里面可以找到一个是 local 的 方式, 也就是通过本地命令来执行。还有一个 remote 的 方式,也就是远程调用。我们先以这个 set cn 为例来把它配置一下。我们先来到 open code 的 配置文件夹,用户你的用户名 点 configure, 然后 open code 找到这个配置文件。 open code 点 jason, 来到文档站,这里把 m c p 的 这一段复制一下,粘贴过来。我先把这些多余的逗号去掉,这里填写上 m c p 的 名字,这里我就叫做 set c n 类型的话是本地,然 然后 command 这里填写命令 n p x, 后面是 shift c n, 把这一段复制过来。最后这里还有一个 m c p, 我 们打个逗号,添加上 enable, 表示启动下面没有环境变量,这样一个本地的 m c p 就 配置完成了。接下来我们再看一个远程调用的案例, 我们就以这个 context 七 m c p server 为例。我们回到 opencode 的 文档站,在下面找到这个远程调用的案例,把这一段复制一下,打个逗号,粘贴到配置文件里面来。这里类型是 remote 远程调用 url, 我 们把 context 七的 url 复制一下,粘贴过来。 在 hide 里面我们填上 context 七的这一串粘贴过来,这里它需要一个 apikey, 我 们可以来到 context 七的官网创建 apikey, 把这个可以复制一下,填写到配置文件里面, 把这个 m c p 的 名字改成 contact。 四七,我们重启一下 open code, 输入命令斜线 m c p, 就 可以看到我们刚才配置的两个 m c p, 这就是本地,还有远程调用两种 m c p 的 配置方式。 oh my open code 是 open code 上一个最火的编程插件,它本质上就是一系列的工具加 m c p 加编程 agent 的 组合捆绑包。比如在工具方面,它集成了 l s p 高级版,可以通过编程语言的语法和语义,帮助 ai 快 速理解和定位代码。 a s t 工具可以通过代码的语法术进行关联搜索。 open 工具借助多模态大模型的视觉能力,帮助理解图片还有 pdf 等信息,还有像 delegate task, background task 这些 agent 任务分配和后台调度工具。插件还内置了三个 mcp server web search 用于网络搜索, context 用于获取最新的文档。 group app 用来在 github 仓库快速搜索代码。 插件还内置了七大编程智能体,分别是希奇福斯,它是主智能体,用来规划和调度任务,先知用来做架构设计、代码评审等等。图书管理员用来查阅文献,探索者用来进行网络搜索。还有前端工程师、 文档编辑者,还有多模态等等。插件给每个智能体都分配了一个最适合他工作的大模型,比如前端工程师使用前端能力最强的 jimmy 三 pro 模型,主 agent 使用的是 cloud opus 四点五,据说这是作者花了两万四千美元的 token, 找到最适合的 ai 编程团队。 好,我们把这个插件安装一下,在它的 github 首页,这里有一段提示词,就是 install 开头的这一段,我们把它整个复制下来,我们回到 open code, 把这段提示词粘贴过来。开始安装的时候,插件会询问我几个问题, 他先问我有没有可洛的订阅,这个我是没有的,我有 gbt plus 订阅,用 gbt 去替代可洛的模型,然后问我有没有拆的 gbt 订阅,这里我选择 yes jimmy 订阅,有, 最后选择确认。过了一会,插件成功完成了安装。安装完成以后,我们来到 c 盘用户你的用户名点 config, 然后 open code 的 这个文件夹,在这里面有一个欧买 open code 的 配置文件,这里定义的是欧买 open code 的 七大智能体所用的模型,我们可以根据自己的需要来进行调节。 这里我把希希福斯的模型换成 g b t 五点二,剩下几个的模型都是作者的推荐配置了。然后我们重启一下 open code 的, 我们进来以后看到它显示的默认智能体就是希希福斯。 这个插件主要有几种用法,首先我们可以敲 at, 然后挑选一个智能体给我们干活。还有一个用法就是输入这个魔法词 u l w, 也就是 ultra work。 输入这个魔法词以后,不买 open code 就 会尽可能地调用它的一切潜能,把任务分配给几个智能体,并且并行运行, 由这个主智能体西西福斯进行居中调度。这里他询问我要什么样的网页,我们大体填一下需求,然后开始 我们看到他把任务拆分成了一个 to do list, 然后同时开启了三个后台任务并行执行,然后他对这些后台任务进行疯狂的调度。我们耐心的等待一会,等了几分钟, auto work 模式运行完毕,我们来启动起来看一下效果。一个宠物商店的应用看起来还真是不错, 界面看起来就很清新,它在没有图片素材的情况下,还尽量地用 emoji 给我们配了一些图,整个网站的交互还有动画逻辑看起来都是不错的。如果你有 gbt、 cloud 等几个顶尖模型的订阅,不妨来试一试。这个插件可以综合地调度各个领域最强的模型,完成一个很不错的编程任务。 购买 open 扣的还有一个重要玩法就是我们输入这个命令斜杠 raf 路虎就是拉尔夫循环,这个模式可以强制 ai 长时间的循环,对一个非常难的任务进行持续工作。 比如我可以要求它使用 springboard 四的最新标准重构整个项目,然后直到所有的测试用力都通过,它可以循环连续运行好几个小时,直到最终的任务完成。 刚才我们介绍了命令行、桌面板还有插件等运行环境。接下来我们看云端运行环境,这里我以 github 举例, 它的主要功能是当我们在 github 上面输入斜杠 open code, open code 就 可以在 github 云端进行工作,比如可以为我们解释问题,自动修复问题,并且创建 pr 等等。这里有一个安装方式,我们来试一下。首先第一步,先把项目上传到 github 上面, 这里还是刚才那个宠物商店的应用,点击这里的 south control public 是 branch, 这里我选择 public, 把这个项目变成一个 gitap 上面的公开仓库,点击右下角的 open on gitap, 这样我们的代码就成功上传过来了。接下来我们来到代码文件夹,把这个安装命令复制一下,粘贴过来执行。点击 install, 选择一个模型替工商,这里只能用 api 选择一个模型。然后还有两步需要操作,首先要把项目里这个文件提交到 gitap 上面,它已经准备好了这个配置文件, 我们先把它提交上去,接下来它需要把这两个环境变量填到项目里面,我们来到项目的 sightings, 然后下面的 secret and variables 这里找到 actions, 在 这里的 repository secrets, 我 们把第一个 key 的 名字复制一下,粘贴过来,对应的密钥可以在谷歌的 as studio 创建一个,这样填写过来保存。 接下来第二个 key 复制过来,还是填写相同的密钥,这样填写好了两个密钥。比如某个用户可能会在一处里提一个 bug, 说顶部导航栏 find ipad 跟 adopt null 功能重复, 应该去掉这个 find ipad 就是 这两个功能重复。在这个项目里面就可以直接斜杠 open code, 调出 open code 的 功能, 让 opencode 把这个 bug 修复一下,我们提交这个评论。然后我们来到项目的 actions 里面,可以看到这里有一个 action 就 正在执行了,这个就是 opencode 的 工作流,它现在正在 gitlab 的 云端运行,帮我们来修复这个问题。任务运行完成,我们来到 pullrequest 这里 就可以看到一个代码合并请求。在 file changes 这里可以看到它对代码成功进行了修改,我们只需要点击这个默认设置按钮,就把 open code 这次修改合并到了我们的代码仓库,这样这个一束就成功完成,并且关闭了。 接下来我们再介绍 open code 的 几个其他的重要功能,这些功能其实在之前的 cloud code 还有 codex 的 视频里面已经进行过介绍了,这里我们再快速的过一下。 首先第一个命令斜杠 inate, 这个命令可以让 ai 通读整个项目文件夹,然后把它学到的关于整个项目的知识生成一个 agents 点 m d 文件,这个文件就作为整个项目的系统提示词,可以帮助 ai 快 速地了解项目下一个重要命令。斜杠 compact 用来压缩之前对话的上下文,把之前的对话提炼成一个简洁的摘药来释放模型的上下文窗口。除了这些内置的斜线命令以外,我们也可以创建自己的命令。我们来到 opencode 的 配置文件夹,在这里面可以新建一个 com 的 文件夹,在 这里面就可以以 markdown 文件的形式来定义自定义命令。比如这里我创建一个自定义命令,叫做运行测试,我把官网上这一段样例复制过来粘贴进来,我们可以指定它是 build 或者 play 模式下面的命令,在下面的描述里面写清楚这个命令是做什么用的。 配置完自定义命令,我们可以在 open code 里面斜线,然后是命令的名字,这样就可以运行我们的自定义命令。下一个功能可以定制智能体, opencode 里面预设了 plan 跟 build 两种智能体,我们也可以创建新的。我们来到 opencode 的 配置文件夹,在这里面可以新建一个 agent 文件夹,比如这里我想新建一个 code review 的 智能体,让我新建一个 markdown 文件,在这个智能体的文件里面填上描述类型,它是一个主智能体还是 sub agent? sub agent 的 意思就是它可以由主智能体调度在后台执行,然后填上一个模型,后面是它的描述,就是这个智能体主要做什么事情。 定义好了以后,如果以后 ai 可能需要 review 代码的时候,它就会自动调用起这个 sub agent, 并且在后台运行,帮我们自动完成工作。 我们除了可以把一个智能体定义为 sub agent, 也可以定义为 primary, 也就是主智能体。定义成主智能体以后,我们可以按 tab 键直接显示地切换到这个智能体进行工作,而 sub agent 只能在后台由 ai 自动调度执行。好,这就是本期视频的全部内容了,感谢大家点赞支持,我们下期再见!

open code 最近真是太火了, github 上已经有九万多 star, 我 估计全球的大模型厂上都在针对 open code 做测试调优。 open code 是 目前真正能凭借 cloud code 的 工具,也是二零二六年到目前为止最火的 ai 工具。 open code 呢,目前只提供了英文文档,我按照其英文的文档,同时结合了 cloud code 的 学习资料,梳理了一份详细的 open code 的 中文操作手册,包括安装 基础操作、进阶使用等,如果你需要,我也可以发给你。上期呢,根据文档手把手带大家安装了 open code, 相信很多朋友已经感受到了它的强大。本期是 open code 的 第二期,主要带你完成三件事,一、免费进入最强编程模型 gemini 与 cloud。 二、教你安装 skills 与 m c p。 三、安装超级增强插件 all my open code。 话不多说,直接上干货。首先先教大家如何不花一分钱接入 cloud 模型。这里我们要接入一个 google 推出的工具 anti gravity, 中文名是反重力,它本身呢是一个 ai 编程的 ide, 内置了 gem 和 cloud 的 这两个顶级的模型。 在 gethelp 上找到 anti gui 的 这个插件,复制这行安装指令,回到 open code 里粘贴 open code 呢,就会自动下载安装。安装完成后,重新打开终端,复制这行指令回车。 然后我们选择 google, 选择带有 anti gui 字样的这行回车,接着就会跳转到浏览器,登录自己的 google 账号,复制这个 url, 粘贴到终端回车。这样我们就配置完成了。 重新打开一个终端,进入 opencode, 输入 gunmodels, 我 们就能看到 gemini 三 pro 和 cloud 四点五 opus 的 这两个模型了。我们测试一下输入,介绍一下你自己可以看到它正常的输出,证明我们接入成功了。 从现在开始,全是顶级大脑在为你打工,有了顶级大脑呢,还得有强力的四肢。接下来我们要给 opencode 装上它最火的灵魂同版包 oh my opencode, 它内置了七个顶级的编程 agent, 通过多智能体分工协助,帮你自动完成写代码,查 bug, 梳理项目结构的这些开发工作,不用再手动处理很多繁琐的细节。据说呢,是作者花了二点四万美金才搞出来的。安装呢也很简单, 复制 github 上的安装指令丢给 opencode, 它会询问你是否有 cloud 的 gpt 和 jimmy 的 会员啊,你就如实的回答,大概需要一分钟的时间,插件就安装好了。 重启 open code, 可以 使用艾特命令,从七大智能体中挑选一个帮你执行任务。或者呢,直接在提示词里呢输入 u l w, 意思呢就是 ultra work 就 可以使用 oh my open code。 接下来教大家如何在 open code 中使用 scales, open code 呢,可以无缝衔接 cloud code 的 创建的 scales。 首先来到根目录,新建一个文件夹,命名为点 opencode, 再新建一个 scales 的 子文件夹。然后呢,把你的 scale 复制到这个文件夹,就可以在 opencode 中使用了。当然,我们也可以直接在 opencode 中创建 scale, 需要先安装 scale 杠 creator, 有 了它就可以用自然语言来创建 scale。 我 们让 opencode 自己去安装这个 scale 杠 creator。 安装完成后,我们测试一下,让它创建一个翻译功能的 scale, 它会根据你的要求自动执行并创建。创建成功后,重启 open code 就 可以看到这个 skel 已经有了。最后呢是配置 mcp, 我 一般呢都是让它自己来安装 mcp, 比如安装一个浏览器 mcp, 我 会这样在这个 open code 中输入安装 chrome mcp server, 稍等一会它就安装成功了。有些 mcp 呢,需要配置 k, 我 们也可以把 k 给他,让他自己去配置,这样我们就不需要自己去手动去配置了。 然后输入杠 m c p s, 就 能看到所有 m c p。 从白嫖顶级模型到手搓专属 skills, 再到部署全能 m c p, 现在的 open code 应该已经是你的超级 ai 助手。 open code 的 不仅能进行零代码编程,更能帮你处理文件、整理资料,智能写作。下一期我会带大家继续进行进阶的学习,大家点点关注哈,跟着阿亮学 ai!

open code 的 第三方配置教程来了,首先打开命令行,先去安装 open code n p m i g open code a a 安装完之后就可以去命令行配置 json 文件, 这里已经安装就不演示了,开我们的 c 盘用户文件夹下,然后有个点 com fake 文件,安装之后会出现一个 open code 文件夹, 进入之后我们新建一个 open code json, 打开这个 js 文件进行配置,我们把要配置的内容复制进来。 这边我们默认的模型是 model a game n 三 pro 调用地址已经填入了,可以不用修改。 后面只要把我们站点内的密钥复制过来,回到我们站点令牌管理这边,把密钥复制下来,再粘贴到这里,记得保存,之后关闭文件, 就可以用我们的 open code 项目。 然后在 models 这里进行模型选择,我们要的是真 m i 三,就第一个发个 hi 试试, 这样就可以正常交流了, 这样就可以正常调用了。来到我们的使用日记处检查一下,是可以看到有一个调用信息的。

open code 的 怎么配置第三方的模型接口啊?我们一般是这么配置的,首先呢,我们进到啊,如果你是 windows 系统,进到这个用户的点 cf 目录下有一个叫 open code 的 这么一个文件夹,然后呢,你进去会发现有个叫 open code 的 点 json 什么文件,如果没有的话,可以手动创建一个,我们用记事本或者其他编辑软件打开它, 打开它之后你会看到,呃,这里这个是我已经配置好的。呃,在 provider 这边, provider 就是 模型的供应商的意思,然后在下面配置一个,这个是第一行是 provider, 是 provider 的 名称,供应商名称你可以自己起一个。然后第二行比较重要, npm 这里呢, 它应该是表示我使用哪个接口去兼容你的 api。 我 们这里采用 open ai 兼容模式,大部分的第三方模型供应商都会提供 open ai 兼容模式的接口。 后面的这个 name 就是 你在呃我们 open code 的 打开之后,它的页面界面上显示的那个 provider 的 名字,我们可以跟这个 provider 起的一样。呃,然后它的选项我们要把 options base url 填上,这里是一个我已经创建好的一个 接口地址,然后下面 models 中是填入你的模型名称,我这里有两个模型,一个叫豆包 c 的 一点八和豆包 c 的 一点 六,然后这两个模型怎么来的?我们我在后面继续讲。下面是另外一个 provide, 等你把这些东西配置好了之后,我们就可以打开 open code 中去用这个 provide。 我 们来看一下 啊,我们打开了 open code, 然后在这里配置第三方模型接口的时候,我们先要选择 provider, 这里输入斜杠 c o n e c t connect, 在 connect to provider 这个界面中,我们可以往下找找找找找,大概在最后你可以找到呃你新配置的 provider, 我 这里选择 open ai 豆包,然后填入 这个呃 provider, 它需要的 api key 我 输入一下,然后按回车, 此时就会列出你配置的两个模型的名称。我们选择一点八,如果你的一切配置都正常的话,这个时候输入你的问题,你够能够得到一些反馈。 好的,看到有反馈的话,就是说明你的,嗯, key 啊, provider 啊以及 jason 啊都是配置对的。

给大家来演示一下用 open code 的 这样 ai 生成代开源工具,用那个通一千万三扣的 next 这个模型, 我们配置了一个独立部署的模型,给大家看一看,前面我已经跑过了,已经跑通了,给大家演示一下,因为它应该还是可以跑的。它这个给大家看一下,这个是我服务器上面的这样的一个环境,这个服务器上环境我是四块 rtx 四零九零起了一个通一千万 三 ko 的 next f p 八的一个模型,这个模型目前只能跑的是上下文是四四万八千,目前还是能够跑的,应该算是跑通了。我们给大家详细介绍一下这个模型和如何配置独立部署的模型,好吧, 首先我们先来看一看那个通一千万三 ko 的 next, 这个模型性能应该是不低的,因为它是技术白皮书发布出来,我们看了一下,它这个应该是我们企业独立部署的小模型,里面应该算是比较优的。它这个 你可以看到它对比了 deepsea v 三点二, v 三点二要将近六百多个币,所以是非常大的,包括 g l m 四点七、四点七也是非常大的一个模型,也要将近五百四五百个币。 mini max m 二点一也是一样,都是三个非常大的模型。那么相对来讲, 通一千问的这个扣的 next 的 这个模型差不多只有八十币左右,八十币左右,但是你可以看到它的编程性能来讲,其实跟其他模型比起来相差不是太大,水平差不多,它应该是这样,所以它这个模型对我们企业独立部署一些 私有化的模型,做这个代码生成的应用来画这个模型,应该是目前是比较优的一个模型。那这个模型也是我们之前跟大家介绍过,它跟通一千问三 next 八十币有点类似,它也是属于混合的这种架构是 member 架构,再加上 transformer 的 这种架构,混合的一种架构,也是 mo 一 的这种方式,它是总参数量是八十个币, active 的 这个参数是三十,是三个币,它等于是这样, 专家也是有五百十二个, active 的 专家一共是十个。谢尔的专家是一个,它等于是上下文,它只要达到二百五十六 k, 我 因为我的内存还是比较小的,所以我目前是用到了四万八千,相当于四十八 k, 它等于是这样。 好,呃,这是一个。接下来我们给大家简单介绍一下它到底是如何来配置的这个模型,因为我们现在跑了本地的,我们给大家来介绍一下它到底是怎么来配置它。其实最核心它是有一个配置文件的,它这个地方是有个配置文件, 大家看一下,在你的根目录下,用户目录有一个点 config 的 这样一个文件,文件里面有个 open source, open source 里面 它是有一个,我们打开给大家看一下,那么这个文件主要是配置我们独立部署的这样的一些大模型。你可以看到我们用了一个 provide 的 这样的一个 提供商, light a l m, 它是默认它是用了 open ai 的 兼容的 api。 我 这里面是配了一个通用千万三 code next f p 八的一个模型,这个 base url 就是 你本地的那个 url 的 名字就可以了。

现在我用手机也能连上我的 ai 操作系统了,这套系统跑在我家的 mac 上边,当我出门在外的时候,只要打开 discord, 就 能像跟却 gpt 聊天一样跟它对话、查文档、联网搜索、改文章,它都在后台悄悄帮我搞定。 先介绍一下这个系统,很多新来的小伙伴可能不太清楚,它由两个部分构成,第一, open code 加 newtype profile 插件。你可以把 open code 理解为是开原版的 clock code, 而 newtype profile 插件则是我专门为了内容创作和日常思考而定制的多 a 卷编排系统。 它里边有我的方法论,有我的工作流,还内置了五个我专门创建的 skills, 所以 这套东西是我 ai 操作系统的框架。 第二,在这个框架之上,我把自己沉淀了好几年的内容仓库给接进来了,我所有的产出都在这个仓库里边,包括笔记、视频脚本、 news letter。 对 于 ai 来说,这些东西既是参考也是约束,这样它才能成为我的系统。这一整套的 ai 操作系统已经完全承包了我日常的所有输出。但是啊,这个系统还有一个限制,它只能跑在桌面端, 当出门的时候,我只能在 iphone 或者 ipad 上面使用 gemine。 这种割裂就导致我面对的其实是两套系统, open code 和 gemine, 它们分别存储了两套数据,两套记忆。 这是违背我整体的原则的。我认为对于用户来说,在 ai 时代最有价值的是你的记忆资产,这个必须抓在手里,并且长期积累。 我之前特意给 newtype profile 插件添加了记忆系统,分成了长期记忆和短期记忆两套机制,把它们全都传成 markdown 文档就是为了这个。不过好在前两天这个问题被解决了,手机上的 discord 和 mac 的 open code 彻底打通。 而这一切的实现都要归功于两点,第一, opencode 的 服务器模式。一旦开启这个模式之后,它会把 opencode 的 核心功能包装成一个后台的 http 服务器,你直接通过端口调用, 简单来说就是把你的 opencode 变成了一台服务器,完全不需要走前端的操作,全都走后台的处理。第二, discord bot 这个机器人其实是一个传声筒,一方面它在前端,也就是 discord 频道内跟我交流,那另一方面,它在后端,也就是在 opencode 服务器内边进行数据的传输。 也就是说,机器人接到我的需求,拿给 open code 的 处理,然后再把结果拿回来给我。就像职场里的很多人一样,假装功劳都是他的,都是他做的。但其实啊,都是后边团队搞的,他只是面向老板的一个交互界面。要创建这样一个机器人非常简单,我全都是让 ai 帮我写的, 我只需要到 discord 开发者后台去创建一个 application, 然后把权限都勾选上,把 token 复制下来就好了,剩下都让 ai 去处理。为了方便使用,我还让 ai 帮我写了一个脚本,双击运行之后,它会自动把 opencode 的 服务器模式开起来,然后把机器人给运行起来。 以前出门的时候,我只能用通用的 ai, 它跟我的系统是断开的,那现在不一样了,我的方法论,我的记忆,我的工作流,走到哪里都能调用,这才是我想要的 ai 操作系统,不是某一个 app, 而是一套跟着我走的基础设施。 在这套系统的帮助下,我的内容生产效率至少翻倍了。这个是我每天都在用的东西,也推荐给大家。 ok, 以上就是本期内容,想了解 ai, 想成为超级个体,想找到志同道合的人,就来我们 newtype 社群,那咱们下期见。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

如果一个模型只能从零到一的写 demo, 它还算不上工程工具。这次收到 mini max m 二点五的内测邀请呢,我决定做一件有点冒险的事情,我想要把它呢接近我正在开发的一款产品。好货 app。 那 这不是测试项目啊,这是一个真实的 springboard 的 后端,真实的数据库结构,真实的业务逻辑。它要在完全不能乱动现有结构的前提下,给我生成一 整套 admin 管理后台,如果说他理解错了一个字段,整个系统就会崩塌。所以今天这个视频呢,我们就不聊参数,也不聊跑分,我只测试一件事情,就是 mini max 二点五能否接管真实工程,为实际的开发工作提升效率。 好货 a p p 呢,它目前已经有一个完整的后端体系, spring boot, my circle, mango db release。 现在呢,打卡朋友圈排行榜啊,里程碑这些功能呢,都是已经完美跑起来了,那现在它缺的呢,是一套真正可以去运营的 element 管理后台。 下面这些呢,就是我们本次要开发的一些功能。本次用到的开发工具呢,是 open code 啊,我已经安装了。现在呢,我们就需要去把这个 mini max m 二点五集成进来。那我在做视频的时候呢,它还是处在一个内侧的阶段啊,大家可以看到,目前这个官网它是只能支持 mini max m 二点一的。 那这里呢,我们提前购买了 coding plan 啊,它用于这个日常开发还是非常舒服的。这边它支持的一个开发工具就有这么多,我们找到 open code, 然后照着这个文档去配置一下。现在呢,我们去随便写点提示词,只要能够看到正常回复,就表示安装成功了。 我们在项目的根目录打开 open code, 首先呢我们需要去输入这个斜杠一定的命令,让 open code 对 整个项目建立一个,所以呢可以看到它这边是用英文来回复的啊,不过没关系, 我们可以去啊,让他接下来尽量使用中文来回复我们。然后呢我让他重新生成了一下这个 agent 点, md, 那 执行完毕之后呢,我们就输入这段提示词啊,然后开始执行。 他首先呢会去制定一个详细的开发计划,那这一步呢,我建议大家可以去啊,暂停看一下,比对一下和自己的一个预期是否是一致的,那我觉得他理解是完全正确的啊,所以说我就让他继续执行了。 接下来的话呢,它会创建一个 to do list, 把这个庞大的任务啊拆解成多个小任务,同时呢也可以去追踪任务的一个执行状态。 那它现在呢就按这个顺序去执行了,完成一步呢会标记一下,那可以看到这个 mini max m 二点五的一个执行速度还是非常快的。实体类啊, controller 啊,还有这个数据操作层, surface 层的这个代码一会就生成完毕了。紧接着他对后端做了一次变异啊,然后发现这边有问题, open code 呢,也会自动的去读取控制台的一个报错信息, 然后自行修正啊,就完全不用我们操心。 ok, 那 现在的话呢,整个项目就已经变异通过了,他开始做前端项目,他生成的一个速度也是非常的快,并且中途也是没有出现任何问题的。那接下来的话呢,我们就让他变异运行一下前后端两个项目,测试了一下后端的 api, 发现是四零三了, 这里他给到我一个修复建议啊,并且让我注意的是啊,这里是因为系统健全层面的一个配置的问题,那我觉得当前是开发测试阶段嘛,对吧?就让他直接放行了,正常这里的话是需要走这个用户健全的。那后来呢,我又让他自己造了一点测试数据啊, 这里他对于整个项目已有的一个数据库自断定义还是非常熟悉的,所以说这个测试数据的一个生成以及插入都是非常迅速的。现在呢,我们就去浏览器看一下它整体的一个效果。首先是这个数据看版啊,用户总量,包括今日打卡数,活跃趋势曲线都已经正常渲染出来了, 数据呢不是假数据,而是从我们现有的一个数据库里面查询统计出来的。接下来的话呢,我们来看一下这个用户管理的模块, 这个列表呢是支持分页的,包括上面的搜索筛选也是可用的,点进这个用户详情呢,可以看到用户当时的一个注册信息,打卡记录以及最近活跃的时间。那这些字段呢,都和我们现有的这个数据库结构是完全对齐的啊,那现在呢,我就去做一个真实的功能验证啊,我选择其中一个测试账号,然后我们点击禁用, 接下来我们去到 ios 端,然后用这个账号重新做一下登录,可以看到现在已经是无法登录了,提示这个账号异常。那说明呢,我们现在后台的这个状态字段的一个修改,已经可以真实影响到我们前端的一个现有业务逻辑了。这一步呢,我觉得是非常关键的啊,就是他不是在做一个独立的后台功能, 而是可以真正的去接入啊,我们现在的一个原有系统。那接下来的话呢,我们测试一下内容的审核啊,我这边在后台打开朋友圈的一个列表,这里呢我提前准备了一条包含不文明用语的一个测试内容啊,我们现在呢就点击删除。 接下来呢,我们还是去到 ios 端,然后刷新这个朋友圈的一个页面啊,可以看到刚才的那条动态已经不见了,然后其他的一些功能也都是可用的啊,整体的一个开发效果我觉得还是做得非常的不错。那整体跑下来的话呢,这已经不是一个生成一套界面, 而是完成了一次真正的系统级别的对接啊,从数据库结构的一个理解啊,到接口调用啊,再到这个权限与状态的控制啊, 整个链路我觉得它是做到了完美的闭环。那做到这里的话呢,我比较确定的一件事情就是 mini max m 二点五呢,在这个项目里面,它不仅仅是帮我们写了代码,而是真正的去接管了一整个完整的工程任务。顺带提一嘴啊,最近很火的这个 openclock 大 龙虾呢,也是可以去直接附用 mini max 的 coding plan, 就是 同一个 plan, 我 们既可以去做日常开发,也可以去跑这个大龙虾,真正做到了一次付费,多场景使用,性价比还是很高的。另外呢,大家通过我的这个专属链接呢,可以享受八八折的优惠 活动呢,是一直持续到二月底结束的,链接呢,我就放到评论区了。 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频,再见, peace。

今年 ai 的 大趋势还是 agent, 不 过跟去年的 agent 不 太一样,我打个比方啊,去年我们是在用镰刀收割玉米,还很初级, 那到了今年,我们将开上联合收割机,成为农场主,不是盯着一个 agent 写代码,而是管理十到十二个 agent 并行工作, 十几个 agent 在 后台跑,咱们就喝着咖啡等着验收,大概就是这样的画面。多 agent 编排一定是今年 ai 领域最大的趋势。而在这个趋势下边,我认为还有一件事情一定会发生,那就是针对这些 agent 定制化。 因为在生产环境当中, agent 的 上线除了跟模型的性能有关之外,还有一个非常重要的决定因素是它是否能够按照你的工作方式来运行,对吧?这就是为什么 open code 和它的插件 omocode 最近人气这么高的原因。 这套组合提供了一条全自动的 a 卷流水线,你向主 a 卷下达需求之后,它会自动分析拆解,交给不同的子 a 卷去执行,在后台跑着一大堆的任务。而且这套东西可以随意更改,你可以通过配置文件做一些小的改动,也可以把整个项目放下来重新设计。 我还是打个比方啊, clock code 就 像一辆配置很好的量产车,它很舒适很顺手,上路就走,也提供了一些改装的选项。 而 open code 则是一个彻底的改装平台,它给你提供了一个非常扎实的底盘,你可以根据需要把它改装成最适合你的赛车。使用 open code 和 omaco code 插件,从模型的选择到 a 卷的配置,甚至创建,全都向你展开了, 只要你有动手能力,你完全可以把它打造成最最适合你的 ai 操作系统。比如我就在欧曼 opencode 的 插件基础上,专门针对内容创作场景重新设计了八个 agent, 把它们打包成了新的插件分享出来。 本期视频我会介绍如何进行配置,以及我是如何彻底改装插件,让 ai 操作系统完全满足自己的需求和习惯。 哈喽各位好,欢迎回到我的频道。谦虚的说啊,我是国内少数几个能把关于 ai 的 y 和号讲明白的博主,我提供的东西远比教程更值钱,记得点一波关注, 如果想链接我就来我们 new type 社群,这个社群已经运营超过六百多天了,有超过两千位小伙伴付费加入啦。如果你是国内用户,可以从知识星球加入。 如果你是海外用户,可以从 substack 加入我的第一套课程,日常的 newsletter 以及专属视频在社群内都可以看到。回到今天的主题, open code 定制化。在开始配置之前,你需要理解用户级的配置和项目级的配置这两个概念。 当你安装好 open code 之后,在 config 文件夹下边会有一个 open code 文件夹,这个就是用户级配置的文件夹, 也就是说,除非你在项目里特别设置,否则的话默认就是按照这个配置来走的。而在每个项目里边,你还可以在项目的根目录下边创建一个点 open code 文件夹, 这个就是项目级配置的文件夹,它的优先级会高于刚才的用户级配置。所以如果你想单独为某个项目做一些设定的话,可以在这里进行配置,在这两个文件夹里边都会有这两个文档,一个叫 open code 点 jason, 一个叫 omaco 的 点 jason, 从名字你就能看出来,他俩一个是配置本底的,一个是配置插件的。总结一下,大家可以看我画的这张表,逻辑很简单,两个层级的配置,项目级优先级更高。 两个层级的配置里都各有两个文档,分别对应本底和插件。理解了这个逻辑,你就可以开始动手了。比如我在用户级层面,通过 open code 点 jason 来设置使用什么插件, 那在项目级的层面,通过 omoneq 的 点决策来设置每个 agent 调用什么样的模型,以及我会通过 mcp 点决策来设置这个项目里要添加哪些 mcp 服务器。 我所举的例子只是一小部分的设置本质和插件可以配置的地方太多太多了。比如你可以通过 prompt append 对 某一个 agent 最佳系统提示词,那具体的配置方法,大家可以去看官方的文档,或者你直接问 ai 也行, 这个是通过配置文件进行自定义的方法。但是啊,这个方法还是有局限的,在 o my open code 插件里边,它的 a tag 都是硬编码的,都已经写死了。比如它们的名称不能修改,它们的基础提示词也不能修改。 如果你像我一样追求更深的自定义的话,那可以把项目 fork 下来,把里边的 a tag 全部都给它改了。 比起开发项目,我平时做的更多的是内容。所以就像前面说的,针对内容创作的场景,我对 opencode 插件做了重新设计,我创建了八个 agent, 它们完全都是为了内容而存在的, 其中主 agent 除了会自动给子 agent 派任务之外,它还会自动切换两种模式,探讨和执行。 这个就是对应编程场景下的 plan 和 build, 只是针对内容场景做了调整,并且改成了自动切换。这个自动切换很关键,你跟他聊想法的时候,他是你的讨论伙伴,可以帮你梳理思路。 你说开始写的时候,他会立刻变成项目经理开始派活,都不用你动手去切换模式。举个例子,我问 ai, 我 看到一个说法,英伟达的双利卡故障率大约是百分之九左右,请问这个结论数据是从哪里来的?真实吗? 注, a 卷接到需求之后,他会首先判断出需要的是探讨而非执行,所以他自动进入探讨模式, 接着判断出需要调研和验证,尤其是搞清楚这个观点的上下文是什么。最后再派两个词, a 卷去后台干活,一个查来源,一个验证,那这个过程会去调用它为你 m c p 进行搜索,最终给出结论。 我最满意的是,他不是告诉我这个观点或者数据是真是假,而是告诉我上下文或者场景是什么,以及引发讨论的原因是什么。 这只是一个小例子,在日常工作内容创作当中,会有很多类似这样的情况,需要多个 a 卷的配合起来,去完成一大套的写作。 这个内容插件名叫 newtype profile, 我 已经发布到 github 上了,也在社群内做了分享。目前这样的配置我用起来最顺手,生产力比之前用 clock code 的 还高,所以我建议大家可以试一试。记住啊,安装 open code 之后,一定要安装 o my open code 的 插件? 如果你的项目不是编程而是内容创作的话,那可以试一试安装我的插件。 ok, 以上就是本期内容,想了解 ai, 想成为超级个体,想找到志同道合的人,就来我们 newtype 社群。那咱们下期见。

本来只是想装个工具,这也太省事了吧。大家好,我是清寒,最近不是都在养龙虾吗?我也跟风折腾了一下,在 pve 虚拟机里用待变系统装了个 open claw, 安装很快,但后续配置和局域网访问真的是踩了不少坑。看网上有人用 open code, 我 一试,好家伙,直接起飞,所以今天和大家完整复盘一遍流程。 首先第一步,安装 open code, 先用 ssh 连接到你的虚拟机,然后打开 open code 官网,复制它的安装命令,回到 ssh 终端直接粘贴执行。 但这里如果你看到提示说明你没装 qq 工具,直接先输入安装命令,装完之后再把刚才那条 open code 的 命令重新粘贴执行一遍。 安装完成之后,重新开一个新的 s s h 终端,然后输入 open code 回车。这时候就进到 open code 界面了,它有个很香的点,内置免费大模型,可以直接使用,按一下 ctrl 加 p, 用鼠标选切换模型,里面有好几个免费的,挑一个顺眼的点击。第二步,安装 openclo, 接下来就很方便了,直接在聊天框里打,帮我安装 openclo 回车。对,就这么简单, 这一步完成后, open cloud 就 已经安装好了。第三步,配置局域网访问,接着继续在里面输入,帮我设置好局域网访问回车。等他跑完,我们打开他给出的访问地址, 下面如果有红色提示,直接复制回到终端,把那一段粘贴进去,回车直行就是,如果中间有问题,很简单就继续问 open code, 让他帮你修,修到能用为止。好了,我们再登录,再复制 粘贴回车,真的能聊天就能解决问题。最后再问一下登录 token 是 多少,他会直接告诉你不能复制也没事, 直接截图识别后再复制问题不大。现在就能顺利进入 opencloud 后台,甚至语言都直接改好中文了。 再来最后一步,配置模型 api, 新开一个终端连接,输入命令, 然后默认选 logo, 回车选第二行 model, 选择你的模型厂商。我用的是 mini max, 我 选择 api cn, 再把 api 密钥粘贴进来, 选择具体模型,最后选 continue 或者直接关闭都行。回到 opencloud 后台,随便输点东西测试一下, ok, 能正常回复了。如果你还想进入软件,比如纸飞机,直接问 opencloud 怎么接,它就会一步一步教你。 总之, opencloud 的 问题丢给 opencloud, 其他需求直接用 opencloud 解决,整个体验就是 根本不像在配置环境,更像在跟一个工具人大佬聊天,真的是那种左脚踩右脚直接飞起来。好了兄弟们,这期视频就到这,一键三连,我们下期视频见,拜了个拜!

open code 是 cloud code 的 开源低配平替版,因为 cloud code 本身来讲是支持 elastic, 自家的,人家全套闭源模型加这么一个闭源工具,那么 open code 就是 我全开。那么从个人开发者的角度, 即刻黑客的角度,我都可以从这 tab 上把这个 open code 的 代码下下来,按照我的需求进行改造。而且它完全的跑在本地,它适配全球的,我就随便可以配。但 小赵是主要用 cloud code 用的多, open code 呢,也曾尝试过,包括社区里面很多的反馈。现在你要硬说谁更强,那依然是 cloud code 更强。为什么?因为 cloud code 不 仅工程能力上,最关键的是它背后的模型能力也是要更强一些, 包括它在处理这种超长的上下文,比如说上下文达到了百万,那还是 cloud code 要更牛一些,因为你在 open code 里配的这个模型,比如说它上下文能力就远远不如 cloud code。 总之,对于技术特别狂热,我就是要追求最佳性能,不太差,钱儿多跑 token 无所谓,你就首选 cloud code。 然后呢,不是那种重度使用者,我只要有这么个东西能用,那对于大多数小伙伴来讲, open code 真的 够用了。

hello, 大家好,我是 d p, 欢迎来到我们的 codex 系列视频,这期是这个视频的第一期,主要讲的是新手入门相关的内容,主要包括 codex 的 安装,一些基础的配置和一些基础的使用指南。好的,我们来进入 准备环节。首先你需要做的第一件事是打开 d p r t 点 lab 零零点 com, 在 这里搜索 codex, 然后找到这篇文章。打开到这里,你需要知道的是, codex 这期视频相关的所有内容你在这个文章里都可以找到。现在我们把这个文章放在一边,下面我们需要新建一个文件夹, 我用的是 d p 下划线, codex 下划线一零一主要是,呃为这期视频做演示做准备的,你可以使用任意的名称以及任意的位置推荐放在你的那个项目文件夹目录里面去。 好的,这两样都准备完了以后,我们下面进入安装环节。好的,我们首先回到刚刚的这个文章,然后第一部分就是安装指南。我们先大概的来看一下目录架构,分别是四种安装模式,其中两种是命令行,第一种是 npm 安装,第二种是 codex app 安装,第四种是 codex vs code 的 插件安装。我们将逐一来看这些安装方式。 首先是两组命令行的安装方式。呃,先介绍一下命令,第一个命令一点一是检查你的 npm 环境里有没有安装。呃, codex 用这行命令 list 就 可以看到下面这样的输出结果, 像我这里就有一个 codex 零点一一二点零这个版本,这就代表安装了,如果你没有的话,你就可以继续。 第二步,一点二就是用这条命令安装,然后第三步是检查 codex 版本,就是你安装以后用这个命令就可以看到这边的这个输出,就是 codex 的 版本,就代表安装成功了。 然后如果在你使用的过程中需要升级,就用一点四用这个命令来升级,然后 homebuil 是 一样的,首先是查看它的列表, 可以使用这行命令来查看,那么查看的结果就会输出一个 codex, 如果你不用后面的这个过滤条件,它就会把你本地的所有的呃 homebrew 安装的内容都列出来,然后在这边就可以看到有一个 codex, 然后 如果上面的检查就是二点一这个部分,你的机器里没有任何的安装,那么你就可以在这边使用二点二的命令来安装, 然后安装以后相同的版本检查,然后相同的升级。我这边在 mac os 上用那个命令行安装了一个 homebrew 版本的 codex, 给大家看一下过程。首先我打开我的命令行,然后我用这个 codex 杠杯来查看,它告诉我这个机器上没有 codex。 然后我尝试做了一个 list, list 的 操作,这边也没有后 codex, 然后我尝试用了那个就查找关键词的 list, 没有任何输出。然后我做了一个额外的测试,我用 sqlite 做测试,因为这里显示了 sqlite, 所以 它这个能有输出就代表一切都没有问题。 然后我这边用了就是二点二这个命令来做安装,然后它从这里开始跑,一直跑跑,反正跑的挺多的, 然后到下面他就给我一个反馈,就是 codex 零点一一七点零这个版本他就开始安装,一直到安装完成, 呃,然后到这里就是安装结束,然后接下来我用了查看的命令做了一次确认他有 codex, 然后我又做了一个全局的查看,就没有过滤的查看有,然后我用了 codex v 这个命令查看的版本。零点一,一七点零是我当时录视频时的最新版, 这就是命令行的一个安装方式。下面我们来看三那个 codex app 安装,这个就是打开官网下载一个 app 就 好,我在 macos 上我下载的就是这个 codex, 点 dmg 打开以后就有这么一个文件,这个文件是这样 四百七十三兆,然后我如果安装把它拖过来就行,我这边已经安装过了,因为所以就演示一下这么一个过程。然后我们来看一下 codex vs 插件的安装,我这边整整理了一下,你需要做的是第一步打开 vs code, 第二步在插件市场搜索 codex, 然后找到这个插件进行安装。好的我们去那个 vs code 里面看一下,首先插件市场在这儿,然后你在这边搜索 codex, 我这个已经安装了,但是我给大家演示一遍流程,然后这个时候就会找到这个是 open a r 官方的这么一个插件,然后打开以后它的名字就是 codex 杠 open a r 的 code engine agent 在 这儿和这个名字啊,这样看这两个名字是一样的,然后这边会有一个安装,你点安装就行,安装完了以后,那个你在这儿就能看到一个 codex 的 标志,然后我一般是在这儿去使用的,它其实没有太大的一个差别, 就是在侧边栏上这个是 copilot, 这个是 codex, 放在这边有可能要拖动一下,但我不记得不太清了,反正是有相关位置的。好的,作为最后的建议,一共有四种安装方式,我建议大家把三和四都安装上,一会我们在演示的过程再解释为什么。 好的,这就是安装相关的所有内容。 ok, 接下来我以 codex app 做一个演示。首先我打开了 codex 这个 app, 它会要求你登录,这个时候你只需要点击这个按钮,然后它就会跳转到一个登录的页面,这个就是 open i r 的 页面, 你在这个页面里完成你的账号的登录,然后它就会跳转回来,然后这边就会有相关登录完成的一个状态。 ok, 花了点时间完成了网页上的授权,然后这个 app 就 会自己自动跳转到类似这样一个页面,这就是 codex app 的 主操作页面。 其他三种登录方式都是相同的流程,这边我们就不额外的演示了。登录完了以后,按道理说我们可以直接呃输入一些命令来完成相关的任务,但是我们先不着急,我们先进入一些重要文件和配置的讲解。 首先你需要知道的第一个概念是 codex, 它在你的本地是有一个配置文件夹的,在你的用户根目录下有一个点 codex 这个文件夹,里面就是配置的所有的内容。然后我这边用编辑器已经打开了, 这里面一共有好多个重要的文件,我们一个一个来讲,首先讲第一个就是 author 点接收,这个就是你的所有的 talkin 都在这边。我这边跟大家演示的是我进行了脱敏的一些数据,你实际跟我看起来应该是差不多,但是我这些呃 d p i t 这些你肯定是没有的, 分别有获取信息的 talkin 和用户 id, 然后 talkin 的 id, 然后什么 refresh, 就是 刷新 talkin, 然后时间,这就是 open a r 给你的一个 key, 然后这个 config 点 t o m l 是 什么呢?就是一些你使用过程中的一些记录,比如说我用的模型是 g p t 五点四,然后思考强度是 x high, 然后一些信任的目录像这个这边就是五点四,和 x high 和这边是对应的,这就两个配置文件。 为什么要讲这两个文件呢?这两个文件在稍后我们讲账号切换的时候是非常重要的两个文件,如果大家对账号切换有兴趣,可以点个关注,我们后面的视频里会讲 好的。然后我们下面进入一个呃全局配置的一个环节, 首先就是全区的配置,就是你这个本地的所有的 codex 相关的项目,你想让它遵守的一些规则是什么呢?我这边给出了一个 demo, 首先文件是在点 codex 文件夹下有一个 agents, 点 md, 这里我写了一些规则,就什么遵守用户的需求啊,中文呀,回答呃 case 原则啊这些,这个写的比较长,这个东西在哪呢?在配置指南就第二部分的第一点里面 就是目录是用户目,文件夹下点 codex index, 然后你把这个粘进去,就可以作为你的一个项目的开始。 然后还有一个目录,就是说如果你不做全局级的,你这个项目想设置的话,那么你就需要做一个项目级的目录,那么它就是说在 d p 下划线 codex 一 零一这个项目文件夹下新建一个这么一个文件就行。那么我们现在来新建一个右击 新建,这,哎,他为什么没有给我新建?好奇怪哦, 这样,是这样,这样新建的好,这样就新建进来,然后这边你就是比如写全程使用中文和我交互 类似这样,然后这条文件它的那个规则就可以写入进来,你也可以简单的把这个东西给它复制过来,也就是说你这里给它的这个规则是这个 codex 零零一这个项目级的,而不是说这个放在全局级的,你把全局级这里给它删除掉就可以了。 好,这就是两种配置方式,如果你是想让所有的 codex 都能遵守,那我建议你就像我这样配置一个全局级的一个规则,让他们遵守一个默认规则。然后如果你想让某一个项目,比如说这个项目去遵守,我们就可以在这里面写一二三, 告诉他这个项目单独的遵守规则,首先他会遵守这个,然后把这个再附加上就是这么一个配置关系, 像稍后会有像 scales 呀、 workflow 呀这些,我们会单独用视频来讲解,这个也不算基础的内容,如果有兴趣就 稍微等一等,再讲一下。 c 部分相关资源,这边我把常用的一些链接放在了这里,如果有兴趣的话可以来用。这边是 openair 的 官网,这是 codex 的 官网,这是 codex 的 开发者文档,这是 codex 的 github, 以后有相关的链接我会继续往后面去加。 ok, 我 们现在进入 实际操作环节,我这一期的实际操作先用 codex app 来做演示,首先它这个给我们默认打开的只有一个 playground, 就是 一个测试环境。然后我们刚刚新建了一个目录,还记得吗?我们需要把它加载下来,点这边这个加号,然后找到你的这个目录, 把它加载进来就可以了,这样你就有了这个目录,然后在这边选择这个目录,开始一个新对话,这里就可以开始一个新对话,然后你可以选择模型,比如说我们选呃 codex 五点三,然后呃思考强度,我们就选 high 就 好。 然后我们给他一个简单的对话内容,然后这时候你会看到他在这边会新建一个对话,然后这边是我们说的,然后这是他思考,然后稍后给我们回复的内容。 这边你可以把把它变成任意一个内容,比如说你给我写一个贪吃蛇的游戏存放在什么位置,什么,就这么一个流程。 当然我们这边只有一个简单的演示,然后这时候我们接着来演示斜杠命令,它和我们常用的命令好像一样,你只要出入斜杠,它会有很多的命令。最重要的我想给大家讲几个命令,首先是 status, 你可以看到你的,如果你是那个付费套餐的话,你可以看到五小时限额和七天限额,还有一些呃,上下文长度啊这些信息,然后相同的内容在这边也可以看到,也是配额的一个信息。 然后斜杠命令里面还有一些命令,我们来看一下,比如说这边有一个 fast 的 模式, 呃,当然五点三开不了 fast, 你 只有五点四来行,然后到五点四以后你可以开那个 fast, 看到吗?现在 fast 的 模式就被关闭掉了,然后 这边你在敲就可以把 fast 的 模式开启。提醒一下, fast 模式只有五点四可以用,只有这个小闪电开启的时候才是。然后 fast 的 模式大概是消费两倍的 talk, 得到一点五倍的速度, 然后智力不会有所下降,只是优先给你处理任务,就是说类似于 vip 通道的那种感觉。好的,这就是 codex app 里的一些功能,至于其他的一些命令,那么稍后大家自己再来看就好。 ok, 接下来我们回到那个 codex vscode 的 插件,这边我想给大家演示我最近做的一次 html 任务。首先我们先来看呃,两个 html 页面, 我首先用那个 ar 设计了下面这个 index 派去的 html, 然后我让他用 bootstrap 进行一个改写。 首先我们来看第一个,第一个是就是一个 ar 点 lab 零零点 com 这个页面,我想做一个新手页面,然后我用 ar 做了一些设计,但是它做完了以后有一些问题,像这些点击啊,这些呃 type 的 切换,这些 card 的 折叠,它都没有做,它只是做了样式,像这边这些搜索它都没有,但样式是做好了,然后是这个样子,然后我让它做的就是对这个页面百分之一百的用 bootstrap 进行了一个重写,然后把这些点击样式, 这些 card 的 呃这些 type 的 切换,然后这些 card 的 折叠都给它做出来,然后像这边搜索也都给它做出来,这边的搜索也都做出来。 是做成这么一个状态,其实改动不是很多,但是最主要的就是遵守这个设计稿的一个方式,然后给大家看一下实际的操作过程。首先我调用了一个 walker, walker 就是 定义了一个上下文,这个 walker 不是 为这个项目准备的,但是差不多能用,我就用了,就是一个 html 设计的 walker, 然后告诉他是一个特殊的任务,然后是根据这个设计稿的页面,也就是这个由 ar 生成的原始页面 来让它把一些呃功能用 butstrip 进行重写,然后让它严格遵循这个规则,然后其他我们在 word 里定义的什么 p r, d 线框图都让它忽略,然后它给了一个 反正就读一些文件,然后进行思考,然后它给了一个方案,这个是我这个项目定义的一个格式,但实际上只要看 执行方案这边就可以看到。他是对那个 css 用 bootstrap 五重写,然后调整了一些间距,用把 bootstrap 尽量应用下来,然后 抽离了一个项目级的慢点 css, 然后什么这些该不动的都不动,然后补充了一个慢点 gs, 然后他就让我确认,我说确认就可以修改,然后给他一个要求,就是我怕他把那个原始文件替换掉,我就说让他再同 就同级目录下建一个新文件,所以就有了这两个文件的差别,然后他就完成了这个文件,这个文件就是大家看到的这个页面,就是刚刚演示的这个就相关的功能,该有的都有 这么一个页面,然后他就告诉我修改已经完成了,然后这个过程还挺长的,他做了很多的事情。呃,对,然后中间还经历了一次网络异常,我记得是, 哎,没有看到,没关系,然后他给了一个总结,告诉我修改的内容,然后这时候我验证了一下,发现了一些小问题,总共就是三点, 让他再去做修改,这时候他出现了一个小小的网络波动,就我们用的是正常的,然后呃一些交互, 然后在过程中好像还有一次,啊,对,还有一次大的网络波动,原因未知,然后我就因为遇到这个网络波动,我就直接把它暂停掉了,然后我就告诉他好像有网络问题,让他重试,然后他又花了五分多钟把最后一个点 g s 写完, 到这时候我才想起来,哦, codex 有 点慢,我差点把这个事忘了,所以他前面可能不是网络波动,只是单纯的在等待,我以为他卡住了,然后他把这些东西都弄完,然后告诉我交互已经补完了, 然后就给出了一个最后的一个答复,包括修改的内容是什么。最后我就在这边测试了一下,该有的功能都有了,后期大家也会看到这个 ar 点 live 零零点 com 这个页面上线主要的功能就是 一些基础工具和命令和一些基础知识的展示,然后一些关键的视频和文章的一些链接, 然后对应热门的 github 资源的链接,还有一些热门链接就是做一个一站式的导航,这么一个页面,算是一个工具书的页面,大概就是这么一个,我希望用这个页面就是我实际操作的过程,向大家展示就是 codex 其实 在 vs code 插件里更接近我们的编程习惯,为什么呢?因为就像这边一样, 我的任它改的任何一个文件,我可以点开看,然后在这边像这个改动,这个在 codex app 里有,但是它没有这个编辑器这个功能,也没有快速导航和快速选中这个功能,甚至我可以把这边这一段话直接给它添加到 codex 这个上面, 做一个快速选择。然后在对话的过程中, vs code 这个插件会把我们打开的这些页面的名称传递给 codex, 作为上下文的一部分。所以我觉得从如果很多用户跟我一样是从那个 cloud code 过来,后来进入 anti gravity, 然后再到 codex 的 话, 我觉得这个方式是比较合适的。好,最后我跟大家说一下,为什么我建议 vs code 以外还要有 codex app 呢?因为我在使用的过程中有时候会遇到一些奇奇怪怪的问题,遇到这些问题的时候就需要用 codex app 来做一个兼容性的工作。 比如说有个项目运行的突然卡住了,你用 codex app 打开,把任务运行完,然后再回到这边,这个问题就得到了解决,而不需要去死磕 vs code 的 codex app, 当然我百分之九十的工作是在这边完成的。哦对,还有一个点,有用户说,呃, vs code 的 codex app 会比较卡顿,但是我在实际的使用过程中没有遇到这种卡顿的情况, 就是这是我的程序,然后这个 ip 呃 codex 的 应用,我装的也是最新的一个插件。好的,我们做一个比较简单的总结。首先我们介绍了四种 codex 的 安装方式以及一些基础的配置方式,特别是这边的这个全局级的配置建议大家就是照我的抄,然后在基础上去改,随便用,不用跟我客气。 然后接下来我们讲了两种应用的使用方式,分别是 codex app 和 vs codex 强,强烈建议大家这两种都尝试一下,并且尽量把你的常用工作方式固定在 vs code 的 codex 插件上。 好的,这就是这一期 codex 新手入门系列视频的全部内容,希望这期视频对大家有帮助,如果可以,请帮忙点赞和转发,如果你有相同的经验想要分享或者遇到了相关问题,欢迎留言, 稍后我们会发布更多的 codex 相关视频,有兴趣的话欢迎关注,谢谢大家!我是 d p。

李老师你好,我在开发一个自己的萨斯,比较复杂,碰到前端问题,很多人说前端已死,我认为不太现实,然后至少现在是这样,我是做电商的,做一个 a c c i o 的 work, 然后这样的一个 ai 平台,参考他们的前端结构,提示词、输入框、 ui 界面、 ui 后端接入的时候各种显示,各种问题。 pt 五点四, codex 依然无法真实落地,一般页面随便写,很漂亮,精细化一点点很难收敛。我给 a c c l o 浏览过程的 atm 下载给 codex, 然后也下载了什么文件给他看,依然是很不理想,想请教您怎么样的一个核心思路?那么这个问题相对来说比较复杂,我来给 大家一个一个的去解释吧。首先说这个 sars, 这是一个基于啊,它的整体的这个理解应该就是软件即服务,那我的理解就是它本身就是一个基于浏览器的东西,它不应该有这个客户端,让用户去下载,就 打开浏览器,你就能用。那么我刚才也去搜了一下这个 a c c i o 的 这个 work, 这是阿里出的一个给个人电商用的,可以管理邮件,可以去生成网站,生成这个网店,还有去管理一些别的事物,就相当于一个个人助理吧。 但是它这个东西,它是有一个客户端的,需要安装的,那这就不应该算是真正意义上的 sars 了。然后你说如何去模仿它的 ui 界面,这个其实很简单,你不一定非得去 死绑着这个 codex 去这个使用它像这个 open code 可以 接入一些国内的这种 codeignite 的 这些模型,有些模型它是可以支持图片的,如果是可以支持图片的话呢,你就直接把这整个网页截图, 你不用给它下载这个 html 和这个 css, 因为你很难去把这个整个样式表全都给它下下来,你只需要让它识别这张图片,帮你写 一个一模一样的 ui 主界面,那这个就基本上实现了。但是这有一个问题,你要接入这个后端去交互的话,你需要让它把每一个按钮的那些接口给你整理到同一个文件里面去,因为这个 ai 写程序有一个什么样的一个?嗯, 习惯呢?就是他习惯把所有的这些 c, s、 s、 g、 s, 然后把这个 atm 全全写在一个页面里面,他很少去把它抽象出来,整理到一个文件,然后再从外部文件引入,他默认基本上是直接写的这个你需要给他指令,你说帮我把这个所 所有的按钮整理到一个接口文件,让我可以在后端调用,这是给你后端去调用的,你需要认识这些接口,然后把这些接口整理出来之后,让他给你写一个文档,就像这样的一个文档啊,这个不是这样的文档啊,但是这边我们有一个这样的类似的设计,比如说,呃,这个也不是 来找一下啊,就是类似于这样的,他自己写,让他自己写,然后再让他自己去整理文档,这样的话你要去通读这个文档,你知道每一个按钮是怎么用的,然后你在设计这个交互的时候,你不能直接的就跟他讲一句一句的,你还需要给他设计一张图啊,就是这样的一个类似于交互图, 每个按钮在哪个位置上,然后干什么用的,你需要这个把这个流程图给他去参考,然后让他把整体的架构再做出来,再做出来之后你如果想改某一个按钮, 某一个名称的话,那这个时候你直接跟他说就要出问题了,因为一两万行,两三万行的这个程序用 ai 用语言描述跟他说,比如说你看我之前的有一些这个早期的这一些描述词,就比如说这个,这里面有一个故事模块,最右侧新增聚集加一个取消按钮 功能,不走 ai 接口,所以不是紫色风格啊,就这么跟他说,他就能找到,他基本上就是找的七七八八差不多,但是这个程序一旦到了这个十万行以上,就是整体的这个工作量到了十万行以上,那么你这么跟他说,他找起来就会非常的费劲,而 而且很容易就把上下文给铺满了。所以这个时候你就需要知道你的程序每一个程序的文件是干什么用的。再往后跟他聊天的时候,就得是带着这个文件名,比如说你圈一下某一个文件,然后你跟他说点击什么,什么提示词按钮,提交 ai 之前加上故事梗概要说的非常详细, 其实就是一个中文编程的这么一个逻辑,要描述非常准确,包括这个啊,用这个星号把它框出来,然后前后加两个空格, 他就知道这是个按钮。如果说你这一行字连着跟他说,那么他很可能是不知道这是个按钮。还有就是你得知道这个按钮在哪个页面上面,然后你需要在这个聊天框这里啊,比如说你看我这个聊天框这里艾特一下,就 这个可以圈一下这个文件,然后去让他去直接去找这个文件,否则的话聊着聊着这个上下文就铺满了,然后他就开始压缩绘画,他不会停,但是会压缩绘画,压缩绘画之后,然后就变傻了,这个不管是什么模型都这样的,所以说模仿样式,你直接截图给他交互设计,那你需要画图给, 然后具体每一个功能调用什么接口,你需要艾特这个文件,然后去框进去,然后让他去找去改,然后后面我改了很多。其实有些时候一个按钮,比如说一个按钮要改很多很多次,基本上改几个按钮的位置,两三个上下调换,包括这个输入框表单怎么去设计,那 这些要跟他聊很久,如果说你自己改其实也可以,但是有的时候啊,我跟他聊句话,然后我这边看看听相声或者看视频,然后这边让他干活,就是这种感觉还挺好的, 这边我可以听相声,然后这边让他干活,其实自己改有的时候会更快,但是啊,他有人能干活的话,我们就不想动这个脑子了,因为你自己改的话,你脑筋得足够的投入,所以说效率呢?在搭框架的时候, ai 是 很快的,但是改一些某些具体的某个按钮,某个逻辑的时候,那这个 ai 有 的时候它不如人快的。但是 这个整个项目如果都是 ai 写的话,你想自己再从头捋一遍,其实要花的时间也挺多的。我给你举个具体点的例子,就比如说我们这样有一个可以拖动的这样的一个无线画布,这不是一个很流行的这种一种趋势吗? 就可以随便的拖。然后做好之后我就在想说,这五六个、十来个、几十个这样的节点,那拖起来肯定是非常的流畅,那万一这个节点里面有一百个或者五百个,那怎么办?然后我就去问这个 ai, 我 说这个节点如果一旦超过五百个会不会很卡? 说肯定会很卡,那么我说你给我一个重构方案,然后我们这边就有一个重构方案,你可以看一下。好,他就给我写了一个无线画布的这个性能优化的设计与排列算法啊这样的一个方案。然后我就把这个方案整个的复制给这个五 哥的 jimmy 和那个阿里的谦问,让他们去改这个文档,改完之后我也没有直接复制进来,我又把他们改过的那个建议又贴给这个整个这个我这个是 cos 放在这个 cos 里面,然 又把这个文档拖进来,然后让 cos 再去把这两份文件压缩成一份文件整理出来,整理一个切实可行的项目规划。就这样反反复复的到最后到什么程度呢?就是这个文档已经超出了上下文了,这个整个的瀑布流的这个文档现在是一百四十多行,但是有一个 这边还有一个文档我找不到了,但是到最后会到什么程度呢?如果你的项目特别复杂的话,这个文档就能超出上下文。 这个文档做好之后,然后你再开发的时候把这个文档再交给 ai, 你 说照着这个文档再根据你的需求来去做这个具体的项目,这个过程是非常快的,出来的 bug 也比较少。还有就是这有一个特别二的这么一个说法,说什么前端已死, 就是这个,这个肯定是经常看这个 cloud code 这样的新闻啊,抖音里面很多制造这种焦虑的,这些 也不能说是博主吧,也也不知道他们是什么意思,就是这个产品出来啊,有一种产品,它就是那种程序员思维,就是工程师思维的产品,它根本就不叫什么产品, 真正给用户用的产品是不可能用命令行去这个去设计的,其实那些都是一知半解的,那些都不能算是程序员,就纯粹凑热闹的人。就是他们说看见别人说 c l i 多牛逼,命令行多牛逼,然后就开始跟风,就把这种思想传授给那些实际在干事的人, 像他这么干嘛,他其实也不这么干,就比如说有很多的这个做大模型,做这个 ai 的, 这些工程师做出来的东西都很垃圾,就包括 deepsea 也是一样的,我在 deepsea 里面去,我想买他那 a p i, 就是 调用他的 a p i, 我 找了半天就找不到购买链接,他有这个文档, a p i 文档,但是你找不到在哪买,这是什么?这就是一个产品设计,就甭管说他这个大模型多牛逼,就是网页上这个产品就绝对是个垃圾。上次有一次听说是挂了三四个小时, 其实怎么说呢,这叫术业有专攻,他们可能做模型、做算法、做推理,这些都很牛逼,但是你设计产品就是不行,那就是不行,就产品做的垃圾就是不行,因为产品是给普通用户看的,不是给程序员看的。 所以说说这个前端已死的这个人,这个不是个大,就是一个,就是啥也不懂的这么一个人,要么就是他心怀叵测的这么一个人, 前端不但死不了,而且你还得充分的考虑普通用户的用户体验,就是我买东西我第一眼我就能看到商品,第二眼我就得能看到购买按钮在哪,你不能让我去找,这叫用户体验。我为什么说这个呢?是因为你说你是做电商的,做电商的更得是这样,你不能说我买个商品,我在里面找了半天这个交付支付的按钮,这就有点扯淡了。

三分钟上手开源 ai 编程神器 open code 厉害!哈喽大家好,我是姚路星,最近有个火爆全网的项目叫 open code, 为了照顾下新人,先简单介绍一下什么是 open code。 open code 是 get up 上面狂揽五十七 k star 的 一个开源 ai 编程神器,号称开源版的卡拉 code, 这是几乎所有主流的一个模型,更绝的是不用登录就能白嫖。免费模型地址如下, open code 不是 最近才出的项目,而让它真正起飞是欧麦 open code 的 插件,直接超进化成终极的一个 ai 编程助手。今天我就来手把手教大家如何三分钟上手这个超级项目。在开始安装之前,咱们先来聊一聊 open code 到底牛在哪里? 一,完全开圆,自由度拉满相比之下, kolog 虽然好用,但主打一个封闭。二、免费模型白嫖 open code 内置了四个免费模型,其中 glm 四点七、 mini max m 二点一、 kologfast。 一, 不用登录直接就可以白嫖。 三、双形态随心选 open code 提供了终端 t u i 和桌面端两种使用方式四,欧曼 open code 插件让 open code 开挂, 配合欧曼 open code 插件使用 open code 可以 获得异步、 sub agent、 关键词触发模式、深度思考、 lsp、 ast 集成、上下文自动管理等能力。好了,废话不多说,接下来手把手教你如何安装并使用 open code。 步骤一,选择你的战斗形态 open code 有 两种安装方式,根据自己的喜好选择方式 a, 桌面端对小白更友好,直接打开官网下载页面,选择你的电脑系统下载安装齐活。 方式 b, 终端 t u i 前提条件是你的电脑已经安装了 node s。 接下来打开终端,输入以下命令,一键安装。安装完之后进入你的项目目录,输入 open code, 看到那个赛博朋克风的 t u i 界面了吗?恭喜你, open code 已经就位了。 步骤二,装配欧曼 open code 的 外挂打开终端执行以下命令过程中你可能会遇到提示说缺少 board, 运行时不要慌, windows 用户和 mac linux 用户分别执行以下命令即可,然后再执行欧曼 open code 的 命令。 安装过程中会依次询问你 cloud 在 gpt 以及 java 的 一个订阅情况,如实回答就好,这样欧麦 open code 会根据你的订阅优化调用策略。 安装完之后,咱们再来看一下如何使用 open code, 基本的使用方式和 cloud code 没什么区别。再来看一下 open code 的 一个使用技巧。技巧一,切换 a 阵模式使用 tab 键就能在 build 模式和 plan 的 模式之间快速切换。 技巧二,关键词触发超能力前提是需要安装 openopencode 插件,配合 openopencode 插件,你可以使用这些魔法关键词完成意想不到的一个强力功能。 技巧三,模型自由搭配 open code 的 最大的优势就是模型自由,比如你可以用 germany 处理前端 ui 任务,用 gpt。 五,处理复杂的一个逻辑任务,用 cloud 处理长文档的一个分析,用免费的 glm 四点七日常开发。 总结一下,今天教给了大家三个事儿,一, open code 视察看原版的 cloud code 几乎支持所有主流模型,完全免费。二,如何安装使用桌面端傻瓜式安装, t o i 端通过命令行安装。 三,如何装配外挂通过 o my open code 插件获得 evaspaint 关键词触发、上下文管理等超能力, 最后的最后 open code 加上欧麦 open code, 绝对是目前开源界最能打的 ai 编程组合。纸上得来终觉浅,绝知此事要躬行,大家赶紧行动起来吧!加油!感谢大家三连谢谢大家,记得关注再走。

ai 编程圈最近有个名字火了, opencode 在 github 上拿了十三万 star, 讨论热度居高不下。为什么?因为 cloudcode 封锁了国内用户,而 opencode 完全开源免费,不限模型,一行命令就能装上。 opencode 到底是什么?简单说就是一个开源的 ai 编码代理,你可以在终端里用,桌面应用里用,甚至 id 扩展里用。说白了,他就是你命令行里的 ai 程序员,你提需求,他写代码,你报 bug, 他 帮你修 安装有多简单?打开终端,粘贴这层命令, curl f curl h t t p s 冒号斜杠斜杠 opencode, 点 ai 斜杠 install bash, 回车直行几秒钟就装好了,输入 opencode 就 能直接启动。 如果你用的是 mac os 或者 linux, 也可以用 homebrew 安装 brew install anmalico tap open code windows 用户有两种方式推荐用 wsl, 也就是 windows 的 linux 系统体验更稳定。或者直接用 npm, 全局安装 npm install 即 opencode, 爱 第一次运行时, open code 会引导你配置 api 密钥,执行斜杠命令。 connect, 选择你要用的模型提供商,输入 p 就 行,默认就提供四个免费模型,包括智普 g l m 四点七,如果你有 cloud pro 或者 max 账号,也可以直接登录使用 opencode 的 核心功能,我总结了几个亮点,首先是双模式切换,按 tab 键 build 模式,直接改代码 plan 模式,指出方案,不动文件,这个设计很贴心,有时候你只想看看 ai 的 思路,不想它乱动你的代码。 第二是文件模糊搜索,按 id 键输入文件名的一部分,就能快速关联文件,不用记完整路径。比如你项目里有个 user service ts, 只要输入 user 就 能找到。 第三是 lsp, 支持 lsp 就是 language server protocol, 能让工具真正理解你的代码结构。 open code 不是 瞎猜变亮明和函数位置,而是基于语法分析来定位和修改。 第四是丰富的斜杠命令, in it 初步项目分析, undo 撤销刚才的修改, redo 重做 share 分享对话记录给队友,这些命令让效率提升很明显。 第五是 skills, 扩展系统, open code 兼容 cloud code 的 skills, 你 之前写的自定义技能,放在 open code skill 目录里就能直接迁移,无缝切换 界面,体验也超出预期。 ctrl 加 p 打开命令面板,可以切换主题,开启侧边栏,用鼠标点击操作。这哪是命令型工具,简直是终端版。 i d e。 现在来做个对比, opencode 最大的优势是什么?百分之一百完全开源,你可以 fork 一 份,自己模改,国内无任何限制,不需要折腾。网络默认四个免费模型,预算有限也能用,支持任意 l l m 提供商想用什么模型自己接,定制性极强,命令工具规则都能改。 对比 cloud code, cloud code 币源无法定制封锁,国内用户需要特殊网络,只支持 cloud 模型,需要付费订阅,但 cloud code 的 代码质量稳定,模型调度成熟,这是 open code 目前还欠缺的 对比。 cursor, cursor 币源国内可用,但模型选择有限,有一定免费额度。 cursor 开箱即用,界面友好,适合不想折腾的用户。但如果你追求完全控制和自定义能力, open code 更合适。 我的实测感受, open code 的 前端交互设计很优秀,但后端模型调度还不够成熟。同样的 g l m 模型在 open code 里表现不如在其他工具里稳定,它像是个漂亮的壳子,内核还需要打磨。 那 open code 适合什么人?第一类,喜欢折腾的程序员,你可以 fork 一 份,自己模改加自定义命令,调整界面,接入私有模型开源的意义就是我的工具,我做主。 第二类,预算有限的开发者,免费模型足够应付日常需求,想用更强的模型也能自己接入 api, 成本可控。 第三类,终端重度用户。如果你习惯在命令行环境工作, opencode 的 交互体验是目前最好的之一, 但也有不适合的情况,追求稳定产出的。如果你的工作是按时交付高质量代码,目前 open code 的 模型调度还不够稳定,可能耽误进度,指图方便的,如果只是想要个好看的 ai 编程界面,开箱即用 cursor 可能更适合。 总结一下, open code 的 最大价值不是替代 cloud code, 而是证明了一件事,谁离用户近,谁能发现痛点,谁就有超越巨头的机会。 cloud 封锁了国内用户, open code 就 填补这的空白。 cloud code 闭源无法定制, open code 就 给你完全的控制权,它给了开发者一个不被巨头限制,可以自主掌控的选择。它目前还不够成熟,代码质量不稳定,模型调度有待优化,但对于喜欢折腾的人。

opencode 的 这波我不会直接劝你给主力位,我更建议先给自己留个后手位,因为它最强的卖点不是参数,而是它自己写的。很明白,开源,而且不绑单一, provider, cloud, open ai, google 甚至本地模型都能解,官方 agents 文档也把分工写清楚了, build 负责直接干活, plan 负责先看先想 默认连写文件和 bash 都要先 ask, 对 重构迁移看陌生项目这种先规划再动手确实很像, 但社区讨论里大家吵的最凶的也不是能力不够,而是更新太快,配置心智更重,信任边界要自己盯。所以结论很简单,如果你最怕被平台绑死,或者想给敏感项目留第二套工作流,他值得装,但如果你只想开箱即用,完全不想折腾他,未必该马上顶掉你现在的主力,你会把 open code 当主力还是先留后手?

抢不到扣丁 plus 用来编程的啊,可以看看这个叫 open code, open code 它里面有的购套餐,专门是用来编程用的。原来我一直不推荐它是因为它模型不够全啊,最近我发现它新加了 glm 五点一,并且啊,还有千万三点六, 首月只要五刀,剩下每个月估计就是人民币八十块钱,目前来看比较划算啊。并且最重要的是,现在基本上所有的大厂的模型都在卡,白天高峰期都会卡顿。 这个呢,就是专门用来编程的,不可能用来养小龙虾啊,所以卡肯定是不存在的。如果你实在找不到地方或者抢不到 coding plan, 我 觉得可以试试这个方案啊。 open code。

open code 这个开源项目最近很多人都在聊,说是 cloud code 的 平替功能呢,和 cloud code 也是一模一样的,所有模型都能用,但是对于我们普通人来说,我们要怎么用? 网上评测我看了不少,但是我还没有看到有人用它完整的演示一遍开发流程,所以今天我来做这个事情。 我会用一套平时我在 cloud code 上使用的开发流程,结合 open code 从零开始开发一个服装电商的模特换衣应用,带你走一遍完整的流程,顺便也测试一下它和 cloud code 到底有什么区别。那我们现在开始 这套方法我之前已经分享过两次了,就是这一期和这一期。现在呢,我把它迭代到了三点零版本。整体流程是这样的,首先用毒蛇产品经理技能收集需求,他会通过追问来完善细节, 然后生成产品文档。接着用 ui 提示词,设计师技能根据文档生成原形图的提示词,然后把提示词丢给 nano banana 生成原形图,再用 google ai studio builder 来开发前端,最后用全站开发工程师技能完成后端的开发和后续迭代。 整个流程是由一个主控的项目规则文件 agent 点 md 来进行统一的调度。这个场景包含了需求收集、原型设计、前端开发、后端改造、功能迭代,基本囊括了日常开发的主要环节, 所以用它来测试,基本可以很好地展示 opencode 的 完整的开发流程。打开 opencode 官网,点进下载页面, opencode 有 四种使用方式,在终端里使用,客户端使用、安装 ide 插件或者集成到 github 这类平台。 我们今天讲的是第一种直接在终端里使用, mac 用户建议安装第一条命令, windows 用户建议用第二条。那我是 mac, 所以 复制第一条命令,按 command 加空格,输入 terminal, 打开终端,把命令贴进去,回车直行, 然后等待它安装完成就行了。这里可能会有一点慢,那就看你网速了。好, open code 我 们已经安装完成了,接下来我知道很多新手看不惯终端的命令行,所以我们就在 cursor 里面启动 open code, 应该会对你友好一些。打开 cursor, 在 terminal 里输入 open code 启动, 启动之后有个快捷键,你一定要记住 ctrl 加 p, 按下去会列出所有的命令。大部分命令可以在之后慢慢熟悉,但有一个现在你就要知道,就是 a 键下面的 switch model 切换模型使用后你会发现有很多模型可以选, 像 chatgbt, 五点二, gmail 三 pro, mini max 这些都有,带有 free 标记的,是免费的。其他那些常用的模型需要你自己去配 api, 想用别家的服务,可以按 ctrl 加 a 添加供应商那支持的还是挺多的。配置也很简单, 比如你想用 google 的 api, 那 就选 google, 然后把 gmail 的 api key 贴进去就可以了。接下来我们来开始配置,这个逻辑和 cloud code 是 一样的, cloud code 的 系统文件夹是点 cloud, 那 open code 这边就是点 open code, 然后这是我提前准备的技能文件, ctrl c 复制,回到 open code, 在 点 open code 的 这个系统文件夹下, ctrl v 粘贴,这样就一次性导入成功了。一共三个技能, 独设产品经理、 ui 提示词设计师,还有全站开发技能。接下来是导入项目规则,在 cloud code 里,顶层的项目规则文件叫 cloud 点 md, 那 我们这次用的是 open code, 它的项目规则文件要写成 agents 点 md 文件名不同,但思路是一样的,都是顶层的项目规则。 回到 open code, 把点 open code 的 这个文件夹收起来,然后 ctrl v 粘贴,这样项目规则就导入了。 注意看 agents 点 md 这个文件和点 open code 这个文件是在同一层级的,这点跟 cloud code 不 太一样。 在 cloud code 里, cloud 点 md 是 放在点 cloud 的 这个系统文件夹里面的,这个很重要,放错的话顶层规则就不会被加载。再来看一下文件结构,这是整套开发流程用到的技能文件,是我平时开发应用和小工具时用到的,当时用的是 cloud code, 所以 cloud 点 md 这个名字没改。 不过没关系, open code 完全兼容,能自动识别好技能和项目规则我们都已经导入完成了,接下来我们来走一遍完整的开发流程,用 open code 来开发辅助电商用的模特换装应用,启动主 agent。 这套开发流程分为几个阶段,每个阶段都有对应的指令 输入 slash help, open code 会列出所有的指令,包含从需求收集、生成原型图、提示词到开发和本地运行的全过程。 接下来我告诉他开发一个网页应用,帮助服装电商生成模特图,支持更换模特的姿势动作,调整服装的配色,还能更换新的搭配方案。声控模型用 gemma 三 pro image preview, 也就是 nano banana pro。 收到需求后,毒蛇产品经理的技能被自动调用了,然后开始针对需求进行追问,上来就说,别给我废话,让我选一个核心,那毒蛇味已经出来了, gbt 五点二骂起人来也是不留情面。 我告诉他,目标用户是独立设计师,功能范围需要支持声图姿势调整、配色搭配和编辑功能。确认没问题后让他继续。 那进入到第二轮追问,他问参考图是什么形态,这是个多选项。那我的设想是,上传的参考图可以是模特的人像照服装平铺图,或者是搭配平铺图, 控制方式可以用 prompt 文字指令,也可以从姿势预选库里面进行挑选,同时还要支持配色面板调色。确认没问题的话我们继续。 好。现在进入到第三轮的追问,问的是账号和付费模式,这个工具是我个人用的,所以不需要付费功能。那存储方面,现在是 mvp 阶段,主要是为了快速演示,暂时不考虑保存,先跳过 确认没问题的话让他继续。好。接下来是第四轮的追问,人脸一致性怎么处理?我的想法是核心需求是保留参考模特的脸部特征,成片的标准是多选, 一个是白底电商主图,一个是澎湃的质感效果。确认继续后,这个时候他已经收集到了足够的信息,开始直接编辑产品需求文档了。 好!运行结束后,他帮我们创建了两个文件,产品需求文档, product spec, 还有变更记录 product spec change log。 先看产品需求文档,因为我们的需求比较简单,生图工具和布局交互也都比较常规,所以他没有问太多交互和布局的细节。 那再看一下圈子 log, 现在是项目的初试阶段,变更记录里也只有一条初试记录,接下来我们有两个选择,直接开始开发,或者根据产品需求文档去生成 ui 原形图的提示词。 原形图提示词是可选的,但我觉得这一步能大大的提升最终效果。正好给大家演示一下输入指令 ui, 让它使用 ui 提示词设计师技能,生成圆形图提示词 好,完成了,提示词保存在了 ui prompt 这个文件里。那我们打开看一下,这就是生成的页面原形图。提示词用法也很简单,直接把提示词复制发给 nano banana pro, 生成产品原型就可以。 目前一共生成了三个页面,主页面、图片预览页面,还有报错页面。接下来我还要做一件事情,这套流程有两种用法, 第一种呢,是生成好原型图后,直接把图发给他,让他在 open code 里面进行开发。那第二种呢,是用 google a s studio 里面的 build 来开发,本期我就会演示第二种,这种方法对新手或者是刚刚接触外部抠钉的人来说,更容易上手,效果也更好。 我告诉他,你先别管 apikey 的 事,我会用 google a s studio 开发前端,开发好了之后,我会把代码发给你,你再帮我改造成前后端分离的项目。 他已经明白接下来要做什么,怎么配合我们,而且还直接给了建议,比如用 google a s studio 开发的话,回来时需要教给他哪些内容,或者开发好了之后让 open code 继续迭代,需要提供哪些信息和资料好。原型图我已经提前生成好了, 现在这个页面是 google a s studio 模型,选的是 nano banana pro。 我 做的事情很简单,把刚才生成的三个页面的提示词完整的贴进去, 顶部加一句话,帮我生成一个三宫格竖向排列的长图,这是一套电商模特试装的网页应用,然后他就开始帮我生成原形图了。 那我们放大看一下,这三张图基本上是按照我们的需求文档里的布局和功能描述生成的,当然后面开发的时候, ai 会拿这个图作为参考,并不会完全的百分百复刻,所以这一点你要注意。为什么要用 ui 提示词来生成原形图?主要呢有几点核心考虑, 第一是速度快,外部口令不需要一开始就追求完美,先把架构快速的搭起来,然后后面再慢慢的迭代 ui 和交互。 第二呢是为了好看,如果你不给 ai 参考图,光靠文字描述让它开发出来的页面通常都很丑,不管你提示词写的多好,在我看来都丑的要命。 所以用 nano banana pro 直接生成原形图设计其实很好,再结合我们这套方式,页面好看,功能呢也符合我们的产品需求,一箭双雕。这就是为什么我觉得这一步非常重要,想要给大家看一下。 好,那原形图已经有了,接下来我们打开 google a s studio, 先开发前端,我们先完整的复制一下 prods bike 里面的产品需求,然后回到 google a s studio builder 告诉他,让他帮我开发一个模特换装的应用, 先把 products back 整个贴给他,然后把刚才生成的 nano banana pro 的 原型图也贴上去。 ai 能力选择这边我们选择 nano banana powered app 和 generate images with nano banana pro, 因为我们的应用需要生图能力,必须调用 nano banana 检查没问题,点击 build 开始。接下来它会自动读取文档和我们发过去的截图进行开发。所以我们稍微等待一下 好,开发完成了。有几个注意事项,第一,记得右上角选择一下你的 gemna api key, 否则无法使用 gemna 三 pro 或者是 nano banana pro 这些付费模型。第二,我们来看一下界面的还原度, 那开发出来的界面和原型图已经有九层相似了,布局,色盘选择,模特姿势这些功能都有。好,我们来测试一下。先上传一张模特图, 再上传一张 gucci 的 最新的女装,一条红色的裙子,风格选择澎湃风格,输出四张模特姿势,选动态走路提示词就先空着,先不填,我们点击生成 好,生成完成了。放大看看,模特的真实感几乎无可挑剔,澎湃的风格,无影墙,走路姿势,人物和衣服的还原度都很好。接下来看一下代码,点击 code, 这就是他开发的所有的前端代码。把代码打包下载,然后找到刚刚我们下载的代码, ctrl c 复制,回到 open code, ctrl v 粘贴代码就导入了,然后告诉 open code 前端已经开发好了,代码放在了这个文件夹里, 这个时候他会问原型图有没有,你需要提醒一下他前端已经开发好了,直接看代码就行。后端部分他建议用 node 加 express, 但我决定选 next, 点 j s 看看他怎么处理, 确认没有问题,让他继续执行。等待开发的时候,顺便说一下,为什么我们要前后端分离。 google a s studio builder 开发出来的是存前端代码, api key 是 直接写在前端里的,那这样部署上线 api 就 会暴露,任何人都能看到。所以我们需要把 api 调用挪到后端,前端只负责界面和交互, 而且后端除了负责调用 api 以外,我们后面迭代的时候,比如要加全线连数据库,或者是业务逻辑,这些也都需要放在后端的 好开发完成了。不过它提醒我们,我们发给他的前端代码的基础是 vt, 不是 next 点 gs, 所以 这一版它用了 express 做后段,因为这是最小的成本,最小的改造方案。但如果我们坚持要移到 next 点 gs, 它也是可以帮我们执行的, 那到这里项目基本就快速完成了。所以接下来我直接输入指令 slash run, 让它在本地跑起来。 ok, 我 们可以看到项目它说启动了,但是显示的状态不正常, 不过没关系,他说他可以帮我们定位和修复好。修复完成了,原来是三千,这个端口被我另一个项目占用了,那他帮我们改成了三零零一端口启动, 如果你想随时停止,可以输入 slash stop, 就 会停掉后台的所有的服务。 ok, 项目启动了,界面功能布局都保持了原样,没有什么问题。 项目虽然跑下来了,但是我们不可能一步到位,所以接下来我们来测试一下迭代功能,我要给他加一个新的需求,我告诉他我想增加一个在页面上配置 api, 并且进行校验的功能。那针对这个功能,他开始追问,首先问我 api 怎么保存,那我选择肯定是存在后端, 然后问我校验的方式,这里我选择的是真校验,需要他发个请求,看看 api 能不能跑通, 确认没有问题,开始开发。顺便说一下我使用的这套开发流程,产品经理和全站开发这两个技能会循环配合,每次新增或修改功能,主 a 阵的会先调用产品经理技能,进入到迭代模式,通过追问补充并且更新产品需求文档和更新日期, 然后才调用全站开发技能去实现代码。这样做的好处是文档始终和代码保持同步,不管是日后自己回顾还是重新开窗口让 ai 接手,都能快速的了解项目的全貌。好,完成了,他说已经更新了产品需求文档和更新日期,那我们看一下更新的内容。 产品需求文档这边第四十九行辅助功能下面插入了 gmail api 保存交换的需求。再看圈趣 log 这边新增的 v 一 点一版本,内容是配置 api key 和交换功能。我们回到网页,应用,左下角已经出现了配置 api key 的 功能,我把我申请的 gmail api key 贴进去, ok, 交换成功,没有问题。好到这里,我们整个的开发流程差不多就走完了。最后我来聊聊我用下来的感受。 先说优点,第一,模型自由度非常的高,这是 open code 的 最大的优势。 cloud code 您只能用 cloud, 对 于使用其他的模型,它基本是严防死守。 open code 呢,你可以随便切换,想省钱就用免费的模型,想要效果更好就换 cloud 或者是 gbt 五点二,灵活很多。 第二呢,是整体的体验和 cloud code 非常的接近,指令逻辑既能加载开发流程,基本和 cloud code 是 同一个思路。 如果你用过 cloud code, 那 上手 open code 几乎没有任何学习成本,不过缺点也是有的, open code 是 开源项目,在使用 agent 或者 skill 的 时候稳定性就会差一些, 特别是多 agent 协助主 agent 调用 sub agent, 或者是主 agent 调用 sub agent 在 调用 skill 的 时候,这类场景复杂的话, cloud code 的 表现依然是最稳定的。 但总的来说,如果你预算有限,或者是想尝试其他的模型, open code 目前是最接近 cloud code 的 开源替代方案。而且说到底,工具本身作用其实有限,真正起到决定性作用的是你在用的那个模型,这才是最重要的。 好,以上就是本期的全部内容,如果对你有所帮助,别忘了点赞以及加入废台俱乐部,这对我们频道真的非常重要,那我们下期见。

你有没有觉得啊, open code 在 复杂工程里特别慢,还容易返工?原因很简单啊,它本质上是单的 agent 顺序执行的。 最近啊,我试了一个升级版叫欧麦 open code, 他 做了一件关键的事情,就是他把单的 agent 变成了多 agent 的 并行安装,非常简单,直接复制一句话,然后进 open code, 他 会问你有没有 clode, code, 叉等等的模型,你如实回答就好了,没有的话就告诉他全部用当前的模型, 我用的就是 kimi。 二点五装好之后,你就会发现左下角从 build 变成了希奇福斯,这是规划和调度执行的 agent。 接下来在你的任务前面加一句, u l w, 正式进入多智能体模式,它会自动拆解任务 多个 a 阵的并行执行,边做边叫验,减少反攻,对复杂的改动化文件的联动,重构场景速度和稳定性的差距会非常明显。一句话总结啊,单县城的程序员和多县城工程团队的区别。

本指南将表述如何通过 opencode 与 openstack 的 协同实现规范驱动开发及 sdd。 规范驱动开发是一种以精确的规范作为核心的方法论, openstack 是 用于定义这些开发规范的工具, opencode 则是基于规范实现 ai 自动编码的代理。 本次讲解将分为五个部分,一、核心概念。二、协同与关键优势。三、五步实现流程。四、微信社副级案例研究。五、最终注意事项与总结。 第一部分,核心概念理解 s d d openstack 与 opencode 规范驱动开发简称 s d d。 这是一种开发方法论,其核心在于使用一份精确的规范,即 spec 作为所有编码实现与测试的单一事实来源。 open spec 是 一款轻量级的开源工具,致力通过简单的 markdown 文件来管理规范,其核心特性为增降规范与双文件夹结构,用于管理渐进式变更。 opencode 是 一款开源的 ai 编码代理,它读取 openspec 定义的规范,自动生成测试并修正代码,支持多种 ai 模型,它是规范的实现者。 第二部分,协同与关键优势表述为何此组合超越了各部分之合。 核心优势包括四点,第一,规范约束 ai, 精确的规范为 ai 编码提供了确定性边界。 第二,增量开发,通过增量规范实现高效迭代。第三,全流程可追溯,任何代码变更均可追溯至其对应的规范变更。第四,轻量无侵入, 工具链设计简洁,异于集成到现有项目中。第三部分,五步实现流程,从项目设置到最终归党。 完整流程包含五个步骤,一、环境准备。二、规范定义。三、 ai 赋能编码四、验证与迭败五、归党与追溯第一步,环境准备需要安装相关依赖,并初步项目 使用命令 open speak in native 初步化项目。该命令将创建规范管理所需的目录结构。 随后进入第二步,规范定义。在 specs 目录中定义基础规范,在 changes 目录中以增量规范的形式定义后续的开发任务。进入第三步, ai 编码 执行核心命令 open code generate。 open code 将读取规范文件并自动生成相应的代码与测试用力。 第四步,验证与底袋运行自动生成的措施,并进行人工代码审查,以确保实现与规范完全一致。若存在偏差,应返回并修改规范,而非直接修改代码。 完成验证后进入第五步,归党追溯,执行 openstack archive 命令。此命令会将增量变换合并至主规范,并为本次开发周期创建永久记录。 第四部分,案例研究微信服务器将五步流程应用于一个真实项目。项目目标开发一个微信 m c p 及模型上下文协议服务器。功能要求包括图片上传与文章草稿关联。 s d d 工作流实践。 第一步,定义规范,例如在规范中明确定意 x s token 的 刷新周期。第二步,生成代码运行 open code 生成初步的实现代码, 后续步骤为验证与迭代,以及规党与部署问题解决方案 问题自动测试失败代码实现的 x s token 刷新逻辑为一小时,与规范要求的两小时不符。 解决方案修改增量规范将周期更正为两小时,重新运行 open source generate 代码被自动修正,与新规范保持一致。 第五部分最终注意。注意是与总结包含关键要点与最佳实践。五项核心注意事项, 第一,确保规范的精确性,使用如 must 或 shell 等关键词。第二,根据任务复杂性选择适当的 ai 模型。第三,人工代码审查仍然是必要环节。 第四,在版本控制中确保规范与代码同步提交。第五,在现有项目中应逐步引入此方法论, 总结 openstack 解决构建什么以及为何构建的问题。 opencode 解决如何用 ai 构建的问题。两者结合构成了一个完整的可审计的开发周期。