分享一个昨天下午开源的项目啊,叫 open design, 你 可以把它理解为开源版的 cloud design, 它就是一个设计师, 这个项目就是把类似的设计工作流做成了开源版本。作者自己也说了,他是逆向争流的,他的核心逻辑很简单,你给他一个需求,他帮你把需求变成一个真正能看的设计作品,就相当于是一个优秀的设计师。 它内置了很多设计场景,各种软件的 ui 啊,或者 ppt, 博客页面都可以类似这样的, 这个属于移动端的这种交互页面的设计,更关键的是它内置了很多设计系统,比如你想要那种 verso 啊,或者 big 嘛这种产品感很强的视觉风格, 它都可以按照这些设计规则去生成。它就是有一套明确的设计规范,颜色、字体、间距、组件、版式 都有规则约束,它内置了十九个 skill, 还有七十一个设计语言。就设计风格还有五种视觉方向,它可以接入你电脑里任何一个智能体,比如说 cloud code, codex, 小 龙虾呀, hermes 都可以用它。 那你用了它以后呢?就相当于把你常用的智能体变成了一个 ai 设计师。因为目前很多大模型的短板,其实就是 ui 设计上面 那对普通人来讲的话,假如说你要做一个 ai 工具页面或者是课程销售页,想做一个视频里展示用的那种产品页面,做个 ppt 啊,或者做一个小软件都可以用它 安装方式也很简单,你只需要复制这个地址,把地址丢给你的任何一个智能体,就是你在用的。你 如果用小龙虾,你就丢给小龙虾,用可乐扣的,你就丢给他,让他去安装就可以了。目前这个项目才发布了几个小时,已经快到一千个星了,还是很火爆的, 我预测超不过一个月,这个星应该会达到四五万,这个一点也不夸张,因为非常非常的实用,所以大家可以关注一下。
粉丝904获赞4677

我们打开 color code, 加斜杠 config, 然后往下滑,这里有一个 thinky mode 开关,你有没有好奇过,打开它和关闭它到底有什么不一样?我们再打开看 color 的 桌面 app, 我 们问了一个问题,然后界面上会显示一段小字,我们点开它,会展开一段思考的过程。那你有没有想过,为什么在回答之前会有一段思考的过程呢?它对我们最后拿到的答案有没有影响?为什么要把它思考的过程展示给我看,直接给我答案不行吗? 我们先把 thinking 模式的本质讲清楚,普通模式是这样的, cloud code 每轮发给模型一大堆上下文,比如系统提示词, cloud 点 m d, 工具说明,还有你的问题等等。模型读完了,直接预测下一步,它可能是回你一句话,然后可能是调一个工具,可能是跑一个命令,改一个文件,从输入到行动,中间没有东西, 简单任务,这样是没问题的,比如说把按钮的文案从 a 改成 b, 但是任务一复复杂就容易出错了。比如说你说用户偶尔反馈请求会丢数据,那么直接动手只会盯着最显眼的代码改, 但是偶尔出现的问题原因他可能是在缓存,可能是在网络,也可能是引发冲突。得先把可能性列全,才能一条一条排除,没有中间这一步推理,那么模型只能撞运气了。 thinking 模式不一样, a p i 允许模型在最终输出之前先生成一段 thinking tokens, 里面做的就是假设、排除和定位,把可能性都输一遍,然后再生成行动方案。注意这里技术上它不是 call code, 外面再套了一个什么多域算法,而是模型的 a p i 的 输出结构和 token 的 预算发生了变化, 多出来一段中间推理的 token, 关键在于 transform 的 特性,生成下一个 token 的 时候,前面所有的 token 都它的上下文。所以这段先写出来的 thinking token, 它并不是给你看的装饰,而是模型自己用的,它后续生成结果的时候,会基于输入的上下文,加上自己刚写的 thinking tokens 来决定。 所以一句话总结,普通模式是上下文直接生成行动,而 thinking 模式是上下文先生成中间的推理,然后再行动。中间多出来那段就是模型给自己行动之前写的草稿。我贴了两段代码进 coloco 的 cash, 点 j s 是 一个带 t t l 的 内存缓存,分别实现了写函数 set 还有读函数 get, 然后 app 点 js 是 一个测试用力。我们先 set 了一条数据, user 杠一,然后 ttl 是 一秒, 然后我们尝试两秒钟以后 get, 然后期望值是 now, 但是实际行为并没有过期,还能读到值。所以我们问他,我说 bug 是 什么原因,然后是怎么修复的,不用写代码。 然后他回答我说 get 里只读取了缓存里的值,然后并没有检查这个 ttl, 所以 过期这个行为从没发生过。这个缓存实际上是一个普通的 map, 然后还是一样,我们用老朋友 cloud tab 抓取一下这个问答后面的请求,看看 cloud code 里 dink mode 是 如何工作的。打开 cloud tab 抓到请求,有两个字段决定了 dink 的 行为。第一个是 dink 字段,它的值是 adaptive, adaptive 不是 开启思考,而是让大模型自己看着办,让模型根据当前问题的复杂度,自己决定要不要启动思考模式,还有思考有多深入。然后第二个是 effort, 它的值是 high after, 就 一句话告诉模型大概想多深,档位多高,思考的 token 越多,答案越细,但越慢,档位越低,那么少想几步跑得快。一共它有五短,一共是 low, medium, high, extra, high max。 我 们打开服务器返回的响应,主要就看这个 content 的 数值, 里面主要包含两块,一个这个 thinking block, 还有一个这个 text block。 我 们先看 thinking block, 你 看它这里就做了一件事情,就是定位到 bug 是 在这个 get 函数,它取出了值,但是并没有检查这过期时间。 然后我们再往下看这个 text block 的 正式回答,它的修复方案就是在 get 里加一步,对比这个 date 的 now 和 entry 的 过期时间, 过期了就从 map 里删掉,并且返回闹它结尾还给这个修法起了一个名字叫这个啊,惰性清理,英文叫 lazy eviction。 所以 看到这里 thinking block 的 作用就是找到 bug, 然后 text block 的 作用就是修复这个 bug, text 的 这个动作都对得上 thinking 里做出的思考判断。所以说 thinking 并不是写完就扔掉了草稿,而是得到 text 里动作的这些基础。所以总结一下 thinking 模式和普通模式输出的区别。 普通模式,它的 content 的 序组里只有一个 block, 就是 type, 是 text, 装的就是答案本身。但是 thinking 模式下多了一个 block, 是 type, 是 thinking, 它排在 textblock 的 前面,装的是模型给自己写的推理草稿,所以同一个模型同一套预测下一个 token 的 生成机制,区别只是模型在 thinking 模式下输出的最后的 text 答案。之前会把 thinking block 里的写的内容当做上下文都读一遍再做调整。 所以 text 里的答案它并不是模型的第一反应,而是过了一遍推理之后的结果。你可能会想,这段思考是如何产生的呢? 底层模型还是 transformer 机制,还是预测下一个 token? 那 么区别是在训练的部分。现在大模型的训练大致分为四步,第一步是预训练,让模型读海量的文本,学会原本身。第二步是指令微调,教他跟着指令回答问题。 第三步是 r l h f 人类反馈强化,教他如何答得更顺畅,更符合人类的偏好。普通模型走完这三步就上线了,那么看到问题直接吐答案,像 sonnet, 然后 opus 这种 reason 模型会多走。第四步叫 reasoning tuning 推理后训练,这一步未给模型的训练数据格式就变了,它会从问题加答案变成问题加 reasoning 标签再加答案。比如解方程这个二 x 减三等于十四, 那么普通指令微调的样本直接教它输出 x 等于十。那么推理后训练给它的样本会先在 reasoning 标签里写 step 一 展开括号,那么 step 二两边都加六,一项得到二, x 等于二十。 step 三两边都除二,得到 x 等于十,然后才会在 answer 标签里给出 x 等于十。于是模型反复看这种逐步拆解问题的样本,它就学会了遇到复杂问题先把每一步推理写出来再回答的输出习惯, 所以 reasoning 并不是外挂的算法,而是模型在训练里就多学会的一种输出习惯。但是光有习惯还不够,运行的时候还得有 api 协议配合。我们看回请求的时候,那个 thinking 等于 adaptive 的 字段,它就是告诉服务器允许这个模型在 content 里输出一个 thinking block, 没有这个字段,模型就算想推理也没地方写。所以一句话,推理的能力来自于训练里多的那一步。 reasoning tuning 推理后训练,然后运行的时候会被这个 api 的 协议显示开启。回到开头那几个问题, thinking mode 开关控制的是模型,在张嘴回答之前,要不要把思路在心里过一遍,过这一遍的好处,你看到了同一个 bug, 它会每举各种可能性找到合理答案,代价呢就是输出的慢一点,但是 token 呢,也稍的多一点。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

大家中午好,我想了想,我还是要跟大家录一下,因为最近 codex 跟 anthropic 的 cloud code 真的 太火了,昨天晚上 openai 也发布了 codex, 现在已经可以直接支持谷歌的 chrome 以及 windows, 就是 chrome 在 macos 和 windows 情况下,呃,可以直接调用 codex 的。 我快速录一个视频,教一下大家怎么把这个功能激活。首先呢, 我们要打开最新版本的 codex, 如果不是最新版本的,可以在这里去检查 update, 就是 要确保更新到最新版本的 codex。 更新完之后,打开这个插件 plug ins, 打开这个插件, plug ins, chrome 的 这个选项就会出现了,点击这个 chrome 点击吧,因为刚才我已经点击了啊,可以直接点打开, 打开它会直接跳到你默认浏览器的这个 codex 的 激活界面啊,如果你默认的是 chrome, 就 会正常蹦到这个 chrome 的 界面 crom 蹦到之后直接点击艾特 crom 就 ok 了啊,因为我认为接下来会很精彩的。其实 cloud 大家能看到我的 cloud 已经支持了,就当我点开这个 cloud 的 时候, cloud 的 无论他调用自己大模型也好,还是还是 cloud code 也好,他可以直接操纵我的 crom。 那 现在呢,就是我把 code 也加入到 crom 之后, open up code 也可以直接调用我的 crom 吧。因为今天我想录这个视频的原因就是我认为接下来整个电商的搜索逻辑都会因为世界头部的几个大模型公司会带来天翻地覆的变化。 比如我现在自己日常的使用已经不用去打字了,我调用的是 tapis 会比较多,所以现在目前,哦,现在才五月份,我觉得其实 ai 的 风向已经调了好几次了。比如年初的 open code 火了一阵子, openclaw 就是 龙虾。 那其实我认为到现在为止了, open opencloud 的 风风口或者说营销热度已经完全消退了。那接下来就是 webcoding。 那 目前最主流的就是 codex 和 android 的 cloud code。 就是 cloud 的 code 啊。好吧,今天就跟大家快速录一下。我估计可能很多伙伴不知道怎么在 codex 里面去添加 chrome, 在 chrome 里面去激活 codex。 好 吧,那今天先这样,拜拜。

我发现居然还有人不知道怎么在群里面制定模型。首先你一定要把自己的自动选择给关掉,他虽然输的会给你选择一个最优的模型,实际上是给你选择一个最差但没人排队的模型,因为好的模型排队都太严重了。 那自定义的话,先点这个地方添加模型,点了之后它可以选择供应商和选择模型的名称,填入你的 api 密钥。但是这个地方很坑的一个地方在于它的服务商是写死的,没有在它这个列表里面是加不了的。比如说你要自己添加一些东软站,它加不了的。 那如果你有这种需求怎么办?那你就只能去装一个 open code 的 这个名称。你装一个之后,在这个地方他是对这个 open code 是 完全开源的,没有脆的那种限制,你在这里想添加什么供应商都可以自定义, 然后你填入一个 base u r a l 就 可以。为什么脆他不提供不写死的供应商呢?他主要还是怕自己的上下文工程泄密出去。那如果你一定要在企业版本,这企业版本是支持你自定义供应商的。

在之前视频中我已经介绍了什么是 scales, 并且通过命令行界面演示了它的基本使用方法。很多朋友反馈说,虽然 c l i 命令行模式很强大,但有没有更直观、更容易上手的方式?本期我将带大家使用 open code 桌面板,用格式化的方式来创建和使用 scales。 这种方式不仅界面友好,操作也更加清晰,特别适合刚入门或者是喜欢图形化操作的朋友。我们先来看一下我们本期的主要内容。第一部分就是桌面端的安装与出体验,我会带大家一步一步地去安装并使用,熟悉界面。 第二步就是深入理解 scales。 在 这里以天气查询为例,我将通过一个实际的例子天气查询 scales, 带大家直观地感受 scales 的 作用。 三部分就是动手创建属于你的第一个 scales。 在 这里我们以写作助手为例,带大家一起体验中文提示词,创建自己的专属 scales。 第四部分就是目录的结构与命名规范讲解, 会分享一些其他工具的命名规则。好,现在我们先来看。第一部分就是安装与出体验,在这里仅需三步就可以搞定。下面我们来到官网,然后选择这里, 这时候我们就看到了它有终端,有桌面板,还有这个拓展,在这里我们选择桌面板,这里选择自己的系统去下载就可以。这里我们以 windows 为例,我们直接选择,我们保存到本地之后,就会有一个这样的安装包,然后我们双击打开,然后我们直接选择下一步。 这里大家可以设置一下安装路径,我这里就默认安装到了 c 盘,然后直接选择下一步,然后我们再选择下一步, 这时候就安装好了,然后我们直接选择完成,这时候就会自己打开初步化界面,然后我们在桌面上新建一个文件夹,直接命名为 file 好 了,然后我们再回到 open code, 然后我们选择打开项目,我们选择桌面上的 file 文件夹,然后选择文件夹。 现在我们来认识一下这个界面,它的界面也是非常简洁的,左侧就是我们的绘画记录,就是我们每次绘画在这里都会显示绘画列表,然后中间这一栏就是我们 ai 对 话的区域, 然后指定框下面这里我们可以去选择模型,它有一些免费的模型去供我们去选择。然后第三列,这里就是如果我们创建 g i t 仓库之后,就可以实时的看到文件的一些修改变动。 然后第四部分,这里就是显示我们的文件列表,就是我们打开项目之后,我们项目里面有哪些文件,都是在最右侧这里显示,这就是它的界面功能的一个导览。 然后我们再看下一章节,就是深入理解 skills, 在 这里我演示一下天气查询的 skills, 在 没有配置 skills 之前,我们先来尝试一下,比如我们问他北京天气,然后我们直接发送 好,这时候回答我们了,可以看一下它的获取方式,是通过网络搜索添加一个 scales, 我 们再来看它的变化。现在我们来到刚刚创建的这个文件夹里面,我们来创建放置 scales 的 目录,我们第一层就是要输入点 open code, 然后 open code 里面再新建一个文件夹,这时候我们命名为 scales, 然后这个 scales 里面我们要放置查询天气的技能,可以看一下,我已经粘贴了过来, 然后我们再回到 opencode, 这时候我们再回到 opencode, 把刚刚第一次的对话删除掉了,担心它有缓存,在这里我们再问它北京 天气,然后我们直接发送,可以看一下它这里已经调用了我们刚刚放入的 scales, 就是 查询天气的 好了,这时候它就查询出来了,可以看一下。一开始我们第一次查询,它显示的是通过网络搜索,这时候我们放入 skills 之后,它直接就会调用我们这个 skills 技能,然后帮我们去查询天气,这次就不是通过网络搜索了,而是通过 skills 查询。 好,下面我们进入第三小节,下面我将实操分享,就是创建一个邮件写作的 skills, 在 这里有一个重要的前提,就是我们需要先将创建 skills 的 技能放到我们的 skills 目录里面, 放入之后它就可以像查询天气一样去调用创建的技能,自动去创建。下面我们直接进入实操环节,我们一起来看一下, 在这里我们还是打开这个 file 文件,然后点 open code, 然后 skills 里面,然后我们把创建 skills 的 技能粘贴过来,像这些技能大家都可以去搜索去找到。我们放到这个 skills 目录之后,然后我们再回到 open code。 在创建之前,为了让大家更清楚的了解,我们先来看一个案例,我们以这个为例,就是我们在平时让 ai 帮我们创作的时候,就是每次创作我们都要给他特别长的提示词,而且每次都要把要求重新告诉他, 然后我们这次就是要把我们经常用的这个题日词给它创建一个 scales, 后面我们就可以重复使用,不用再去输入特别长的题日词。下面我们直接把这段内容复制一下,就是这段题日词, 然后我们回到 open code 这里,然后我们选择粘贴,再给它提示词,帮我把以上提示词做一个 scales, 每次当我给你产品名称和 写邮件内容的时候,你就调用这个 skills, 然后我们就直接发送 好,这时候就帮我们创建完成了,就是我们使用的时候仅需提供给它产品名称,目标用户群体,还有产品核心卖点,还有公司名称,在这里我们新建一个绘画窗口,然后我们把它需要的内容提供给它,我们直接粘贴过来, 在这里我们给他产品名称,目标用户群体,产品核心卖点,还有公司名称,然后我们告诉他帮我写营销邮件,然后直接发送 好了,这时候就帮我们生成了。之前我们要实现同样的内容创作,我们需要输入一大长串的提示词,在这里我们仅提供我们主要的内容,然后告诉他帮我写营销邮件,他就可以帮我们去生成, 然后写完之后带上公司名称,它是严格遵守我们的提示词要求的,这时候就是这个 scale 的 一个作用,它是可以附用的,还有可以告别重复输入一长串的提示词, 在这里还有一个注意事项,就是大家创建好了这个 scales, 一定要重启一下这个 open code, 它才能去识别我们已经创建好的技能,到这里就是利用 open code 的 使用和创建 skills 的 全流程, 下面我们再来看一下第四部分,就是项目结构与命名规范,只有正确的创建目录层级才能识别到我们的 skills, 在 这里我们可以看一下第一个 open code, 第一级目录就是点 open code 命名,然后第二级目录就是 scales, 然后第三级目录就是 scales, 里面放的就是 scales 名称,比如 ai news, 然后这个文件夹里面放的就是 scale, 点 md 就是 scale 的 内容。如果大家用的是 ai 编程工具这个 tree, 第一级目录就是点 tree, 像这个其他的二级、三级还有一些目录层级都是一样的, 那么我们如果使用的是 colode code, 那 么第一集目录命名就是点 colode code, 像这些目录命名只有第一集它是有区别的,其他的都完全一样,这是关于这个目录的命名规范。 好了,这就是我们本期的所有内容,现在大家就可以去动手把自己经常使用的一长串的题日词封装成自己的可附用的技能,可附用的数字资产,下期我还会分享更简便的使用 skills 的 方法。好了,本期内容分享就到这里,我们下期再见。

本指南将表述如何通过 opencode 与 openstack 的 协同实现规范驱动开发及 sdd。 规范驱动开发是一种以精确的规范作为核心的方法论, openstack 是 用于定义这些开发规范的工具, opencode 则是基于规范实现 ai 自动编码的代理。 本次讲解将分为五个部分,一、核心概念。二、协同与关键优势。三、五步实现流程。四、微信社副级案例研究。五、最终注意事项与总结。 第一部分,核心概念理解 s d d openstack 与 opencode 规范驱动开发简称 s d d。 这是一种开发方法论,其核心在于使用一份精确的规范,即 spec 作为所有编码实现与测试的单一事实来源。 open spec 是 一款轻量级的开源工具,致力通过简单的 markdown 文件来管理规范,其核心特性为增降规范与双文件夹结构,用于管理渐进式变更。 opencode 是 一款开源的 ai 编码代理,它读取 openspec 定义的规范,自动生成测试并修正代码,支持多种 ai 模型,它是规范的实现者。 第二部分,协同与关键优势表述为何此组合超越了各部分之合。 核心优势包括四点,第一,规范约束 ai, 精确的规范为 ai 编码提供了确定性边界。 第二,增量开发,通过增量规范实现高效迭代。第三,全流程可追溯,任何代码变更均可追溯至其对应的规范变更。第四,轻量无侵入, 工具链设计简洁,异于集成到现有项目中。第三部分,五步实现流程,从项目设置到最终归党。 完整流程包含五个步骤,一、环境准备。二、规范定义。三、 ai 赋能编码四、验证与迭败五、归党与追溯第一步,环境准备需要安装相关依赖,并初步项目 使用命令 open speak in native 初步化项目。该命令将创建规范管理所需的目录结构。 随后进入第二步,规范定义。在 specs 目录中定义基础规范,在 changes 目录中以增量规范的形式定义后续的开发任务。进入第三步, ai 编码 执行核心命令 open code generate。 open code 将读取规范文件并自动生成相应的代码与测试用力。 第四步,验证与底袋运行自动生成的措施,并进行人工代码审查,以确保实现与规范完全一致。若存在偏差,应返回并修改规范,而非直接修改代码。 完成验证后进入第五步,归党追溯,执行 openstack archive 命令。此命令会将增量变换合并至主规范,并为本次开发周期创建永久记录。 第四部分,案例研究微信服务器将五步流程应用于一个真实项目。项目目标开发一个微信 m c p 及模型上下文协议服务器。功能要求包括图片上传与文章草稿关联。 s d d 工作流实践。 第一步,定义规范,例如在规范中明确定意 x s token 的 刷新周期。第二步,生成代码运行 open code 生成初步的实现代码, 后续步骤为验证与迭代,以及规党与部署问题解决方案 问题自动测试失败代码实现的 x s token 刷新逻辑为一小时,与规范要求的两小时不符。 解决方案修改增量规范将周期更正为两小时,重新运行 open source generate 代码被自动修正,与新规范保持一致。 第五部分最终注意。注意是与总结包含关键要点与最佳实践。五项核心注意事项, 第一,确保规范的精确性,使用如 must 或 shell 等关键词。第二,根据任务复杂性选择适当的 ai 模型。第三,人工代码审查仍然是必要环节。 第四,在版本控制中确保规范与代码同步提交。第五,在现有项目中应逐步引入此方法论, 总结 openstack 解决构建什么以及为何构建的问题。 opencode 解决如何用 ai 构建的问题。两者结合构成了一个完整的可审计的开发周期。

利用中午吃饭的时间来聊一下这个 open cloud 到底能够用来做什么事情。他官方文档上 举的例子是可以帮你处理邮件、处理日历之类的。对于国内的人来说的话,其实没有那么大的处理邮件、处理日历的需求,工作中才会用到邮件啊、日历啊之类的这些东西,所以这个需求是不存在的。 然后 open club 还有一个比较严重的问题是它权限给的高了之后,会带来一些安全问题,所以我们就需要想一些场景来让它既可控又能够替我们干活。我能想到的场景是,比如说在家里边,你把它部署在一个 树媒派上,让它去管理你的智能家居,限制它能够去干的事情, 比如说帮你开灯关灯,早晨帮你拉窗帘之类的。原来你需要喊一声小爱同学,然后你现在就不用喊了,龙虾可以帮你直接搞定。 但这个需求的问题是他其实没有带来太多的收益,你原原来就已经很方便了,感觉原来日常中能够用 ai 解决的问题,在呃已有的产品里边已经解决的很好了。 还有一个需求是巡检需求,比如说你要去巡店,或者是去在一个工厂里边巡视,发现问题及时的去汇总上报,这样的话你就可以先发给你的 open cloud, 然后等你巡视完一圈下来, 它报告就帮你生成好了。但这个问题发给豆包这种聊天类的智能体应用也是完全没有问题的, 差别就是你发给豆包的话,这个数据会传到豆包的服务器上,发给 opencloud, 如果你不部署自己的本地的大模型的话,其实数据也会发给这些模型提供商, 所以其实差别不会很大。如果你为了把 openclaw 用起来,像很多人一样去买个 mac mini 的 话,说实话成本会有点高。那有什么场景是可以通过你在聊天框里边跟他聊天,然后去让他干的呢? 这个现实世界中其实只有老板会这样,就是他会负责提出问题,底下有一堆人给他把活干了, 大家在日常生活中还真的不会这样,有什么活可能这样自己动手解决掉就好了。比如你去打开一个开关,甚至都不会想着让语音助手去给你打开,你直接去会去按。让我想想 还是刚才那个巡检的需求,感觉可以用在农业上。比如说你把你的种植大棚投入点成本完全变成可以电脑控制的,能够通过电脑控制之后就能通过这个 ai 去控制, 然后因为他可以做的动作的空间是有限的,所以产生安全事故的空间也是有限的。这样的话他就可以比较智能的根据你棚里边种了什么, 然后定期的帮你开棚关棚,这样的话确实可以发挥出 open cloud 的 价值。他 你认为你这样就没有不需要自己再写一套程序了。但是呢,呃,这个方式也会有问题,因为它 open class, 它定位是一个通用的 ai, 如果你用这个通用的 ai 去做一个特定的事情, 他肯定会花更多的头肯来干这个事情。所以相比较之下,你不如说是用 web coding 的 方法去自己写一个 agent 来做这个事情,对吧? 我朋友圈看到有人用欧盟 club 点麦当劳,他确实是能点成功,因为麦当劳开放了 m c p 这个东西和你直接在外卖软件上点能有什么差别呢?除了他现在渠道上会给你一些优惠之外, 我前两天刷到一个博主说如果你没有自己的商业模式的话,你 ai 其实是用不起来的。这个话现在想想是说的非常对的, 你现在 ai 固然可以给你把效率提升到三倍、五倍、十倍、八倍,但如果你没有这个场景的话,基本上也是一个有力气没地方使的一个状态, 所以还要所以还是要通过观察生活,找到那种能够实现自动化人干他可能效率是一, 自动化之后效率能够变成三变成五,然后加了 ai 之后,能够在自动化的基础上更加快,这种场景才能够真正把 ai 给用起来。 比如说我看到现在有有企业招人做这个投资信息收集的智能体,原来的市场分析师,他会呃去各个数据源去拿到数据,然后自己去做分析。 但是现在呢?它可以通过 ai 去自动拿数据,这样的话就能够多看一些数据源,方方面面的信息都不会被错过。这样的话里边的投资机会,尤其是那种长尾的投资机会可能会更多, 这种是有价值的。但是这个前提确实是你要有一家已经在运行的投资公司,可以让投资公司的效率从一变成十。 嗯,这样看,其实数据分析师的岗位好像比程序员还要更危险一些。 说到投资,如果大家都在用 ai 去分析市场里的机会,是不是所谓的价值投资就能实现?如果每个人都很理性的话,他不会去市场很高的时候去追高一只 股票,当股票价值跌到价值线以下的时候,就会有很多 ai 去发现它,早早早的把它埋起来,那市场真的就会变成理性市场。 理论上理论上是这样,虽然在投资领域非常忌讳说这次不一样,但是我感觉 ai 这一次好像确实是不一样。 刚才农业的那个话题,我看到有人用智能体去照顾一些一颗番茄,它其实也是一个比较理想的情况,因为番茄你完全可以就是泡在营养液里面,或者用那个弃物种植深液流浅液流之类的东西, 就完全可以把它给给种出来。但这个对于大部分的农业场景其实也是不适用的,能够水培的作物也就那么几种。 这里想说的是,农业上有大量的其他工作是没法用 a i 替代的,如果你想用 opencloud 去帮你减脂,帮你导航 他这个,嗯,代价肯定会比原来研发出来的这些导航算法、图像识别算法的计算成本更高。 等到未来各种平台按自己的真实的计算成本赚钱的话,那可能这个这个这个故事就说不说不通了。我总感觉现在头肯这么便宜,应该是各个公司都在烧投资人的钱。 本来想用一顿饭的时间头脑风暴一下 open klo 可以 做什么,菜都吃完了,饭还剩下这么点,也不打算吃了,也没有想出来这个能够实切实有用的场景。 所以现在感觉下来,好像那种成立一人公司,给自己创造一种商业模式的方式是符合发展方向的,先有个商业模式,然后再 再给它加速。但这里的商业模式不能是那种 moving bits 的 商业模式,而是 moving items 的 商业模式。好,就先录到这里吧,拜拜。

hello, 大家好,我是 d p, 欢迎来到我们的 codex 系列视频,这期是这个视频的第一期,主要讲的是新手入门相关的内容,主要包括 codex 的 安装,一些基础的配置和一些基础的使用指南。好的,我们来进入 准备环节。首先你需要做的第一件事是打开 d p r t 点 lab 零零点 com, 在 这里搜索 codex, 然后找到这篇文章。打开到这里,你需要知道的是, codex 这期视频相关的所有内容你在这个文章里都可以找到。现在我们把这个文章放在一边,下面我们需要新建一个文件夹, 我用的是 d p 下划线, codex 下划线一零一主要是,呃为这期视频做演示做准备的,你可以使用任意的名称以及任意的位置推荐放在你的那个项目文件夹目录里面去。 好的,这两样都准备完了以后,我们下面进入安装环节。好的,我们首先回到刚刚的这个文章,然后第一部分就是安装指南。我们先大概的来看一下目录架构,分别是四种安装模式,其中两种是命令行,第一种是 npm 安装,第二种是 codex app 安装,第四种是 codex vs code 的 插件安装。我们将逐一来看这些安装方式。 首先是两组命令行的安装方式。呃,先介绍一下命令,第一个命令一点一是检查你的 npm 环境里有没有安装。呃, codex 用这行命令 list 就 可以看到下面这样的输出结果, 像我这里就有一个 codex 零点一一二点零这个版本,这就代表安装了,如果你没有的话,你就可以继续。 第二步,一点二就是用这条命令安装,然后第三步是检查 codex 版本,就是你安装以后用这个命令就可以看到这边的这个输出,就是 codex 的 版本,就代表安装成功了。 然后如果在你使用的过程中需要升级,就用一点四用这个命令来升级,然后 homebuil 是 一样的,首先是查看它的列表, 可以使用这行命令来查看,那么查看的结果就会输出一个 codex, 如果你不用后面的这个过滤条件,它就会把你本地的所有的呃 homebrew 安装的内容都列出来,然后在这边就可以看到有一个 codex, 然后 如果上面的检查就是二点一这个部分,你的机器里没有任何的安装,那么你就可以在这边使用二点二的命令来安装, 然后安装以后相同的版本检查,然后相同的升级。我这边在 mac os 上用那个命令行安装了一个 homebrew 版本的 codex, 给大家看一下过程。首先我打开我的命令行,然后我用这个 codex 杠杯来查看,它告诉我这个机器上没有 codex。 然后我尝试做了一个 list, list 的 操作,这边也没有后 codex, 然后我尝试用了那个就查找关键词的 list, 没有任何输出。然后我做了一个额外的测试,我用 sqlite 做测试,因为这里显示了 sqlite, 所以 它这个能有输出就代表一切都没有问题。 然后我这边用了就是二点二这个命令来做安装,然后它从这里开始跑,一直跑跑,反正跑的挺多的, 然后到下面他就给我一个反馈,就是 codex 零点一一七点零这个版本他就开始安装,一直到安装完成, 呃,然后到这里就是安装结束,然后接下来我用了查看的命令做了一次确认他有 codex, 然后我又做了一个全局的查看,就没有过滤的查看有,然后我用了 codex v 这个命令查看的版本。零点一,一七点零是我当时录视频时的最新版, 这就是命令行的一个安装方式。下面我们来看三那个 codex app 安装,这个就是打开官网下载一个 app 就 好,我在 macos 上我下载的就是这个 codex, 点 dmg 打开以后就有这么一个文件,这个文件是这样 四百七十三兆,然后我如果安装把它拖过来就行,我这边已经安装过了,因为所以就演示一下这么一个过程。然后我们来看一下 codex vs 插件的安装,我这边整整理了一下,你需要做的是第一步打开 vs code, 第二步在插件市场搜索 codex, 然后找到这个插件进行安装。好的我们去那个 vs code 里面看一下,首先插件市场在这儿,然后你在这边搜索 codex, 我这个已经安装了,但是我给大家演示一遍流程,然后这个时候就会找到这个是 open a r 官方的这么一个插件,然后打开以后它的名字就是 codex 杠 open a r 的 code engine agent 在 这儿和这个名字啊,这样看这两个名字是一样的,然后这边会有一个安装,你点安装就行,安装完了以后,那个你在这儿就能看到一个 codex 的 标志,然后我一般是在这儿去使用的,它其实没有太大的一个差别, 就是在侧边栏上这个是 copilot, 这个是 codex, 放在这边有可能要拖动一下,但我不记得不太清了,反正是有相关位置的。好的,作为最后的建议,一共有四种安装方式,我建议大家把三和四都安装上,一会我们在演示的过程再解释为什么。 好的,这就是安装相关的所有内容。 ok, 接下来我以 codex app 做一个演示。首先我打开了 codex 这个 app, 它会要求你登录,这个时候你只需要点击这个按钮,然后它就会跳转到一个登录的页面,这个就是 open i r 的 页面, 你在这个页面里完成你的账号的登录,然后它就会跳转回来,然后这边就会有相关登录完成的一个状态。 ok, 花了点时间完成了网页上的授权,然后这个 app 就 会自己自动跳转到类似这样一个页面,这就是 codex app 的 主操作页面。 其他三种登录方式都是相同的流程,这边我们就不额外的演示了。登录完了以后,按道理说我们可以直接呃输入一些命令来完成相关的任务,但是我们先不着急,我们先进入一些重要文件和配置的讲解。 首先你需要知道的第一个概念是 codex, 它在你的本地是有一个配置文件夹的,在你的用户根目录下有一个点 codex 这个文件夹,里面就是配置的所有的内容。然后我这边用编辑器已经打开了, 这里面一共有好多个重要的文件,我们一个一个来讲,首先讲第一个就是 author 点接收,这个就是你的所有的 talkin 都在这边。我这边跟大家演示的是我进行了脱敏的一些数据,你实际跟我看起来应该是差不多,但是我这些呃 d p i t 这些你肯定是没有的, 分别有获取信息的 talkin 和用户 id, 然后 talkin 的 id, 然后什么 refresh, 就是 刷新 talkin, 然后时间,这就是 open a r 给你的一个 key, 然后这个 config 点 t o m l 是 什么呢?就是一些你使用过程中的一些记录,比如说我用的模型是 g p t 五点四,然后思考强度是 x high, 然后一些信任的目录像这个这边就是五点四,和 x high 和这边是对应的,这就两个配置文件。 为什么要讲这两个文件呢?这两个文件在稍后我们讲账号切换的时候是非常重要的两个文件,如果大家对账号切换有兴趣,可以点个关注,我们后面的视频里会讲 好的。然后我们下面进入一个呃全局配置的一个环节, 首先就是全区的配置,就是你这个本地的所有的 codex 相关的项目,你想让它遵守的一些规则是什么呢?我这边给出了一个 demo, 首先文件是在点 codex 文件夹下有一个 agents, 点 md, 这里我写了一些规则,就什么遵守用户的需求啊,中文呀,回答呃 case 原则啊这些,这个写的比较长,这个东西在哪呢?在配置指南就第二部分的第一点里面 就是目录是用户目,文件夹下点 codex index, 然后你把这个粘进去,就可以作为你的一个项目的开始。 然后还有一个目录,就是说如果你不做全局级的,你这个项目想设置的话,那么你就需要做一个项目级的目录,那么它就是说在 d p 下划线 codex 一 零一这个项目文件夹下新建一个这么一个文件就行。那么我们现在来新建一个右击 新建,这,哎,他为什么没有给我新建?好奇怪哦, 这样,是这样,这样新建的好,这样就新建进来,然后这边你就是比如写全程使用中文和我交互 类似这样,然后这条文件它的那个规则就可以写入进来,你也可以简单的把这个东西给它复制过来,也就是说你这里给它的这个规则是这个 codex 零零一这个项目级的,而不是说这个放在全局级的,你把全局级这里给它删除掉就可以了。 好,这就是两种配置方式,如果你是想让所有的 codex 都能遵守,那我建议你就像我这样配置一个全局级的一个规则,让他们遵守一个默认规则。然后如果你想让某一个项目,比如说这个项目去遵守,我们就可以在这里面写一二三, 告诉他这个项目单独的遵守规则,首先他会遵守这个,然后把这个再附加上就是这么一个配置关系, 像稍后会有像 scales 呀、 workflow 呀这些,我们会单独用视频来讲解,这个也不算基础的内容,如果有兴趣就 稍微等一等,再讲一下。 c 部分相关资源,这边我把常用的一些链接放在了这里,如果有兴趣的话可以来用。这边是 openair 的 官网,这是 codex 的 官网,这是 codex 的 开发者文档,这是 codex 的 github, 以后有相关的链接我会继续往后面去加。 ok, 我 们现在进入 实际操作环节,我这一期的实际操作先用 codex app 来做演示,首先它这个给我们默认打开的只有一个 playground, 就是 一个测试环境。然后我们刚刚新建了一个目录,还记得吗?我们需要把它加载下来,点这边这个加号,然后找到你的这个目录, 把它加载进来就可以了,这样你就有了这个目录,然后在这边选择这个目录,开始一个新对话,这里就可以开始一个新对话,然后你可以选择模型,比如说我们选呃 codex 五点三,然后呃思考强度,我们就选 high 就 好。 然后我们给他一个简单的对话内容,然后这时候你会看到他在这边会新建一个对话,然后这边是我们说的,然后这是他思考,然后稍后给我们回复的内容。 这边你可以把把它变成任意一个内容,比如说你给我写一个贪吃蛇的游戏存放在什么位置,什么,就这么一个流程。 当然我们这边只有一个简单的演示,然后这时候我们接着来演示斜杠命令,它和我们常用的命令好像一样,你只要出入斜杠,它会有很多的命令。最重要的我想给大家讲几个命令,首先是 status, 你可以看到你的,如果你是那个付费套餐的话,你可以看到五小时限额和七天限额,还有一些呃,上下文长度啊这些信息,然后相同的内容在这边也可以看到,也是配额的一个信息。 然后斜杠命令里面还有一些命令,我们来看一下,比如说这边有一个 fast 的 模式, 呃,当然五点三开不了 fast, 你 只有五点四来行,然后到五点四以后你可以开那个 fast, 看到吗?现在 fast 的 模式就被关闭掉了,然后 这边你在敲就可以把 fast 的 模式开启。提醒一下, fast 模式只有五点四可以用,只有这个小闪电开启的时候才是。然后 fast 的 模式大概是消费两倍的 talk, 得到一点五倍的速度, 然后智力不会有所下降,只是优先给你处理任务,就是说类似于 vip 通道的那种感觉。好的,这就是 codex app 里的一些功能,至于其他的一些命令,那么稍后大家自己再来看就好。 ok, 接下来我们回到那个 codex vscode 的 插件,这边我想给大家演示我最近做的一次 html 任务。首先我们先来看呃,两个 html 页面, 我首先用那个 ar 设计了下面这个 index 派去的 html, 然后我让他用 bootstrap 进行一个改写。 首先我们来看第一个,第一个是就是一个 ar 点 lab 零零点 com 这个页面,我想做一个新手页面,然后我用 ar 做了一些设计,但是它做完了以后有一些问题,像这些点击啊,这些呃 type 的 切换,这些 card 的 折叠,它都没有做,它只是做了样式,像这边这些搜索它都没有,但样式是做好了,然后是这个样子,然后我让它做的就是对这个页面百分之一百的用 bootstrap 进行了一个重写,然后把这些点击样式, 这些 card 的 呃这些 type 的 切换,然后这些 card 的 折叠都给它做出来,然后像这边搜索也都给它做出来,这边的搜索也都做出来。 是做成这么一个状态,其实改动不是很多,但是最主要的就是遵守这个设计稿的一个方式,然后给大家看一下实际的操作过程。首先我调用了一个 walker, walker 就是 定义了一个上下文,这个 walker 不是 为这个项目准备的,但是差不多能用,我就用了,就是一个 html 设计的 walker, 然后告诉他是一个特殊的任务,然后是根据这个设计稿的页面,也就是这个由 ar 生成的原始页面 来让它把一些呃功能用 butstrip 进行重写,然后让它严格遵循这个规则,然后其他我们在 word 里定义的什么 p r, d 线框图都让它忽略,然后它给了一个 反正就读一些文件,然后进行思考,然后它给了一个方案,这个是我这个项目定义的一个格式,但实际上只要看 执行方案这边就可以看到。他是对那个 css 用 bootstrap 五重写,然后调整了一些间距,用把 bootstrap 尽量应用下来,然后 抽离了一个项目级的慢点 css, 然后什么这些该不动的都不动,然后补充了一个慢点 gs, 然后他就让我确认,我说确认就可以修改,然后给他一个要求,就是我怕他把那个原始文件替换掉,我就说让他再同 就同级目录下建一个新文件,所以就有了这两个文件的差别,然后他就完成了这个文件,这个文件就是大家看到的这个页面,就是刚刚演示的这个就相关的功能,该有的都有 这么一个页面,然后他就告诉我修改已经完成了,然后这个过程还挺长的,他做了很多的事情。呃,对,然后中间还经历了一次网络异常,我记得是, 哎,没有看到,没关系,然后他给了一个总结,告诉我修改的内容,然后这时候我验证了一下,发现了一些小问题,总共就是三点, 让他再去做修改,这时候他出现了一个小小的网络波动,就我们用的是正常的,然后呃一些交互, 然后在过程中好像还有一次,啊,对,还有一次大的网络波动,原因未知,然后我就因为遇到这个网络波动,我就直接把它暂停掉了,然后我就告诉他好像有网络问题,让他重试,然后他又花了五分多钟把最后一个点 g s 写完, 到这时候我才想起来,哦, codex 有 点慢,我差点把这个事忘了,所以他前面可能不是网络波动,只是单纯的在等待,我以为他卡住了,然后他把这些东西都弄完,然后告诉我交互已经补完了, 然后就给出了一个最后的一个答复,包括修改的内容是什么。最后我就在这边测试了一下,该有的功能都有了,后期大家也会看到这个 ar 点 live 零零点 com 这个页面上线主要的功能就是 一些基础工具和命令和一些基础知识的展示,然后一些关键的视频和文章的一些链接, 然后对应热门的 github 资源的链接,还有一些热门链接就是做一个一站式的导航,这么一个页面,算是一个工具书的页面,大概就是这么一个,我希望用这个页面就是我实际操作的过程,向大家展示就是 codex 其实 在 vs code 插件里更接近我们的编程习惯,为什么呢?因为就像这边一样, 我的任它改的任何一个文件,我可以点开看,然后在这边像这个改动,这个在 codex app 里有,但是它没有这个编辑器这个功能,也没有快速导航和快速选中这个功能,甚至我可以把这边这一段话直接给它添加到 codex 这个上面, 做一个快速选择。然后在对话的过程中, vs code 这个插件会把我们打开的这些页面的名称传递给 codex, 作为上下文的一部分。所以我觉得从如果很多用户跟我一样是从那个 cloud code 过来,后来进入 anti gravity, 然后再到 codex 的 话, 我觉得这个方式是比较合适的。好,最后我跟大家说一下,为什么我建议 vs code 以外还要有 codex app 呢?因为我在使用的过程中有时候会遇到一些奇奇怪怪的问题,遇到这些问题的时候就需要用 codex app 来做一个兼容性的工作。 比如说有个项目运行的突然卡住了,你用 codex app 打开,把任务运行完,然后再回到这边,这个问题就得到了解决,而不需要去死磕 vs code 的 codex app, 当然我百分之九十的工作是在这边完成的。哦对,还有一个点,有用户说,呃, vs code 的 codex app 会比较卡顿,但是我在实际的使用过程中没有遇到这种卡顿的情况, 就是这是我的程序,然后这个 ip 呃 codex 的 应用,我装的也是最新的一个插件。好的,我们做一个比较简单的总结。首先我们介绍了四种 codex 的 安装方式以及一些基础的配置方式,特别是这边的这个全局级的配置建议大家就是照我的抄,然后在基础上去改,随便用,不用跟我客气。 然后接下来我们讲了两种应用的使用方式,分别是 codex app 和 vs codex 强,强烈建议大家这两种都尝试一下,并且尽量把你的常用工作方式固定在 vs code 的 codex 插件上。 好的,这就是这一期 codex 新手入门系列视频的全部内容,希望这期视频对大家有帮助,如果可以,请帮忙点赞和转发,如果你有相同的经验想要分享或者遇到了相关问题,欢迎留言, 稍后我们会发布更多的 codex 相关视频,有兴趣的话欢迎关注,谢谢大家!我是 d p。

给大家介绍一下, default 里面有一个非常重要的一个功能,就是我们可以把一些 workflow 转化成 m c p 的 这个服务。因为我们了解目前 open ai、 open code 的 或者 cloud code 的, 它在它的那个智能体里面都可以调各种各样的 m c p 的 这种服务。今天我们主要是给大家来演示一下,在 default 里面如何 把一个标准的一个 workflow 或者一个智能体,把它变成一个 m c p 的 这样一个服务。我们给大家简单介绍一下,其实首先我们还是简单看一下我们这样的一个工作流,这个工作流会非常简单,它主要是有一个问题去解锁这样的一个知识点,这个知识点主要是做樱桃种植技术的, 解锁完了之后再通过大模型再回答最后这样的一个问题,它是一个标准的 ig 的 这样一个任务,这种任务其实我们是可以把它放在 define 里面来进行调用的。我们给大家来看一下,首先我们要先要创建这样的一个工作流,工作流创建完了之后,我们可以在这个工作流编辑这部分 把它发布成一个 m c p 的 服务,那么这样它的这个工作流 default 的 这个工作流就可以在其他的智能体当中作为一个工具被调用,那么我们看看它到底是怎么来配置的。那我们先给大家看一下,首先它是在 default 里面有这样,在 open code 的 里面它是有这样的一个配置文件的,它是全局是在点 config open code, open code 的 下面还有一个 config 点 j s 的 这样一个文件,在这里面我们主要是配了这样一个东西,这个就是我们前面看到的那个 m c p 的 ur, 它的这个 type 我 们可以设置为远程的 这个 time out 时间,你稍微要设一设,因为它原来只有三秒钟,它很容易时间就超时了,所以你可以把它设的时间会长一点,把它起用就可以了。它是在这样的一个文件下面,在你的文件下面,在 open code 的 这样一个文件下面。好, 有了这个之后,我们再启动这个 open code 的 它就可以去调用这样的一个工具了,我们可以给大家看一下,那我们就在当前环境下有哪些可用的 m c p 服务,那他就跟我们讲了,我们这边有一个 define 的 i g, 这个 define 的 i g 主要是做农业或者是樱桃种植的一些相关专业知识的问答, 那么我们就可以问就可以用 i g 了。比如说我们就问一个跟樱桃相关的一个内容,四月份我们就问他四月份要注意哪些方面,那他就很快的就可以回答出来了, 那么他这个里面就掉了 a g 的 这样一个东西,那我就去问,我接下去可以进一步的去问他一下红蜘蛛的病虫害,你可以看到他这个时候,他有些时候因为掉阿姨他的时间他会比较久,所以我也碰到了这样的一个 bug, 他 这个 bug 是 def 里面的一个 bug, 回头我们给大家来介绍一下,当然我目前已经修复掉了,这个 bug 是 不存在的, 他经常会有一些问题,我们给大家来介绍一下,这个问题主要还是 open code 跟 def 有 些时候会有一个他 m c p 不 兼容的这样一个问题, 兼容的一个问题,特别是在调一个超长时间比较久的这样的一个 def 的 调用的时候,他会报这样一个错误,那这个错误他本质上是在做一个,他等于相当于是欧本蔻的向 def 的 发了一个通知,告诉他我你还活着,没有因为是什么,就 因为有些时候这个 ig 他 调用的时间比较久,那么这个时候欧本蔻的不知道你这个 def 那 个 m c p 服务到底是不是还在工作,所以这个时候他会持续的给你去发一些 这个通知,就 notification 的 这样的一些消息,那么它就是确保这个时候你只要的方案接收到这个通知之后,你你你返回二零二的这样一个响应就可以了,你不需要返回任何的数数据包,代表你还活着就可以了。那我就查了一下目前的方案的这个实现,它可能还不是很兼容,主要是这个 进度和异步的反馈用长耗时操作的时候,只是说像我们前面举的这个例子,给方案正在做这个大量的数据检测,这个时候就是欧崩扣的是不知道你给方案到底在干嘛,所以他会不会不间断的会发一些进度的通知,这个时候原来给方他是直接就拒绝掉了, 他会报一个错误,那这个错误我们就把它屏蔽掉,不要让它报,继续让它返回二零二的这样的一个接收到通知的这样一个请求就可以了,这个地方要改一改,否则你会发现这个欧崩扣的掉底方案的 m c p 的 时候,如果他的时间比较久的时候, 他就会报这个错误,所以这个地方如果改改,就跟我现在给大家看到的是一样,就会比较稳定性就会比较好,他不太会有错。好,那么今天这样的一个视频我们就给大家就介绍到这了。

大家好,今天我们来讲一下 codex c l i 里面一个新的功能, go 目标,它是你可以理解为给 codex 设置一个长期任务目标,然后让它围绕这个目标持续工作。 它有一点像之前 cloud code 里面的那个 rough loop 这么一个概念,它在你给定的目标情况下,它会去自己计划,然后编码,然后测试评估,直到完成你的目标,或者是它的 api token 耗尽。 需要怎么样起用它?有一个有,有两个条件,第一个就是你需要升级你的 codex 的 c l i 的 版本,要到 v 一 幺二八之后的一个版本。第二个,因为它目前还是个实验性的功能,所以需要你手动去激活这个功能。你可以选择直接在 codex 里面告诉它,就啊 enable ghost, 或者你自己去手动配置一下你的配置文件。在那个 codex 的 config 里面, 我们可以简单看一下,在这个里面是有,你可以直接在这儿加这么一行,在 features 下面加个 ghost 等于 true, 当然你不要,你可能需要重启一下它才能会真正的生效。它支持哪些功能呢?譬如说我们 go, 它会直接 go 告诉你当前的一个状态, 比如说我说重构当前代码,确保测试所有通过,然后它会有一个显示当前时间,用了多长时间以及 token 使用量。同时你也可以 pause, 你 可以 resume, 让它继续做,就又重新变成激活的状态了。 对,同样你也可以直接地把它清除掉,对,它就会变成 clear 的, 相当于它有这么一些命令的选择。对 go 它最佳使用的一些实践,我觉得也可以简单地讲一下,因为在我们之前的 ai 编程当中,经常会说,你帮我改一下某函数, ai 改完之后,你会说继续,然后它又再继续,最后你说跑测试,它才会。跑测试相当于 啊,一步一步,需要你的一个指导才能去做这个工作。但 go 的 思路不太一样,它不是告诉你下一步做什么,而是告诉它最终要达成什么。 譬如说刚才我们提到的重新写所有的测试,确保向后兼容。这样子说,你说整个把认证系统从 j w t 迁移到 off, 这也是一个比较大的工程,它要对上下位有很好的理解,那它可以进行,会需要运行时间比较长一点点。 那和普通的 prompt 最大的区别是什么?普通 prompt 像是一般都是一次性的输入,而 go 是 一个持久化的目标状态。 比如说,如果你只是在 prompt 里面输入帮我重构认证模块,那 codex 会在当前这一轮里面尽量去完成任任务,但是这一轮结束之后,这个任务就不一定还会作为持续目标被系统记住。但是如果你输入 go snapgo 重重构认证模块,保证保持现有 a p i 兼容并补齐测试,那么这个目标就会变成当前现成的一个状态。系统会知道现在有一个激活的一个一激活的目标, 然后它会记录这个目标是什么,以及是否是它的状态,是否完成,以及是否有预算的限制,消耗了多少资源等等。 它有一个状态的一个持续化的一个东西,所以它就不只是当前这一轮对话,而是有一个长期的目标持续行动。 对,怎么它是为什么能够实现这种感觉?它的背后的原理就是它会把系统,会把当前的目标绑定到当前的县城上,就这样就能够记录的目标内容状态是否完成。没有这一层的,那那么它就是一个普通命令。对, 另外一点需要说明的就是在使用的时候应该注意点什么。第一个就是目标要写得具体一点,不要只写优化项目,这个太宽放,更好的写法可能就是优化某某模块的什么测测试覆盖率啊,覆盖关键的一个路径,确保所有错误都通过, 就相当于这是比较具体。第二个要点就是要写清楚成功的标准。譬如说你要举个例子说,确保所有单元测试都通过,确保不改变现有的 a p i, 确保向后兼容,确保新增的测试覆盖核心场景。 所以 codex 就是 它的 codex 这个 go 的 这个更新,它就是让你从原先的你问一句,他答一句的这种编程助手,变成一个围绕一个目标持续工作的自我编程代理,所以它就有一个状态可以持续的循环, 所以还是挺不错的一个功能。现在在 twitter 或者是在海外的开发工程师当中,这个已经引起了很大的一个关注,有人甚至让它编程了五十多个小时一个功能,所以说。

codex、 cloud code、 gemini、 openclaw, 这四个工具究竟在什么场景下是适合的?在什么场景下又需要互相串联起来?今天这个视频不废话呃, 我将会带着大家去看一下我日常是怎么去使用的,把这些经验也分享给大家。首先呢,我们可以看到啊,这四个工具呢,其实有各自适合的场景,比如说 codex, 它其实适合去抓取一些信息,去做一些批处理和定时任务 啊,或者说去要逐步推进一些步骤的时候,它可以开启这个全自动化的流程。那么 cloud code 呢,它可能会更加偏向于去写一些底层的代码,或者是去编写一些 skill 啊,尤其去适合去做一些打底层的一些能力。 那么呃,这个 openclaw 呢,它更加适合去把人啊,还有设备以及我们自己的这些 agent 和 skill 串联起来,可以在一些出差路上,或者说你在不方便去使用电脑的时候, 采用这个 openclaw 去把一些任务推送到对应的我们这个手机的飞书啊,钉钉啊,或者是用这些外部的这个沟通工具去给你的这些智能体去下一些这种指令。那么 germina 呢,其实它会在文本转 啊,这个图片或者图片转文本的这个方面会比较强,所以说呢,他可能会适合去生成一些图片,或者去生成一些设计稿。好,那以上呢,我们简单的做了一个了解,包括我现在的这张屏幕,其实也是用 啊这个 codex 帮我写的啊。那么 codex 呢,其实在这方面抓取信息,输出一些网页其实也还是非常强的,最关键的是它的这个费用也比较便宜,所以那我们用一个案例来看一下,举个例子 啊,比如说我们要去看生成一个这个 ppt 啊,生成一个 ppt, 那 么一共呢会分为五个步骤,第一个步骤呢,可能要去做一些信息的抓取,是吧?然后去做一些定时任务,那这个时候呢,可能会是要需要用到就是 codex。 举个例子,比如说啊,我现在这里呢,就会有一些定时任务啊,给大家看一下。比如说呢,我会去抓取每天的一些早报,比如,比如说在这里 啊,每天都要去按照我自己定的这个标准去执行这些,去抓取一些早报。那早报的这个啊,效果呢?给大家看一下啊,举个例子,比如说啊,这些,呃, 这个每一天的这些新型的科创版的一些这种,呃,关于 ai, 关于人工智能、关于商业航天的一些新闻或直接推送过来。那么后续呢,还会有一些 github 的 一些项目,那它的这个任务呢,是完全自动化的再去做的啊,完全自动化, 也就说首先我们可以用这个,我们可以用这个,呃呃 codex 去做一些自动化的任务啊, 其实这样,那么除此之外呢啊,本身啊,就这些 skill 啊,这些 skill 可以 用 cloud code 直接进行编辑啊,直接进行编辑, 或者说我们打底的去做一些这种小的网页,或者是去做一些这种生产化系统的时候,可以用 cloud code 来去完成,因为它呢本身也可以去支持一些啊, s d d 就是 spot coding 啊,不像是原本完全之前的 web coding 这种方式。那第三个呢?是 codex 啊,第三个是 这个 codex 呢,它其实可以将前面的这两个东西串联起来,举个例子,比如说我们之前的一些这个网页的一些输出,还有一些文章或者是一些早报,其实它可以把这些 skill 和我们前面抓取到的信息做一个串联。那第四步呢, 可以根据这些早报和抓取到的信息,去让 notebook lm 去帮我们生成一些 ppt 啊,然后举个例子,比如说我们做到的一些 ppt, 大家可以看一下 啊,比如说这个也是我们之前做的啊,这个一些 ppt 的 一些啊,效果对吧?啊,它的这个效果还是非常不错的, 给大家看个大概啊。那么最后呢,就是如果你正好也是在出差途中啊,那么这个时候你可以用这个 open club 去接入到你的个人微信,飞书钉钉、企业微信等等,然后去把这个信息给你推送过去,或者说你不太方便查看电脑的文件,那你就直接让这个 啊,你的这个龙虾去帮你把这部分内容抓过来。所以以上呢,就是呃,我在使用了这么长时间,这个这几个工具给大家去做的一些总结啊,如果说有问题或者是想要去交流的话,也欢迎大家在评论区或者私信啊,谢谢,拜拜。

今天带大家深度吃透一款纯粹的开源 ai 编程项目 opencode。 首先我们先把它的定位讲透,很多人容易把它当成普通插件,当成 skill 技能包,其实完全不是一回事。 opencode 是 一款原生独立的 ai 编程智能体, 自己就是一套完整的运行程序,不用依附任何代码编辑器,也不用依附其他 ai 工具。这个项目由专业团队长期开源维护,设计初衷非常明确,就是解决我们用 ai 写代码的几个痛点。 很多工具只能用固定那一个大模型,没法自己换,大多都只能在图形编辑器里用,喜欢终端极简工作流的人很不习惯。还有最关键的隐私问题, 源码动不动就上传云端,私密项目根本不敢用。而 opencode 从根源上就定好了三大核心特质, 第一,终端原生优先,主打命令型,使用极简高效适配即刻和轻量化开发习惯。第二,完全模型中立,市面上主流的云端模型、本地部署的开源模型都能直接接入,随意切换。第三, 隐私做到极致,所有代码和对话全部本地留存,不用外传,还能离线干活,涉密项目也能放心用。你要分清一个关键点, 插件和技能都是依附别人的工具,只能做局部小功能。 open code 是 自带大脑、自带调度、自带权限管控的完整主体,能独立完成需求拆解、写代码、改代码、排查问题整套流程。不过这还只是它的表层定位, 真正支撑它稳定专业、可长期迭代的是它内部一套非常标准的分层架构。下期我们拆解 open code 底层架构,带你看懂专业级 ai 编程智能体的内部构造。

首先打开这个链接,然后打开这个发行版,下载对应版本, 改一个短一点的名字, 放到自己喜欢的目录下, 打开 cmd, 输入 excel 会得到一个配置文件, 填入你的 a p i t, 到官网上找 输入 service 启动服务 默认建立在三四五六端口,打开 c c c which 添加供应商 u 二 i o 和 api key 直接复制, 直接启动,看一下效果。 控制台上可以看到请求了哪些模型, 这个配置文件中可以设置在不同场景下所使用的不同模型,具体请看项目作者的说明。 你还可以在后台中启动,在 surf 后面加减币, 当然你可以随时在任务管理器中停止进程。 希望我的视频可以帮到你。

今天咱们录一个特别简短的一个教程啊,就是说昨天小米发的这个免费的创作者激励,他免费给的 token, 大家该怎么配,该怎么在工具里边用,有些人不太清楚,咱们简单介绍一下。 嗯,昨天那个免费激励的这个计划申请率还挺高的,只要你申请,基本上百分八九十都能通过啊,没听说是谁申请了没通过的。他给的最基础的套餐就是这个 token 里的这个两亿的这个套餐,就是价值六十多还是九十多八十多那个, 哎,我连续包月,这是美元,美元大概九十多吧,这一个套餐免费给两亿 credits, 大 概。如果说你不是使用这个 pro 版本的话,它是一对一的,相当于两亿 token, 如果说使用 pro 的 话,相当于是一对二的,大概它就是对应一亿 token。 这个基本上平常不怎么用的话,这个使用量的话是够了,如果说平常老用的话,这个估计一两天就用完了。 嗯,我来说一下这个,简单介绍一下这个配置的过程吧。先是说这个 tree, 这个 tree 的 这个里边配置自定义的这个模型,然后新建一个窗口,在这里边有一个添加模型, 直接添加进来以后,进来以后是这样一个页面,因为我刚才打开了所有弹窗啊,进来以后这个页面,然后添加模型,然后随便随便选,因为它后边是支持一个自定义请求地址的, 这个地址就是小米这个地址直接粘进来就可以,但是他要注意一点是小米只给到了 v a e 这一块,后边这个 chat communication, 后边这个都没给,所以说要自己手动拼上这一块才能真正的请请求到模型这一块的话,就选择其他模型,然后直接 输入这个模型的 id, 这个模型 id 就是 这个小米,呃, miimo 可以 看一下这个文档,文档里边我们就看一下这个 glotcode 里边吧,但这个里边能看到这个模型 id 都是这种 mimo 杠 v 点 v 二点五杠 pro, 就 直接直接输上 v 五杠 v 二点五,二点五杠 pro。 这个为什么说已存在?是因为我下边已经配了这个 openai 的 这个模型了啊,所以说这个,呃,你们自己配的第一个的话是肯定不会存在的。 然后后边的话就可以把这个小米上边把小米网站上给的这个生成的这个 api 直接复制进来,就可以看到这个,呃,直接添加模型,把这个地址钻进来,然后 add complications, 这样配置完了以后再把这个 c 要粘进来,然后一键添加模型,然后这个地方就有了。然后左下角这块看到模型这里边就是我刚新加的那两个,这样就相当于可以直接使用了。 呃,替换掉这些里边需要排队这些,所以就相当于都是免费用的嘛。然后第二个咱们要说的是这个 open code, open code 界面了,需要 some models, 我弹出来一个框,它下面也带有一个连接的服务商, ctrl 加 a, 然后我这里边进来以后就是小米 里边就可以看到,哎。小米的 token plane, china 地区的,中国地区的,然后新加坡地区的,欧洲地区的,呃,一般的这个大陆的账号就是这个,呃,小米的国内地区的,直接点这个以后输入 api k 直接回车 之后你再进,最后再这个进这个模型里边就可以看到小米这些体验,所小米就能看到小米 togpla 里边这一个中国区的一些模型。我这有一个别的账号是香港区的,所以这有两个, 所以说这一块的话都跟那个 open globe 是 确实好用。然后第三个咱们就说的就是这个 cloud code, color code, 我 现在是习惯用这里的这个插件啊,这个挺简单的,这个 color code 的 这个配置方式呢,就是修改,根据这个我先根据小米的这个文档来说一声吧, 文档里边一进到这个文档里边可以找到集成扩展,里边有 color code, 点击进来以后这个就是配置的地方。从这一步第一个就是修改这个 setting jason, setting jackson, 就是 autopilot 的 一个个配置的一个文件,还有一个就是改一下这个 drclod 的 jackson, 我 们打开一下 都是在用户目录下的,这就是主目录,就是跟那个 windows 一 样,在用户主目录下有一个 close 点点 close 的 文件加有个点 close jason 的 一个文件。咱们先检查一下这个点 close 文件里边配置的这个东西,它需要配置一个呃,自动完成这个 on board 的 这个,这个参数 你看进来以后看到我这个之前是已经用过别的模型了,所以他进来是 tree, 这是 tree, 所以 说没有问题。然后还有一个就是这个点 glow 的 文件夹下边的 setting jason, 然后回到这个里边,点 glow 下边有个 set setting the jason, 这个里边 就是按照小米这个配就可以,只需要配置这些,把 biosil 改成小米的刚才那个 biosil, 当然你要注意的是这是 osmic 的, 不是那个 open i 格式的,小米提供了两个格式的这个地址,还有一个就是这个认证的 token, 把这两个改了以后直接粘进来就可以, 之后的话我这里边配置的其他的信息不需要关注。我就是因为我之前用过,所以这个它没有的话也可以正常用。 所以说今天的这个三个工具的配置基本就讲完了。一个是 tree 添加魔镜里面就可以自定义, 一个是 open code, 在 这里边可以直接连接,还有这个 cloud 就是 改一下配置文件,直接运行就可以, 所以就是今天的这个讲解内容就到这了。

各位小伙伴们大家好,那么今天我们在讲新的这一期视频之前,先对上一期视频中我们的 over setting, 结合我们的 clouding 的 一些配置国产模型中所遇到的一些问题做一个简单的答疑。 那么大多数同学遇到最常见的问题是在配置完国产模型之后无法使用, 那么最大一个原因基本上就是因为你的 code 是 用 n p m 安装的,那么它这个路径在这个插件这里它是检测不出来的,所以暂时不推荐大家用这个 n p m 去安装, 建议大家去用这个另外的一种方式去进行安装。然后另外就是注意在我们这个设置里面,一定要把这个加载用户的 cloud 设置这地方开关给它打开,那么打开之后它才能够检测出来你本地安装的这个 cloud 的 一个模型啊。然后另外就是在配置完国产模型之后, 在这个地方你一定要去可以去尝试开一个新的窗口去测试你这个 dipic 维斯模型,如果还是不行的话,你把整个 oppo c 领先关闭,然后再进行重启,然后再去进行一个尝试啊。那么这是针对上一期视频中呃同学们遇到最多的一个问题, 那么今天我们要讲的是另外一种方式去打造我们的 ai 知识工作台,不过这种方式是免费的哈,是零成本的。那么大家可以看到 在我们上期这个 clouding 里面,它其实已经更新的有一个插件,这地方有 cloud, 还有 codex, 还有我们的 open code, 那 么今天我们要讲的就是 open code 这个 免费的这个工具啊,免费的这个编程工具,比如说他也有定的这个桌面的工具,你可以去 感兴趣的话可以去尝试使用一下,还是非常好用的。他在这个里面去可以去配置我们的国产模型,包括我们今天要用的就是他这个工具所提供的 这四个免费的模型。那么这四个免费的模型在我们这个 open city 的 日常使用中是完全足够我们去使用的,如果不够使用的话,你也可以在它这个里面去进行去配置我们的国产模型。 好,那么废话不多说,那么进行我们今天的实操。那么首先你要想使用这个 open code, 我 们在这之前,你首先第一步一共是三步。 首先第一步我们要去安装这个 node js, 那 么这个 node js 的 话,之前前一期视频中 也已经讲过怎么去安装,不懂的话可以去看我上前几期的一个视频啊。然后第二步就是我们执行一行命令去安装我们的 open code c l i 这个终端工具啊,所以说这么那么这地方 这个命令就是一行命令,然后进行安装。安装完之后,那么上一期在介绍这个 cloding over setting 这个 cloding 的 插件的时候,我们是用这个 brad 去进行一个安装的,但是有很多同学遇到一个问题是我们在这个地方去添加它这个测试版本的这个 open code 的 时候,它容易会显示出一个速度的限制, 那么如果这种方式不行的话,那么我推荐大家用这种开发者模式去进行一个安装,那么这个开发者模式其实跟我们刻定之前的一个安装模式方式是一样的哈,找,首先你要找到你的这个奥克斯定他的一个根目录,然后 在这个里面找到这个插件,插件这个地方你新建一个啊,新建一个这个 open cd open code, open code 的 这个文件,然后把它 该 app 上这个原链接所有的这个项目给它克隆到这个本地里面,然后在这个地方我们执行 cmd 啊, 然后我们再去在这个文档里面,我们去执行 这一个啊,首先是按 install 去安装我们的依赖,然后再构建我们的插件,然后这两个命令 在这个地方执行完之后,他就会成功的构建这个插件,并且会自动帮你安装到这个这个 office 店里面。然后你要做的就是在这个地方找到这个第三方的这个插件啊,然后把它给打开 啊,在这个地方我们把它打开,打开之后,然后你打开之后它这个地方可能会显示不出来。为什么?它在检测你这个本地安装的这个 open code 的 一个 c l c l, 如果你成功安装的话,你在这个地方输入这个 open code, 它是能够去 跳转的话,在这个地方它的使用方式其实跟我们的 code 它是一样的。在这个地方你输入斜杠,你可以去切换这个模型,它在这个里面的模型它是有免费版的, 比如说这上面这几个啊, deepsea vs flash, 还有 mini max、 二点五,还有这两个它们自研的这个模型都是可以去免费使用的,并且它的使用速度还是很可以的啊。那么这是关于这个 open code 的 这个使用方式,那么你这个 open code 的 这个终端安装完之后, 你这个地方插件它就会进行一个自动检测,然后在这个地方我们就可以对它进行操作,跟我们这个 clouding 里面的使用方式是是一样的啊,你在这地方比如说想添加这个 文件,那么这个地方你可以去选择哈,选择你本机智库里面的文件,然后在这个地方你可以去切换模型,然后用它的免费模型,比如说 defc, 维斯,还有这几个模型都是可以免费使用的,在我们这个日常的这个使用方式使用过程中,它是完全足够使用的 啊,那么你也可以去尝试一下这个整个的 open code 的 一个桌面的工具还是非常好用的啊, 感兴趣的话可以去试一下。好,那么这个就是我今天简短的分享这个如何用这个 open cd 结合我们的 open code 去免费的去搭建我们的 ai 知识工作台啊?这个只需要如果你之前安装过这个 node js 或者是呃 这个 node js 的 话,你就可以去,很快的去,最多五分钟可能就会把这个就能把这个 open code 的 话,你就去 呃配置国产模型对不对?这个位置如果你想尝试一下免费版的话,你也可以去尝试一下这个 open call 的。 好,那么今天的视频就先分享到这里,因为最近也比较忙,所以这个更新频率有点低,那么这地方我也攒了很多期的这个想分享给大家的一些, 嗯,很详细的一个教程,只不过没有时间,那么最近可能就有时间给大家录制了啊。好,感谢大家关注,那么如果感兴趣的话,嗯,并且想要去配置这个东西的话,可以一键三连。好,那么我们今天的分享就到这里,谢谢大家。