掐 gpt gpt 五点三 instant 的 更新不拒绝,少废话,别胡扯 over ai 终于开始修性格问题了。很多 ai 公司过去两年拼命卷、参数卷、算力卷、 benchmark, 但用户真正天天面对的,其实是三个非常世俗的问题。 这玩意儿说话顺不顺?敢不敢回答问题?会不会胡说八道?而这次 gpt 五点三 instant 的 升级,本质上就是在解决这三件事。我给你猜一猜这次升级的真正含义。 openai 终于承认, ai 最大的问题不是笨,而是拧巴。过去很多用户吐槽 ai 的 体验,其实不是回答错,而是动不动就拒绝回答,一开口先给你上道德课,说话像企业培训 ppt。 这背后的原因是早期安全策略太紧。比如 gpt 五点二 instant 的 典型回答模式,用户问问题, ai 先写三段免责声明,再告诉你可能存在风险,最后给一个模糊答案。 这种体验就像你去问路,结果对方先说道路交通安全非常重要,我们应该遵守交通规则,你只想知道厕所在哪。 所以这次 gpt 五点三的核心改变,其实只有一句话,减少无意义,巨大加减少收教师前缀。换句话说,让 ai 更像一个正常人。最后,我说点更本质的判断。很多人看到这种更新,会觉得就这感觉没什么大变化, 但我反而觉得,这可能是 ai 产品史上最重要的一类升级。为什么?因为 ai 的 真正竞争力不在于参数规模、 benchmark 成绩,而在于用起来舒不舒服。技术进步像发动机,但用户每天感受到的是方向盘和座椅。 g p t 五点三 instant 做的事情其实很朴素,少说废话,少装老师,少胡扯。听起来简单,但在 ai 领域,这是非常难的工程。 一句话总结,这次升级 open ai, 正在把 ai 从聪明的机器打磨成好相处的人,而这一步,可能比多十万张 gpu 更重要。
粉丝670获赞6385

欢迎收看我是大叔,只说真话,只做实在事,只给实在的干货。各位开发者好,今早刚起床刷完牙,打开电脑,桌面上弹出一条更新提示,一看, openclaw 又推送新版本了,版本号二零二六点四点十一。 这更新来得比闹钟还准时。这次更新的核心亮点有三个,追命命记忆系统全面升级,新增 chat gpt 对 话导入和 memory palace 日记功能,视频生成工具大幅增强, control ui 负媒体输出终于来了。数据方面,这次更新包含九个工作重点,二十二个问题修复,超过十五位贡献者参与。强烈建议大家立即更新体验。 先看追命记忆系统的升级。第一个重要功能, chat gpt 导入。之前 opencloud 只支持导入内部记忆,现在你可以直接把 chat gpt 的 对话记录导进来,系统会自动解析生成记忆片段,保留原始对话的上下文。这意味着你在 chat gpt 里的重要讨论可以无缝延续到 opencloud 的 记忆 系统中。第二个 imported insights 纸标签,之前导入的内容和原生记忆混在一部好,现在新增了独立的纸标签页,所有导入内容集中展示,核心记忆统一管理,一目了然。 第三个 memory palace 日记,之前只有 dream diary 单一式图,现在新增了日记纸标签页,提供可适化记忆供电体验,可以直接在 ui 中检查原聊天翻译页面和完整原页面。接下来是 control ui 和 webchat 的 增强。第一个副媒体气泡渲染,之前 asset 消息只能显示纯文本, 现在 media 指令、 reply 指令、 v o s 指令都可以渲染成结构化的聊天气泡了,还支持新的 n b a d 复述出标签。第二个外,嗯,欠人安全,欠人 u r l 没有保护,现在全部受受配置给控制,安全可控。 第三个, tts 音频持久化,之前 tts 生成的音频不保存,关闭窗口就丢了,现在 a 键串的 tts 音频会自动持久化到 webchat 历史记录中。保留工具卡片的配对关系,生成的音频和混合工具输出都能绑定到正确的消息上。视频生成和平台工具也有重大升级。 视频生成工具之前参数配置比较复杂,现在大幅简化。支持 urlony 生成资产传递 type provider options 参考音频输入自适应比例支持,还提高了图像输入的上限, 视频创作者用起来会更顺手。非输文档评论,之前功能比较基础,现在支持更丰富的上下文解析评论,可以发表情反应,还有打字反馈,文档现成对话的感觉更像日常聊天了。此外, microsoft teams 新增了反应,支持 反映列表、 graph 分 页和委托 oos 设置。不仅是系统,现在支持清单声明激活,描述符设置步骤可以描述化了,认证和配对配置更加灵活。 性能与集成优化方面,奥拉玛缓存优化,之前每次刷新选择器都要重复获取模型信息,现在缓存了 api 秀的上下文窗口和能力,原数据重复刷新,不再重复获取。 同时保留了空想应用式和替代式的变化失效机制。 models 和 providers 诊断,增强 o n n i 兼容 ai 端点的分类信息,现在会 surface 到日制中,方便诊断本地和代理的路由问题。 q a parity 报告新增了 g p t 五点四和 opus 四点六的 a ject parity 报告,包含共享场景覆盖检查和更严格的证据启发式验证。这次还修复了二十二个重要问题, open ai codex ooth 问题, 之前新用户登录报 in veliscope 错误,现在停止重写 up to url 的 scopes 问题解决。 macos talk modi 之前首次授权后需要手动二次切换才能启动,现在授权后直接继续,无需额外操作。 telegram 话题绘画,之前始使画路径有 bug, 现在修复了话题 scope 的 绘画出使画逻辑 a 键 spelfore 之前错误会记成历史记录,现在作用域限定在当前,尝试不会再串号。 conferkey 配置,之前 i think completion 报啊 unrecognize key 错误,现在 zelda 码已包含该配置。向 google view 之前发送了不支持的 request 置断导致失败, 现在停止发送该这段视频生成恢复正常。还有更多修复详细内容请查看 get up release 页面。说完了功能,再讲讲怎么更新。推荐使用 apple update 命令,这是最快的更新方式,它会自动检测你是 n p m 安装还是 get 安装。获取最新版本运行健康检查,然后重启网关。 如果想切换频道或指定版本,可以加加参数,比如 openclaw update channel beta, 或者用专人预览而不实际执行。更新分四步,第一步,运行更新命令,输入 openclaw update 或者 openclaw update channel beta。 第二步,运行健康检查,输入 openclaw doctor, 这会迁移配置审计 dm 策略,检查网关健康状态。第三步,重启网关,输入 openclaw gateway 为 restart。 第四步,验证安装输入 openclaw health or openclaw version, 确认版本号正确一条命令搞定 openclaw update and and openclaw doctor and and openclaw gateway restart。 如果更新后遇到问题,回滚方式是先用 m p m i 的 openclaw act 指定版本,然后运行 openclaw dot com, 最后 openclaw gateway restart 即可。好了,总结一下,先回顾一下本次更新的六大要点,第一, dreaming 记忆系统 chat gpt 导入功能 imported insides is 标签 mary palace 日记第二, control u a i。 负媒体气泡渲染,外部嵌入安全控制 t t。 反新品持久化第三,视频生成 u a, i, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o。 models 和 provider 诊断增强 qa parity 报告第六, buck repair code o or the mac os talk lock mode telegram 话题绘画 agents fell over 总体数据 open call 二零二六点四点十一包含九个工作重点,二十二个问题修复,超过十五位贡献者参与。立即更新,体验新功能吧! 感谢所有贡献者的辛勤付出,如果你觉得这个工具对你有帮助,欢迎关注大叔大,感谢观看,咱们下期再见!

三个命令解决 openclock 更新难的问题每次发 openclock 更新的视频评论区最多的就是升级翻车的评论。升级 openclock 其实很简单,大部分的时候只需要三个命令就可以搞定。第一个是 openclock update, 在终端里面输入这个命令,它会启动自动升级程序。相比直接点击浏览器上的 update 按钮,这种方式最大的好处是你能够直观的看到升级是否顺利完成及过程中有没有报错, 这是排查问题的基础。所以我建议大家尽量使用命令来升级,而不要使用浏览器上的按钮。第二个命令是 opencloud doctor, 如果升级完成后发现 gateway 起不来,网页也连不上,那么记住使用这个命令,它是 openclaw 内置的自检工具,为主项检查配置有没有问题,而且加上一个参数 fix, 它就能够自动修复所有它能修复的问题。 大部分情况下,运行一次 openclaw doctor, fix 问题就可以解决了。那么第三个命令就是 openclaw t u i, 这个呢,其实是 openclock 内置的终端交互工具。很多人以为 openclock 没有 tu, 这其实是个误解, 打开 tu 之后,只要 get away 是 正常启动的状态,你就可以把错误的信息呢直接粘贴进去,让 ai 帮你分析问题,然后处理问题。 比如说某个插件导致的问题呢,他就可以帮你直接修复或者卸载掉那个插件,然后自动重启,整个过程当中呢,你也只需要确认就好了。那么总结来说呢,第一步,用 update 完成升级, 第二步用 doctor 来检查和修复配置。第三步呢,用 t u i 解决掉那些他能够自动处理的插件和兼容性的问题, 三个命令配合使用的绝大部分的升级问题都能够解决。而且需要注意的是, doctor 他 本身不消耗 token, 只有在 t u i 里面让他帮你修复的时候,你才会用到 ai 的 token。 所以呢,这个其实也是比较省 token 的 一种方式。关注我,教你更多养虾实用技巧!

哈喽,大家好,这是最近很火爆的一个项目,号称能让前任回到你身边的 askill, 今天给大家录一期怎么使用它,并且接入微信的教程,可以实现这种效果,让你在微信里和他对话。 这个教程适合零基础的小白,就算你没有任何开发经验,只要照着做就能实现。并且我将这个教程做成了一个详细的飞书笔记,有需要的可以去我的粉丝群里拿。 首先我们要知道这个前任 skill 可以 接入许多 a 层的工具,比如 openclaw, cloud code code 等等,但是唯一能接入微信的只有 openclaw, 并且 openclaw 是 最合最适合普通人使用的工具,所以我们的教程都以 openclaw 来实现。 我们先看一下都需要什么东西。首先你需要安装 openclaw, 如果你没有安装的话,可以去看我的第一期视频。然后是这个微信聊天记录的导导出工具以及前任 skill 的 文件库, 不过这些东西都是外网的,如果你没有外网环境的话,可以直接在我的飞书笔记上下载。 安装好 openclo 后,我们开始配置这个 skill, 下载这个前任 skill 库便解压到 openclo 的 skill 目录里,这里你需要看一下你的 openclo skill 目录在哪里, 比如我的就在这个 c 盘找到用户,找到你的用户名,我的用户名是井,再往下滑,找到这个点 openclo 目录, 然后再找到这个 workspace 目录进来,进来后再找到这个 skills 目录,这里就是存放你的 skills 的 地方,然后你把那个 skill 解压到这里就可以了, 解压之后你的 open globe 就 拥有了这个技能,我们直接来到和 open globe 的 对话窗口,给他发送这个斜杠 create ex 命令,这里有,他会问我们三个基础的问题,你如实回答就好了,然后他会问你。导入聊天记录, 我们可以导入微信聊天记录, qq 聊天记录,社交媒体内容照片或者直接口述都可以。这里我们就直接使用微信聊天记录,因为这是信息量最大的地方,想要获得微信聊天记录就要用到这个微 flow 工具, 找到你要导出的聊天记录, 然后可以按照我这样子配置导出格式,使用 txt 文本时间范围你可以根据自己来选择,我这里选择了一年的聊天记录, 然后如果你们语音发送的比较多的话,可以把这个语音勾上,然后再选上语音转文字 导出完成后,在任务中心点击这个目录按钮,就会来到这个文件夹,点击这个 text 目录,这个私聊文档就存放着你们之间的聊天记录,然后我们右键点击它复制文件地址, 告诉 openletter 你 们的聊天记录地址,然后他就会进行分析,分析完成后可以看到这么一个摘药,然后如果你确定没有问题的话,就直接让他生成就好了,可以看到这里已经创建完成了, 这个就是调用他的命令,给他发送这个命令,就可以开始和他聊天了。 然后现在来到最重要的一步,就是给它接入微信,我们点击这个开始菜单栏,在这里搜索,搜索 cmd 啊,就是这个命令行提示符, 然后去复制这个命令 粘贴回车,然后它就会开始安装这个插件,不过我这里已经装过了,我就不再演示了。 呃,然后这里有一个问题,就是它可能会提示安装失败,那是因为这个有速率的限制,你多试几次就好了。然后它安装完成之后,它会出现一个二维码,你扫码之后就可以把 oppo nano 添加到微信里,后面就可以在微信里和它聊天了。 你每次要和它聊天的时候给他发送这个命令,然后就实现了这样的效果。 啊,那这个教程到这里就结束了,我会将这个飞书笔记放在我的粉丝群里,有需要的话可以来我的粉丝群自取。

当前 openclo 的 痛点, token 限行爆炸,新绘画忘掉昨天解决过的 bug, 装了几十个技能模型,选不对。我们实测七轮对话, token 从一点五万涨到九点五万, 消耗增长六点四倍。阿里最新论文 skill router 解释了一个问题,技能池越来越大,光看名字和描述,选技能基本靠猜,完整代码才是决定性信号,但技能选对只是第一步,对话越来越强。 token 爆炸,新绘画忘掉上次解决过的问题, 这些怎么办?来看 graph memory, 一 句话,一个 open class 上下文记忆插件,把对话自动提取成知识图谱,压缩百分之七十五的 token, 还能跨绘画。记住之前的经验,它做四件事, 第一,主动知识蒸馏,不等上下文爆炸才压缩对话过程中实时提取三元组。第二,持续图谱加双层召回,不是,通过社区剧类和 page rank 精准找到最相关的知识。 第三,个人知识资产,你的知识图谱存在本地 sq lite 里,换设备只需导出一个文件,数据属于你。第四,知识白盒,它能看到每个知识节点关系,让记忆不再是黑盒。 插件源码已经在 get 不 开源,我们结合源码一起分析它的数据流泉炼录一条消息从进来到下一次绘画被召回,经过五个阶段, 打开 index t s 文件。第一阶段,每条消息进来,直接存 s q like 数据库,零 l l m 消耗。 第二阶段,组装上下文,把图谱节点生成 xml, 注入系统提示词,同时裁剪进轮对话也是零 l l m。 第三阶段,每轮结束后一步提取三元组,每 n 轮跑一次,配置 rank 和社区检测, 这里需要 a l a m, 但不阻塞用户。第四阶段,绘画结束时, evant 提升为 skill, 然后跑全量维护去重 page rank, 社区检测加摘药。第五阶段,下次开新绘画时,双路径并行召回, p p r 排序后注入上下文,这就是它的数据流泉炼录。 下面我们来看它的核心机制,四层锁影加三层召回。先说四层锁影,就是它存知识的四种方式。第一层,向量锁影,你问一个问题, 它把问题变成向量,去搜语义最接近的知识,搜不够就补关键词,权威搜索。第二层,社区锁影,举个例子, 比如你这两天一直在搞 docker 部署,装镜像,改配置,调端口,这些知识会自动聚成一个 dok 社区,你问前两天做了什么,关键词搜不到,但社区能找到。第三层,进轮对话,最后一轮完整保留,包括工具返回结果, 前面两到五轮只留用户输入和 ai 文本回复。第四层,溯源片段,排名最高的三个知识节点,会附带当时的原始对话,让 ai 不 光知道结论,还知道当时是怎么得出这个结论的。再说三层召回,就是找知识的时候怎么找?举个例子,你问安装 m c p 出错, 第一层,精确找,直接搜到上次安装 mcp 出错时记录的那个节点,然后顺着这个节点的关系往外走,发现同一个社区里还有一个 npm 代理配置的节点, 可能也有关,一起拿出来,最后按配置 rank 排个序,最相关的排前面。第二层,模糊找,假如你的问题比较笼统,比如最近解决过什么问题,精确搜,搜不到, 这时候他会把你的问题和每个知识社区的家要做匹配,高客社区匹配度高,就把这个社区里的 top 节点拿出来, 两层同时跑,精确的结果全要模糊的结果去重后补充。第三层合并注入两条路的结果合在一起,按相关性排序 塞进系统提示词里给 ai 看。简单说就是能精确找到的精确找,找不到的模糊找,两条路同时跑,最后合在一起。实测数据,七轮对话,安装 m c p 工具加登录加查询 无插件 token 从一点五万限性增长到九点五万,用了 graph memory r 四开始 token 就 稳定在二点四万左右,不再涨了,压缩率百分之七十五。安装配置演示原码在 get 部开源 m i t 协议 插件已经上架科乐 hop, 直接在科 hop 上搜索 graph memory 就 能找到我们的插件。安装就一行命令,我的 openclaw 是 三点二四,目前最新版本,执行安装命令,等待插件安装完成, 然后执行命令检查 安装成功。步骤二,激活上下文引擎,这是容易漏掉的关键步骤,不设的话插件装了也不会工作。打开 opencloud json 文件,找到 context engine 部分, 复制视力代码,替换原来的这几行,然后填入 l l m 模型和嵌入模型的 a p i 和 u i o r, 保存后配置全部完成。如果大家想学习原码,可以去 get 部上克隆项目文件,顺手点个三二,希望本期视频对您有所帮助,我们下期视频再见!

opencloud 刚刚发布了二零二六点三点二二,这次更新呢,只有两个字,暴力。首先呢,我们可以来看到它的模型默认呢,已经支持了 gpt 五点四,而且呢,也可以在五点四上面保持 codex。 然后呢, mini max 也来到了二点七的版本,生产力直接拉满。但如果你不看更新日期就盲目升级,那么你的插件可能会全部停摆。 首先,官方正式推出了 cloud hub, 现在的插件安装就会优先走官方的原,而不是回退到 npm。 更狠的是,老旧的 motoboot 文件夹彻底作废,会全部迁移到这个 opencloud 的 目录下面。所以呢,升级后的第一件事,务必运行 opencloud dr fix, 否则呢,你的浏览器控制和旧版插件会集体罢工。这次更新呢,最懂开发者情绪的功能出现了,斜杠 btw, 侧边提问,以前在常会话里面问个常识题呢,会污染整个上下文,现在直接输入这个小命令 秒回答,而且不占塞省的内存。另外呢,安卓节点现在也支持搜索通话记录和短信了。 你看,你的 ai 代理终于能像个真正的私人管家一样帮你看看谁给你打过电话了。然后呢,作为安全老兵,这次必须给这次的 sandbox 点赞!更新这个版本呢,分堵了 glibc 的 哎,在这分堵了 glibc 调优利用和 jvm 注入漏洞,连 windows 下的远程 smb 频剧劫持都被毒死了。所以现在呢, open cloud 正在从一个好用的工具变成一个安全的防御堡垒。 代码要写的优雅,环境要跑得更稳,还没有升级的兄弟赶紧可以尝试一下 update 命令或者 npm 命令去把它升级到最新的版本。好,我是一轩,想看更多硬核玩法吗?关注我,带你真的用 ai。

大家好,今天给大家演示一下菲林的泊泊的。嗯,配置方法。嗯,这个,嗯,菲林的泊泊安装挺简单,就是在应用中心中。嗯,点安装就行了。我这个已经提前安装好了,它这个安装的时候会提示安装两个插件先。嗯,然后再安装。 然后我这个菲林是刚装的系统,里面也没什么数据,用的是惠普那个 t 四三零的那个小主机,能用菲林装主要是因为这个安装门槛非常低。 嗯,咱们下面打开这个 windows, 然后,嗯,再打开外部页面,大家可以看见这很轻松的就打开了,不像像其他的那个安装方式,还需要配置一下才能打开这个。嗯,外部窗口,这都是飞牛都提前配置好的。嗯,我们来使用就可以了。 所以说安装的口很低嘛。这个飞牛的配置主要就两项,这个模型配置跟消息渠道。咱们先配置一下模型,咱们这是选择自定义, 然后这个选择模型名称,咱们可使用的是。呃,轨迹流动的那个服务,需要大家先注册一下。呃,这个有两千万的那个免费 token, 而且模型广场中就是目前的主流模型都有,大家可以随便选择使用,我们选择这个 mini max。 二点五来演示,复制一下它的名称,粘贴到这下面,这里是添加那个。嗯,轨迹流动的服务地址,咱们到这个轨迹流动这去复制一下, 然后回来,然后粘贴。嗯,然后再往下这个地方就是需要配置它的认证密钥,就是 api 密钥。嗯,咱们也复制一下,然后再返回来粘贴。 哎,怎么不能确定?哦,上面这块是啊,上面这块要点击添加,然后再点保存,这样模型就添加成功了。嗯,然后下面需要去配置一下。呃,消息渠道,这个需要等它刷新一下,它这个默认是已经安装了飞书, 我们这次是,呃安装一下微信,这里直接点装安装微信就可以,这里需要大约等个两三分钟吧。嗯,他安装好了,我们就,嗯添加一下,扫一个二维码就可以使用了。 这个安装微信,有的小伙伴们可能会呃提示安装错误,呃,安装好几遍都是提示错误,这个时候大家可以刷新一下状态,它有可能已经装上去了,但是吧,呃,你扫码进入微信之后,呃说话,嗯,这个 openclaw 没有反应, 这个时候大家需要去把那个,呃,嗯,就是微信中那个插件里有一行这个微信机器人的代码,复制给外边端的那个聊天窗口,让龙虾自己去安装一下。啊,这样你就可以在微信跟龙虾进行对话了, 然后提示安装完成。啊,我需要重启一下才能使用。嗯,咱们先点那个添加渠道,嗯,渠道类型选择微信,然后生成二维码, 然后拿手机来扫一下这二维码,然后添加一下那个微信机型就完成了。好,我打开。

登录官方地址, win 加二,然后输入 power shell, 找到安装命令,复制粘贴进 power shell, 回车执行后开始等待。 放心, node 安装成功,开始配置。方向键选 yes, 选 quick start, 建议选择即将使用或者正在使用模型选择,跳过以后后续不会生成 api 文件,会复杂一点。 这里我用的 minimax, 我 选择一下,选择对应模型型号, 这里可以配置连接软件,后续也可以配置先跳过 用于搜索的模型选择,我这里跳过 是否安装技能,后续再安装。 建议选择 command logger, 方便查错 session memory 保持对话记忆。空格键选择回车确认。 最后一步选择 open library, 龙虾就安装完成了。 因为我没有前面输入 key, 所以 这里你可以直接告诉龙虾你的 key 进行配置。 等待龙虾自己配置一下, 龙虾表示已经配置完成, 整体安装结束,测试一下 搞定。

为什么别人的 open klo 像超人,你的却像复读机?这是大神偷偷在用的保姆级管理工具,一天一个强大工具第十八期,今天要讲的是, 他能让你一键管理小龙虾所有的复杂组建。现在一个格式化后台全搞定,不光能实时监控运行状态,出错了点一下就能自动诊断修复。更离谱的是,不管你装了多少个模型,都能一目了然。秒级 切换,连对话记忆也能直接管理。小龙虾,不听话,你手动给他改记忆。最核心的是,不用再忍受官网的频率限制,直连国内镜像库,点点鼠标,想要的 ai 技能瞬间安装。

今天我想分享一下我的 open cloud ai 分 身系统,它能够把你和龙虾的任何对话和任务,所有你感兴趣的文件、文本和网站,都自动地,智能地沉淀为 skills, 真正做到龙虾越来越懂你,越用越好用。借助 opd, 你 可以可以看到和修改所有沉淀的知识,让每次对话,每一个收藏都变成有价值的内容和知识体系。 那么这个视频我们会首先看一遍完整的效果,看一个个真实的输入是如何一步步变成长期的记忆以及 skills 的。 然后呢,我会说一下它如何安装,如何使用,最后我们一起说一下它背后的工作原理和如何定制好的。废话不多说,我们开始,接下来我们看一下完整的效果。 这套记忆系统有两个完整的入口来进行输入,第一个入口就是不论你用任何的聊天软件和你的 open cloud 的 日常对话和给他的所有任务。 第二个入口就是这个桌面上的盒马,我们呀,可以把文件拖进去,也可以直接复制粘贴一段文本或者一个网站的网址,它呢就会帮我们存到我们这个系统里面去, 所以我日常跟 open class 对 话都会推荐到系统里面去,比如这里我让它总结啊 serbian 这篇文章,那么这是第一个入口,第二个入口就是这个张开嘴巴的盒马,你可以给他 pdf, 可以 复制过去一段文本呢。这里呢,我给他一个网页的链接,就是我视频一直用的思维导图软件, 复制网站的链接之后给他,他就会吃掉这个内容,进入我们的系统,我们可以看到思路啊,是来自于 jobbox, 只不过我们是进入自己的系统,而不是去上传到云端了。而这一步非常重要,因为啊,真实的工作不只有对话,很多高价值的信息是来自文本、网页和收藏,这也就是这个盒马存在的目的。 看到会一直在我们的屏幕的这个角落,你可以调到他的位置,也可以关掉他。不论是在浏览器工作,还是在别的软件工作,都可以随时随地把资料给他。整个系统的记忆啊,分为好几层,在我们和 open call 对 话完之后,或者你把文件网址给到盒马之后呢,这些文件资料或者是对话就会来到第一层, 来更好地查看和编辑所有 macdunk 文件。这里我用了 obsidian 这个开源的笔记软件,你没有用过没关系,因为所有的操作 obsidian 的 操作都是 agent 来完成的,我们只是用来看和改。我还专门做了这样一个 welcome 欢迎页面,里面有着我们日常使用的时候需要看的几个网页,其实也不多, 从上到下就是我们整个系统慢慢沉淀的过程。系统的最上层啊,就是这个 main take 页面,这也最简单,用来收取信息,刚好未进去的这些资料啊,就会被系统首先接到。这里 可以看到系统已经把这些输入分成了 task 任务, decision 决定 content candidate 用来做内容,一些材料, its, research, material, 参考资料等等不同的类型, 也就是说它不是原样的堆砌,已经开始做第一次的分流了。比如这里,我们可以看到刚才给河马的网页链接和我们刚才 open cloud 的 对话,它总结的内容 main take 仅仅是接触信息不等,已经变成长期的知识了,里面的东西呢,很多还是原材料,比如刚才我们说的分类度还比较散, 那么从 maintake 出发,系统会判断它到底值不值得继续往下沉淀。如果值得,它通常会被挂到更正式的 markdown 文件里面去。比如这里我们展示的这个内容数的 project decision 和 content angle 的 下面的所有的 markdown 文件,它们呢,都是真理国的正式页面。 然后大模型会从这些更有价值的页面里面挑出真正值得长期保留的部分,提炼成后选的基液。这些后选基液啊,首先会被显示在 mainmemory distillation queue 等待内容的蒸馏。先说明一下,这里的蒸馏不是大模型训练里面的模型蒸馏各像是一种内容的提炼。我们来到这个页面,这个页面呢,就是把之前整理过的正式内容,刚才也说了,再往下压一压,提炼成更短更清楚,更适合长期保留的后选基液。 对这一页的内容都是后人,我们还要经过下一步的蒸馏和筛选。那么你可以看到这里有不同的内容。这里呢,你可以手动的审批,有四种选择,分别是你同意合并和其他的之前已经有的长期的一些记忆进行合并 升级。所谓的就是覆盖之前有的旧内容,用这个新的内容进行覆盖,或者是直接丢掉。那么如果你什么都不做呢,系统会自动判断,这也不用担心 这些内容啊,一旦审批通过,就会进入后面的长期记忆系统,但是呢,进入长期系统并不代表着这个记忆会变成最终的 skills, 只有系统发现某一种做法反复出现,反复有效的时候,才会把它升级成我们 open cloud 里面可以反复使用的 skills。 那 养出来的 skills 可以 在 main skill pack 这个页面里面看到也可以看到啊。这里列出来的都是系统已经比较稳定的会做的几类的事情, 比如说内容蓝图的生成啊,项目审查与证据回路啊等等。你可以看看每一个能力呢,都会说它可不可靠, 主要解决什么问题,以及什么条件下能够触发这个 skills。 那 最重要的是,这些能力还不只是停留在 obsidian 里面, 它呢还会继续被发布成 openclaw 原生的 skills。 刚才我们也说到了,比如这里,我们直接去 openclaw 的 文件夹,然后在 skills 目录下面可以看到,比如这 comptube 这个我制作内容的蓝图,这个 skill 已经在我日常和 openclaw 对 话过程中自己养出来了。那这里呢,我们就真正地把知识变成了 openclaw 能调用的行动能力。 最后,这套系统也是可以定制的。为此你并不需要专门先理解整个内部的结构,你只需要告诉它五件事情, 第一,你最希望他帮你处理哪些事情?第二,你最希望他长期留下哪些内容?第三,你最不希望他老记住哪些内容?第四,你现在最常做的重复工作以及最后。第五, 你希望他以后越来越擅长什么。我也准备了这样一个专门的提示词,把这几项填进去,就可以让系统慢慢的往自己想要的方向去沉淀和生长。 最后我说一下就是 macos, 你 要是用这个项目的话,所有的功能你都可以用,但是 linux 这个桌面的盒马,这个桌宠,这个入口你现在是不能用的,还不支持。那么欢迎大家去 t e 秀和 pr, 那 么我们这期就到这里,我们下期再见。

今天我们来聊一个大事,就是开源 ai 助手 open claw 在 二零二六年四月的一次重磅升级。这次更新啊,可以说就是冲着咱们平时用 ai 最头疼的几个问题去的。 哎,你有没有过这种经历?你好不容易跟 ai 聊了半天,把你的各种习惯偏好都告诉他了,结果呢?第二天他就跟失忆了一样,忘得一干二净,是不是特别抓狂, 对吧?这还不算完,现在 ai 越来越能干,我们让他接入生活,接入工作,你心里会不会也犯敌过这东西?它到底安不安全?我的数据会不会有风险? 别急,咱们今天聊的 open cloud 这次更新就是来正面解决这些问题的,他朝着一个更懂你,也更安全的 ai 助手迈出了一大步。 好,咱们就按这个路线图来看看这次更新到底牛在哪?先看他怎么学会记忆, 然后聊聊模型怎么自己说了算,再讲讲安全性的加固,还有创造和连接能力的提升。最后总结一下,为什么说这次更新意义重大。 来,第一部分,咱们就来解决那个最大的痛点, ai 的 金鱼记忆, openclo 给出的解决方案叫做主动记忆插件,你可以把它想象成给 ai 外挂了,一个记忆增强模块,一个专门负责记事的斜处理器。 关键是啥呢?关键是他全都是自动的,你不用再说喂,记住这个,他会在后台默默地学习,默默地记下你的偏好。你们聊过的人和事,就像一个真正的助理一样。 你看这个对比简直太明显了,左边呢,就像个啥也不知道的实习生,问你吃啥,而右边呢?这才像话嘛!他记得你同事的过敏情况,记得你们团队的口味偏好,这一下就从一个冷冰冰的工具,变成了一个贴心的伙伴。 而且啊,为了防止这些记忆是短期的,它背后还有一个叫梦境的系统。 这个系统呢,就像我们睡觉做梦整理白天的记忆一样,它会定期把你们的日常聊天整理沉淀成真正牢固的长气知识。 好了,记性变好了,那 ai 用的是谁的大脑呢?这就到了第二部分,一个非常关键的升级,现在你可以自己决定给 ai 装个什么样的大脑。 这次更新,一口气加了三种新选择。比如说,你是程序员,那可以用 codex 来帮你写代码。如果你更关心隐私,可以用 lm studio 连接你自己部署在本地的模型。甚至用 mac 电脑的用户,还能体验在设备上直接处理语音的实验性功能。 这一点真的太重要了。这意味着,你可以让强大的 ai 完全在你自己的电脑上运行,所有数据都不用出门,你的隐私和控制权都牢牢掌握在自己手里。 当然了,能力越强,责任越大,安全就必须得跟上。所以,第三部分,咱们来看看 openclock 是 怎么给这位越来越聪明的助理穿上防弹衣的。好,咱们来看安全这一块。 这部分可能听起来有点技术,但其实道理很简单,你看这几个威胁,像什么? s s i f、 rados, 听着挺吓人是吧?简单说,就是黑客用来攻击系统的几种花招。 那 openclaw 呢,就像是见招拆招,给每一种攻击都打上了专门的补丁,把这些安全漏洞一个个都堵死了。 这句话说的特别好,也点出了这次更新的核心理念,安全绝对不是一个可有可无的附加功能,它是你敢不敢信任,敢不敢把重要任务交给 ai 的 基础。 ok! 除了脑子更好使,也更安全了之外, openclo 还变成了一个更好的创意工具,并且能更无缝地融入到我们日常的沟通里。 他的视频生成功能现在变得更灵活了,比如说,你可以扔给他一段音乐,让视频的风格和音乐匹配。想做个发社交媒体的竖屏短视频没问题,各种比例都能自定义,而且能用的图片素材也更多了。 同时呢,它和你平时用的聊天工具也结合得更好了。像在 telegram 里,它能听懂你们群里不同的话题。在非书里,它能在文档、评论里进行更智能的互动,体验都变得更流畅、更聪明了。 好了,说了这么多细节,咱们最后退一步,从一个更高的角度来看看,所有这些更新合在一起到底意味着什么。这次升级啊,绝不是简单的加了几个功能而已,它是一次根本性的进化。 你看,无论是在记忆力、用户控制权,还是在基础安全方面, open cloud 都实现了一次巨大的飞跃,彻底告别了过去那种基础聊天机器人的形态。 所以,如果要用一句话来总结,那就是 openclaw 正在从一个你用的工具,变成一个真正懂你、保护你,并且深度融入你工作流的 ai 伙伴。这就给我们留下了一个非常值得思考的问题, 当 ai 真的 有了长期记忆,又足够安全可靠的时候,我们跟它的关系还会是简单的下达命令吗?还是说我们将迎来一个和 ai 并肩作战,真正合作的新时代呢?

别再盲目跟风爱马仕龙虾了, open core 创始人 peter 在 四月十四号当天进行了史诗级的更新,直接跟爱马仕划清赛道,正面迎刚。那么这次到底更新了什么?有什么样的优势?一条视频给你讲清楚。 第一,记忆系统炸了,支持切尔的 gpt 对 话历史,一键导入记忆供电导入洞察双标签跨平台经验无缝迁移,再也不用重复为 ai 背景 dream 重复记忆问题,也收复了爱马仕引以为傲的记忆优势,感觉荡然无存。 第二,视频生产力直接拉满,新增 u r l o 令交付生成,直接出链接,不占内存,还支持参考音频,支持宽高比,做短视频广告的直接起飞。 第三,安全权限大升级,补了 cameras 的 路径漏洞 s r f 的 风险,新增的 policy 的 命令终端直接管 ai 执行权限,安全问题又上了一个台阶。 除此之外,还有飞书 teams watts 全平台的修复,插件开发更简单,启动更快。那么爱马仕更适合个人玩家常签,喜欢智能陪伴的人, 但不适合平台联动,他的批量生产力低。相反, open core 才是内容运营搞钱的利器。那么到底是僵着老的辣,还是出生牛犊不怕,咱们评论区见,想要具体教程的,可以在评论区扣大更新,我会发教程给你。

openclo 一 键接入微信,只需要两分钟就可以搞定。今天很多人都在传说,呃,微信也可以接入龙虾了,但是很多人看微信插件里是没有的。今天呢,我用腾讯云给大家演示是如何直接咱们从云端去接入到龙虾到自己的微信里面。 咱们进入服务器以后呢,在这里有一个立即升级啊,专门的微信通道,咱们直接点击升级,这个时候呢,咱们只需等待它升级完成 好了,更新完成以后呢,这里显示是新版本,然后这里呢咱们选择微信,然后呢点击全网授权,然后用咱们的微信扫码就可以了。 好了,这样就接入成功了,就是这么简单,然后给大家演示一下我的使用。

今天给大家推荐一款与 openclaw 绝配的效率神器 c c switch, 这款工具在 github 上以狂揽四十 k star, 支持一键切换多种大模型五大核心功能,让工作效率翻倍。第一个,多平台可适化管理,同时支持 cloud code codex、 gemini、 open code 和 openclaw 五大平台。第二个,一键添加 api key, 选择模型供应商,填入 key 即可完成配置,主界面一键起用自由切换。第三个, skill 格式化管理,清晰展示所有已安装 skill 及介绍,支持删除与添加。第四个, m c p 一 键托管 cloud code 等 ai 编程工具,快速接入 m c p 服务。第五个,历史对话格式化,与 open cloud 的 所有记录都可以查看,恢复或者删除功能全面,操作直观,让你的 ai 工作前所未有的顺畅。

兄弟们,欧根可乐又更新了,这一次啊,我真的建议你还是认真的听一下,因为他干了一件很关键的事情,就是让 ai 开始夜间自我进化。什么意思啊?就是你白天跟他的所有对话,他晚上会自动帮你做三件事情, 筛选、打分和沉淀,甚至呢,还能总结出自己的一些想法和建议。说白了,他不只是陪你聊天,他开始帮你成长了。 但我得跟你讲一句更现实的哈,因为我见过太多老板天天用 a s 写内容,做小本,问问题用的很勤,可结果很一般。为什么呢?因为每一次都在重新开始。我之前呢,有个做教育的学员,每天让 a s 写十条短视频, 写了两个月,账号还是没有转化,问题不在于内容不够多,而在于没有积累。 后来的话,我这边就帮他做了一套 ai 加 ip 的 内容结构,包括用户的问题库,选定逻辑、转化路径,然后我们再去配合 ai 把它给放大。所以结果是怎么样的呢?就是同样是用 ai 哈,但是内容开始有方向,用户呢,也开始留言了,线索也进来了。所以说,你看明白没有, open 可乐这次再解决的是 ai 如何记住和进化,但你真正要解决的呀,是你有没有一套能让 ai 帮你赚钱的系统工具在升级,但大多数人哈,还是在原地用旧思路。

二零二六年最火的 ai note 莫过于 openclock, 无论是为了提升工作效率,还是为了感受一下 ai 的 能力,很多粉丝都想养上一只自己的龙虾,但对于 ai 的 智能体、大模型、 skill 等等 ai 产品的概念, 以及各种环境和复杂的部署配置望而却步,尤其是对于毫无 it 基础的小白,可以说是无从下手。本系列视频将通过傻瓜式保姆级的教程,手把手的教你养上一只自己的龙虾, 那么我们开始我们的养虾之旅。欧文科罗到底是什么?它是一个本地私有网关,作为连接你的常用聊天工具与强大 ai 智能体之间的桥梁,让你随时随地在口袋里与 ai 交流。 你自己的硬件,自己的规则无缝集成多平台,完全掌控你自己的数据。 为什么要选择部署独立网关?传统 ai 大 多只能通过浏览器访问,当然豆包鱼也有 app, 也可以通过 app 访问,但数据都锁定在云端,受制于平台,且是单一对话模式。 而 openclip 深度切入了像海、国内的飞书等你每天都在用的 app。 国内相对来说集成度、应用度最好的还是字节的是飞书,本系列视频也会有一期飞书接入 openclip 的 教程。 本地四有部署,意味着数据在你自己的机器上完全由你自己控制。它支持多智能体路由,不再是单一对话,而是可以携同多个智能体一起写作。还有一个最重要的特点,它解决了 ai 的 记忆,传统 ai 是 没有记忆的, 每次对话都得重新开始。一张图看懂 open core 架构,它是连接社交软件 ag 的 和 ai 的 桥梁部署前准备一、 node 节约死环境,推荐版本 node 二十四,或者至少是 node 二十二点一,四级以上版本。 二、准备好你的大模型 api key。 海外的大模型目前体现在最好的是 cloud opus 四点六,其次是欧盟 ai 五点四,洁面率三点一。但海外的模型需要复杂的魔法,不建议小白去折腾。 建议先使用国内的大模型,先把龙虾刨起来。国内的像 mini max 碎金的二点七,智普的 g l m 五, kimi 二点五,包括阿里千万三点五都可以用。我觉得这几家厂商的大模型其实都差不多,国内的各厂商都有包月订阅, 价格从几十到几百都有,新手可以先用最低配的订阅体验一下阿里百炼平台,如果是新注册开通的用户,可以有一百万托克免费额度,白嫖本视频也会使用阿里百炼接入千万三点五作为教程参考演示。 最后请你拿出五分钟时间来完成小龙虾的部署。注册完阿里云账号,登录阿里云百联平台,如果第一次登录的话,他会让你开通阿里云百联平台,开通完后会享有一百万透坑的免费额度,三个月有效期。你在模型用量这里可以看到额度余量, 这里不只是千万三点五,还有其他的模型,它的一些模型都是有一百万的 token 免费的额度。开通后你需要创建一个 api, 这个是按 token 用量收费的, 也就是会用你阿里云的余额去扣费的,有多少用多少,通常比较划算的方法,且是安全的方法,是订阅 cookie play, 它在一定时间内是限额的,你不用担心会因为某个问题而导致 token 账单爆炸。 阿里云最便宜的是四十元每月的新手足够用了。注意的是, codingplay 的 api key 与按量付费的 key 是 分开的。阿里的 codingplay 还有一个好处就是它除了支持自家的千问模型外,还支持智普 kimi mini max 的 模型。 我这里以按亮付费的 key 做演示,你们可以自己按需选择。如果是 codingplay 的 key, 在 开通订阅后,在我的订阅下可以拿到专属的 api key。 按亮付费的 key, 需要在单独模型下的 api 可以 创建。点击创建 api key 描述随便写,点击确定。 这样我们 k 就 创建好了,把这个 k 复制下来,以被后续配置大模型使用。接下来我们要去安装 node js, 首先打开 node js 官网到下载页面,然后选择二十四点一四点一这个版本。 小龙虾最好是装在 mac mini 环境,有什么好处?大家可以去看我的置顶视频,但小龙虾也支持 windows 和 linux 环境,只是 windows 有 些 skill 不 支持或有一些坑。但是对于绝大多数的新手小白来说,家里的电脑都是 windows 的, 所以我这里以 windows 环境演示大家点击下载 windows 安装程序。点击安装 node js, 按照向导一步一步直到安装完成。按 ctrl 加二,输入 cmd, 打开命令行,在命令行输入 node 杠 v, 查看 node js 版本。如果是出现了 v 二十四点一,四点一,那说明安装成功了。 输入 npm 杠 e, 查看 npm 版本。如果是低于十一点一一的这个版本,那你需要输入命令更新最新的版本。你可以输入 npm install 杠 g npm at latest 升级最新的版本,然后我们开始安装小龙虾。 输入 npm install 杠 g openclock at latest, 按回车,开始安装小龙虾,等待大约两分钟时间, 他就安装完了。现在我们可以启动小龙虾,在命令行输入。输入 open curl on board, 我 们需要先配置,在这里我们选择 yes, 把光标移到 yes 这个地方,我们按回车, 然后我们选择选择 quickstar, 然后这里会让我们选择模型提供商,我们选择阿里百店千问, 选择这个千问 cloud, 我 们选择这个标准 a p i。 如果你是 coding play 的 话,是选择第一个 coding play for china, 我 们这里选择标准 a p i。 把之前的那个 a p i key 输入进去,它这里默认的是千问三点五 plus, 这里也可以选择其他模型, 我们就默认使用成本三点五就可以了。这里是选择社交,社交 app, 我 们默认先略过,我们先不配置,选择选择 skip, 这里是让你选择 web 社区的提供商, 这些提供商呢,基本上都是需要 api 升级 apikey 的, 这个我们可以先略过,它主要是涉及一个联网搜索的功能,这个功能我们可以在之后再配置,然后这里会让你选择是不是要现在配置 skill, 我 们选择是, 我们可以看一下这里,它有一些默认的 skill, 可以 让你选,你选中那个去按一个空格,它就会被选中。 比如说这里有 github, 有 一个 m c p port oracle, 这里我们也可以先略过,这里会让你输入谷歌的那个 api key, 我 们这里先没有。还有 notion api key, 我 们这里也没有,可以选 no, 我 们先略过,然后按 api 的 key 也一样,先略过,这里是让你配置那个 hux, 这里我们可以先略过,按空格,选择那个 skip for now, 然后按回车,它这边是那个服务就安装完了。 然后我们可以按选择那个 restart, 让那个服务重启它。这里有出现了这个 ctrl u i 的 那个地址,就是默认的本地地址,幺二七点零点零点幺, 端口是幺八七八九,这是它的默认端口。它访问是要带托肯的,托肯它自动生成的,就是后面这一串东西,你要访问是需要这个带托肯去访问的。 好的,它这个就显示已经安装成功了。我们可以看看 getaway 的 状态,我们可以输入命令 open claw getaway status, 这不是查看这个 getaway 的 那个状态, 可以看到这个 getaway 它并没有启动,它是 fill 的, 我们要把那个 getaway 给启动起来,输入命令 open claw getaway, 这个就是启动命令,它在 windows 里面的话,如果要关掉的话,你直接把这个 把这个 cmd 窗口给叉掉就可以了。如果要启动的话,那就 open curl, 它就会启动。那要是要重启的话,你可以在另外一个窗口里面输入 open curl, it will restart, 它就可以重新启动了。好了,到这里它已经启动完了,我们可以通过微博界面去访问它。 嗯, romcube 的 web ui 有 两种方式,一种是直接通过那个浏览器去访问之前那个 ctrl u 的 那个地址,就带拖克的那个地址。还有一种就是在命令行输入 romcube dashboard, 过完这个命令之后,它会自动把这个浏览器弹出,并且直接去访问那个地址, 那它也会输出这个浏览器的 url 地址,你也可以直接在浏览器把这个地址添进去访问, 打开浏览器,我们就可以跟我们的龙虾对话了。这个微博 u r 就 长这个界面,这里是聊天框,这里会有一些控制控制台或者是概览 那那个频道,这里还些实力绘画使用情况,些定时任务代理。我们试着跟我们的小龙虾对话吧。你好,第一次对话小龙虾,待会去读他的配置文件, you 在 点 md, n, 点 md, so, 点 md, 如果没有他,那么他会向你提问,让你告诉他一些信息,以便后续他会按照你的规则去跟你沟通,执行你给的任务。 你也可以直接配置这三个文件,这三个文件要如何配置,可以参考我另一个视频,你看他会问你关于他是什么,你希望怎么叫他名字, 我是什么样的存在,比如说 ai 机器人助手,还是什么样的有趣东西,我应该有什么样的风格,比如说正式的,随意的、幽默的、温暖的,你都可以去定义他。然后他会问你,就是你自己是叫他怎么称呼你, 你在哪个时期有什么他需要了解的?比如说你现在正在干什么,你可以让他知道了解你的现在近况,以便他后续按照你的一些特性来来服务于你。到这里龙虾都就算已经是部署完成了,这一期的视频也就差不多了, 兄弟们可以开始跟自己的龙虾玩耍了。下一期我们讲一些龙虾的基本使用以及飞出的接入,毕竟目前只能通过浏览器跟我们的龙虾交流,我们要在手机上控制他们,随时随地的给他们派活干,我们下期见。

这只视频带你设定并配置好 open cloud 这只龙虾,并接入到 whatsapp。 创建 telegram 机器人没有代码基础也没关系,跟着做你的龙虾也能为你自动工作,即使你出门在外。好,接下来我们进入出场环节。 首先需要设置相关身份信息。先为 openclaw 取一个专属名称,再设置它对你的称呼。我这里设置它的自称为 claw, 称呼我为 adjourned。 你 可以更详细地定义它的行为风格。这些配置都会被保存下来,并在后续的对话中持续生效。 可以看到它正在将身份设定、用户交互规则等内容写入本地文件中。完成基础注册后,我们来配置 openclaw 连接 whatsapp。 这一步既可以在安装过程中设置,也可以在安装完成后通过终端操作。如果已经安装完毕,直接运行 opencloud channel add 命令即可添加聊天渠道。我会先配置 whatsapp, 再配置 telegram, 带你完整走一遍配置流程。 配置 whatsapp 十分简单,只需要用你绑定的手机号扫码二维码就能登录。扫码后,他会询问这是个人号码还是独立号码。 如果希望 ai 独立运行,不受干扰的,建议使用专门的手机号,方便它向你发送信息。设置好 whatsapp 后,我们继续配置 telegram。 同样运行 opencloud channel add 命令, 我选择使用默认账号,接着按照提示创建一个专供 opencloud 使用的 telegram 机器人。在手机上打开 telegram 搜索并找到 at boss father。 注意,一定要选择带有认证标识的官方账号, 然后发送斜杠 new bot 命令来创造一个新机器人。为机神设置一个唯一的名称,我这里命名为 agent two i s s cloud bot 创建成功后,会获得一个 api token, 将其复制并黏切到终端中勾 openclaw 使用。至此, telegram 也配置完成了下一款选择。完成,整个 openclaw 基础配置也就全部结束。 这样一来,你即便出门在外,也能通过手机直接和 open cloud 对 话,并且所有绘画内容与家中的电脑保持实时同步。 whatsapp, discord 等平台的配置方法也基本相同,操作逻辑是一致的。