粉丝5213获赞9189

熬了三个通宵,我的 ai 员工终于上线了,你看,我可以直接用飞书发消息,让他干活,帮我把桌面整理一下。 哇塞,瞬间收纳好了,但这对他来说只是小菜一碟啊,他还能帮你处理邮件、浏览网页、帮你查资料。重点是,他所有的技能和记忆都存在你这台电脑上,不用签保密协议了呀。接下来教你们怎么装点赞收藏慢慢看。 首先,你得搞一台可以上网的苹果电脑,接着去注册申请个大模型的 apikey, 我 用的是 kimi code, 你 也可以去尝试其他的。然后就按 command 加空格输入车密码,按回车输入这些命令行。然后呢,跟着指引在上面贴上你刚申请到的 apikey, 完成之后就可以直接在这里跟 ai 对 话了。但想要接飞书的话,还得多做一步,就是在飞书开放平台上创建一个机器人应用,然后将这个机器人的 id 密钥告诉他, 这就大功告成了。你可以给他取个名字,告诉他你是他的老板,就把他当做一个员工来看,他也会告诉你他能帮你做什么。总之呢,非常有意思。我把我的实际操作步骤整理成了一份文档,有兴趣的举个手直接发你。

大家好啊,今天我给大家演示一下微信如何接入这个小龙虾。首先我们进入微信的我的界面,然后我们找到关于微信,然后我们这里点一下版本更新,检查一下是否是最新版本, 如果是最新的话就不需要升级,然后我们再找到他的插件界面,点击插件,第一个就是微信的一个小龙虾,我们进去以后看到这条命令,我们直接选择复制, 复制以后我们把这条命令在我们的龙虾部署的机器上复制运行一下,好,这也是报错了,因为权限不够,然后我们加上速度,然后重新运行一下, 然后我们进入一个微信插件的安装过程,这里可能需要等一会, 他的插件是自动安装的,安装完成以后,我们可以看到会出来一个二维码, 有了这个二维码以后,再帮你安装成功了,然后下面你需要需要你的手机,然后去扫一下这个二维码,扫完了以后会出现一个连接界面,你直接点击连接,这样你的小龙虾就成功的接入到了微信,然后我们跟他做一个对话, 发一个你好,他也给我们做出了相应的反馈,这样就代表我们这个小龙虾接入成功了。下面我们再试一下用这个微信小龙虾自动发布小红书笔记,我们是给他一个视频, 然后我们再向他提出一个要求, 嗯,让他帮我用这个视频生成一个这个小红书的笔记,然后视频内容呢是我闺女自拍的跳舞视频, 然后让他想一个爆款的小红书标题,然后想完以后同时把这个内容发给我进行审核,我同意了以后再进行一个发布,然后把这个要求发给小龙虾, 然后小龙虾给到了我们回复,然后我们选择一个标题,就选这个女儿的舞蹈首秀,然后给他说一个发吧就可以了。 我们再回到小龙虾部署的机器,然后等待他执行,他自动启动了 chrome 的 浏览器,然后进入了小红书的发布页面, 然后他自动上传了我们给到他的一个视频,然后后续他也会把小红书的标题以及自动生成的内容,还有话题也自动填充进去, 我们等待他填充完毕以后,他会进行一个自动发布。 好的,现在已经发布成功了,这样我们就完成了微信控制小龙虾自动发送小红书笔记的一个完整流程。

三个命令解决 openclock 更新难的问题每次发 openclock 更新的视频评论区最多的就是升级翻车的评论。升级 openclock 其实很简单,大部分的时候只需要三个命令就可以搞定。第一个是 openclock update, 在终端里面输入这个命令,它会启动自动升级程序。相比直接点击浏览器上的 update 按钮,这种方式最大的好处是你能够直观的看到升级是否顺利完成及过程中有没有报错, 这是排查问题的基础。所以我建议大家尽量使用命令来升级,而不要使用浏览器上的按钮。第二个命令是 opencloud doctor, 如果升级完成后发现 gateway 起不来,网页也连不上,那么记住使用这个命令,它是 openclaw 内置的自检工具,为主项检查配置有没有问题,而且加上一个参数 fix, 它就能够自动修复所有它能修复的问题。 大部分情况下,运行一次 openclaw doctor, fix 问题就可以解决了。那么第三个命令就是 openclaw t u i, 这个呢,其实是 openclock 内置的终端交互工具。很多人以为 openclock 没有 tu, 这其实是个误解, 打开 tu 之后,只要 get away 是 正常启动的状态,你就可以把错误的信息呢直接粘贴进去,让 ai 帮你分析问题,然后处理问题。 比如说某个插件导致的问题呢,他就可以帮你直接修复或者卸载掉那个插件,然后自动重启,整个过程当中呢,你也只需要确认就好了。那么总结来说呢,第一步,用 update 完成升级, 第二步用 doctor 来检查和修复配置。第三步呢,用 t u i 解决掉那些他能够自动处理的插件和兼容性的问题, 三个命令配合使用的绝大部分的升级问题都能够解决。而且需要注意的是, doctor 他 本身不消耗 token, 只有在 t u i 里面让他帮你修复的时候,你才会用到 ai 的 token。 所以呢,这个其实也是比较省 token 的 一种方式。关注我,教你更多养虾实用技巧!

欢迎收看我是大叔,只说真话,只做实在事,只给实在的干货。各位开发者好,今早刚起床刷完牙,打开电脑,桌面上弹出一条更新提示,一看, openclaw 又推送新版本了,版本号二零二六点四点十一。 这更新来得比闹钟还准时。这次更新的核心亮点有三个,追命命记忆系统全面升级,新增 chat gpt 对 话导入和 memory palace 日记功能,视频生成工具大幅增强, control ui 负媒体输出终于来了。数据方面,这次更新包含九个工作重点,二十二个问题修复,超过十五位贡献者参与。强烈建议大家立即更新体验。 先看追命记忆系统的升级。第一个重要功能, chat gpt 导入。之前 opencloud 只支持导入内部记忆,现在你可以直接把 chat gpt 的 对话记录导进来,系统会自动解析生成记忆片段,保留原始对话的上下文。这意味着你在 chat gpt 里的重要讨论可以无缝延续到 opencloud 的 记忆 系统中。第二个 imported insights 纸标签,之前导入的内容和原生记忆混在一部好,现在新增了独立的纸标签页,所有导入内容集中展示,核心记忆统一管理,一目了然。 第三个 memory palace 日记,之前只有 dream diary 单一式图,现在新增了日记纸标签页,提供可适化记忆供电体验,可以直接在 ui 中检查原聊天翻译页面和完整原页面。接下来是 control ui 和 webchat 的 增强。第一个副媒体气泡渲染,之前 asset 消息只能显示纯文本, 现在 media 指令、 reply 指令、 v o s 指令都可以渲染成结构化的聊天气泡了,还支持新的 n b a d 复述出标签。第二个外,嗯,欠人安全,欠人 u r l 没有保护,现在全部受受配置给控制,安全可控。 第三个, tts 音频持久化,之前 tts 生成的音频不保存,关闭窗口就丢了,现在 a 键串的 tts 音频会自动持久化到 webchat 历史记录中。保留工具卡片的配对关系,生成的音频和混合工具输出都能绑定到正确的消息上。视频生成和平台工具也有重大升级。 视频生成工具之前参数配置比较复杂,现在大幅简化。支持 urlony 生成资产传递 type provider options 参考音频输入自适应比例支持,还提高了图像输入的上限, 视频创作者用起来会更顺手。非输文档评论,之前功能比较基础,现在支持更丰富的上下文解析评论,可以发表情反应,还有打字反馈,文档现成对话的感觉更像日常聊天了。此外, microsoft teams 新增了反应,支持 反映列表、 graph 分 页和委托 oos 设置。不仅是系统,现在支持清单声明激活,描述符设置步骤可以描述化了,认证和配对配置更加灵活。 性能与集成优化方面,奥拉玛缓存优化,之前每次刷新选择器都要重复获取模型信息,现在缓存了 api 秀的上下文窗口和能力,原数据重复刷新,不再重复获取。 同时保留了空想应用式和替代式的变化失效机制。 models 和 providers 诊断,增强 o n n i 兼容 ai 端点的分类信息,现在会 surface 到日制中,方便诊断本地和代理的路由问题。 q a parity 报告新增了 g p t 五点四和 opus 四点六的 a ject parity 报告,包含共享场景覆盖检查和更严格的证据启发式验证。这次还修复了二十二个重要问题, open ai codex ooth 问题, 之前新用户登录报 in veliscope 错误,现在停止重写 up to url 的 scopes 问题解决。 macos talk modi 之前首次授权后需要手动二次切换才能启动,现在授权后直接继续,无需额外操作。 telegram 话题绘画,之前始使画路径有 bug, 现在修复了话题 scope 的 绘画出使画逻辑 a 键 spelfore 之前错误会记成历史记录,现在作用域限定在当前,尝试不会再串号。 conferkey 配置,之前 i think completion 报啊 unrecognize key 错误,现在 zelda 码已包含该配置。向 google view 之前发送了不支持的 request 置断导致失败, 现在停止发送该这段视频生成恢复正常。还有更多修复详细内容请查看 get up release 页面。说完了功能,再讲讲怎么更新。推荐使用 apple update 命令,这是最快的更新方式,它会自动检测你是 n p m 安装还是 get 安装。获取最新版本运行健康检查,然后重启网关。 如果想切换频道或指定版本,可以加加参数,比如 openclaw update channel beta, 或者用专人预览而不实际执行。更新分四步,第一步,运行更新命令,输入 openclaw update 或者 openclaw update channel beta。 第二步,运行健康检查,输入 openclaw doctor, 这会迁移配置审计 dm 策略,检查网关健康状态。第三步,重启网关,输入 openclaw gateway 为 restart。 第四步,验证安装输入 openclaw health or openclaw version, 确认版本号正确一条命令搞定 openclaw update and and openclaw doctor and and openclaw gateway restart。 如果更新后遇到问题,回滚方式是先用 m p m i 的 openclaw act 指定版本,然后运行 openclaw dot com, 最后 openclaw gateway restart 即可。好了,总结一下,先回顾一下本次更新的六大要点,第一, dreaming 记忆系统 chat gpt 导入功能 imported insides is 标签 mary palace 日记第二, control u a i。 负媒体气泡渲染,外部嵌入安全控制 t t。 反新品持久化第三,视频生成 u a, i, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o, n, o。 models 和 provider 诊断增强 qa parity 报告第六, buck repair code o or the mac os talk lock mode telegram 话题绘画 agents fell over 总体数据 open call 二零二六点四点十一包含九个工作重点,二十二个问题修复,超过十五位贡献者参与。立即更新,体验新功能吧! 感谢所有贡献者的辛勤付出,如果你觉得这个工具对你有帮助,欢迎关注大叔大,感谢观看,咱们下期再见!

大家好,我是麦冬。最近 open class 更新是真的有点快,就这几天已经连着出了好几个版本, 这个时候很多人都会有一个顾虑,想升级,怕错过新功能,但又怕一升级把现在已经跑好的环境弄出问题。其实这件事情没有那么复杂,如果你最近想升级 open class, 最简单的做法就是升级前先做好备份,因为你现在需要保住的不是程序本身,而是你已经跑起来的这套 open class 环境。 比如你现在这套 openclaw 的 配置、绘画记忆,以及你工作区里面的所有内容。所以备份这一步本质上就是给你自己留了一个后手,这样就算升级过程中真出了问题,也不至于从零开始。而且现在备份也非常简单, openclaw 自己就有命令,直接跑一下就行。打开命令行 执行 openclaw backup create openclaw 就 开始自动进行备份了。 执行完成后,它就会生成一个带时间戳的备份包,默认就放在你当前脚本执行时所在的目录下面。所以不用太担心频繁升级会把你好不容易养出来的虾搞坏,升级前先把备份做好,基本上就够了。 另外, open class 备份这块常用的几个命令,我也顺手帮大家整理好了,欢迎大家点赞收藏,后面要用到的时候就会方便很多。好了,今天的视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。

欢迎收看我是大叔,只跟你聊最实在、最有用、最有意思的内容。 各位开发者好,下午刚冲了杯茶,正琢磨着要不要摸会儿鱼呢,手机突然探出一条通知, opencloud 又更新了,这个更新频率比我的闹钟还准时。能让开发者这么拼的项目,肯定有点东西。 好家伙, v 二零二六点四点一零版本,这次可是大动作,主动记忆、本地语音以及安全三箭齐发。最让我惊讶的是,这个 active memory 居然能让 ai 学会主动记忆, 不用你反复叮嘱,它自己就能记住你的偏好。这感觉就像雇了个特别贴心的助手,越用越顺手。说真的,我一开始以为就是个小修小补, 结果仔细一看,新增五大功能,修复十多项安全漏洞,解决三十多个已知问题。这工作量,开发团队估计都是机器人。咱们直接进入正题, 看看这次更新到底有哪些干货好,先给大家来个整体概览,看看这次更新覆盖了哪些方面。这次更新可以用量大、管饱来形容,主要体现在五个方面,第一,新增功能,五大核心功能上线,包括 active memory、 主动记忆、 m l x 语音、 codex 集成等,每一个都是实打实的硬货。 第二,安全加固物,修复了十多项安全漏洞,浏览器杀向 s s r f, 防护员强化,给系统穿上了防弹衣。第三,问题修复,解决了三十多个椅子问题,包含网关、绘画任务等多个模块,稳定性大幅提升。 第四,平台增强, microsoft、 team's、 telegram、 matrix、 whatsapp 等平台都得到了深度优化,把跨平台体验的流畅。第五,稳定性提升,网关启动任务清理、绘画、路由等关键路径全面优化,用起来更丝滑。看到这儿,你可能已经心动了,那具体新增了哪些功能呢?咱们接着看, 咱们详细看看这次新增的五大重磅功能。第一个, active memory, 主动记忆,这是一个专用记忆地址代理,能自动提取相关偏好和上下文,让 ai 真正理解你的需求。 第二个, mac os mix 本地语音,这是实验性的 mx 语音提供者,完全离线运行,保护隐私的同时还能实现零延迟响应。 第三个, codex 深度集成,提供了 bundled codex provider 原生现成管理和智能压缩代码,开发者狂喜。第四个, seedens two point zero 视频生成, file provider, 现在支持 seedens two point zero 模型,视频创作能力在上一个台阶。 e x 命令新增了本地执行策略管理,包含 show、 presets x 三个子命令,让你对执行策略有更精细的控制。这五个功能每一个都值得单独讲一期, 但今天时间有限,我就跳重点给大家介绍上。首先说说本次更新的重头戏, active memory。 说到这儿,你可能已经迫不及待想知道 active memory 到底是什么了, 咱们来了解一下。这是本次更新的重头戏, active memory, 让 ai 再更认称,学会主动记忆。先说它的核心原理, active memory 是 一个可选的插件,是主摄记忆,子代理在主回复生成前运行。它解决了传承记忆系统被动响应的问题,无需用户手动说记住这个或搜索记忆。具体来说,它有五个特点, 第一,专用记忆,指代理在主回复前自动激活智能解锁相关偏好和历史细节,这意味着你不需要每次都重复之前的要求, ai 会自动记住你的偏好。第二,三种查询模式, message, 当前消息 recent, 最近对话, full 完整上下文。你可以根据需要选择不同的模式,平衡性能和准确性。 第三,实时检查。通过斜杠 verboson 命令,可以实时的弹力提取过程,让你清楚知道 ai 在 想什么。第四,绘画即控制,使用斜杠 active memory on off status 命令,可以灵活开关,给你完全的控制权。第五,安全默认配置仅对 direct and 斜绘画生效,避免意外触发,保护你的隐私。 懂得了 active memory and ai 从被动响应变成了主动理解,这是一个质的飞跃,数据无价对吧?这几个配置要点关系到你能不能用好这个功能,你一定要知道。接下来咱们看看 macos 用户的福音, m l x 本地语音 接下来是 macos 用户的最爱,完全离线的 m l x 语音引擎。这次的 m l x 本地语音有五个亮点,第一,实验性 m l x 提供者专为 m l x 优化的本地语音合成引擎,这意味着所有音频都在本地生成,完全不依赖网络。 第二,显示提供者选择通过配置明确指定使用 m l x, 而非云端服务,给你完全的控制权。第三,本地语音播放,所有音频在本地生成和播放零网络依赖,这对于隐私敏感的场景特别有用。 这中断处理支持语音打断和重新合成,交互更自然。你可以随时打断 ai 说话,它会立即停止并重新生成新的语音。第五,系统语音回退。当 m l x 不 可用十自动切换到系统内置语音,保证可用性。 对于注重隐私的用户来说,这个功能简直是福音,再也不用担心语音数据被上传到到云端了。说完语音,咱们再来聊聊代码开发者的福利。 codex 深度集成代码开发者注意啦,这次的 codex 集成可是重量级更新,这次的 codex 集成有五个关键点, 第一,捆绑 codex 的 提供者 codex 斜杠 gpt 模型,使用 codex 管理的认证流程,简化了配置步骤。第二,原生现成,支持完整的现成管理能力。场对话,不丢失上下文,这对于复杂的代码开发场景特别重要。第三,至尊模型,发现,自动检测和列出可用的 codex 模型,让你一目了然。 第四,智能压缩,自动管理对话历史,避免超出 token 限制,这意味着你可以进行正常的对话,不用担心上下文丢失。第五,独立路径 open 来斜杠 g p t 人走标准, open ai 提供者互不干扰,这样你可以根据需要选择不同的模型提供者诊断。 总来说,这次的 samsung 成为一个代码开发者,提供了更要上更强大的开发体验。功能介绍完了,咱们得聊聊安全问题, 毕竟安全无小事嘛!安全无小事,这侧负覆盖了七个关键领域,第一,浏览器杀香卡,包括严格 s s r f 默认值、主机明白名单、重定向防护等,有效防止恶意网站攻击。第二,执行预警硬化,增加了 host m d nisting、 节点输出、边界出让、媒体独取保护等措施,提升了执行安全性。 第三,插件安装扫描,引入了依赖扫描 e 七 p c s 工具钩子,即没有令牌、脱敏等功能,确保插件安装的安全性。第四, web socket 防护,改进了超大针处理,升级预售陷式连接树控整机制,防止 web socket 攻击。第五,媒体安全边界,实施了发送者范围的出站文件读取策略, ssrf 防护,媒体获取的是保护媒体数据安全。第六, telegram m 加强了 tytan 的 vlan 服务器同步斜杠户 m i 允许列表,提升了 telegram 平台的安全性。 第七, qq bot 安全,强制执行媒体存储边界 s srf 防护,图像大小探测,保障了 q bot 的 安全性, 这使多项安全修复可以说是全方位的保护,让你的数据安全更有保障。除了安全修复,这次还还解决了不少已知问题, 咱们来看看都有哪些?除了新功能和安全修复,这次还解决了大量已知问题。第一, whatsapp 媒体发送修复了 getaway module 下文档和附件静默丢失问题,现在可以政策研究一下 也见了破了。第二, marksoft teams 恢复了个人 dm 媒体下载 bot framework 支持 sso 登录回跳等十五项修复, team 用户体验大补偿。其实 第三,网关系统又暴露提前系统 cubosocketsocketsocketsockets 保持可用,网关启动更快更稳定。第四,绘画路由修复, telegram 等多平台消息最投递到原线层层七项修修复,确保了消息的准确投递。 第五,模型回退机。这帮助了邪门所选择超时类探测、 openroute 响应分类等功能模块切换更智能。第六, windows 执行修复,改进了 cq windows 用户体验更好。 第七, dreaming 稳定性 chronesisolution 日记 fallback 硬化、蓄势、在里米等运行等五项修复,让 dreaming 功能更稳定。这三十多个问题修复覆盖了各个模块,大大提升了系统的稳定性和可用性。 理论说得差不多了,咱们来点实际的,看看 active memory 到底怎么配置和使用。理论说完了,咱们来看看 active memory 到底怎么配置和使用。第,在 opencloud 点 json 中添加配置 plugins 方括号 entries 方括号 active memory 方括号 in a bit like 设为 true。 config 里面设置日期列列为 main query mode 为 recentenumber ms 额预留五千毫秒 logging 设为 true。 第二步,重启网关,使配置生效。执行命令 open call get restart 第三步,开启详细模式,查看 active memory status, 查看状态斜杠 active memory off 关闭斜杠 active memory on 重新开启预期输出视力 active memory ok 八百四十二毫秒 recent 三十四字符 active memory debugle lemon pepper wins with blue cheese 关于配置的几点说明 core mode 有 设置者 recent enter 推荐平衡性能 message 清亮 full 完整 allow chat types mode 是 direct, 你可以根据需要添加 group channel dot model fallback policy 设置为 default remote, 表示无模型时使用远程回退。配置起来非常简单,几分钟就能搞定。配置完 active memory, 咱们再来看看 macos 用户如何启动 mo x 本地语音。 最后, mac os 用户在这里如何启动完全离线的 m l x 语音。低步安装 m l x 语音依赖执行命令 peppy install m l x m l x audio。 第二步,配置 talk mode 使用 m l x 执行命令 open clock config startup provider m l x 第三步,测试本地语音合成执行命令 open clock test provider m l x 如果一切正常,你就可以享受完全离线的语音体验了。 关于升级,建议按照以下步骤操作执行命令, npm update 机 at openclaw 斜刚出来,然后执行 openclaw 文件验证版本升级前机的备份配置,文件检查 breaking 前机确保平滑升级 mlx 的 优势非常明显,完全离线,零延迟隐私保护,特别适合敏感场景。 好了,今天的分享就快结束了,最后咱们来总结一下这个版本的亮点。好了,今天的分享就到这里。最后咱们来总结一下这个版本的亮点,第一,主动记忆革命 active memory, 让 ai 真正理解你的需求,无需反复提醒,这是一个字的飞跃。 第二,完全离线语音 mx 本地引擎保护隐私,零延迟响应引擎感场景,提供了完美解决方案。第三,企业级安全,十多项安全修复,全方位防护数据泄露风险,让你的数据更安全。第四, kodak 深度集成原声线层管理和智能压缩,代码生成更流畅,开发者体验大幅提升。 第五,稳定性提升,网关启动优化任务清理绘画路由全面修复,系统更稳定可靠。总的来说, v 二零二六点四点一零是一个非常有诚意的更新, 既有创新功能,又有安全加固,还有问题修复,值得大家升级体验。如果你觉得这个工具有帮助,欢迎关注大叔大,你可以在仓库地址多个平台找到我,我会持续分享更多 ai 工具的深度评测和使用技巧。仓库地址 release 如下, v 二零二六点四点一零感谢观看,咱们下期再见!

朋友们,欢迎回来,今天我们要深入聊聊 openclo 的 最新版本,二零二六点四点一一。这次更新可不一般,带来了一些真正能改变游戏规则的功能。这么说吧,你准备好迎接一个能真正记住你,还能帮你轻松搞定视频创作的 ai 了吗?我们马上开始。 在咱们深入之前,我先问你两个问题啊,你有没有觉得你家的 ai 好 像得了健忘症,每次聊天都得从头再来?他压根不记得上次聊了啥。还有,视频创作是不是特麻烦,又耗时又占电脑资源? 嗯,如果你正在点头,那相信我,这次更新就是为你量身定制的。好,咱们先来解决第一个大痛点, ai 的 记性问题啊。 这次更新里,我个人觉得最重磅的就是给 ai 装上了一个记忆大脑。没错,它叫记忆百科,一个专门用来解决 ai 长期记忆问题的,可以说是突破性的方案。 那么这个记忆百科到底是个啥?简单来说,你就把它想象成一个给 ai 外挂的,永远不会忘事的大脑硬盘。你可以把过去所有的对话记录啊,项目文档啊,甚至是脑子里一闪而过的零碎想法全都喂给它。 它呢,就负责吸收消化,然后给你建一个储术的知识库,随时都能调用。那具体怎么用呢?它主要有三大核心能力。首先,你可以直接导入你跟 chat gpt 的 聊天记录。嗨,这样一来, ai 立刻就能想起来你们之前聊过啥, 工作就能无缝衔接了。其次呢,有个叫导入洞察的功能,这个特有意思,就像你能随时翻看 ai 的 学习笔记,看看它从你的资料里都解总结出了些什么, 最后还有个记忆宫殿,它能保中所有信息都有源可溯,让你对 ai 的 知识来源了如指掌。 所以你看这最关键的一点是什么?就是你的 ai 不 再是一个冷冰冰的你问一句他答一句的工具了,他变成了一个真正了解你,能和你一起成长的知识伙伴。说真的,这不光是技术升级,这简直就是一场交互体验的革命。 好,我们再来看第二个痛点,视频创作 openclo。 这次啊,把它的视频生成工具给彻彻底底的重做了一遍。如果你之前觉得做视频又慢又卡又费劲,那接下来这部分你可得仔细听了 哇,你看看这个新旧对比,简直是天壤之别。以前呢,得上传超大的文件,电脑风扇狂转,内存蹭蹭的往上涨。现在呢,告别这一切吧,整个流程变得超级清量化,你只需要给一个连接系统就能自己去处理, 这到底意味着什么呢?这意味着你几乎可以在任何设备上用比以前快的多的速度做出更牛的视频。 整个工作流程就简化成了这四个步骤。这对于创作者和开发者来说意义太重大了,门槛一下子就降下来了,创作自由度却大大提高了, 你可以轻松的把各种视频服务接进来用,再也不用担心自己电脑配置跟不上了。接下来我们聊聊团队合作。 说实话,一个 ai 再怎么厉害,要是没法跟你团队现在用的工具无缝衔接,那它的价值也得大打折后,对吧?所以我们来看看 openclo 是 怎么让自己更好地融入到我们日常工作流里的。 先说非书用户啊,你们有没有觉得在非书文档里跟 ai 聊天感觉有点呃,有点呆? 这次更新就把这个问题给解决了。现在 ai 能更好地理解文档的上下文了,你甚至还能用表情跟它互动,整个感觉就自然多了,就好像在跟另一个同事聊天一样。 当然, microsoft teams 的 用户也迎来了大升级,你不仅能用各种表情互动,更重要的很多优化都发生在你看不到的后台。他们用了一个叫代理 off 的 东西。 这听起来可能有点技术,但对管理员来说,意思就是设置和部署 ai 应用变得超级简单,而且更安全了。基本上在公司里推动使用 opencloud 的 所有障碍都被清除了。 好了,接下来这部分我得说这真正显示出了 opencloud 的 野心,它们已经不满足于仅仅是添加新功能了,它们正在为整个行业树立一个新的性能标杆。 你看发布说明里的这句话,这可是个重磅消息,它提到了一个叫做 g p t 五点四对标 opus 五点四智能体对等报告门槛的东西。 这是什么意思呢?简单说,这就是一个全新的、极其严格的评估标准,专门用来衡量市面上最顶尖的 ai 模型。这已经不只是内部测试了,这更像是一种对外界的关于质量和性能的公开承诺。 那这个新的对标报告门槛儿到底在测些什么呢?你看这个表就明白了, openclaw 已经不满足于简单的跑分了,它们现在要求这些顶级模型必须在完全相同的复杂的真实场景里一决高下, 他们甚至还会去居综合分析模型在哪些任务上会直接投降,这对我们用户来说绝对是个好消息。这意味着我们未来用到的 ai 都是经过了千锤百炼的,测试更严格,过程更透明,能力自然也更靠谱。 当然了,任何一次重要发布,都少不了那些在背后默默付出的优化和修复。 这些东西可能不那么引人注目,但它们对整个系统的稳定性和性能来说是至观重要的。咱们快速过一下几个关键的修复,这次解决了很多用户的痛点, 比如说 olama 现在会缓存模型,数据刷新速度快多了,还修复了那个反人的 openai 登录错误。哇,对了,还重新支持了用 grok 和 miss troll 进行语音转录这个功能,很多人都在等, 就是这些细节的打磨,让整个平台用起来感觉更稳定,也更舒心了。好了,那我们来总结一下,这次 opencloud 更新到底给我们带来了什么?我觉得可以归结为三点, 第一,一个更聪明的 ai, 一个能记住你,和你一起学习的 ai。 第二,一个超强的创作工具,让你做视频,再也没有资源上的后顾之忧。第三,就是真正无缝的写作体验, ai 就 活在你每天用的工具里。 今天的深度解析就到这里。在结束之前,我想留给你一个问题,你可以好好想一想, 当这么一套更强大、更智能的工具集交到你手上的时候,你准备用它来创造点什么呢?我很期待看到答案。感谢收看,我们下期再见!

各位观众, oppo kaio 又更新了!是的,时隔一天半左右又发布 v 二零二六点四点一四新版本,这版依然不是追求花哨功能, 而是继续做一次覆盖面很广的全面质量。更新开始之前,还是先提醒一句,建议先做好完整备份,这期视频看完确认备份完整之后再开始更新。 这次内容我分成三部分,一、你最值得关心的变化先说第一点, g p t 五点四 pro 的 前向兼容支持。这个说法听起来很绕,简单来说就是 哪怕 open n i 尚未正式更新模型目录, open call 也先把 g p t 五点四 pro 提前加入了可选择的列表,用户将在模型、列表状态信息和配置里看到和使用它,也能提前拿到对应的价格和限制信息。如果你近期正好在关注 pt 五点四系列,这项和你直接相关。第二点,话题名称现在会显示得更清楚。这次更新后,从频道推送进入的具体群讨论, open call 不 再只看到一个数字编号,而是会识别并显示这个讨论对应的具体话题名称。而且这次不仅会显示,还会把这些名称保存下来,重启之后也不容易丢失。如果你平时在 的频道和对应的群聊讨论话题里使用 open call, 这个变化会更直观。第三点,本地模型和欧拉玛用户的改进。这次更新改进了超时处理。以前有些本地模型运行比较慢, open call 可能会在底层等待时间到了之后中断请求, 特别是大模型更容易遇到。现在用户设置的超时参数能更准确地传到实际运行层。同时,奥拉玛在流逝输出时的 token 统计也更准确了, 不容易再因为统计不准而过早压缩上下文。另外,奥拉玛的记忆嵌入适配器也进行了恢复,相关配置重新更容易正常工作。如果你主要跑本地模型 会比之前更稳定一些。第四点,安全相关的改进很多,而且分布很广。这次不只是修一个点,而是在多个入口一起加强。比如 slack 的 交互事件、 microsoft teams 的 sso 飞书的白名单匹配 都进一步收紧了。较验逻辑还有模型测通过 gateway 工具修改危险配置的能力也受到了更多限制。另外,本地附件、路径处理、浏览器截图和快照相关的安全策略 配置、通缉这些方面也都进行了加强。如果你是公开部署、多用户使用,或者接了多个渠道, 这一组更新很值得重视。第五点,浏览器和网页界面的可用性进一步得到改善。之前一些网页防护在安全上更严格, 但也可能连正常使用一起影响。这一版对浏览器主机名导航、本地受管、 prom 的 连接检查、 麻纽 c d p 本地还回控制。这些部分都重新做了梳理,以确保在保证安全的前提下 恢复本来应该能正常工作的功能。同时,网页端还替换了 modding 解析组件。如果你经常通过浏览器使用, open core, 这一版也值得关注。二、其他更新除了上面这些最值得关心的变化, 这次还有一批补充更新。在模型和推理能力方面, github 提供的 gpt 五点四现在支持更高等级的推理设置。旧版的 gpt 五点四 codex 别名也做了规范化处理,兼容性更统一。 offni 风格运行里, minna 思考级别也改成了更符合实际支持情况的映设方式。在媒体和动态方面,图片和 pdf 工具对模型引用的识别方式进行了标准化, 减少了视觉模型明明可用却被判定为未知模型的情况。 google gemini 图像接口对 r o 后缀的处理也进行了调整, 避免部分请求返回。四零四 a a c 语音文件在转录时也做了更兼容的格式映舍。在 a 镇和上下文方面,上下文窗口不足的提示信息更准确了。长工具循环中的上下文压缩策略更合理可选的轮次维护也改成后台执行, 减少对和用户交流时的影响。 zaidan 的 注册表的运行时,文件和加载路径也进一步统一和补全了。在部署和运维方面, doctor 命令、 update 命令、 restart 命令 以及 report 命令等这些相关路径的入口解析更加统一。审批命令的默认 gateway 超时时间延长了,超时提示也更明确。插件检查过程中对外部目录查找增加了缓存性能,会更稳一些。在渠道体验方面, discord 的 原生命令 斜杠 status 会返回更像真正状态的结果的只读状态命令,可以绕开繁忙的话题轮子。 hibs 在 话题里的回复位置也更准确。 t t s 生成的语音回复现在也更容易被正确保留下来并发送出去。三、 bug 修复最后再集中解读一下这次涉及面较广的 bug 修复。 首先是模型目录和自定义模型来自 codex 模型目录输出缺少自断的问题已经处理,避免自定义模型在 models 的 json 文件中被禁摩,忽略该问题可能导致用户看不到相应的模型却无法排查到原因。 其次是代理和网络环境调整了,配置了代理环境下的程序逻辑,减少了因为本地 d n i 去解析失败带来的异常。 如果你是在代理环境里运行 open core 这部分会更重要。然后是绘画路由和调度的改进,心跳定时器、执行器这些系统事件不再容易覆盖共享绘画力的路由和来源信息。定时器的下一次运行时间计算 也修复了多个异常情况,避免任务进入不合理的重试循环出战投地队列也开始持久化,更多上下文,以保证完整地完成任务。 再就是记忆和梦境功能,这次处理了梦境标签页里容易误导人的报错,也修复了梦境被重复触发、旧版记忆的集合识别不准确、召回记忆住位置不合适等问题。 这些改动主要是为了让记忆系统更稳定也更安全。还有一些平台和兼容性问题, windows 盘符路径现在会被更正确地识别为绝对路径。 whatsapp 发送加密媒体时的静态条件也进行了修复。 blue bubble 在 缓存过期后的消息效果降级问题, slack 某些配置预热路径的问题也都在这次处理范围内。 总的来说, open call 二零二六点四点一四依然是以修复 b u g 为主的质量更新,主要改进了模型兼容 渠道行为、本地模型、浏览器工具、安全边界和底层稳定性。如果你平时使用范围比较广, 大概率都能碰到和自己有关的内容。最后再提醒一次,先备份再更新,如果更新之后遇到了问题,记得到评论区留言,我们下期见。

最新的 openclo vizin 二零二六点四点一五版的就是冲着解决这些痛点来的,所以今天咱们就来好好剖析一下这次更新,看看它到底在哪些地方变得更聪明更给力了。 好,咱们先从最重磅,大家肯定也最关心的部分说起,那就是核心 ai 模型的重大升级。这次更新最核心的一点就是他的大脑,也就是默认的 ai 模型性能来了个大爆发。 你可别以为只是小打闹闹的修修补补,这绝对是一次实打实的飞跃,直接拓展了他的能力上限。 来看这张对比图就一目了然了, open cloud 现在直接把默认模型升级到了超强的 cloud opus 四点七,这意味着什么呢?不光是推理能力变得更厉害了,它还第一次原生就带了图像理解功能。 简单说就是现在这个 ai 啊,不光能读懂文字,还能看懂你发的图片了,这绝对是个巨大的进步。 不过呢,这次升级可不光是让大脑变聪明了,他的嗓子也得到了优化。 没错,新版本儿现在支持谷歌那个很厉害的 gemini 文本转语音技术了,那对咱们用户儿来说有什么好处呢?首先,你现在可以直接在插件里头驻词服务,还能挑自己喜欢的声音。 更棒的是它能输出音质超好的 v、 a、 l 的 音频,甚至连电话系统用的那种 p、 c、 m 格式都支持。 而且官方还特别贴心,准备了一整套设置指南上手,可以说好物难度好。说完了这些听起来很酷的新功能,咱们再来聊聊那些看不见的功夫,也就是底层的优化,正是这些改进,才让负责干活的那个智能体 agent 跑得更顺更稳, 直接关系到我们的使用体验。还记得咱们开头聊的那个内存占用的头疼问题吗?这次更新就专门针对那种又长又复杂的对话做了特别的优化。那他到底是怎么解决这个老大难问题的呢?咱们来看看具体的部署。 你看这张图,它把解决内存问题的策略分成了三步,特别清晰,你可以把它想象从 ai 学会了怎么高效地做会议记啊。第一步,消减提示预算,就是说它不再记开场白那些客套话了。 第二步,设定内存摘要上线,就是只记会议的核心重点,并且标好段落。第三步,对其有界读取,就是以后要查资料,就严格按照这个摘要缩影来找。 说白了,就是让 ai 在 长对话里学会了抓重点,而不是把所有鸡毛蒜皮的小事都塞进脑子里,那效率自然就上来了。 这时候你可能会想,光记重点,那 ai 不 会忘事吗?嘿嘿,这就是确定性后续读取这个机制的聪明之处了,它就好像是给那份会议纪要加了个超级精准的缩影, 这样一来,就算只看了栽药,智能体也能在需要的时候分好不差的找到原始信息, 这样就完美的避免了聊着聊着就断片的问题。除了管好内存,智能体的工具箱,也就是它的技能管理系统现在也变得更稳定更好预测了。 以前的问题在哪呢?就是技能加载的顺序有点随缘,这就会影响到 ai 的 短期记忆,导致他的行为有时候不太稳定。新版本的解决办法可以说简单又粗暴,但非常有效,就是把所有能用的技能强制按名称排个序。 这么一来,不管这些技能是怎么加载进来的, ai 看到的工具清单顺序永远都是一样的,它的行为自然也就变得非常可靠了。 当然了,一个牛的版本,光有新功能和高性能还不够,安全和稳定才是基石。咱们来看看这次更新里几个特别关键的修复。首先是一个非常非常重要的安全补丁, 他解决了一个叫工具模拟的漏洞。你可别小看这个问题,因为他直接关系到整个系统的信任问题,搞不好会出大事。 这张图解释的就特别清楚,你看左边以前的漏洞是外来的工具,可以起一个和系统内置的受信任的工具一模一样的名字,就像个冒牌货,然后就能骗取系统的信任和权限。而右边就是现在的修复方案,很简单, 只要发现有重名的工具,系统一律拒绝,这就从跟上杜绝了这种假冒伪劣的可能性。 除了这个关键的安全修复,新版本还顺带手解决了一堆其他组建的稳定型问题,让整个系统跑起来更顺滑了。 咱们快速看几个例子啊。比如用 blue bubbles 的 朋友,现在在 node 二十二以上的环境里,终于能正常下载图片了,它的命令行工具也变聪明了,升级的时候会自动帮你清理掉没用的旧文件。还有用 open ai codex 的 用户,系统现在会自动修复一些旧的原数据,避免请求出错。 这些都属于那种平时不起眼,但用起来能实实在在提升体验的改进。好了,聊了这么多,咱们来总结一下。 总的来说, vr 零二二点四点一五这次更新可以说让 openclo 在 智能、效率和安全这三个方面都上了一个大台阶。 这一次更新的核心成果,咱们可以简单规划成三大块,第一, ai 更聪明了,这得益于 cloud 四点七和 jammer 五音的加入。第二,智能体杠杆更高效了,这要归功于内存优化和技能排序的修复。 第三,整个系统更安全稳定了,解决了网关漏洞和其他一堆小毛病。这三点加起来就是一次非常扎实和全面的升级。 所以说, v 零二零二六点四点一五版本给我们带来了一个能力更强、运行更稳、拥起来也更安心的 open club。 那 么真正的问题来了,现在面对这么一个强大的新工具,你打算用它来创造点什么呢?

兄弟们, oppo 可乐小龙虾迎来史诗级的更新,看到吗?我今天呢已经升级到最新版本了,这个版本呢是一个里程碑式的版本,它从根本上解决了以前配置碎变化和状态漂移的问题。简单来说,四点八呢是从工具级呢向自主智能体的质变。 以下呢,就是一些核心的应用场景,一个是自主状态持久化强化版,运行探测 分布式技能总线,还异步任务协调支持的更强大的子代理携程。我这里呢有一个剪映 skill, 它可以接管剪映,自动去剪辑视频,我把它给升级了一下,这个 skills 呢是一个开源项目, 然后我结合最新版的小龙虾,他自身的能力,让他后台呢同时运行三个子的任务,一个转录,一个打标签,一个匹配素材,互不阻塞, 让他更好的去全自动剪辑视频,而且呢不需要二次剪辑,我刚才已经试了,效果非常哇塞,典型的应用场景,你看,首先是极致的一键成片, 以前呢,你需要确认有没有识别准素材,有没有配对,中间有没有挂掉,对吧?那现在呢,我这个技能加上这个最新版的 open club。 现在呢,他的 asr 高精准的字幕文件呢,他可以精准识别,而且本地缩影匹配情感混音,全部的异步任务在后台跑完,完成自动的后台剪辑,直接把剪辑好的结果发送给你, 非常哇塞,你看,还有超大规模素材库的即时响应,以前素材超过十个 g, 每次剪辑匹配都得卡半天读文件。那升级完之后呢,配上这个四点八的缓存架构素材信息呢?以前呢,用这个 skills 自动剪辑的时候很容易出错,而且素材匹配不精准。 现在呢,有了这个四点八的缓存架构,他的素材呢,可以身份证形式的存在,剪辑时直接读取所有文件,秒集剪辑。即便是素材有一千个视频匹配延迟呢,也几乎为零。这就是他的能力,现在太太牛逼了。 你看复杂项目的多代理接力,比如说,你突然想把这段视频生成不同风格的文案,你可以派出 这个子代理去写文案。同时呢,让这个剪映 v 九主代理呢,准备素材。两个代理呢,通过这个 skill 直接对接,不用你中转任何中间文件。他的能力现在变得太强了。看到没, 四点八已经真正的解放双手开始。以前作为助手,需要频繁向你汇报状态,你得时刻关注系统有没有报错,配置有没有对齐。现在呢,系统具备了自我愈合能力,太恐怖了。 如果你系统里面某一个技能报错,它会自动地通过 a s r 仲裁器判断是否切到 web, 如果文件路径损坏,它会自动自我纠正。而且现在这系统特别稳定, 直接喂给他素材,他就能进行一个自动化的剪辑工作。流,兄弟们,没有升级的赶快去升级一下。我升级好的这个剪映技能呢,我已经打包到这个飞书文档了,你看,每一步操作流程全部都在这里,需要的说一下,免费分享给你。

今天刷到 nico 大 佬的如何打造 ai 终极个人知识库,文章结合 andrew karpsy 大 佬出的 l l m wiki 教程以及 v 二版本,我也用 upstyle 打造了我的外置大脑, 并且包含了我的工作、生活日程、学习所有场景。我现在每天用它写文案,写工作文档,越用越好用。 ai 时代下,人人都应该打造自己的知识库, 第一是你未给 ai 的 数据越个性化, ai 就 越懂你,产出就越精准,越符合你的预期。第二是打造知识库也是知识复利的过程,我也把整个过程整理成教程文档了,大家可以评论获取。

打开火山引擎官网并登录菜单,选择极梦 ai, 找到极梦 ai 视频生成三点零幺零八零 p, 点击开通服务,默认免费使用去开通确认开通疑似创建应用失败,需要先实名认证一下,打开个人中心, 根据需要选择企业认证或者个人认证,输入姓名和身份证号,认证完成。 再次点击开通服务,开通成功。以产品详情点击获取密钥, 即新建密钥,点击继续 开始配置 open club, 更新本地软件包列表, 安装 p i p, 然后安装 request 包,创建虚拟环境, 激活虚拟环境,安装 request 包, 验证安装退出虚拟环境。第三步,在工作目录分别创建核心脚本,提交任务脚本和查询任务脚本。 第四步,让 open clone 自动接种迪梦 ai, 注意先把接种的密钥替换成自己的,然后将以上内容通过对话发送给 open clone, open clone 会协助生成基础代码框架, 接入完成, 生成一段三秒的视频, 注意在提示词后面备注,帮我优化, openclaw 会协助帮你优化提示词,然后再生成视频, 任务提交成功。生成视频一般需要几分钟,可以手动查询或者设置定时查询。结果 生成完成。 打开看一下结果, 大功告成。

分享 open 口一百个实用案例的第一期,我用豆包加 open 口加 app 店,搭建了一个可以收集全平台、全信息媒体的本地知识库,不论是哪个平台,链接支持全网的各种内容, 只要你发给 open 口,他就可以利用豆包或其他对应的 ai 平台打配合,就可以帮我把视频的基本信息、核心内容、核心观点总结、自动分类打标签,提出想法, 可延伸方向、价值评估相关资源。因为他知道我是 ai 博主,所以还会延伸一下选择题供我参考。基本上我想到的,没有想到的,他都帮我整理好了,不要再在评论区艾特豆包了。这一套流程的 steam 和插件我已经整理好了,评论区自取。相比较于我以前看到好的内容、文章、图片,我就会赶紧收藏, 然后就没有然后了。翻遍各个平台的收藏家,都找不到我以前收藏的内容。那如果你看到想收藏的视频、文章、图片,想要整理在本地笔记中, 就需要手动复制、粘贴、整理信息、分类打标签,非常的麻烦,对吧?所以我的解决方案很简单,就是 open coo 作为大脑接收你的信息源,它会发给豆包或者其他 app 平台, 负责提取、分析和完善内容。等豆包把内容分析提取成功之后, open coo 会返还所有内容储存到 opcdian 中,然后利用 opcdian 本身强大的分类功能,自动分类打标签。你只要发送链接,三十秒一个画,笔记就自动生成。这套流程不仅不需要特殊手段,而且消耗极少的 token, 在手机上也能够直接操作整套流程。用到 skin 和插件也非常简单,就是用 open code 来分析,然后用自带的编程工具打开浏览器豆包或者其他对应的 ai 工具分析视频后,再把结果返还回来,写入 o c 点钟,所以整过程很丝滑。如果你已经有了 open code 了,可以把我整理的 skin 和流程发给他来搭建。 如果你还没有,可以看我的前两期教学视频,看到之后,希望你也可以自己搭建一个属于你自己的本地致富。我是达达,我们保持好奇,保持迭代。下期见。拜拜。

一分钟教会你如何在 mac 上本地部署原版 open curl。 都二零二六年了,你还在使用一些第三方的 open curl, 就 像个智障一样。不要着急,今天歪歪教你如何在 mac 上本地部署原版 open curl。 第一步,安装 homebrew 官方的一键安装命令,虽然会自动安装这些工具,但是可能会出现问题,所以我们直接先行安装。 我们在终端输入这个安装命令,如果这里跳出弹窗,证明你的命令行开发工具没有安装,我们点击安装,并且同意许可协议。等待安装完成后,我们回到终端,重新输入这行安装命令。回车后会问我们通过什么下载 homebrew? 这里我们通常输入一回车,选择通过清华大学镜像源下载,然后我们需要输入开机密码回车, 接下来会问我们是否删除之前的 homebrew, 可以 输入 y 回车,它会帮我们自动备份。在接下来我们还要再按一次回车开始安装 homebrew, 安装后再次输密码回车。接下来我们要选择用 homebrew 安装时用哪个国内镜像员,我们这里选择推荐的阿里镜像员回车, 再次等待安装完成,等出现安装成功的提示后,关闭终端,重新打开,让配置生效。第二步,安装 gte gte 是 一个代码版本管理工具,我们在终端中输入这行命令回车,然后等待安装完成。第三步,安装 notgs 来到 notgs 的 官方下载页面,下载完后打开安装包,在安装窗口中点击继续 同意用户协议,然后点安装,输开机密码,点击安装软件按钮这里我们稍微等待片刻,完成后点击关闭按钮。四步,安装 open curl 我 们在终端中输入这个命令回车。先把 n p m 的 下载源切换到国内镜像,然后我们继续输入这个命令,把 g t 访问 get 地址改为 https 地址, 最后输入这行命令,开始安装最新版的 open curl。 回车后需要我们输入密码,这个电脑密码不会显示,直接输入后回车。等待 open curl 开始安装。安装完成后,终端会输入 a, d, d, e, g, 某些数量还可以仅此的提示。 第五步,配置 off 壳,我们直接输入这个命令,启动驶驶化配置流程,然后会提示你使用它可能存在风险。问是否继续?这里我们按键盘上的左键选择 yes, 然后回车确认, 随后保持默认的 quick 模式回车。这一步需要选择使用的大模型服务商,我们这里以 kimi 为例,这里大家自行选择自己使用的就可以。这里选择注册商域名类型回车。然后把准备好的密钥粘贴到这里回车。 这里选择具体的模型,保持默认回车。这里选择通讯渠道,我们先选择最后的跳过,这里问我们要不要现在配置 skills, 我 们按空格键 pick for more 回车。选择先跳过。接下来问我们用什么方式启动 open curl, 简单直观推荐 w, b, u, i 随后会跳出一个网页,我们就可以和小龙虾对话了。今天的分享结束了,关注歪歪,下期教你如何对接飞书,用飞书操控电脑!

大家好,我是麦东。安卓手机微信终于推送更新了,官方直接支持接入 openclaw, 可以 通过手机微信直接控制你的龙虾,并且没有任何的封号风险。 接入方式也非常简单,只需要三步,第一步,加你的微信升至最新版本。第二步,执行脚本安装 openclaw 插件。第三步,使用微信扫描插件,安装过程中展示的二维码 请用微信插件。下面我们带大家一起来操作一下。首先第一步,确认你的微信版本。 在微信我的设置关于微信里面,确认你的微信版本为八点零点七零,如果不是点击版本更新,先将其升级到最新版本。升级至最新版本后,我们在插件里就可以看到微信 cloud boot 插件,点击详情即可看到插件的安装命令。 接下来我们回到 pc 端,在安装了 opencloud 的 设备上直接运行该命令即可。 安装过程中会弹出二维码,使用微信扫码即可 扫码完成。在手机上点击连接, 耐心等待连接完成。当出现微信 cloud bot 的 连接界面的时候,我们就已经成功完成微信与 opencloud 的 对接了。下面我们在手机上跟 opencloud 发送一个打招呼的消息, 可以看到也是成功地收到了来自 opencloud 的 回复。接下来你就可以使用你的手机微信 随时随地远程指挥 openclaw, 帮助你干活了。整体的对接流程还是比较简单的,大家快去试试吧。好了,本期视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。

别再盲目跟风爱马仕龙虾了, open core 创始人 peter 在 四月十四号当天进行了史诗级的更新,直接跟爱马仕划清赛道,正面迎刚。那么这次到底更新了什么?有什么样的优势?一条视频给你讲清楚。 第一,记忆系统炸了,支持切尔的 gpt 对 话历史,一键导入记忆供电导入洞察双标签跨平台经验无缝迁移,再也不用重复为 ai 背景 dream 重复记忆问题,也收复了爱马仕引以为傲的记忆优势,感觉荡然无存。 第二,视频生产力直接拉满,新增 u r l o 令交付生成,直接出链接,不占内存,还支持参考音频,支持宽高比,做短视频广告的直接起飞。 第三,安全权限大升级,补了 cameras 的 路径漏洞 s r f 的 风险,新增的 policy 的 命令终端直接管 ai 执行权限,安全问题又上了一个台阶。 除此之外,还有飞书 teams watts 全平台的修复,插件开发更简单,启动更快。那么爱马仕更适合个人玩家常签,喜欢智能陪伴的人, 但不适合平台联动,他的批量生产力低。相反, open core 才是内容运营搞钱的利器。那么到底是僵着老的辣,还是出生牛犊不怕,咱们评论区见,想要具体教程的,可以在评论区扣大更新,我会发教程给你。

嘿,各位, openclo 又有大动作了,刚刚发布了二零二六点四点七版本,跟你说这次更新可不是闹着玩的,它不光带来了一堆超给力的新工具,还对整个平台的核心做了个大加固。 今天呢,咱们就来好好聊聊,深入挖一挖这次更新到底有哪些好东西,来,我们开始吧! 好,那我们今天就分几步走。首先呢,咱们先从一个宏观的视角鸟看一下这次更新的全貌,然后我们会一头扎进去,看看那些最亮眼最强大的新功能到底是什么。 接着,我们再看看 opencloud 生态系统,它的朋友圈又是怎么扩大的。当然了,那些平时看不见但又超级重要的安全和稳定性修复,咱们也得聊透。最后,我会给大家总结一下,这次更新最核心的价值到底在哪儿。 好,咱们先进入第一部分新版本概览。这么说吧,这次更新呐,绝对不只是一次常规的修修补补,它更像是 openclaw 平台的一次重要飞跃。 如果你要问这次更新的核心是什么,我觉得啊,主要就三块儿,第一,给开发者们塞了一堆全新的大杀器级别的工具。 第二,跟各大 ai 服务商的关系搞得更铁了,集成得更深了。最后,也是非常重要的一点,就是对平台的安全性和稳定性来了个硬核加固,这三条腿稳稳地撑起了这次发布。 接下来是第二部分主要新功能。好了,说完了整体印象,咱们就来点实在的,看看那些真正让人兴奋的东西。 这一次更新带来的几个新工具啊,可以说真的有点改变游戏规则的意思了。 首先要说的这个,哇,简直就是个大招啊!一个全新的命令中心叫做 open cloud info, 你 可以把它想象成什么呢?一个专属的 ai 副驾驶就坐在你的命令行里,随时听候你的调遣。 那这个音符儿命令到底有多深呢?这么说吧,它把四大核心功能全给你打包到一块了,不管你是想直接调用大模型做推理,还是想生成图片、音乐、视频,甚至是想让 ai 帮你上网搜东西,或者给文本创建嵌入,现在通通一个命令就搞定。 这就意味着,以前那些可能需要倒腾半天的工作流,现在一下子就变得超级简单。还有一个功能啊,可以说是王者归来了,那就是内存维基堆占, 你就把它想成一个超级智能的知识库,它厉害到哪呢?它不光是帮你存东西,还能把信息自动整理成论点和论据的结构,甚至能自己发现哪些信息是互相矛盾的。而且啊,你在搜索的时候,它还会优先把最新的内容给你, 对于那些需要跟海量复杂信息打交道的人来说,这简直就是个神器。当然了,对于那些喜欢自己动手追求极致定制的高手们,这次更新也准备了个特别的礼物, 可插拔的压缩服务商。说白了,这就好像换电脑的零件儿一样。你现在可以把 opencloak 内部那个负责总结摘药的核心引擎直接换成你自己写的,这一下子就让整个平台的灵活性上了一个大台阶。 好了,第三部分,扩展的 ai 服务商支持聊完了新工具,我们再来看看 opencloud 的 朋友圈,你知道一个平台再厉害,也得有朋友才行。这次更新呢, opencloud 在 交朋友这事上又迈出了一大步,大大扩展了对第三方 ai 服务商的支持。 你看这张图就明白了, opencloud 的 生态圈是越来越大了,也越来越开放了。这次更新重点优化了对好几个主流服务商的知识,这里面有我们都认识的谷歌 anthropoid, 也有像 rca i 和 alma 这种非常专业的工具, 而且这些更新都特别实在。比如说,你现在可以直接在 opencloud 用上谷歌最新的 gem 模型了, 跟 r c a i 的 集成也变得更简单,直接内置了插件还有 alma, 它现在甚至能自动识别你本地的模型有没有视觉能力,非常智能。 哦,对了, antropic 的 cloud 命令行工具也回来了,这些小小的优化,其实都让咱们开发者在选模型、用模型的时候感觉更顺手了。 好!第四部分,关键的稳定与安全修复,炫酷的新功能说完了,咱们得聊聊那些幕后影响了。 你知道一个平台再牛,要是三天两头出问题,不稳定不安全,那也白搭。所以接下来咱们就看看那些让平台变得更可靠的底层修复工作。所以你肯定想问,新版本到底安全了多少呢? 答案是安钱的多。我给你举几个例子,以前啊,可能会有一些服务器端请求伪造的漏洞,让坏人能从服务器内部搞事情,现在呢,咱们加了专门的保安和门禁,这条路给堵死了。 还有系统里一些特别关键的设置,以前可能会被不小心改动,现在也上了一把安全锁,不让随便碰了,再就是会画令牌,这就好比你家慌了门锁,旧钥匙会立刻作废,独绝了后患。这些改变让整个平台就像穿上了一层盔甲, 除了安全,用起来爽不爽也很重要,对吧?开发团队在很多小细节上也下了功夫,比如以前聊天记录里可能会冒出来一些看不懂的技术代码,现在都给你藏好了,界面干干净净,在小屏幕上,聊天窗口也不会被其他东西挡住了。 ios 上的连接错路提示也更清楚、更人性化了。还有跟 discord、 slack 这些我们天天用的工具集成也更稳定了。就是这些一点一滴的打磨,让我们的日常使用体验变得更 好了。好了,最后一部分核心总结说了这么多,咱们来回顾一下,如果要给这次更新找一个精神核心,一个关键词,你觉得会是什么? 嗯,我觉得就是社区。你看这个数字,四十五加它不是冷冰冰的,这背后是超过四十五位开发者的心血和智慧。 正是因为有他们,才有了我们今天看到的这次强大的更新,这也恰恰证明了 open core 社旗的活力有多惊人。 你看官方的发布说明里,也特别感谢了像 winston、 cock j lamer 这样的核心贡献者,以及整个社区的每一个人。这就是开源最迷人的地方,对吧?大家一起把一件事做得更好,共同推动项目往前走。 所以咱们来给 open core 二零二六点四点七划个重点,它就像一个武林高手,一边练就了更厉害的新招式, 另一边呢,又把自己的内功,也就是平台的底子打得更扎实了。结果就是现在的 open car 不 光功能比以前强大了不知道多少,用起来也更让人放心了。那么最后这个问题就留给大家了, 现在你手上有了一个更强大更安全的 open car, 准备好用它来创造点什么不一样的东西了吗?

嘿,朋友们,你有多久没有整理过你的收藏夹了?你是不是跟我一样,然后每次看到好的内容呢,就会点收藏,想着以后会慢慢看,但是再也没有打开过了,然后那些看似厉害的知识呢,就一直在你的收藏夹里面吃灰,好像永远也无法进入到你的脑子里。 我就在想,那现在的 ai 已经这么发达了,能不能让 ai 替我去学习,然后再交给我呢?直到我最近看到了卡帕菲发的那条推文,哦,原来大佬也已经在做这件事情了,那安卓卡帕菲是谁呢?他是 openai 的 创始人,团队的成员,也 也是前特斯拉的 ai 总监, web coding 这个概念呢,就是他提出来的,他把他的这套知识库的方法呢叫做 l l m wiki, 那 wiki 呢,就是大语言模型,那 wiki 呢,就是我们经常用的维基百科,那其实呢,就是 用 ai 帮你搭建一个属于你个人的一个维基百科。那我自己是使用了一段时间了,我觉得真的非常的好用。今天这期视频呢,我就把 capacity 的 知识库的方法呢,一步一步的教给大家,全程不需要任何的代码, 可以跟着做就行。那在开始之前呢,我们先要搞清楚 l l m wiki 到底是什么,它跟我们一般用 ai 问答有什么具体的区别吗?我们现在用的 ai 问问题呢,走的其实是一种叫 r a g 的 一个模式,它的中文呢,就是解锁增强生成。听起来是很复杂,但其实原理非常的简单,就我给你打个比方,就想象你有一个图书管理员, 然后你每次问问题的时候呢,他就会跑去到书架上去翻,然后当场给你总结一个答案,然后你满意了,你走了, 他就把书又放回去了,然后什么都没有留下。那下次你再要问类似的问题呢,他又重新跑一遍,又重新去找书,重新翻页,然后再进行一个总结,就是这样下来就是没有任何的一个积累。 那现在就比如说我们用的 notebook lm 或者是叉 jpt, 所有问答的这个 ai 呢?他其实用的都是同一个原理,就是上传文件,然后回答 它们很有用。但是有一个致命的问题,就是你用完了就结束了知识,它不会留下来,不会形成积累。那卡帕菲说的问题在哪里呢?它就是说大多数人都是把 ai 当成一个随时可以提问的一个搜索引擎。那但是呢,这就是对 l l m 大 元模型最大的一个浪费,因为大元模型它真正厉害的地方在哪里呢?它不是解锁,而是理解和重组知识的这个能力。所以你每次扔给 ai, 帮你去找答案,用完了就扔,那就好像你雇了一个世界顶级的一个学者,但是每次都让它去帮你跑腿买咖啡, 就是有一种杀鸡用牛刀的感觉。那以前呢,我确实也是这样用 ai 的。 那卡帕特提出的这个解法是什么呢?一句话就是不要让 ai 帮你去剪辑知识,而是要让 ai 帮你去翻译你的知识, 这里面一个词的差异,但它的底层逻辑完全就不同了。那好,下面我们就进入实操的这个部分,我把这个整个搭建的过程分成三步,你跟着做就可以了。第一步就是准备工具,首先你需要两个东西,一个是 openg 格式管理笔记的一个软件,它是免费的, 免费的,免费的, ok, 它主要是进行一个本地的一个存储,所有的笔记都是在你本地的,然后它搜索起来也是非常的快的,它虽然是免费的,但是它里面会有一些 高级的一些功能,如果你需要的话,它是需要付费的。比如说这个多平台同步的功能,你可以用它官方的这个方法是需要付费的,但是它这个软件强大就强大在它可以安装很多的第三方插件,也有很多的免费的解决方案。如果大家对这个感兴趣的话,可以留言我,之后如果问的人多,我可能会再出一期视频给大家讲一讲。 那如果你没有用过的也没关系,你就可以把它理解成一个管理很多文件的一个笔记本就好了。另外一个工具呢,就是可以在你终端运行的一个 ai, 那 我用的是 cloud code, 你 也可以用 cursor 或者是 openclaw, 也就是我们常说的这个小龙虾,或者是其他一些类似的工具,它只要是可以在终端运行的 ai, 那 原理基本上都是一样的。 那这两个工具装好之后呢,我们就直接进入第二步就是让 ai 帮你去直接搭建这个目录的结构,整个知识库呢,它的结构 简单来讲就是可以分为三个文件夹,第一个叫 raw 文件夹,它就是可以放你原始的这个子素材的一个地方,你看到的文章,或者你看到的好的视频,它的这个视频字幕、 pdf、 书籍、文档等等,全都可以直接扔在这个文件夹里面,它的原理只有一个,就是只进不改,然后保持原样就好了。那第二个文件夹呢,叫 keep, 这个就是 ai 帮你整理之后的知识文章存放的一个地方,每一个概念它对应一篇 markdown 的 这个文章,那这个文件夹里边的内容呢?你自己是不需要手动去写的,全是由 ai 来进行维护的。那第三个文件夹就是 outputs, 这里就是输出的一个地方,就是你向 ai 提问过后,它会给到你的一个总结报告或者是内容草稿,它都会放在这个里面。 这三个文件夹呢分工是非常的清晰的。那第三步我们怎么去搭建呢?就是先调出你的 ai, 那 这一步呢就是非常关键的,你不需要自己手动去建立文件,不需要手动写规则,直接把下面这一段提示词复制给 code code, 然后它就会帮你把整个系统搭建好。那首先呢就是 打开我们的终端,然后 cd 到你的笔记仓库,你不知道你的笔记仓库在哪里的话,你可以在你的 ops 点笔记的这个左下角,然后点你仓库的这个名称右键,然后复制路径, 粘贴到这里,就是 cd 空格,然后粘贴这个路径,然后回车,它就直接到你的这个仓库了,在这里调出你的 ai 工具,那我这里用的是 cloud code, 那 我就直接调出它 cloud, ok, 等一下,然后你的 cloud code 它就出现了,然后你就可以复制 karpai 的 这个 get 的 仓库的这个地址,然后告诉他我想要基于 karpai 的 这个 lm wiki 的 这个概念,为自己搭建一个个人知识系统,那随后呢,他会问你几个问题,你就根据你的情况改成你自己真实的一个情况就好了, 我把它打在公屏上, ok。 如果大家想要看 carpath 的 这个原仓库的内容呢,我要特别提醒一下大家,一定要看清楚,它的这个星级已经是达到五千了,然后这边是它 get 仓库的这个头像,然后这里就是它的一个这个方法。如果你也是内容创作者的话,你可以在你的这个提示词的最后再加上一句,就是 week 的 内容。除了知识总结, 还要有一个内容创作灵感的小技记录,这个知识点可以怎样变成自媒体的内容。那运行之后呢, cloud code 就 会自动帮你去搭建好这个目录结构,写好运行的这个规则。那这一套流程它运行的一个原理是什么呢?有三点。第一点呢,就是你知识会真正的被积累下来,就 是每次你未给 ai 一 篇新文章的时候,它不只是帮你总结一下,它是会把里面的这个知识点整理成一篇结构化的一个文章,永久地存放在你这个知识库里面。下次你要找某一个知识点的时候呢,它就直接从你的这个 wiki 的 里面去查,就不用再重新去翻看原来的这些文章了,这个是一个很省 token 的 一个点。 第二点呢,就是知识库会越用越聪明,因为 ai 在 整理的这个时候呢,它会自动把新的内容跟你已经有了的这个知识库里面的文章呢进行一个连接。也就是说,比如说你之前有一个知识点,它有一二三点,那新来的知识库里面可能补充了一个第四点,它就直接在这个文章下面就加了一个第四点, 那用久了之后呢,你的知识库里它就不只是一个单独的一篇一篇的文章了,而是形成了一个知识网络,也就是我们 abc 里面经常会展示出来的那个神经网络图。那第三点呢,就是对我们内容创作者 来说,或者是你喜欢写作的人来说,是一个特别有价值的点,就是你看过的每一篇文章,或者你看过的每一个有用的视频,它都不会白白的浪费,它们呢都会被 ai 整理成你的一个创作素材库,下次你要写内容的时候呢,就可以直接调用。那 我自己搭建完了之后,最大的感受就是感觉自己以前是在存内容,那现在是在从我积累的内容里面去挖掘真正有价值的资产,那这个感觉是完全不一样的,那我日常是怎么用的呢?我可以给大家演示一遍。那可以看到我的这个仓库里面呢,是会有单个文件夹的,一个就是这个 raw, 还有一个就是 wiki, 然后还有 office。 那 平时呢,我就会把看到的一些好的文章呢,直接丢进到这个文件夹里面,然后这个里面呢就会我的一个命名,然后就是它的一个来源,然后还有就是主题 viki, 这里呢就是 ai 帮我整理出来的一些的概念点,比如说这个第二大脑,那你看里面它就是直接就没有废话了,就直接就是概念知识点这些的这些知识点呢是非常的干的。那 output 呢? 我们来也可以看一下 output 呢,就是我让我跟 ai 进行的一些对话,然后让它帮我整理出来的一些内容,比如说这里让它帮我整理了一个视频的大纲,那 ai 就 帮我整理出来了。那在这里呢,我要给大家推荐一个很好用的一个插件啊,就是你的 chrome 插件,它叫 obsidian webclapper, 它的用法呢就是可以一键将你的视频的内容,视频的竹子稿或者网页的一个文章存进,直接存进你的 obcode 里,你可以指定存到哪一个文件夹下。那在我在这里呢,肯定就是存到我的 raw 文文件夹里,可以给大家演示一下。比如说我们现在看到了一个很有用的视频,我想要把它保存下来呢,那我们直接就点这里的这个 clapper 这个 logo, 然后这里就会出现添加到你的 obsidian, 然后你就点添加就好了,然后它就直接出现在你 obsidian 这个仓库里了。那每周呢,你就找一个时间打开你的这个终端,打开你的 ai, 我 这里用的就是 coco 的, 然后就直接一句话告诉他,请帮我处理 raw 文件夹里面我这周新添加的内容。 这个节奏可以由你自己来进行一个设定,你可以一周整理一次,或者每天整理一次,那它呢就会自动判断哪一些概念 要新建,或者是要更新对应的一些已经有了的文章,然后在相关的这个文章之间建立链接,也就是双链接,那你就不需要自己去手动整理了,那 ai 就 直接帮你归类整理好了。那第三步 output 怎么用呢? 比如说你有一些问题,你就可以直接在你的仓库里面把你的 ai 调出来,让他帮你去想一些你实际生活中要解决的一些问题。比如说我的话,那我就是可以让他去帮我整理选择题,那你可以这样跟他讲,你说我现在想要发一个个人知识库的视频,我应该从哪些方面 讲呢?然后根据我的 wiki 的 知识库,你帮我想一想选择题,并且标出原始的这个来源,方便我翻阅,然后写成文章放在我的 office 里, 然后这样呢发给 ai, 它呢就会根据我们之前制定的这个规则了,然后进行一个输出。那稍后我们来看一下它有没有写成。 ok, 那 我的 ai 呢?它已经把这边文章写好了,它也放到了我的 office 里面,然后我们来看一下, ok, 它已经是这这里写好了,那可以看到它现在已经 给了我很多个选择题,然后他还排出了这个优先级,给了我相应的一个建议,这里也写出了这个原始的一个来源。好了,那我们来总结一下 karpay 的 这个核心的思路呢,就是把 ai 从解锁工具变成你的一个知识翻译器。那三个文件夹 raw 放原始的材料, wiki 呢?就是放成品 outbox 呢?就是放一些你产出的一些文章。那日常呢,就是这样,平时你就可以把一些你看到的收藏夹里的文章呢,然后扔到 raw 里面,然后每周批量处理一次。这样呢,你的这个个人知识库呢,就搭建好了,那如果你是跟我一样是内容创作者的话,那这套东西的话,对你来讲是格外值得试一试的,因为你的知识积累呢,会直接变成你的一个内容的素材库,然后帮你去做产 出。好了,那我今天的内容呢,是非常的大的建议,你可以回来对着视频一步一步的来做。 那有任何问题呢?欢迎在我的评论区里面留言,我看到了的话都会积极的去回复。如果有某一些方面的问题好的话,我可能也会制作成新的视频来帮大家解答。 ok, 那 我是马 tina, 我 们下期见,拜拜。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。