大家好,呃,我今天试了一天的时间啊,让这个 oppoplus 四点五啊,最新推出的那个 music generate 功能给我生成音乐,呃,花了很长时间啊,也花了很多 gigabyte 的 额度,让它 troubleshooting, 那 么这个是我们的一个对话记录啊,我发现用默认的 music generate 的 工具呢,它会碰到一个错误,也就是说如果你的歌词啊有中文的这个标 有这个有问题啊,然后反复的调教,最后呢,没有办法,我参考这个 minimax 他 们的这个官网,因为我是用 minimax a p i key。 呃,这个 vivo pro 推荐是用酷狗的和 minimax 的 a p i 做这件事情,我用 minimax 的 官方的文档,让这个酷吧里让我给我专门生成一个呃 skio。 然后呢, 跳过这个默认的 music generation 啊,花了很长时间,最后呢,终于啊,在刚才呃成功了,所以呢,我们来听一下最后的这个这个结果啊,我们来听一下,一直在报各种各样的错误啊,那最后你看, 我说你再试一下生成音乐,不要用系统内置的 music generation, 我 们调一下,要有歌词,要有摇滚风格的,要歌颂深圳的,然后最后摇滚版深圳,你先听一个大概啊 啊,大家看到了,就是我觉得他生成的这歌呢啊,也还 ok, 不 算难听啊,非常适合做这个晚会歌曲。所以大家呃,对 这个问号还有什么新的一个想法啊,其实可以去多试一下,我后续呢会会再试一下他的视频生成功能,我觉得这个是非常有意思啊,非常有创造力的一件事。好,谢谢大家。
粉丝223获赞1757

之前我给大家展示了我们公司的小龙虾,自动用苏诺写歌剪辑拆分鬼,把大家都给看蒙了,很多人都在后台疯狂问我,这个苏诺没有官方 api 啊?那怎么让小龙虾跟苏诺对接上呢?今天我就来给大家揭秘我的小龙虾怎么一句话让他调用苏诺来干活的 ai music。 先说一下啊,小龙虾的使用不适合新手小白,无论是安装调试都需要耗费大量的时间,需要有一定的电脑操作水平。今天的内容比较硬核,但你看懂了, 举一反三,就能指挥你的小龙虾去干其他的事了。既然没有 a p i 接口,我们只能用最硬核的办法,让 ai 自己控制浏览器,模仿人类的操作去点鼠标。怎么让龙虾稳定控制网页? 试了三条路,直接抓网页 web fetch, 这是 openclaw 内置的 skill, 它不依赖浏览器直接抓取网页, html 速度快,适合抓取能够公开访问的资料,但一碰到需要登录的网站,直接歇菜办理。浏览器 openclaw browser agent, 它会打开一个独立的 chrome 窗口,相当于开了一个无痕浏览器,你需要重新登录你的所有账号,但正因为它干净自动化,因此很容易遇到人机验证的问题。 虽然理论上你可以再做一个通过人机验证的 skill, 但那样效率就低,且 token 消耗大,就划不来了。本地中际扩展 chrome relay 直接在本地操作,因为浏览器已经登录了你的账号,所以也不太会触发人机验证。这个方式的唯一缺点就是 solo 窗口。 chrome 的 relay 扩展都需要保持开启,并且需要注意安全性的问题,因为所有的操作都在本地,已经登过各种账号的浏览器里,我们选择这种方式,目前应该是最优解。 那选对了路子是不是就起飞了?太天真了。刚开始我们的同事直接给他上了个高难度任务,因为我还没有做任何调试,也没有跑通,相当于还不会走路就要跑步。然后他就开始吹牛逼,开始产生幻觉。当我们问他,你真的生成了吗?在哪里? 他还信誓旦旦的截了一张 solno 的 界面图,说在右侧,实际上他根本没有做任何操作。确实,你可以发现,他就像一个刚入职的新员工,工作流程都还不熟悉,你就让他做一百万的大项目,肯定会搞砸,所以对他培训是一定要的。因此 我们从头开始,先从简单的来。我告诉他,调用本地浏览器,配合 solno relay skill, 在 solno 生成一首弦乐四重奏音乐。然后他一开始不听话,也不懂,他还是跑去调用无头浏览器代理浏览器, 就是不知道使用本地浏览器,甚至一会没管他,他自己截了几十张图识别,像个无头苍蝇一样乱撞。这样的情况基本就不要再继续跑了,直接 stop, 告诉他哪里错了。于是我说我再重申一遍,不要使用代理浏览器, 所有的操作都在本地浏览器进行。然后他开窍了,他终于打开了我已经给他开好的 solo 窗口。接下去就很顺利,他开始填写风格歌名,然后点击生成。当你以为他就要成功了的时候,他卡在了最后下载的一步,他其他的按钮都能准确操作,就是没法理解下载按钮在哪里。 于是又经过了两三番的反复引导调试之后,他终于成功点击了下载,并且把文件发到了群里。 我们通过漫长的反复调教,终于跑通 solo, 自动生成歌曲小龙虾只要成功操作一次,就能记住 把生成歌曲搞定,再让他学习如何卡尔歌曲成功实现一个 solo 功能,再尝试其他的,举一反三,他会越学越快。当我终于教会他之后,我只对他说了一句话,记住这个工作流。他瞬间将这套复杂的交互逻辑向量化, 写进了自己的 memory 记忆。所以里,他是一个有记忆的学霸。有人会问了,旭哥花那么大的劲调试让小龙虾去指挥 solo 作曲,有这功夫,我自己打开 solo 曲子早就深沉了。小龙虾实现的是一套流水线,工作流是一套生产系统,你自己用 solo 产生的是一次性物料。给你举个例子啊,小龙虾是一个越用越聪明的数字员工,一个作曲的实习生,而你自己开 solo, 永远活都是你自己干。那你在你们公司带新人不也要花时间吗?但你把小龙虾带出来,还能净化, 你有记忆,你能用非书直接给它相应类,而且永远不会离职,它不香吗?咱们再试讲一个场景,你跟小虾员工说,明早六点搜索抖音昨日最热的音乐类短视频,把点赞最高的那首歌分析下特点,记录非书文档,同时打开 solo, 模仿这首创作十首 同类风格的歌曲,剪出高潮三十秒也放到非书中,你就可以去睡觉了。明早六点,你的小虾同学保证把你想要的曲子呈现在你面前。这些定时任务,多模态分析、音乐创作不需要人干涉,只有小龙虾能做到,你只需要在床上呼呼大睡。 opencloud 在 我看来,最近肯定是有点热过头了,但它一定不是 ai 的 血统,一定不是制造焦虑,它一定会成为未来 ai agent 的 技术基座。再过半年、一年,或许大部分你使用的 ai 产品都会构建在小龙虾这种技术模式基础上。你现在了解一些小龙虾的技术基础,对你后面再去使用小龙虾生态下的各种 ai 产品 将有巨大的帮助。当然啊,小龙虾的安装调试实在是太复杂了,我们每天十个小时的工作里面,九个小时都在处理它的各种报错调试中。不过相信咱们的 ai 发展速度,再过一两个月,各种官方和第三方的工具出来,会让小龙虾的使用更加简。 好了,我是小徐音乐,关于音乐人怎么去调教你的音乐人专属小龙虾,请关注我们的系列视频,也欢迎大家在小徐 a s do do 公共号上面参加我们三月二十二号在广州举办的小徐 a i 音乐线下沙龙,咱们现场见!

open class 到底能做什么?只有你想不到,没有他做不到。今天带你看一个比较复杂的工作流程,当你在终端启动了 open class 之后,在 mac 上面会有一个插件。今天的任务先是帮我搜集一下斯坦福大学第一年级的计算机课程,我们来仔细看他的工作流, 首先他根据我们的课程找到了准确的课程内容,比如说 cs 幺零六 a 和 cs 幺零幺,然后他通过 break 浏览器帮我们提供的搜索引擎的功能,然后进行了网络搜索,成功的找到了几轮搜索。最后他帮我们找到了几个课程, cs 幺零六 a 以及他的介绍,还有 cs 幺零幺,那这个相对来说比较容易,但是呢,我们想让他帮我们做成一个课程总结,然后截取出相关的讲义内容的图片,做成一个报告来,我们看看 这个任务的结果,那这个任务就会变得相对于更加复杂。在一些常规的网页搜索之后,我们看到了他开始帮我们写报告了,他告诉我们报告已经生成,我们在左侧他的工作夹里面就能看到这样一个 cs 幺零 a 点 report 这个东西,我要求他用 markdown 的 形式,确实完美的用 markdown 的 形式给我展示出来,这也不足为奇。我们再来看看他帮我们找到的关于内容的截图,看到了吧,有二十张截图,所以他帮我们完美的完成了信息搜集,总结汇总,甚至 视频内容截图的功能。而且在运行过程中,他直接通过了自己自带的画布功能,帮我打开了这样一堂课程的页面,我们能够看到这就是斯坦福大学 cs 课程的官方网页,更加厉害的是,这一套流程下来都不到一分钟的时间,所以这就是 open cloud 最大的一个优势,速度极快。那如果你也感兴趣,想要部署在你的电脑上面,成为你真正的 ai 助手, 我们正好有一个 ai 工具群,里面会提供这样的服务,以及对应的行业多地案例的课程。如果你感兴趣,可以看主页第一行,会有专人给你提供更多的信息和介绍。

大家在做项目的时候有没有发现每一次对话都会调用很多的工具,而且很长一串,而且回复也是很长一串,总觉得每次对话都会浪费很多的对话次数。我今天下午给我的小龙虾配 备了一个插件,就是 maryland 的, 而且我给这个插件配备了一个项链模型,这项链模型是百炼的一个模型,它每天的话,它的工作原理就是每一次对话把你的记忆来解锁,而且一次对话成本很低,一天对话差不多就是几角钱。 我还做了一个记忆分成, later, long and merry 这个东西让我的记忆能够做到,它的工作原理就是把你的记忆用来做冷热中的一个分成记忆,你去用项链模型配合的去用,它每次调用都很精准,上下文也很节约。你看我到后面我配备了过后,现在基本上就是一句话就直接给出结果, 这样很节约我们在做项目时候的时间,还有他的记忆很精准,会丢掉上下文的一些记忆在里面去给到模型去反馈,反馈结果给你。而且你们在用飞速的时候,飞速在对话的时候也会很慢,那你加上这个功能,他对话的效率就会很快。我现在已经把这个功能已经配备到我的 u 盘里面了,大家可以去看一下。

大家好,今天给大家演示一下菲林的泊泊的。嗯,配置方法。嗯,这个,嗯,菲林的泊泊安装挺简单,就是在应用中心中。嗯,点安装就行了。我这个已经提前安装好了,它这个安装的时候会提示安装两个插件先。嗯,然后再安装。 然后我这个菲林是刚装的系统,里面也没什么数据,用的是惠普那个 t 四三零的那个小主机,能用菲林装主要是因为这个安装门槛非常低。 嗯,咱们下面打开这个 windows, 然后,嗯,再打开外部页面,大家可以看见这很轻松的就打开了,不像像其他的那个安装方式,还需要配置一下才能打开这个。嗯,外部窗口,这都是飞牛都提前配置好的。嗯,我们来使用就可以了。 所以说安装的口很低嘛。这个飞牛的配置主要就两项,这个模型配置跟消息渠道。咱们先配置一下模型,咱们这是选择自定义, 然后这个选择模型名称,咱们可使用的是。呃,轨迹流动的那个服务,需要大家先注册一下。呃,这个有两千万的那个免费 token, 而且模型广场中就是目前的主流模型都有,大家可以随便选择使用,我们选择这个 mini max。 二点五来演示,复制一下它的名称,粘贴到这下面,这里是添加那个。嗯,轨迹流动的服务地址,咱们到这个轨迹流动这去复制一下, 然后回来,然后粘贴。嗯,然后再往下这个地方就是需要配置它的认证密钥,就是 api 密钥。嗯,咱们也复制一下,然后再返回来粘贴。 哎,怎么不能确定?哦,上面这块是啊,上面这块要点击添加,然后再点保存,这样模型就添加成功了。嗯,然后下面需要去配置一下。呃,消息渠道,这个需要等它刷新一下,它这个默认是已经安装了飞书, 我们这次是,呃安装一下微信,这里直接点装安装微信就可以,这里需要大约等个两三分钟吧。嗯,他安装好了,我们就,嗯添加一下,扫一个二维码就可以使用了。 这个安装微信,有的小伙伴们可能会呃提示安装错误,呃,安装好几遍都是提示错误,这个时候大家可以刷新一下状态,它有可能已经装上去了,但是吧,呃,你扫码进入微信之后,呃说话,嗯,这个 openclaw 没有反应, 这个时候大家需要去把那个,呃,嗯,就是微信中那个插件里有一行这个微信机器人的代码,复制给外边端的那个聊天窗口,让龙虾自己去安装一下。啊,这样你就可以在微信跟龙虾进行对话了, 然后提示安装完成。啊,我需要重启一下才能使用。嗯,咱们先点那个添加渠道,嗯,渠道类型选择微信,然后生成二维码, 然后拿手机来扫一下这二维码,然后添加一下那个微信机型就完成了。好,我打开。

欢迎收看我是大叔,只跟你聊最实在、最有用、最有意思的内容。 各位开发者好,我发现网络上很少人把 openclaw 插件部分讲清楚的,今天我决定跟大家把插件系统部分说明下,并带大家一起实操作功能点。先问几个问题,你的企业是不是也遇到过这些情况?第一,公司用钉钉企业微信,但 openclaw 官方不支持,怎么办? 第二,想接入内部模型服务,但不知道如何配置,怎么办?第三,团队十个人,每个人都要手动装插件,配置还不一致,怎么办? 第四,插件装好了,启动失败,日子看不懂怎么办?如果中了一条,今天的教程就是为你准备的。 open cloud 插件系统就是为了解决这些问题而生的。插件系统能帮你解决四大问题。 第一,能力扩展官方不支持的通道,自己写插件模型提供商自己接工具技能、语音、图像生成统统可以扩展。第二,双格式兼容,你可以写原声插件,用 open cloud 点 plugin 点 json 格式,也可以打包成 excel 格式,兼容的格式,一套代码多处用。 第三,灵活配置,允许列表拒绝列表槽位选择器,想怎么配就怎么配,配置改完自动生效,不用手动重启。第四,状态监控插件是禁用,缺失还是无效一目了然,还有诊断命令,帮你快速排查问题。 开始实战前,先搞懂五个核心概念,第一,原声插件用 opencode 点 plugin, 加上定义,在进程中执行,官方插件和社区 npm 包都是这种。第二,捆绑插件兼容 codex clark 的 布局,打包成点 codex plugin, 点 clark plugin 格式。 第三,核心插件 openclaw 一 起发布,默认起用,包括二十八个模型提供商,二个内存插件,二个语音提供商。第四,可安装插件需要手动从 npm 安装,比如 matrix, team's monster, voice call, zolo。 第五,插件朝位,有些插件是互斥的,比如内存插件只能用一个,用 slots 配置来选择好,开始实战。第一步,查看当前已加载的插件,执行命令 openclaw 版本 list, 这个命令会列出所有已加载的插件,包括核心插件和您自己安装的。如果想看详情,加两个参数, opencloud plugins list 加 for both 显示每个插件的详细信息。 opencloud plugins list 加 json 输出机器可读的 json 格式,方便脚本处理。 如果只想看起用的插件,用 opencloud plugins list 加 enabled。 第二步,安装插件,从 mpm 安装官方插件 opencloud plugin list 加 enabled。 第二步,安装插件从 opencloud slash voice call 从本地安装式和开发调试 openclaw plugins install 加 my plugin 或者安装压缩包 openclaw plugins install 加 my plugin。 点 t g z 如果你想用 clawhub 国内镜像, openclaw plugins install 加 clawhammer openclaw slash voice call 安装顺序 是本地路径优先好 clawhub 最后 m p m 回退。第三步,配置插件,这是最关键的一步,打开你的配置文件,一般是 openclaw slash 看文件夹找到 plugins 配置,像按这个模板改 plugins。 点 enable 设为 true, 起用插件系统 plugins 点 lala 填允许列表,比如方括号 voice call dot plugin 点 deny 填拒绝列表,比如方括号 untrusted plugin dot plugins 点 low, 点 pattern 额外入境, 比如方括号,波浪线,斜杠 projects 斜杠 or 斜杠 voice call extension buddy plugins 点 entries niger go enabled 设为 true, 点 confluence, 点 provider 设为 twilio。 改完保存, gateway 会自动重启,配置立即生效。 第四步,验证配置是否正确。先重启 gateway, 如果没自动重启, open call gateway restart, 然后查看插件状态, openclaw plugins list 加 verbose。 如果想深度检查某个插件, openclaw plugins inspect 加 voicel, 遇到问题了,用诊断命令 openclaw plugins doctor, 这个命令会检查配置是否正确,插件是否缺失,依赖是否满足,并给出修复建议。 第五步,用聊天方式管理插件,先在配置文件起用 command, 点 plugin 设为 true, 然后用这些命令,斜杠 plugin install 加 clopom openclo slash voicel 安装插件,斜杠 plugin show 加 voicel, 查看插件详情。 斜杠 plugin enable 加 voicel 起用插件,斜杠 plugin disable 加 voicel 禁用插件,这种方式适合在聊天中快速操作,不用改配置文件。 遇到问题别慌,先看插件状态。第一种状态,已禁用插件存在,但被配置禁用了。解决方法,检查 plugins 点 entries, 点 id, 点 enabled 是 否设为 false。 第二种状态,缺失配置,引用了不存在的插件。解决方法,执行 opencloud plugins install 安装缺失的插件。第三种状态,无效,插件存在,但配置不匹配。解决方法,执行 opencloud doctored 加 fix 自动修复配置问问题, 如果还不行,查看 gateway 日制 tail 减 f 波浪线斜杠, openclaw 斜杠 log 斜杠 gateway 点 log 日制里会有详细的错误信息。 最后看看 openclaw 插件生态的覆盖情况,核心插件默认起用二十八个,模型提供商 and drop, a goglue, open iqemmin, mini, maximo 等二个存插件 metadata 各语音提供商, eleven lab, at microsoft 二个。其他 browser proxy 可安装插件,需手动 安装 mediterkulf in nostra voice call, zolopa canal 共六个总计及用行插件三十二个核心插件需配自行插件 六、各可安装插件,社区插件 clop 点 com 上还有上百个第三方插件,覆盖率主流模型提供商百分之一一百覆盖主流通讯工具百分之七十覆盖持续增加中企业自定义需求,支持自定义开发。总结一下今天的实战教程,五、不实战流程一、 查看已加载空壳 plug ins list two 安装插件 opencl plug ins install three 配置插件,修改配置文件四、 验证配置 opencl plug ins doctor five 插件管理斜杠 plug ins 命令三个关键配置, plug ins 点 enable 总开关 plug ins 点 entry 每个插件的配置 plug ins 点 slash 独占朝位选择器四个诊断命令 dongpeng cloud plugins list 加 verboose onpoco plugins inspect 加 i dongpeng plugins doctor tail 减 f 查看日制学习资源官方文档 docs 点 opencloud 点 ai 斜杠 plugins 插件开发指南 docs 点 opencloud 点 ai 斜杠 building plugins 社区插件 flop 点 com 行动建议现在就打开终端执行 open call plugins list, 看看你已加载了哪些插件,觉得有帮助点赞加关注大叔大,感谢观看,下期见。

大家好,我是麦东,今天给大家带来 openclock 对 接飞书的视频教程。首先我们打开控制台,在控制台执行如下面令安装飞书插件, 插件安装过程中会弹出如下界面提示,使用飞书扫码配置机器人,我们使用手机扫码完成机器人的配置, 扫码完成后,我们接着在移动端完成机器人的创建,输入机器人名称,点击创建即可。 可以看到手机上完成飞书机器人的创建之后,控制台也会提示机器人配置成功, openclock 就 已经成功对接上飞书机器人了。这一步非常的简单, 下面我们打开飞书进行下一步的机器人权限配置。回到飞书可以看到开发者小助手的消息推送,点击开发者小助手可以看到当前机器人成功审批并发布的通知。 点击打开应用,我们就可以跟机器人进行对话了。接下来我们可以给机器人发送如下消息,验证是否安装成功, 如果机器人返回了版本号信息,则代表已经安装成功了。下面我们进行非常重要的一步,对飞书机器人授权消息文档、多维表格、日历等权限,同样也是执行一条命令即可。 好,接下来按照回复点击授权授权就已经成功完成了, 飞书机器人相关的配置就已经成功完成了。下一个视频我将介绍 open class 接入飞书后非常实用的几个场景,让飞书从办公工具升级为 ai 全能办公中书,帮助你提升日常的工作效率。工具会变,但方法更重要,我是麦冬,下条继续。

兄弟们,让大厂程序员睡不着觉的 ai 技术终于来了!香港大学开源的这个 open space, 最牛的不是它能替你点鼠标,而是它居然可以自己教自己,并且在越用越省钱的同时还越用越聪明。它的原理就是它会根据这个失败的结果,原地开启自我复盘, 最后得到一份既节省 token 成本,又执行更精准的解决方案。这就好比你请了个实习生,他第一天可能连打印机都不会用,但他在 open space 这个环境里,每天能自己练习几万次,几天功夫,他就能比你还懂各种复杂软件的操作。这种能自我升级的硬核项目,建议玩 ai 的 兄弟赶紧去试试。

我最近把 opencloud 的 飞速插件做了一个升级,从原来的社区插件升级到了官方插件,使用到了它的流式输出功能,后续还会用到它的一些更多的一些能力。 那这里面主要分为几步吧,一个是卸载原来设置的插件,然后再安装官方的插件,最后配置这个流逝输出。相关的这个教程的话专门写了一篇文章,大家点击这个地方就可以跳转过去。那么首先来看为什么要升级到官方插件, 其实 opencloud 自带的这个飞出插件的话,它是社区维护的,它的维护主体是个人的, 而官方插件的话,它是由飞书这个官方团队专门来维护的,最近更新的还挺频繁的。然后的话是权限方面,社区版的它只有一些 i m, 也就是消息相关的一些功能。 升级到官方的这个插件,它有更多的一些功能,比如读写文档,读写这个表格,如果能和这个 opencloud 联动起来的话,是非常有用的,还有日日历管理、 会议管理等等的一些高级功能。第三个的话是这个流逝输出啊,流逝输出我配置好了之后,开启它的流逝输出是非常的丝滑的,只要通过一行命令就可以直接开启了。那最后一个的话,就是从稳定性角度,官方维护的这个插件肯定是 呃更稳定一些,并且功能更快地适配 opencloud 的 一些迭代了。整个过程分为三大步骤,第一步,卸载社区插件,第二步,安装官方插件。第三步,配置流速输出。这里记得一定要做一定的备份, 这里也写了一些主要的一些命令吧,备份完了之后需要关闭网关服务,再接着卸载,再接着删除它的一些残留文件,还要删除这个原来社区飞书插件里面的一些配置,这个相关的详细的是在这个 啊。文章里面也写到,安装这个飞书官方插件的话,通过这一行命令就可以安装。安装完了之后的话,这个地方可以通过飞书 app 来扫码,扫码之后它会自动创建相应的机器人,自动配置权限,自动重启网关,这个过程非常的丝滑。最后第三步, 等我们的飞书插件安装完了之后,就可以配置流式输出了,主要是这一行命令下面两个是可选项。 这个配置完之后,我们的飞书消息就可以像这个洽谈 gpt 一 样,一个字一个字的蹦出来,这样的话就不会觉得它卡住了,或者说它有问题了。 最后配置完了之后再次重启网关,那我们就可以正常使用相关的一些功能。升级完了之后的话,我们可以用到飞书的一些呃,比较好用的功能,比如说会议机要呀, 还有多维表格呀,任务管理啊等等一些功能吧,后续我也会借在这个方面做一些探索,然后分享出来啊。这个文章的话,大家可以看这个,扫一下这个就可以看到这个详细的一些步骤啊,这个文档里面记得更详细一些, 包括每一步骤它里面的一些截图啊,我今天是实操完了之后,然后才来录制这个视频的,然后包括删除飞书的这个社区插件里面的一些配置,哪些需要删除,哪些需要保留的,这里也专门做了一些标记啊, 包括这个创建的这个,嗯,步骤这里扫码,然后在手机端创建相应的机器人,最后成功的一些记录都有在这个文档里面,大家,嗯,扫一下就可以看到这个文章内容了,如果有问题的话也可以留言。

小龙虾除了接 suno 的 skill, 还能接别的 ai 音乐模型吗?今天我们就让小龙虾来接一下开源的国产 ai 音乐模型 a c e stepf, 看看它跟 openclaw 怎么结合,让我们在非书里怎么让它去写歌。 let's go ai music。 咱们直接上难度,我给 ai 发了一个 pdf, 需求写一首主题为阿贝贝的歌。你看,这个 ai 助理非常聪明,他不仅分析出了主题是亲民思念,还精准捕捉到了阿贝贝这个关键词背后的心理学含义,就是咱们小时候那个安抚毛毯。 他给出的方案是李健式的高冷男生,北欧民谣风 g 大 调转 a 大 调,分析的十分专业。 ace steps 最大的优势就是快、便宜、好调教。大家看这些参数, steps 扩散部署、 guidance 指导量,甚至连 bpm 和时长都能精确到秒。 咱们实测生成这首哈贝贝,旋律就非常通顺,横向对比我们之前测评过的优和 tony 等平台,质量也是几乎差不多的。但比起 ace 四六六二中的音乐生成模型,显然还是有不小的差距,但 ace 一 step 就 胜在响应速度极快。 另外,我们还测试了 remix 以及音频续写的功能,表现明显不如文声音乐来的流畅,偶尔会有一些小转化,还需要等待进一步的优化, 但这种基于 agent 对 话的创作流程,真的是未来的终极形态。总结一下, a c e step 作为一款国产的快速开源的模型,接入小龙虾之后真的是创意人的福 音,它不是要取代苏诺,而是你身边最快速的音乐草图制作助理。相信啊,未来越来越多的 ai 音乐模型都会推出自己的 skill, 未来做音乐是音乐人指导你的音乐虾,让虾去 去跟苏诺对接,咱们为这个即将到来的全民 a 境的时代而欢呼吧!关于小龙虾和音乐人的结合,你还有什么想知道的,欢迎在评论区告诉我,也欢迎翻看我们的音乐人养虾计划系列教程。转载 好了,我是小薛音乐,你的 ai 音乐时代领航员,咱们下次见!

兄弟们, open q 接入飞书的插件迎来更新,再也不需要像之前一样又需要装插件,还需要配置权限了,现在只需要一条指令,一分钟就可以完成接入飞书。启动好 open q 以后,直接输入这个指令,点击回车, 在这里直接用飞书扫码,直接在手机上操作,输入你想给机器人才起的名称,点击创建,稍等片刻即可完成接入。配置完成以后,在工作台找到你的龙虾机器人, 打开对话框,输入这个指令。 ok, 这现在他恢复了,已经启动了,大家快去体验一下你的 open call 吧!关注我,分享更多龙虾教程!

open club, 呃,我,我不太确定是不是我设置的问题啊,所以说我拍这个视频大家来一起看一下,就是说,呃,我在使用国产的这个模型和呃国外的这些模型之间,它的使用上面体感的一些 啊,非常明显的一个差距,他到底在哪里?就是我刚才做了一个什么操作,就是我去啊,我去升级了我的 open cloud 版本,从二月十二号的这个版本迭代到了二月十七号这个版本,那么我在升级过程当中呢,我看到了有一个 vcom 的 这个插件的报错, 嗯,我给大家来看一下,就是说遇到了什么什么问题?就是说这个插件他报了这个错误,就是说啊可能存在一些风险的代码,对吧?那么 这个插件的话呢,是之前我在测试 wacom 接入 openclaw 这样子的一个项目里边,我去做测试用的,那么测试完成以后呢?这个这个插件其实是用不到的,呃,所以,呃,我看到有这样子的一个风险提示,我想把这个插件从我的啊这个 plugins 里边去移除掉, 所以我就问了一个这这样子的一个问题啊,就是说,呃,你自己去搜一下有没有 wacom 的 这个插件,那么你看一下它是如何回复的?就是说 他其实现在的这个回复的话呢,已经有点脱离我的问题了,就是说这些是 crm 自己生成的,不是我主动发的,对吧?然后需要我查什么东西呢? ok, 到这里没有没有没有太大的这个问题,我就主动的耐心的解释一下嘛,就是说我遇到了这个,我收到了这个, 然后呢,你看他是他是怎么样子去去回答我的,就是说他从头到尾他一直都是说这个东西不赖我,你不要去找我,就类似像这样子的一些公司老油条的这样子的一些,呃,考虑问题的逻辑啊,就就很匪夷所思知道吗?这不是我主动发的消息, 也不是让你搜索 wecom 插件的,就是这样子,那么我就问了嘛,就是说啊,你既然这个东西的话,你既然是 chrome 报的,那你告诉我是哪一个 chrome 对 吧? 他回答的其实都是都是不是我想要的东西。然后呢,我从这个上面去切换到了啊,这个 切换到了这个 jimmy 三 jimmy 三 flash。 然后呢,我就让他去查一下嘛,就是我把上面的这些问过的问题全部都丢到同一个问题里边去啊, 你看一下,让我们检查一下 wecom 的 这个插件的配置,然后他就去搜,搜完了之后呢给到我这个一个报告, 就是我不太确定到底是我配置的问题,因为我只是切换了一下模型而已,其他的变量我都没有变, 但是执行的效果结果大家都是可以有目共睹的,就是就是他可能会出现这样的问题,所以我不太确定是不是我自己配置的问题啊。如果说,呃, 你知道有什么解决方案的话呢?也欢迎在评论区里面留言去告诉我。呃,至少我遇到这个问题,他自从我开始呃使用这个 mini max 开始就一直存在了这个问题啊,大家如果说有这个经验的话呢,大家可以分享一下到底我该怎么办?

我发现还是有人不会部署 openclaw, 今天一期视频就讲清楚 openclaw 的 部署方法和使用方法。 openclaw 是 有本地部署和云端部署的,那我们应该选择哪个呢?首先云端安装的步骤比较简单,你不需要懂代码,虽然本地的也很简,但是本地还有,这除了安装方式之外,还有就是说权限的问题, 小白不懂代码的话,有一些权限你不懂的安全隔离,我们的一些隐私有可能被 opencloud 获取到,或者是有其他的一些安全风险,所以我建议大家先从云端开始来,那云端又有腾讯云、阿里 云等等这几个云服务场上都出了自己的一键部署小龙虾服务器,今天我拿腾讯云的举例子,今天我就先介绍一下云端部署的方法,下一篇我会介绍本地部署以及其他宝藏的文件的配置,它是怎么样 去养的,下期我会深度的去拆解一下。首先腾讯云上部署,首先打开腾讯云的官网,这个地址登录,先买一台服务器,我们打开腾讯云的官网,首页就出现 opencloud。 云端一键部署,我们点击立即体验,点击立即体验之后有个立即部署我的个人助理,点击点击这个立即部署我的个人助理 三步点击完部署之后,会让你选择服务器买这个就行,而选择立即购买,你这都保持默认就行,然后支付,支付订单就行。支付完了之后,来到清亮云服务器的页面,来到这个页面,点击这个服务器,它已经把那个 opencloud 给你部署好了。 点击这个服务器来到应用管理,这是应用管理的页面,然后在下面去配置模型通道,你就 china, 我 们是要接飞书,还是接 whatsapp, 还是 discord, 还是微信啊等等,都可以接,包括 skill, 然后我们就来接飞书。首先打开飞书的开放平台这个网址,这个是已经登录的状态哈, 打开这个网址,点击创建企业自建应用,点击这个蓝色按钮,填写应用名称,应用的描述,点击蓝色按钮创建。 创建完了之后,然后第二步,你先知道这 a p p id 和 a p p secret 的 位置,再凭证基础信息,知道这个位置之后,待会儿我们复制,然后我们先来配置权限,点击权限管理,点击,点击这个批量,然后把下面这个代码完全复制,因为这个开通权限非常多,一个手动开通的话就太慢了, 所以大家直接粘贴我给的这个代码,直接导入就行,然后这个代码的话三连这个视频找我拿,导入这个位置,粘贴好这个 jason 代码之后,点击蓝色按钮确认添加。添加完全件之后,第四步,开启 机器人能力,在应用能力这块添加应用能力,机器人这块选择开启。第五步,开启长链接,在这个页面点击时间与回调,然后这个订阅方式,点击这个编辑的图标,然后选择长链接,点击保存, 把下面这几个时间添加机器人进群,机器人被移出群,消息已读,接受消息这四个添加,然后确认。 然后第六步,我们发布应用之后,我们对机器人做了任何修改,添加权限或者是其他的一些修改,你发布了之后才会生效。 左侧这个菜单,点击版本与管理。第六步,在非书开放平台的版本管理与发布,这个位置点击创建版本,点击完了之后 会让你填写版本号,然后写一点零,点零可以加上这个机器人的描述,往下滑有一个保存,点击保存,点击发布。如果你是个人的飞书的话是秒通过,如果你是组织的话,那可能需要组织去通过一下。第七步,在 opencloud 里面配置飞猪。我们在飞书创建完机器人应用了, 然后我们需要获取到这 app id 和 app secret。 我 们创建完企业之后,我们需要把飞书和 opencloud 关联起来, 关联的凭证就是 a p p id 和 a p p secret。 我 们来到凭证基础信息, a p p id, a p p secret 这块一会要粘到我们的服务器里面,配置上 channel, 我 们回到腾讯云服务器,在第二个通道点击聊天软件 qq, 选择下滑,选择非输,在这里输上非输的 a p p id 和 a p p secret, 然后添加并应用,然后你下面就会出现非输的这个通道,显示绿色的。现在非输 oppo 卡号就打通了,但是现在还没有配大脑,没有配模型。 好,我们先来配模型,我建议大家选 coding plan 的, 因为太费头肯了,我之前用的是 openroot, 我 用的是 cloud 模型,烧,我每天烧的太痛了,太贵了。配置是 kimi, kimi 太慢了,回复得也慢,经常还会有 a p i 数据限制。后来试了个 mini max 的, 速度还不错,而且也不会有那个限制什么的,所以我非常推荐 mini max, 所以 大家直接闭眼入这个就行,我已经替你们踩过坑了,打开这个网址,注册并登录往下滑选择计划,我选的是这个四十九的套餐,买完之后我们回到这个 mini max 的 开放平台,这块是有个 tokenplay, 我们点击这个投屏 pad, 如果你没有 a p i k 的 话,点击创建,如果有的话直接点击复制就行。然后我们回到腾讯云,在这个模型里面选择 mini max, 选择完 mini max 之后,你这块都是默认的不要动,然后在这里面填入 a p i k, 然后添加并应用, 然后你的 mini max 就 成功配置了这个小三角,点击有不同的模型,我们直接选最高的二点七的就行,默认就行二点七,现在的话我们就可以在飞书上跟 oppo pro 对 话了。小龙虾本身它没有太多的技能, 比较强的是它的 skills, 所以 我们需要给它安装上很多很多技能,这样它才能帮助我们干很多事,比如说刚刚安装好的小龙虾,它也没有什么浏览器的功能,或者不能帮我们抓热点什么的,需要我们配置 skills, 所以下一期我就会分享这些 skills 以及这个 skills 的 一些构成,包括 openclaw 的 一些心跳机制啊等等。我们必须要了解的是 openclaw 是 怎么样才能把它养强,下期我会着重从 agent 记忆系统、 skill 仓库等这方面去分,让大家把龙虾越养越强,越来越能帮我们干更多的活儿,帮助我们省更多时间。

当前 openclo 的 痛点, token 限行爆炸,新绘画忘掉昨天解决过的 bug, 装了几十个技能模型,选不对。我们实测七轮对话, token 从一点五万涨到九点五万, 消耗增长六点四倍。阿里最新论文 skill router 解释了一个问题,技能池越来越大,光看名字和描述,选技能基本靠猜,完整代码才是决定性信号,但技能选对只是第一步,对话越来越强。 token 爆炸,新绘画忘掉上次解决过的问题, 这些怎么办?来看 graph memory, 一 句话,一个 open class 上下文记忆插件,把对话自动提取成知识图谱,压缩百分之七十五的 token, 还能跨绘画。记住之前的经验,它做四件事, 第一,主动知识蒸馏,不等上下文爆炸才压缩对话过程中实时提取三元组。第二,持续图谱加双层召回,不是,通过社区剧类和 page rank 精准找到最相关的知识。 第三,个人知识资产,你的知识图谱存在本地 sq lite 里,换设备只需导出一个文件,数据属于你。第四,知识白盒,它能看到每个知识节点关系,让记忆不再是黑盒。 插件源码已经在 get 不 开源,我们结合源码一起分析它的数据流泉炼录一条消息从进来到下一次绘画被召回,经过五个阶段, 打开 index t s 文件。第一阶段,每条消息进来,直接存 s q like 数据库,零 l l m 消耗。 第二阶段,组装上下文,把图谱节点生成 xml, 注入系统提示词,同时裁剪进轮对话也是零 l l m。 第三阶段,每轮结束后一步提取三元组,每 n 轮跑一次,配置 rank 和社区检测, 这里需要 a l a m, 但不阻塞用户。第四阶段,绘画结束时, evant 提升为 skill, 然后跑全量维护去重 page rank, 社区检测加摘药。第五阶段,下次开新绘画时,双路径并行召回, p p r 排序后注入上下文,这就是它的数据流泉炼录。 下面我们来看它的核心机制,四层锁影加三层召回。先说四层锁影,就是它存知识的四种方式。第一层,向量锁影,你问一个问题, 它把问题变成向量,去搜语义最接近的知识,搜不够就补关键词,权威搜索。第二层,社区锁影,举个例子, 比如你这两天一直在搞 docker 部署,装镜像,改配置,调端口,这些知识会自动聚成一个 dok 社区,你问前两天做了什么,关键词搜不到,但社区能找到。第三层,进轮对话,最后一轮完整保留,包括工具返回结果, 前面两到五轮只留用户输入和 ai 文本回复。第四层,溯源片段,排名最高的三个知识节点,会附带当时的原始对话,让 ai 不 光知道结论,还知道当时是怎么得出这个结论的。再说三层召回,就是找知识的时候怎么找?举个例子,你问安装 m c p 出错, 第一层,精确找,直接搜到上次安装 mcp 出错时记录的那个节点,然后顺着这个节点的关系往外走,发现同一个社区里还有一个 npm 代理配置的节点, 可能也有关,一起拿出来,最后按配置 rank 排个序,最相关的排前面。第二层,模糊找,假如你的问题比较笼统,比如最近解决过什么问题,精确搜,搜不到, 这时候他会把你的问题和每个知识社区的家要做匹配,高客社区匹配度高,就把这个社区里的 top 节点拿出来, 两层同时跑,精确的结果全要模糊的结果去重后补充。第三层合并注入两条路的结果合在一起,按相关性排序 塞进系统提示词里给 ai 看。简单说就是能精确找到的精确找,找不到的模糊找,两条路同时跑,最后合在一起。实测数据,七轮对话,安装 m c p 工具加登录加查询 无插件 token 从一点五万限性增长到九点五万,用了 graph memory r 四开始 token 就 稳定在二点四万左右,不再涨了,压缩率百分之七十五。安装配置演示原码在 get 部开源 m i t 协议 插件已经上架科乐 hop, 直接在科 hop 上搜索 graph memory 就 能找到我们的插件。安装就一行命令,我的 openclaw 是 三点二四,目前最新版本,执行安装命令,等待插件安装完成, 然后执行命令检查 安装成功。步骤二,激活上下文引擎,这是容易漏掉的关键步骤,不设的话插件装了也不会工作。打开 opencloud json 文件,找到 context engine 部分, 复制视力代码,替换原来的这几行,然后填入 l l m 模型和嵌入模型的 a p i 和 u i o r, 保存后配置全部完成。如果大家想学习原码,可以去 get 部上克隆项目文件,顺手点个三二,希望本期视频对您有所帮助,我们下期视频再见!

今天我们来深度解析一款知识管理插件。 memory wiki 平台上的插件让知识库不再是一堆杂乱的 macdunk 文件,而是一个有结构、有溯源、可信赖的知识保险库。首先让我们理解 memory wiki 在 整个记忆系统中的定位。 在 openclip 的 架构里,记忆系统分为两个层次,第一层是活跃记忆插件,负责召回语义、搜索提升和梦境深沉, 这是记忆的动态层。第二层就是 memory wiki, 它负责编辑维基页面,带溯源的综合内容、仪表板,以及 wiki 特定的搜索和获取功能。简单来说,活跃记忆插件是大脑,而 memory wiki 是 图书馆管理员。 memory wiki 支持三种保险库模式, 第一种是隔离模式,拥有完全独立的知识库,不依赖 memory core, 适合想要完全掌控自己知识库的用户。第二种是桥接模式, 他读取活跃记忆插件的公开产物,包括导出的记忆产物、梦境报告日记、笔记、记忆根文件和事件日记。第三种是本地不安全模式,这是一个实验性的功能,允许访问本地私有路径, 但仅在你完全理解信任边界时才实用。桥接模式是最推荐的方式,可以充分利用两个层次的优势。我们来看看保险库的标准目录结构,主要包括 a g, e, n, t, s, m, d, wiki, m d 和 index m d 三个核心文件。 antisp 目录存放持久化的事物、人物、系统、项目和对象。 concepts 目录存放想法、抽象概念模式和策略。 synopsis 目录存放翻译后的摘药和维护性汇总。 source 目录存放导入的原始材料和桥接页面。 reports 目录存放深沉的仪表板,还有 attachments 和 views 目录分别用于附件和试图。 manage content 会保留在深沉的代码块内,而人类的手写笔记块会被保留。现在让我们深入了解 memory wiki 最强大的功能之一, 结构化声明和证据系统。传统知识库的问题在于它们只是存储文本,没有机制来追踪这些知识的可信度。而 memory wiki 的 页面可以携带结构化的 claims 原数据。 每个声明包含唯一标识符 id、 声明文本状态,比如进行中或以验证信度评分以及证据述祖。 而每个证据条目又包含来源 id、 路径、行号、权重、备注和更新时间戳。这意味着知识不再是一堆静态文字,而是一个可以追踪评分、争议和回溯到来源的动态性年存。编异管道是 memory wiki 的 核心引擎, 当执行编异步骤时,系统会读取 wiki 页面标准化摘要,并输出稳定的机器可读产物。主要输出两个关键文件, agent digest json 是 智能体招标, claims json 是 声明的逐行格式。这些招标存在的意义是让智能体和运行时代码不需要去爬取 markdown 页面,而是直接读取结构化数据 翻译输出还支持第一轮 wiki 锁影搜索、声明 id 回溯、查找、紧凑提示、补充以及报告和仪表板。深沉仪表板和健康报告功能是知识质量保证的重要工具。 当起用 rendercreate dashboards 时,翻译过程会在 reports 目录下维护一系列内质报告。 open questions md 追踪未解决的问题。 contradictions md 记录矛盾声明集群。 low confidence 点 md 列出低至信度页面和声明。 claim health 点 md, 追踪声明健康状况。 style pages 点 m d 标记过时或新鲜度未知的页面。这些报告帮助我们持续监控知识库的质量,发现潜在的矛盾和知识缺口。搜索和解锁是 memory wiki 的 核心能力,它支持两种搜索后端, shared 共享搜索和 local 本地搜索。 同时支持三个语料库, wiki 专属 memory 记忆语料库以及 all 全局搜索。关键的行为特性包括 wiki search 和 wiki get。 在 可能的情况下,优先使用翻译摘要 声明 id 可以 解析回所属页面。争议陈旧或新鲜的声明会影响排名。溯源标签可以存活到结果中。使用法则是需要广泛召回时,用 memory search corpus 等于 all。 需要 wiki 特定排名溯源或页面及信念结构时,用 wiki search 和 wikiget。 memory wiki 为智能体注册了五个核心工具, wiki status 查看当前保险库模式、健康状况和 obsidian c l i 可用性。 wiki search 搜索 wiki 页面以及配置的共享记忆语料库。 wiki get, 按 id 或路径读取 wiki 页面或回退到共享记忆语料库。 wiki apply 执行狭窄的合成或原数据变更,避免手动编辑页面。 wiki link 执行结构检查、溯源缺口检测、矛盾识别和开放问题追踪。这些工具让智能体可以系统性的管理和查询知识库提示和上下文行为是 memory wiki 与大语言模型集成的关键。 当其用 context 点 include compiled digest prompt 时,记忆提示部分会附加来自 agent digest dot json 的 紧凑翻译快照。 这个快照的设计原则是保持小体积、高信号,包含顶级页面、顶级声明、矛盾技术、问题技术以及致性度和新鲜度修饰符,这是可选功能,因为它会改变提示形状,主要适用于明确消费记忆补充的上下文引擎或传统提示组装。 推荐的做法是保持提示清亮,只在需要时附加翻译摘要。配置方面, memory wiki 提供了丰富的配置选项, what mode 控制三种模式之一, what render mode 选择 native 原声或 obsidian, obsidian 友好模式。 bridge 配置控制是否导入活跃记忆插件的公开产物。 ingest 配置控制自动翻译和并发任务数。 search 配置选择后端和语料库。 render 配置控制是否保留人类块,创建反向链接和仪表板。 c l i 方面, open claw wiki 命令提供了 status doctor in it ingest compile link search get apply 和 bridge import 等操作,覆盖了完整的知识库生命周期管理。最后让我们看看推荐的工作流程。 第一步,保持活跃记忆插件,用于召回提升和梦境深沉。第二步,起用 memory wiki。 第三步,从隔离模式开始,除非明确需要桥接模式。第四步,需要溯源时使用 wiki search 和 wiki t。 第五步,需要狭窄的合成或原数据更新时使用 wiki apply。 第六步,有意义的变更后运行 wiki linked 进行结构检查。第七步,想要成就和矛盾可见性时,起用仪表板。这个工作流程确保知识管理既有动态性又有结构化。 memory wiki 真正让知识变成了可管理的资产,而不仅仅是一堆文本。

之前用欧本壳,是不是觉得配置模型、安装、插件管理、绘画这些操作特别麻烦,每一次都要敲命令行,一不小心就会出错,而且用了一段时间后,根本不知道 ai 跑了多少任务,用了多少 tok 内存占用了多少。 openclaw 对 于没有任何代码基础的用户来说,使用还是有一定门槛的,那如果有一个 gui 管理界面,使用 openclaw 就 会变得非常简单。最近在 github 上发现了一个很好用的 openclaw 管理项目, clawdeck x, 这是一款专门为 openclaw 设计打造的桌面管理平台,简单点来说,帮你把原本需要写代码、改配置文件才能完成的工作,全部变成 u i 点击操作, 它支持 win、 macos、 linux 三大平台。那需要注意,这款工具目前还处于公测阶段, 完全免费开源,那感兴趣的可以下载安装体验一下。我们现在看到酷狗 deck x 一 键安装功能,只需要在 github 上下载对应版本的酷狗 deck x 安装文件,我这演示用的是 windows 就下载点 exe 文件,如果是 mac os 就 下载 d a r win 文件。此外还有 linux 版本,那需要注意,要选对适合处理器架构的安装文件,下载完成后打开会自动跳转浏览器,而这个界面真的是果味十足啊。 软件会自动检测当前系统有无安装 open file, 只需点击一下就会开启自动安装配置, 它这里甚至还帮你设定好了国内的镜像源,但实际使用的时候可能还是会出现网络问题, 这个就自己解决一下。整个安装过程除了会安装 open call, 还会安装 uv go 等等一系列会使用到的工具, 可以说考虑的非常全面了。安卓完成好后, pro dark x 会提醒进入使用向导,而在这个阶段, pro dark x 会使用 g o i 界面帮你完成模型、频道等等方面的配置。先来看到模型配置上 配置服务商,这里内置了百度、千帆、火山引擎、小米等等众多服务商,可以说基本包含了国内的大模型服务商。填入 api 密钥,选择模型,最后是确认配置, 那这里需要注意一点,智普如果是购买了 c d p l 的 用户,记得将 api 端点手动改为 c d p l 专用端点。 kolok x 这里使用的是默认 api 端点在模型配置这,如果你不确定自己的模型是否调用成功, kolok x 还提供了测试连接的功能,像咱们这调用 g l m 五就失败了。将模型切换为 g l m 四点七就成功了,同时也能设置主副模型,当主副模型自动启用副模型, 这些功能真的比 oppo nano 原声自带的好用太多了。下面是频道的配置,同样支持多个频道的配置,咱们这就选飞书,飞书频道会提醒先安装飞书插件,然后去飞书开发者平台配置机器人,它这里配置机器人的步骤可谓是非常详尽, 甚至还包含了飞速机器人的权限、 jason 样式、常见踩的坑等等提醒,而只要跟着一步一步走,就不会出现问题。除了强大的一键安装以及配置之外,更让我惊讶的是它将很多难以展现的内容直接以 g u i 界面展示, 只需要鼠标点一下就能看到,比如实时展示当前活跃绘画、今日 top 使用量、累计预估费用,还能看到网关运行时间、内存占用、 cpu 使用率等等,这简直比专业的监控面板还要专业。 除了可以查看实时数据之外, pro 大 凯 x 还提供了非常专业的配置中心, g o i 界面。如果你的 oppo 早已经在使用中,那它也能通过这个配置中心修改系统配置。 这里还提供了预制的模板中心,可以一键设定你的小龙虾性格,这下再也不用去网上照抄别人的性格配置了。那甚至还提供了语音配置功能, 可以一键启动 tts 配置、 tts 服务商、语音转录、语音唤醒等等功能,那开启后,你的小龙虾就可以在飞书中给你发送语音文件了。如果你的配置已经非常完善,不需要再修改了,但对于技能的使用还不是很了解。 cool dock x 还内置了技能中心,除了官方的 cool hub, 还能使用腾讯刚出的 hub, 咱们用户可以在技能中心搜索并安装自己需要用到的技能。 cool dock x 还有一点很贴心, 全英文的技能介绍,自动调用模型,翻译成中文,不需要咱们用户再来配置 kolhab 的 插件,还需要复制安装指令发送给 open kol, 但腾讯的 kol 可以 直接一键安装。那你是不是给小龙虾定了很多定时任务,但到底有没有在运行,或者说有没有 bug, 只能依靠自己的记忆去回忆。小龙虾有没有 bug, 只能依靠自己的记忆去回忆。小龙虾有没有 bug, 只能拯救了我们这种任务新人, 打开调度任务,你设定了多少任务,全部通过 g u i 的 方式呈现在这 i 若还是 ok, 上次执行是什么时候,下次执行是什么时候,全部一目了然, 还能一键禁用、一键运行,删除途径化编辑。呃,这真的是太方便了。那想要看系统的运行状态,以往只能通过终端查看,而在 q o d k s 中还内置了健康中心, 只需要打开就能获取当前运行状态有无异常。像我这里就提示有几个高级异常,查看了一下详情,应该是之前的频道插件一直没有配置,那在配置中心删除掉即可修复。 q o d k s 还有很多实用的功能,像知识中心中的多代理协助,只需一键运行就能配置好多代理任务,非常方便。咱们这就不一一介绍了,如果你感兴趣也能自己安装一个, 那我让我的小龙虾借进来体验了一下,他给的评价让我有点意外,原来不止我们人类嫌弃命令行管理,欧奔科,连 ai 都在嫌弃,那最后多说一句,目前还是 beta 版本,可能会遇到 bug 以及稳定性问题,切勿用于生产环境。 那么 ok, 以上就是本期视频的全部内容,希望对你调教小龙虾养虾有一定的帮助,让我们下期视频再见!

开源的 openclaw 飞书机器人插件来了!这是飞书官方的 openclaw 插件,由飞书开放平台团队开发和维护, 将您的 openclaw agent 无缝连接到您的飞书工作区,能够直接读取和写入消息、文档、数据库、日历、任务等内容。它有个专门的中文文档,帮你讲解 openclaw 飞书配置,并且有详细的多 agent 配置, 还提供了专门的链接,一键创建飞书机器人、开通 openclaw 所需权限及建立长链接,快去试试吧!

我们从二月开始开发我们的官方插件,三月一日发布了第一个版本。在整个过程中,我们的研发团队一直保持着几乎每天一个新版本的快速迭代。 今天我们的飞书官方插件也已经完整开源在了 github 上。我们在去年发布了飞书的 m c p, 在 国内做到了领先水平,但我们认为还可以做得更好, 所以今年我们正在开发全新的飞书 c l i。 之前我们的 m c p 是 让 ai 认识飞书,现在我们的 c l i 是 想让 ai 用好飞书。 c l i 是 命令行接口,它让 ai 可以 用它最擅长的方式直接操作飞书,像工程师敲命令一样简洁、直接、精准。 这种方式对大部分人来说可能有门槛,但对 ai 就 很自然,反而如鱼得水。相比 m c p cl i 本地性更强和灵活组合性更强,并且消耗的 token 将大幅降低。 我们将在十天之内在 tarp 上也开源我们的 c l i 项目,届时欢迎所有开发者们一起来用。提到开源,其实我特别有感触,因为除了产品经理工作之外,我自己也是一名使用 tarp 有 十四年之久的开发者。 我也给 opencloud 官方仓库提交过代码,经过了很多次的修改,最终才得以合入。所以我深知每一个 pro request 的 背后要付出的努力和不易。那么今天借此机会,我们想由衷的感谢每一位为 opencloud 官方仓库贡献过非书相关代码的开发者们。 其中特别要感谢雪碧、华丰、明峰,他们三位最早写下了 openclaw 连接飞出的代码,点燃了火种。谢谢你们,谢谢你们!

太炸裂了,我不允许你不知道这个做短视频的方法,全网最细拆解心理放大镜工作流,一键生成这种心理放大镜视频,有同学二十三条视频暴涨二十多万粉了, 总获赞高达四百多万,条条都是爆款。来看一下这个工作流,我们只需要在开始节点输入你想要的主题,他就可以调用这个大模型自动生成所对应文案,然后会把刚刚生成的文案传给生成音频和图片的大模型,之后再结合起来给到下一组插件来生成完整视频。 在结束这里给我们输出了一串链接,我们只需要把这串链接复制到小助手,打开剪映即可。最后我们来看看生成出来的效果,凭着自己的力气快从桶沿翻出去了,桶底的螃蟹们看见了,没有喝彩,没有跟随,只有一片。

opencloud 刚刚发布了二零二六点三点二二,这次更新呢,只有两个字,暴力。首先呢,我们可以来看到它的模型默认呢,已经支持了 gpt 五点四,而且呢,也可以在五点四上面保持 codex。 然后呢, mini max 也来到了二点七的版本,生产力直接拉满。但如果你不看更新日期就盲目升级,那么你的插件可能会全部停摆。 首先,官方正式推出了 cloud hub, 现在的插件安装就会优先走官方的原,而不是回退到 npm。 更狠的是,老旧的 motoboot 文件夹彻底作废,会全部迁移到这个 opencloud 的 目录下面。所以呢,升级后的第一件事,务必运行 opencloud dr fix, 否则呢,你的浏览器控制和旧版插件会集体罢工。这次更新呢,最懂开发者情绪的功能出现了,斜杠 btw, 侧边提问,以前在常会话里面问个常识题呢,会污染整个上下文,现在直接输入这个小命令 秒回答,而且不占塞省的内存。另外呢,安卓节点现在也支持搜索通话记录和短信了。 你看,你的 ai 代理终于能像个真正的私人管家一样帮你看看谁给你打过电话了。然后呢,作为安全老兵,这次必须给这次的 sandbox 点赞!更新这个版本呢,分堵了 glibc 的 哎,在这分堵了 glibc 调优利用和 jvm 注入漏洞,连 windows 下的远程 smb 频剧劫持都被毒死了。所以现在呢, open cloud 正在从一个好用的工具变成一个安全的防御堡垒。 代码要写的优雅,环境要跑得更稳,还没有升级的兄弟赶紧可以尝试一下 update 命令或者 npm 命令去把它升级到最新的版本。好,我是一轩,想看更多硬核玩法吗?关注我,带你真的用 ai。