粉丝1.5万获赞8028

只需三分钟即可搞定。整体分为三步。第一步,在 kimi klo 构建云端 open klo。 为什么选择 kimi klo? 之前我是单独配置 open klo 加单独配置模型的方式,对信手来说步骤比较繁琐。现在可以通过 kimi klo 一 站式将模型和 open klo 配齐。 只需一分钟,在 kimiclock 的 控制台点击 create 按钮,一分钟就可以配置成功,无需额外的复杂设置,非常方便。第二步,现在你已经是个初级老板了,现在给你的 kimiclock 赋予牛马使命。在 linux 中,我们可以使用 cron 来设定, cron 就是 linux 中用来定时自动执行特定命令或脚本的工具,因此这个指令最基本的版本可以是,你可以基于这个命令进行衍生。这儿给大家一个小技巧,本质上 color 运行在一个 linux 环境中, 因此如果你不熟悉一些 skill, 你 完全可以直接让克拉模仿你平时的动作。因为四 q 本身也是工作流。例如分析任务,你就可以改成设定一个空,让任务每隔二次时间打开浏览器,输入网址, 查看网站上的数据,形成数据分析报告,看完之后关掉浏览器。当你知道这件事之后,你完全可以忘记原来对于电脑操作的理解,享受老板的工作方式。假设安装一个软件, 可以说使用并搜索 wps 并且安装。第三步,将你的工作流与 kimi quir 沟通并固化为 skill。 我 们直接跟 kimi quir 沟通,我们可以根据 kimi quir 的 回复选定一个方向,让它给我们整理出完整的交易工作流程。你看这段 pro 是不是 p u a l 拉满,如果你觉得没有位,可能你已经是老板了。 kimi kala 会返回一个任务列表,这时克洛还不知道这些任务其实是他要执行的。我们接着让 kimi kala 把这些内容做成固定的 skill, 这样可以稳定方便地嵌入到矿例行任务中。 你可以让 kimi kala 打印出来具体的 skill 内容进行检查并叠代,最终固化的 skill 如视频所展示。当然,你也可以直接使用 kimi kala 官方哈布里现成的四 skill。 自己封装 skill 是为了让大家更好地理解什么是 skill 以及如何创建。如果你会建立自己的 skill, 那 么使用别人的 skill 也就轻而易举了。现在我们就可以修改第二部中的 chrome 命令,让它定时执行我们刚创建的这个 skill。 整个能够自动钉盘分析的框就配置完成了修改。 chrome 的 执行时间可以定时给你提醒。

打开 https, call 点三六零点 cn 下载客户端等待,下载完即可。打开下载的位置,双击安装包, 点击运行,等待一段时间,等待软件加载完毕。打开安装首页右下角可选择自定义安装目录,选择一个安装位置,确保有二十 g 以上的硬盘空间。 我自己选择 f 盘新建一个文件夹叫三六零 colo, 名称可以自己随意写,不可以是中文,点击确定,点击返回。可以再次点击右下角的自定义安装,确认下安装位置, 点击返回。这里我选择满血版安装,硬盘空间不够的话,这里满血版会显示灰色,无法安装满血版,至少需要二十 g 的 硬盘空间。等待安装这里时间会有点长,受电脑性能影响,一到五分钟不等,我安装了一分钟。 如果电脑之前没有安装过 wsl 的 话,这里还会有个安装 wsl 的 过程,安装过程中根据提示需要重启电脑,重启后安装会自动继续进行。我这里已经安装过 wsl 了,所以安装过程自动跳过了。 下载 u 泵储镜像,二点五 g 左右,下载的时间取决于网速快慢,耐心等待,我下载了一分钟,多一些时间解压有泵储镜像,解压过程很费时间,我解压了大概三分钟, 导入 u 泵储镜像,这个过程也需要一段时间,我运行的时间大概五分钟。 安装结束,等待自动打开龙虾,刚打开龙虾,有可能会显示三六零安全龙虾应用加载失败,等待一段时间,这是龙虾服务没起来, 要是龙虾服务没弹出来,可以在桌面上点击三六零安全龙虾图标,双击即可。点击左上角的加号,新建页面,即可看到龙虾界面,右上角检测显示健康状况正常,代表龙虾安装成功。 点击任意功能,弹出登录对话框,登录三六零账号即可使用安全龙虾,也可以微信扫码绑定三六零账号登录。现在可以使用三六零安全龙虾了, 打开三六零软件管家系统自带的添加或删除程序,也可以搜索找到三六零小龙虾,点击卸载,选择是否删除个人配置的数据, 若后续要重新安装,建议保留。点击卸载,等待卸载完成。卸载完成。

啊啊! 之前有小伙伴问 lm studio 是 否支持小龙虾 open club 以及如何配置,这次就简单做一期视频,教大家如何设置,也是超简单的,如果你还不会的话,跟我一步一步操作即可,这也适合新装小龙虾的配置哦。 首先自然是确保你已经下载了你要用的模型,这里我就用千问三点五三十五币作为例子,大家可以看到我已经加载好了。然后只需要来到小龙虾这里,直接运行 opencloud on board, 这样我们就可以配置新的模型了。 小龙虾还是比较智能的,它会识别到你已经有配置,这里我们只需要改动一下模型,所以我们选 update values。 然后就是熟悉的配置页面了, 我们选 custom provider, 这里默认会出现奥拉玛的本地服务器地址。我们则要来到 lm studio, 点击 server settings 这里我们关闭 require authentication, 并且打开 serve on local network。 此时右侧就可以看到 url 从之前的幺二七点零点零点幺变成了你本机的 ip 地址, 这样部署在非本机的服务也可以调用 lm studio api 了。如果你的小龙虾是部署在本机的,那就不用打开 servelocal network 这个选项,保持幺二七点零点零点幺的 ip 地址即可。由于我的龙虾是在其他设备上部署 的,所以我这里需要把本地的 lm studio api 地址暴露给他们,我们点击这里复制,然后删掉奥拉玛的地址并粘贴上去。这里注意, 我们要加上一个斜杠 v 一 再按回车。然后这里我们就选 paste api。 但是由于我们之前关闭了 require authentication, 即不需要 api, 所以 我们这里随便打个一二三四即可。 这里我们可以选 open ai compatible, 即 open ai 兼容 api, 不 过 i o m studio 也支持了 osraplay 兼容 api, 你 也可以尝试拥有。这里我们就选 open ai 兼容 api 了哈。这里我们输入模型的 id 名字即可。我们回到 i o m studio, 这里就是模型 id 了,我们复制下来,在输入的时候需要加上模型的提供商,由于这个模型是昂尔斯的,所以我们打上昂尔斯斜杠,再粘贴上去。按回车之后,我们就会看到龙虾说 verification successful, 即验证成功, 这里直接回车,然后他会让我们给模型一个别名,我们就不起了,直接回车。 下面我们可以全部按跳过,因为我都配过了。最后重启小龙虾的路由就大功告成了。打开 t u i 后, 此时我们就可以看到 l m studio 已经接到龙虾来的请求了,然后这里也显示正在使用千问三点五三十五 b 的 模型,然后龙虾也回复了内容怎么样,你学会了吗?

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

今天我们讲一下养小龙虾最重要的一个工具, qmd, 详细的安装过程可以参考 csdn 里的这篇文章, 确实踩坑也是踩麻了, 这里面说几个关键点,一个是安装的时候用 b u n, 一定要有 trust, 这样的话它有一个脚本安装会自动执行,否则的话会被 block 的。 再一点是安装之后不要急着运行,首先去这个网址下面 用浏览器去下载三个大模型,这三个大模型差不多就得两个多 g, 非常的大。之后要配置你终端的三个环境变量。 之后为了让 opencloud 的 网页端 ctrl u i 也可以使用 q m d 的 命令,那么就需要和它沟通,让它利用这三个环境变量。 下面演示一下我与他的一个对话过程。首先是我告诉他,我为他安装了 qmd, 让他自己去发现, 然后他自己检查了 qmd 的 status 状态, 然后发现了二十五个文件, 这是我设置了一下天气报, 并且让他记住下次都用和风天气来查天气预报。 之后写了一个程序, 修改了一下人格, 确认保存。 他对我的工作进行了一些奖励, 然后在这里开始设置 qmd 的 skill, 这时候他开始运行,我让他搜索一个关键词, 他使用的是 qry, 这会触发他对三个模型的加载,然后他会告诉你 cpu 上确实慢,然后让你再等一下,实际上他是没有加载成功,没有加载成功是因为他没有下载,而是没有利用匹配我们为他之前下载的那三个文件, 然后他会一直等待。 他使用的是快速的搜索, 换了一种方式,他只用了关键词搜索,不需要加载模型,他很聪明,他自己选择了一条最简单的路,但是我们要解决这个问题,我们要要求他使用羽翼搜索, 羽翼搜索 之后会发现他正在下载一个模型,这个模型非常大,所以我们及时的制止了他, 让他自己去尝试查找我们已经下载好的模型,他能找到我们已经下载的文件,但是他没有自己加载进去, 然后他在下载的时候会加一个前缀, 这时候我们开始要求他进行配置,避免以后再出现这种情况。 这时候他找到了一个方法,就是将三个环境变量加入到自己每一次执行的命令前面, 他会自己去尝试读取被十二 c。 最后我们要求强烈要求之下, 他寄到了自己的图纸里面,这样每次他在运行图纸之前就会加载三个变量,我们就可以准确的找到。我们可以任意指定自己的模型是是什么,当然在这里就可以修改,也方便以后我们开发的时候使用更大或者更简单的模型 查看一下我们 qm d 的 状态,可以到可以看到我们这里有了一个工作集, 有了上下文注示加载的模型,基本上没有更多的提示了, 很多人会卡在这一步,我们来进行一下,很快因为我这里已经更新过了,可以看到有二十五个文件 加入了锁银,然后有三十八个向量嵌入时生成。 到此我们的 qmd 就 非常顺利的运行当中。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

一分钟教你拥有多个龙虾你肯定看到别人有多个龙虾,而真正的多个龙虾只有一个。 open cloud 今天教会你拥有多个龙虾。 open cloud 中多个龙虾指的是 sub agent, multi agent。 视频结尾,我将具体分析 open cloud 中关于 sub agent 和 multi agent。 我 们先来配置 multi agent, 打开终端,输入命令 open cloud agents add 加你的龙虾名 会撤,然后你会看到 workspace directory, 这是新的龙虾的工作目录,可以不用修改它。继续回车,第一个选 yes, 之后全部选择 no, 这样你就完成了第一步。然后我们龙虾目录里多了一个新建的 workspace。 我 们来到 opencloud 配置文件, opencloud 点 jn 中,我们看到 agents 中多了个 list, 其中包含我们现有的 agents。 可以 看到网页中代理里也多了一个我们新建的 agent 图案。 官网中有两段关于飞书的配置,我们来跟着配置一下。首先指定默认的 account 复制到我们的配置文件中,然后我们根据配置创建 account 字段,再改造我们原有的飞书配置。到 concons 中复制一段飞书配置,用来配置新的飞书机器人, 注意飞书机器人字段名不能一样。最后修改新的飞书机器人的 app 多和 app secret, 注意这里我的 dm policy 使用了 allowist 推荐,还是用 dm policy pairing 模式更便捷。最后我们添加 bindings 段, 绑定 agent 和飞书通信。其中 agent id 指的是我们的 agents 中 list 里包含的 agent 列表里的 id 字段, channel 则固定为飞书 account id 则为 channels 中 accounts 下的 key, 也就是区分飞书机器人的字段名。最后我们测试一下,就可以和新的飞书机器人通信,而它使用的就是新的 agent。 根据以上步骤,我们可以拥有更多的龙虾,从事不同的工作。注意, opencloud 官方暂时不支持多个机器人在一个群里互聊。 刚才我们用到的是 multi agent, 还有一种叫做 sub agent, 它们有什么区别呢?你可以理解为 sub agent, multi agent 的 员工。每一个 multi agent 都可以一句话开启 sub agent, 每个 multi agent 都可以专注做不同事,而 multi agent 下的所有 sub agent 只能围绕着 multi agent 做事。十分感谢你的关注与点赞,我将持续输出更多 ai 内容。

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

最近 oppo 可乐很火爆,我看到很多人想要部署,但是卡在了第一步,到底用现有的电脑,还是买台 mac mini, 还是部署在云端?那我先公开一下我的全套配置,我是特意买了一台 mac mini, 养了一个多月小龙虾,今天来说说我的思路。先点个价,我的方案不一定适合所有人,只说真实感受,欢迎以后讨论。三种方案我都研究过, 首先,排除用自己常用的电脑,不仅会占用日常电脑资源,一些自动化的程序会干扰我正常使用,最怕的还是信息泄露,或者是把我重要的资料删除了。第二种,云服务器 可以二十四小时在线,不占用自己设备。现在大厂陆续都上线了自家的一键部署方案,以前要折腾半天命令行的东西,现在打开网页就能用,甚至手机就能直接跑,确实还挺方便的。但是我当时部署的时候还没有这么多选择,而且它也确实存在一些短板,一是便宜的配置跑起来很勉强, 每月还有额外付服务器费用,长期算下来不一定比买设备便宜。二是定制受限,很多云端预装镜像用不了某些高级功能。最后,我是自己买了一台麦克迷你,自己部署。 方可乐在 macos 上配置最简单,空不入一行命令就能装好,运行也是最友好的,所有功能开箱即用。大厂方案基本是绑定自家模型,虽然有的说支持切换,但选择范围很有限。我个人是比较喜欢用可乐的 opus 模型,它的理解能力、写作质量、复杂推理都是相当丝滑的。 选择 mac mini 可以 更方便地结合 color code 的 使用,对我来说,最实际的感受就是 opus 写出来的稿子几乎可以直接用。跟那些 a r v 很 明显还得花大时间改的模型不一样, opus 的 措辞、节奏、语感都很到位, 十四小时在线功耗极低,待机才几瓦。我的 oppo cola 跑在自己的麦克迷你上,所有的数据都在我家里,会更有安全感一些,跟我日常的工作机也是分开的,不用担心污染数据翻译、分类、格式转换这些简单的工作,用本地模型不花钱就能搞定,节省头肯留给深度创作,一年能省不少钱。 举个我自己在用的例子, openai 的 whatsapp 语音转文字模型,我直接装在 mac mini 上,把视频链接或者会议录音丢给他,就能自动转成文字稿,全程离线,不用联网,不用调 a p i, 也就是零费用,音频内容也不会传到任何服务器上。 最最重要的一点,装在 mac mini 上的 open cloud, 它能帮我截屏看内容、浏览网站、安装软件、管理文件,就跟一个真人坐在电脑前帮你操作一样。就我目前用了一个多月来说,真的还蛮爽的, 在聊天软件上跟他说几句话,就能帮我写好文案,每天自动整理热点新闻,再也不用听那些满是广告植入的早间播报了,还把我养成了五百八十二卡吗的 reddit 账号,有片一百八十一赞的爆款。当然他也不是完全没有缺点。首先,需要一台单独的设备,这个前期投入就比云端部署要大很多, 对于很多只是想要试用一下 apple cole 的 朋友来说不怎么划算。其次,想要接入更好的模型也是有一些难度的,如果只是处理基础的工作,甚至只是跟他聊聊天,就没必要搞的这么复杂。可以看看大厂的部署方案,我这边给有需要的朋友简单总结一下,就在评论区,那本期视频就到这里啦,我们下期再见。

手把手带你安装 opencode 龙虾必备的 skills 上期我们安装了 opencode, 并配置了免费的大模型,但装完之后你会发现它其实还是一只裸龙虾,所以这个视频带你正确配置龙虾补气必备技能, 让它真正从能聊天进化成能干活。第一名, skill v 者安全守门员装任何插件前先把它装上,它的作用就是给你的新插件做安检。装陌生 skill 前自动扫描有没有读取 api 密钥、访问本地文件这类危险行为。 安装方式也特别简单。首先复制 skill vater 的 qhub 页面,复制链接来到 opencard 的 聊天页面,告诉 opencard 安装这个技能包,并把链接发给 opencard, 这里需要等待一小会就安装成功了。我们告诉 opencard 以后安装技能 包都要通过安全检测才能安装,可以看到 opencard 的 已经学会了这个技能。第二名, fan skill 搜索神器 以前找个插件还得去翻仓库,太麻烦了。有了它你直接打字说,我想找个能抓网页的 skill, 他 自己就去翻库了,找到还会告诉你怎么装,主打一个动口不动手。 同样来到 qwerp 中,复制 find skills 的 链接,在聊天页面告诉 open qwerp 安装该技能包,这里可以看到 open qwerp 回复我们,这个技能包已通过安全审查工具,再稍等片刻就安装完成啦。 第三名, memory set up 记忆大王,没装它之前,小龙虾是鱼的记忆,聊完就忘装了它,你的使用习惯、偏好它都能记住。 下次聊天不用重复自己的背景信息, ai 才会越用越懂你。安装方式跟前面的一样,这里就不掩饰了。 第四名, selfing 自我净化这玩意特有意思,你用着用着,如果纠正了它一个错误, 它会自己记小本本上,下次同样的问题就不会再犯。简单说,这是一个能用时间换智商的神器。第五名, summarize 全能总结扔给它一个 b 站链接,一篇公众号长文,或者一个几百页的 pdf, 它几秒钟就能给你突出核心。摘咬现在信息爆炸,省点阅读时间,多刷会视频不好吗?以上神级 skill 都能在 github 或 cloudhub 找到并下载,赶紧去安排。

普通人装龙虾到底要花多少钱?到底要买什么样的设备?今天呢,我就用自己的实战经验来给你们算明白。那我们呢,是有三台机器都在跑,二零一五年的老迈克,二零二五年的新平,还有一台迈克的工作站。先说结论,我用的不是本地模型,全是走的 api 调用,所以门槛呢,其实比你们想的低太多。 嗯,先说打底的配置吧,就是不用显卡,不用大显存,我觉得内存八 g 呢就能跑,十六 g 呢就比较稳。不管是新的麦克,老麦克 windows, 只要是能能上网就能装。然后老的英特尔机器呢,一样装,不卡也不慢啊,不调配置 再说,多少钱能够搞定二手老电脑?可能一千到两千就够用,终端的 mac 可能三到五千,也很舒服,很省心。新的呢,可能是一万以上,只是体验更好。那我觉得它不是必须的,重点来了,就是硬件呢,几乎是不用花太多的钱,真正烧钱的是 a p r 的 talk, 电脑呢,只是终端,算力呢?在云端,我给你一句实在话,不是越贵越好,够用就行。如果你只是玩一玩,写写代码,做做文案,跑跑自动化,其实一台普通的电脑加上能够上网就足够了,只有重度多开二十四小时挂着,你才需要去考虑稳定性。 那我给你总结三句话,第一呢, api, 我是 用 api 调用龙虾,所以呢,不太挑电脑基本上呢,呃,对于配置要求不会太高。第二呢,其实硬件成本是很低的,真正的成本是在 token 的 消耗上。 第三呢,就是先轻后重,先免费再付费,刚上来呢,没必要堆硬件,所以关注我,下一期我跟大家分享一下 token 的 消费到底划算不划算。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

一键安装 openclo, 本地部署小龙虾亲测确实简单,无脑傻瓜操作,五步就能完成,全程耗时两分钟。第一步,右键安装包,以管理员身份运行,安装 openclo 中文版程序,将自动完成运行环境检测和环境变量配置。安装好之后会弹出命令行引导窗口,开始进行初步配置, 出现欢迎界面后点回车确认就行。到这一步选择快速开始,往下点可以选择模型配置,这里我们就以千问作为例子,确认后会自动跳转网页,在这里注册好千问账号后,将千问设为默认模型。然后这两步不用管,跳过 app 渠道选择和搜索服务配置。 第四步,给龙虾配置 skills, 建议按需勾选底下四个 hook, 都很实用,可以都选上。最后是选择操作界面,默认是命令行界面,初次上手建议选择 v b y 浏览器键,面对新手更友好。 接下来在网页对话就能自动运行脚本,到这里安装就完成了,可以开始养虾之旅喽!如果你也想本地部署 openclock, 在 评论区留下小龙虾,领取安装包,两分钟搞定,有手就行!

大家好,今天给大家介绍一下最近很火的 openclaw, 由于 openclaw 下载难度较大,我们给大家找了可以一键安装到电脑中的软件 autoclaw。 我 们先在 autoclaw 官网下载一下这个应用,下载完成后安装即可。我们下载完成后首次登录需要登录一下账号,之后就会进入首页, 首页如视频展示一样,如果使用 autoclaw 是 需要积分的,新用户的话会赠送五百积分或者充值二十九元,有五千积分可以使用。 接下来简单介绍一下它的配置模型,相当于 autoclaw 的 大脑,我们可以切换,如智普、 deepseek、 minimax、 kimi 等多家的大模型, 也帮我们下载了很多 skill 技能,如果自己部署的话,这些都是需要自己一个个再额外下载的。 接下来我们展示 autoclaw 的 功能。第一个可以设置定时任务,如每天给我们推送当天的 ai 新闻,并简单分析 autoclaw 会调用它的技能,告诉我们怎么实现, 如他告诉我们现在的回答只能在当前窗口,无法脱离当前窗口回答。询问我们是否要连接飞书。咱们暂时先不用飞书,先简单演示一下这个功能, 这样我们定时任务就已经创建好了,等到时间我们可以查看一下效果, 到时间了效果就出现了,这次我们简单使用页面来展示,下节课我们来将飞书接入,实现飞书给我们发消息。 接下来展示 auto cloud 的 第二个功能,本地电脑操作,通过对话实现对我们的本地电脑文件进行操作。如让 ai 帮我们寻找一下我们的文件内有多少个视频文件? 现在我们看到他已经帮我们把文件夹中的文件都整理好了,还可以再让他把我们把整理好的文件根据需求放入一个文件夹中, 这里可以看到他已经帮我们把文件整理好,放进一个文件夹里了。接下来来展示一下 ppt 制作功能,我们把想要生成的 ppt 主题发给他,等待片刻, 接下来就已经生成好了 ppt, 我 们来看一下效果。

本地部署一只小龙虾的成本是多少?这个是我家里部署的 open club 福气啊,里面住着一只叫菲瑞的龙虾。嗯,它的整个成本呢,其实也没有很高。嗯,首先 cpu 选择的是英特尔 i 三的九幺零零 t, 咸鱼的价格大概是一百二十元左右。那么选择这颗 cpu 的 原因呢,就是它的性能足够,并且功耗很低,大概只有三十五瓦左右,就算你整天开着也费不了多少电。并且呢,这个 cpu 它是原声支持到 windows 十一的, 对于小白来说还是很友好。嗯,主板你选择一个九代 u 接口的就差不多了。某鱼的价格大概是一百二十元。那么内存,如果你是在 linux 上部署的话呢,你至少需要四 g 的 运行内存, 如果你是在 windows 上,则至少是需要八 g。 呃,现在的内存价格越来越高啊,一条四 g 内存已经涨到了一百四十元左右。 呃,内存呢,是一笔巨大的开销。那硬盘倒是无所谓,你用机械或者固态都可以,一百二十八的固态大概是八十块钱左右。电源用三百瓦足以,二手价格大概是四十块钱,机箱不是必需品,二十五块钱左右。 综上所述,如果你用 linux 系统部署,那大概是五百二十元左右。如果你用 windows 系统,则至少是需要六百六十元左右。呃,这用大模型的费用可以从各个厂商的 callin plan 里边去啊,基本上都是四十块钱一个月。

二零二六年想拥有一个听话能干的 ai 员工,龙虾看这张官方路线图就够了。三步,带你极速上岸。 第一步,快速启动新手无脑选桌面,一键安装,去官网下载 com 安装,打开, 填入你的大模型 a p i t, 推荐用国产 mini mark 或 kimi, 便宜好用。然后绑定你常用的通讯工具,比如飞书,搞定,现在你就能在飞书里按他聊天了,光能聊天还不够。第二步,核心配置,给他身份和记忆,直接告诉他 我是谁,我要你干什么,我喜欢怎样沟通,并命令他永久记住,这是养熟他的关键,身份已存入永久记忆库。接着装备核心技能,去他的技能市场 必装这四样,自我净化、浏览器操作、内容摘要、技能搜索。装上它们,你的龙虾才算有了手和脚,能真正替你干活。第三步,开始使用,现在像老板指挥员工一样,直接下指令, 他会自己规划步骤,调用技能,完成从信息搜集、处理到输出的全流程。你只需要验收结果 总结,选对方案。快速启动露露身份,安装技能,下达清晰指令,这就是二零二六年养成专属 ai 员工的完整路线,别再收藏吃灰了,现在就按这三步去启动你的第一只龙虾吧!评论区告诉我你的启动进度。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

你为裁员不是因为能力不行,是老板发现你还不如一个免费的欧姆克洛。很多人看到欧姆克洛刷屏第一反应都是,这是程序员玩的东西,跟我好像没有什么太大的关系,但是我折腾了一周之后,我发现他是一个普通人,就可以接触门槛最低的 agent 智能体助手。 今天我把踩过的坑、经验和配置的技巧全部分享出来,手把手带你从零搭建一个二十四小时的智能助理。建议呢,先点赞收藏,晚点呢,对着电脑可以一步一步进行操作。先说一说他能具体干什么,就是普通的 ai 助手的逻辑呢,是你问他,他来回答你, office 逻辑呢,是你交代任务,他自己去完成。举个例子啊,你让他帮助你去剪辑一段视频,他发现电脑上没有剪辑软件,他不会跟你说对不起,我不会,他会自己去搜索要装什么软件,自动下载安装,并且把整个流程跑通,剪好的视频直接交给你, 全程不用你来管,这就是 a 阵的核心逻辑。接下来讲讲安装,很多同学呢,来一听部署这个词,两个字就很头大,但其实门槛真的已经很低了,分两种方式啊,首先就是新人推荐直接去腾讯云、阿里云或者是扣子, 他们提供 oppo, 一 键部署,点几下鼠标服务器就会自己跑起来,全程不用敲代码。想体验完整的功能的话,推荐还是各位同学可以在自己电脑上本地安装一个, 虽然要输入是几行的命令,但好处是呢,他直接读取操作你电脑上的文件,这才是 opclaw 真正完整体的状态,不懂的地方可以直接截图扔给他,让他教你怎么具体去做。安装完成之后,需要给 opclaw 接入一个大模型,相当于是给他配一个大脑。很多人卡在这一步,就是不知道选哪个, 我试了下十几种的组合,帮你筛选出了一个最省心的方案,直接抄答案就可以。如果追求最好的效果,那肯定是要去选 cloud 模型,效果最强,但稍微有点贵,性价比的话,就去选 gimni 啊,效果稳定,接入更方便。 日常简单的任务选择 mini max 和 kimi 国内的大模型,还有针对 omklo 专属套餐,最省心新手建议呢,从 kimi 和 mini max 开始开箱即用,几乎零门槛配置。完成之后呢,最关键的一步是把 omklo 接入你的日常通讯工具。我最推荐就是接入飞书,当然也支持 qq 或者钉钉在 omklo 的 后台选择渠道接入。选择飞书的话,按提示绑定,全程大概十分钟左右的时间。 绑定完成之后,你可以呢给他起一个专属的名字,比如说小助手。然后呢,你就拥有了一个二十四小时的专属助理。以 后呢,你在路上突然想查个天气,脑子里边冒出了一个想法,不用去 app 啊,直接给他发消息就可以,他会帮助你进行搜索、整理和回复,把 ai 变成一种随手可得的直觉,这才是真正的降维打击。 他能够做的远不止聊天啊,玩法一呢,就是让他自己去升级自己。 比如呢,他默认不支持语音输入,你直接发消息啊,帮我给自己装一个什么语音的识别功能, 他会自己去搜索需要哪一个模块,自动安装配置好,下次你就能够直接发语音跟他对话了。玩法二就是信息收集。 大家都知道,作为 ai 产品经理,我们需要紧跟 ai 热点,每天需要消耗大量的时间呢,来刷推特,来刷技术的新闻和报告。现在我们直接呢就可以告诉他,每天早上十点帮我收集全网 ai 新闻,总结最热的十条发给我。设置好之后 啊,你的每日日报呢就会自动生成,再也不用手动去刷新闻了。玩法三就是帮你积累个人知识库, 你可以呢随时把灵感想法啊,读书笔记发给他,让他呢每天晚上自动整理汇总啊,同步到 notion 或者说一些其他的笔记工具当中, 坚持三个月,那就是你独一无二的创作素材库了。玩法四就是整理邮件,加上实时监控,让他呢能帮你每天梳理重要的邮件,做汇总,摘药,甚至可以呢监控特定的信息,并定时提醒你。还有很多很多的玩法,大家都可以发挥自己的想象力去探索。 不过呢,老师在这里面还得提醒一句,就欧米克拉虽然好用,权限却很大,可以呢读选你的文件,联网操作。所以有一点要记住,就不要在核心办公电脑上面 存太多的私密的密码或者账号,尽量的在相对于干净的环境里面进行运行。最后一句啊,就是技术这东西呢,更新迭代非常的快,咱们呢不需要当代码大神, 但一定要当那一个会使唤 ai 的 人。安装过程当中呢,有任何卡住的地方,直接在评论区截图留言,我来帮你进行排查。觉得这篇有用的话啊,点赞收藏支持一下。想了解 o'clock 哪一个玩法?评论区告诉我,我们下期再见!