手动做 excel 又慢又容易错,还得调格式。兄弟们,今天我们用一分钟的时间学会 openclaw 自动处理 excel 表格,我是 ysk, 首先咱们准备好工具哈,已经有本地部署好的小龙虾 openclaw 再搭配两个 python 的 skill, 如果你不太确认这两个 skill 有 没有,那你就抄下来发给你的小龙虾,让他自己确认,没有的话他自己会安装。那么我们的重点来了, open class 操作 excel 呢,有个固定的口令模板,核心原则就是动作加对象加要求, 那标准的句式就是创建、修改或者删除,再加上具体的文件,那说明了数据如何求和排序列宽这些具体要求。 我们要避免一些口语化的操作,就是说一些完全不清晰的一些指令给到我们的小龙虾。那我们下一步呢,用两个案例来给大家做一下具体的演示。 第一个就是创建 excel, 我 们这里用一个例子就是口令是生成 excel 三十人工资表字段包含姓名、部门、岗位、基本工资、奖金十八,表头设置为蓝色金额,又对其带人民币符号保存到桌面。 好,我们这当把这一段的口令给到我们小龙虾的时候,大家看我们的输出截图啊,是完全符合预期的,它可以完全啊深层我们所需要的这么 excel 表格,那下一步我们演示一下修改 修改,其实跟刚才这是一样的,都很简单,就说口令是,比如说我们现在假设口令是按奖金列,按金额从大到小排列,并且把实发金额大于五万元的人整行标记为浅绿色 啊,那我们现在小龙虾整个给我们叔叔的截图大家也看到了,整个的效果是拉满的。好的,今天我们就到这关注 ysk, 教你投篮技巧,用 open cloud 搞定 excel 所有的烦恼。下节课我们将给大家讲一分钟如何让你的小龙虾给你写一份 ppt。
粉丝4725获赞8890

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

挑战全网最快最简单 open globe 本地部署!朋友们,你们一定在互联网上看到过很多 ai 的 博主,还有一些 up 主,教我们大家怎么去部署安装包,但是他们的视频动辄十几分钟,二十分钟, 还有一些那些代码我们根本就看不清楚,我们小白怎么才能够快速又简单的安装这个东西呢?朋友们,今天我来挑战一下啊, 市面上大多数的这个安装的部署大概可能都是这样的啊,然后呢,开始教大家啊,怎么去部署啊,还要大家写什么代码,我们新手小白,我们怎么去能弄懂这些东西是什么意思呢?还要去配置,这也太难了吧,朋友们,所以 看好了啊,我今天所教大家的最简单的方式是什么?首先啊,把这个东西复制一下,这是第一步啊,只需要三步,第一步,复制一下,第二步,打开这个啊, 然后把它给粘贴上去好了,这是第二步。第三步,点击,点击,点击点三下,等它下载完成。 看好了啊,朋友们,我让你们看看什么是最简单的,一个能打的都没有啊, 好,好了是吧?来,先点下面这个清理一下, 然后点击中间这个,就哪怕你不会编程,咱不需要啊,不会编程你也你也会,然后你要预览一下你要把它装到哪里,我这里是提前建好了一个这个文档,然后我就把它装到这个文档里面 安装,如果你的电脑没有安装成功,那么你就再安装一遍就行了。好,就这么简单,朋友们,想要的朋友们点上关注评论区评论简单两个字。

展示一下,就是我在我这台 macbook 部署了本地龙虾,并且在这一个 lm studio 的 这一个框架里面去运行大模型,随便运行的一个本地的模型,就是一个 英伟达的 nano 四 b 的 模型,非常的有意思,因为它很小,在我电脑上面运行的话没有太大的负担。 这个 lm studio 开了本地模式,应该是这里看设置这个位置,开发者开了这一个 llm 服务,就是已经对接好了,我电脑也装了龙虾了,就是 openclore 已经部署好了, 在这里面也可以跟龙虾交流。我想展示的是在这哎,已经也不输在苹果端的微信了,就是已经绑定了微信的 clawbot, 你 来一段自我介绍好吗? 就直接发给他,之后就直接在这里面可以看到他运行的过程,是可以显示的,就这个位置,就这里他就在跑, 只不过回复的有点慢,可以看到发了这么久,哎,现在来了。那就说作为 opencloud 的 平台什么助手。那你帮我拼一下百度吧,看看能不能拼通。 很明显这个识别不准,对方正在输入, 太慢了,还是得对接那种 a p i 接口才会快, 那样可能也和我这个电脑是有关系,百度点 com 看看他会不会。其实部署本地话也只是拿来玩一下,毕竟硬件的水平有限, 体验比较差,只是玩一下就是这样子。这是可以回复,但是可能是这个模型太差了,只有四 b 的 这个模型 运行的话都不怎么烫。我之前运行的是阿里的三点五九 b 的 模型,也可以用它大概有六 g 多就聪明多了,但是非常的发烫,就这个位置, 现在呢,我就运行了这一个比较简单的四 b 的 模型,它占用的内存不高,但是呢它的能力也有限, 回复的非常的慢,有兴趣的话可以去大件,就是基于 lm studio 来部署本地模型。然后呢,又部署龙虾,如果能用 macdong, macdong 它是统一内存版本的,它可以内存可以当显出来用,正常的话 用 mac, 我 觉得优化是比较好的,比 windows 运行这些模型的话,比 windows 体验真的好很多,而且也比较省心一点,比较容易就可以达到一个比较理想的效果。好了,那本期视频就到这里了,我们下期再见, see you guys。

微信的 co bot 真的 做到了,我现在真的是可以用微信直接给龙虾欧朋克下命令,让他帮我去工作的。今天带你上手来看看一个简单的帮我搜集信息的功能,斜杠六会让他进行到一个新的对话环境里面, 所以我们每次对话之前可以打这个斜杠六,帮我搜集一下这一周最新的 ai 相关的新闻,总结成 csv 的 表格格式。好,我们来看看,看到了吧,真的是没过多少,他已经开始帮我总结了 啊,当然这个他直接是帮我返回到这个 csv 的 格式,你看到中间他是有这些逗号的,但是我们可以要求他帮我们存在本地,请你帮我把这些内容整理成 csv 的 文档,存在本地。好,我们发送完之后看看我们这的文件夹,到五秒钟的时间就帮我们已经存好了。我们快速浏览一下这里面的内容,看到了吧,日期、新闻、载药都已经总结出来了, 而且还有来源。然后我们再回到手机,每次他完成任务之后呢,他就会告诉我们啊,已经存在了这个默认的 workspace 里面。 看完之后,如果你也想拥有这样的 ai 助理,我们正好有一系列的 open 课堂课程,包括从一开始的如何进行本地部署,联通微信到更进阶的行业落地应用。如果你感兴趣,可以在视频底下留言,或者点击头像看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

这里给了个关机指令,首先可以看到收到,随后完成关机。 这边开机后自动开启 open call 网关,打开命令栏,打开 open call。 这边输入打开 open call 命令, 成功打开 open call, 这就是 open call 界面。这边可以看到与他的对话, 这边我先询问了他是谁,给他取了个名字叫橙子。 这边他回复了上一个话题,刚刚开机有延迟存在,通过非输,我给我让他给我写一段简单代码,找到一百中的所有数,并打印出来。 这边 pc 端收到, 这边开始运行了,全程无人为干预, 弹码已经跑通了, 执行后还会有反馈。 这边我询问他身份, 回答他是我的私人 ai 助手名字。这边可以看到他的回答。这边让他新建,保存他自己生成的内容。 pc 端接收, 这边是反馈内容, 这里可以看到直接让他操作回答问题,新建文本,保存内容,全套流程完成。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

大家上午好呀,我的本地大模型是真的完全跑起来了,你看我现在用的大模型是拉玛三点零八 b 的, 然后我那个之前呢,一直就是周末的时候,我一直在尝试用 opencloud 点进去,后来发现 这个这个那个就是虽然说可以调用工具,但是聊天那些啊都特别的死板僵硬,毕竟咱的电脑配置有限, 装不了超大模型,就只能装这种模型的话,确实聊天特别死板,后来我就一直在想有什么办法可以让它像那个百联平台一样提供的那个大模型啊,那么顺畅,聊天顺畅啊,然后可以调工具啊,开发工具什么的。然后后来我就 我就就周六日就一直在搜桌面,找到了一个神器叫 open web ui。 我跟你我,我先给你们那个试一试效果,然后我再给你讲讲这个东西有多神奇,你看就比如说我先跟我的本意大模型聊天,我说请你自我介绍 来听他介绍,你看反应速度也是会非常快的, 那这就是很高兴与你相见,可以把它一个,我是光灵计算。然后呢,我们本地大模型有个最大问题,就是说联网搜索的问题,我那个之前配置了好久, 然后但是再再用这个 open web ui 的 话,一下子就搞定了。你看我现在就比如说 你看最主要就是他可以联网搜索信息,然后搜索的东西还挺全的,然后他还还会把那个信也给提供的,防止出现假的信息。 然后最主要的就是他的话有个就是也能够搞开发,你看啊,我给你们看,你看他这这边呢可以接入很多工具,你看我就接入了一些那个 这知识库啊,编程用的一些开发工具啊。你看这联网搜索的,我也是这边给加进去的,他自己那个社区里面提供了很多工具,然后你就可以用。 然后你看他的那个关于丰富他的记忆的,还有加载那个就是本地,本地那个文件那个权限, 本地大模型一般不都是那个权限受限吗?然后即使接了 openclock, 它的那个权限也是打不开的。后来你看在这个 openweb ui 里面就完美解决这个问题了。

opencloud 最新的三点二版本里边默认安装是没有最爽的本地文件操作权限的。那怎么打开这个权限三十秒教会你跟我来 那首先我们让他在桌面上创建一个文本文件,叫 a 点 txt, 把今天国际最热门的新闻写十条进去。他整了半天,新闻倒是有了,但文件没有写进去。提示由于我无法直接执行文件系统操作,让我尝试使用其他方式。这怎么行啊, 我不就是想让他他托管我的电脑吗?这可是 opencloud 最让人兴奋的功能。查了文档,最新的 opencloud 三点二配置文件,也就是 opencloud 点节省。这个文件里边 tour 是 节点是 message, 即仅允许 open call 做纯聊天消息处理,没有任何本地操作能力。记住,三点二的默认是没有本地文件操作能力,那你只需要把它修改为这个配置。 profile for 表示起用所有可用的工具和能力及全线最大的模式。另一个叫 allow f s 和 roton 啊,其中国普 f s 表示文件系统操作机,它可以创建文件,修改文件,删除文件。第二个叫 roton, 表示可以执行一些系统命令,比如说 d i r 命令,拍摄的命令,具体的命令等等啊,然后保存。记住新版三点二是不需要重启,它会自动去刷新配置。 然后你在输入框里面再次输入,在桌面上创建一个文件 a 点 t a t, 把今天的国际最热门的新闻写十条进去,他说好,接下来等他表演 几秒钟之后,他就收集好了数据,并且创建了这个文件。你看这个地方啊,这里呢?我们打开这个文件,里面就是最热的新闻,大家想一下,如果这个新闻每天定时发到我们配置号的微信群里面,不就完成了一个自动化发新闻的流程了吗?关注老王,带你玩 ai!

只有你想不到,没有他做不到!用本地部署的 office 协助办公室工作,实在太牛了,今天带大家上手来看看我们日常经常会遇到的 pdf 文件的修改。因为 pdf 文件本身就是用于阅读打印,所以文件本身就是为了限制修改, 哪怕你是用 adobe 或者其他一些线上的修改软件,它也只能帮你修改一些简单的文字。但是如果你要做整体的修改和局部的增加,确实非常难,但是 office 通过加持 nano pdf 的 skill 就 可以帮你完美的实现,直接带你们上手来看一看。 这个是我在网上下载的一个简历,样板很正常,底下呢是一个空的。现在呢,我在用英文的指令告诉他,帮我在他的简历上面加一个志愿者的内容, 是一个遛狗的志愿者内容,而且获得了金牌。当这个任务发送出去之后呢,他就会自动调用之前帮他添加的 nano pdf 的 skill。 过了差不多十秒钟,他告诉我新的文档已经生成了,在他的这个 workspace 里面。我们打开这个路径来看一看,确实已经在这,这个和之前是一样的, 然后看到了吧,最后他确实帮我们直接增加了志愿经历,六个志愿者这样的一项内容。最后我们把两份简历并排做一下对比,我甚至觉得右边是修改后的,他对一些小的细节处理,比如说把这做成圆的,会让简历更加的美观一些。 我们再来看看他最后加的这个志愿经历,真的是完美无瑕的把内容加了进去。如果你感兴趣,也想让本地部首的 open club 做成你的办公助理的话,我们正好在 ai 工具小组里面提供 open club 的 相关课程,可以看视频主页介绍,第一方会有专人给你提供更多的信息和介绍。

你有了一定的基础,有一个邪修的学好英语的方法,就是把你近一年说的话都翻译成这个英语,那么你把这些句子去学好之后,你的英语大概率也会很好。 呃,我呢就用小龙虾做了一个小东西,我们先看这个文件,它有一二三四个句子的翻译,对吧?然后呢这个时候我们在这里输入一个, 我找到了一种非常好的学习英语的方法,然后呢他就开始我们稍微等一下翻译了,他呢这个翻译会给你一个标准,稍微标准点,标准一点的表达,然后会再给你一个字口语一点的这个版本。我们稍微等一下,呃,就是 他在这里给我翻译完之后呢,我的电脑上的那个本地文件夹,他就会同步的把这个记录加入进去,我们稍微等一下,他现在这里已经开始输出了,然后我们看一下这里,发现没有,这个句子已经出来了, 我找到了一种非常好的英语学习英语的方法。 i found a very good method to learn english i found a great way to learn english。 然后你就这样子去坚持一年,哎,其实不用一年,一个月其实你就会有会感受到明显的效果了。就 接着你有了这个文件之后,你就可以把它打印出来,因为这是你属于你自己的材料,和你生活高度相关,你每天赌,每天赌,真的你的脑子慢慢这种格式就会转换过来,非常非常的有用。

大家好,今天我们探讨如何为 open cloud 本地环境备份,防止数据丢失和业务中断。本指南将提供完整的备份与恢复方案,帮助大家建立稳定可靠的运行环境。本次分享分为六个部分,分 析备份的重要性、明确备份内容、介绍三种备份方法,讲解三二一法则、说明恢复流程,以及分享避坑与维护建议。首先,备份直观重要, 系统崩溃、硬件故障等风险随时存在,可能导致配置和数据丢失,影响业务。做好备份能快速恢复 却表业务连续并完全掌控数据。我们需要备份的核心内容包括同样的配置目录、外部数据库的全量数据,以及部署脚本和环境配置文件,以便在新环境中快速重建。第一种方法是手动备份,适合新手或重要操作,前 三步完成停止服务,打包目录保存至安全位置。优点是稳妥,但需手动操作,已遗忘。 第二种方法是官方命令备份,三点八加版本推荐使用执行 open cloud backup create 一 键全量备份 wordify 命令,验证完整性进阶,用户可使用 onen config 等参数,灵活高效。 第三种方法是自动化定时备份,适合长期运维,编辑脚本并配置定时任务,如 cron, 可实现无人执手自动备份和旧文件清理,一刀永逸。 无论采用哪种方法,都应遵循三二一黄金法则,数据有三个副本,存有两种戒指,且至少一份异地备份,同时避免备份在系统盘并加密保护。系统崩溃后四步快速恢复种庄环境,停止新服务,解压覆盖备份文件, 启动服务恢复后务必检查对接状态和数据完整性。最后分享避坑与维护建议。备份前停服务,敏感信息加密,定期较验备份, 云商建议每周备份,每月测试,恢复升级前必备份。总结,备份是底线,恢复是能力。结合本地部署与三二一法则,确保稳定运行。 三种方法灵活选择,最重要的是立即行动,为您的 openclaw 做一次完整备份,感谢大家聆听!

朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

兄弟们,今天教大家如何用企业微信直接对话 openclaw, 然后打印文件。好的,我们现在开始 请你生成在桌面生成一份文件名为长恨歌的 pdf 文件,然后把长恨歌的内容填入进去并打印出来, 只需要一句话就可以搞定了。你们看好,这就是我的电脑,还有我的手机,我没有任何操作,我的左手拿着手机,右手也拿着手机,没有任何人的旁边都不作为的操作。 文件已经出来了,刚刚我没有对他进行任何操作。搞定,已经在桌面打印机开始打印, 没有任何人在等他。 大家看一下, 天长地久有时尽,此恨绵绵无绝期啊!

我的龙虾已经可以操作电脑了,今天我给龙虾发了一条指令,把电脑桌面上的图片全部存入一个文件夹,放在桌面上, 然后他就开始干活了。我们来看一下, 他在桌面上建了一个文件夹,把桌面上的图片全部转移进这个文件夹,完美完成了任务,太棒了。

openclaw 终于可以接入微信了,不是只能聊天,语音、图片、视频文件他都能回。今天我用三分钟教会你如何分别在云还有本地环境让 openclaw 接入你的微信,赶快收藏关注吧! 首先是云部署,云部署其实就三步,把服务器弄好,给它接上模型。最后把微信通道打通。首先第一步搞定服务器,使用云服务器可以让 openclaw 二十四小时在线。我们进入 云官网,租用一个已经部署 opencloud 的 清亮应用云服务器成功后直接点右上角的控制台,进入服务器 opencloud 的 配置页面。第二步,接入模型。这一步其实就是在给 opencloud 接个大脑, 我选择的是 deepstack, 我 们去 deepstack 开放平台获取一个 api keys, 也可以选择其他平台,然后把获取的 key 粘贴在这里,点击一键添加并应用,下面出现了应用中就可以进入了。第三步,打通微信通道。 这一步是为了让 opencloud 接入微信聊天页面。首先我们需要把微信更新到最新通道,选择微信并前往授权,这里出现一个二维码,我们用微信扫码,聊天页面就出现了这样一个 ai 机器人,我们语音上的 opencloud 就 成功接入微信了。 接下来是本地部署的接入方法,我们打开微信,点击我的设置,拉到最下面有一个插件,点进去就可以看到这个微信 cloudbox, 点击详情,将这个命令复制粘贴到本地部署的终端上, opencloud 就 开始自动配置了,后面出现一个二维码,然后用微信 cloud bot 的 这个扫一扫就可以了, 注意一定要用 cloud bot 的 插件来扫,不能用微信直接扫,这样也就配置完成了。微信能打通 opencloud, 才算真正进入普通人日常使用的场景。官方界面显示目前有这些功能,也期待赶快更新出更多的新功能。关注我,试着用普通人的大脑理解不普通的时代。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

今天教大家用龙虾 open call 把本地文件自动发送到企业微信群聊,只需要配置好 webhook 地址,再用一句自然语言指令就能完成文件的上传和分发,不用手动操作接口,也不用写代码。整个流程分为两个阶段,首先是在企业微信里创建群聊,获取 webhook 推送地址。 一步,创建群聊,打开企业微信,进入机器人的聊天界面,点击右上角的菜单按钮,选择创建群聊,把需要接收文件的成员添加进来,完成群聊的出场配置。第二步,找到消息推送功能。群聊创建成功后, 点击群聊窗口右上角的设置图标,进入群聊详情页面,在设置列表里找到消息推送选项,点击进入, 这里就是配置 webhook 的 核心入口。第三步,添加新的消息推送配置。在消息推送页面点击右侧的添加按钮,创建一个新的 webhook 推送配置。每一个配置都对应一个独立的推送通道,可以给不同的业务场景分别配置,方便管理和权限隔离。第四步, 填写配置信息,复制 webhook 地址。在配置页面填写一个便于识别的名称和简要说明,填写完成后,系统会生成一个唯一的 webhook 地址, 请务必把这个地址完整复制,保存到安全的地方,后续所有的推送操作都依赖这个地址里的批参数,完成后点击保存按钮。第五步,确认配置并完成添加,保存成功后,页面会提示配置已生效,点击完成按钮,退出配置界面,到这里, 消息推送的 webhook 地址就配置完毕了。接下来是第二部分文件推送的使用方法和实战演示。第六步,从 webhook 地址中提取 p 值企业微信的文件上传和消息推送接口都需要用到 p 参数进行身份验证。我们从上一步保存的 webhook 地址里把 p 等于后面的那串字母提取出来,这就是我们需要的 p 值,提前记录备用。第七步,向龙虾下达文件发送指令。文件发送涉及两个 a p i 调用步骤,先通过上传接口把本地文件上传到企业微信服务器,获取一个临时的 media, 再通过消息推送接口把这个 media 发送到目标群聊。整个流程不用我们手动操作 a p i, 只要把对应格式的指令发送给龙虾,它就会理解指令里的逻辑, 自动按顺序完成文件上传和消息推送两个步骤,全程无需人工干预,我们来做一次实战测试。测试前,桌面上有一个目标文件,我们通过企业微信向龙虾发送自然语言指令,要求它完成文件的查找、 复制、重命名和推送全流程。这条指令包含了定位文件、创建副本、重命名文件发送到群聊四个连续的子任务。龙虾收到指令后, 会迅速在桌面上解锁到目标文件,随即创建一份副本并按要求命名,还会清晰地汇报每一步的执行状态。文件已定位副本已创建,正在启动上传流程, 整个过程透明,可追溯。最终桌面上会成功出现重命名后的新文件,说明文件复制和重命名操作都已正确完成。同时,龙虾也顺利完成了文件上传和消息推送。企业微信的目标群聊里 已经收到了推送的文件,文件名称和内容都和预期完全一致,整个发送流程测试,通过用这个方法,我们就能轻松实现文件的自动化群聊推送,大大提升日常办公里文件分享的效率。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。