搭建微信和 opencloud 连接,首先打开微信,从设置到插件,我们能看到一个微信 cloud, 然后点击进去,点击详情能看到一个安装指令,把这个指令复制下来, 在电脑上输入指令,安装微信插件。本地已搭建欧拉玛加迦玛四大模型, 安装完会弹出一个二维码,如显示不正确,可浏览器打开二维码链接,然后再重新打开微信,打开微信,设置到插件的扫一扫,扫描这个二维码, 微信就会弹出微信 club 的 聊天窗口,接下来我们来测试一下, 还有很多需要探索。
粉丝745获赞1.4万

前天我安装了 alama 本地大模型, 今天呢,就想在本地安装 open 可乐,让 open 可乐调用这个 alama 的 本地大模型。 首先呢,我用这个豆包大模型,然后问他一下怎么在本地安装 apple, 在 mac 电脑上面安装, 然后我就按照他的指令一步一步来安装。 由于是新电脑,所以不能直接复制拉取 opencloud 的 这个命令,先打开这个终端 看。我一开始直接复制这个命令拉取的话,它就出错了,它说缺少这个运行的环境, 所以根据它的提示,我就先安装了一个 pro 这个命令的环境。 把这个环境安装好了以后呢,还要安装这个 node js 这一个环境,这两个环境都安,安装好了以后才能安装这个 opencool, 否则的话是装不上去的。 现在反正都有大模型,有什么问题的话,你直接把这一个问题啊贴到这个大模型里面,然后问他下一步该怎么办就可以了。 用 blueprint 测试好。 blueprint 已经安装好了, 那现在安装的是 node js u d g s 已经安装成功,这时候就可以安装 oppo nano, 将 oppo nano 从原代码拉取下来, 将命令行输入到终端里面去, 这时候提醒我说镜像有问题,所以还是直接拉吧。 本来想它能不能快一点,通过镜像能不能快一点,但是镜像不行,这下面就按部就班的,根据它的提示,能够我们一步一步来安装 openclaw。 安装 openclaw 的 时候先选择呃,这个快速安装模式, 现在这个 open class 是 最新的,二零二六点四点九, 那 quick start 这个模式,我们选择 quick start, 下面配置飞速机器人, 这个飞速机器人的,呃,应用权限,这个上面要仔细一点, 我这个 oppo 可乐安装好了以后一直连不上飞速,后来查找原因,嗯,就是这个飞速机器人的这个应用权限没有配置好, 这种还要记得发布,不发布的话它也是不行的,就是音乐没有声,音效好。这个 opencloud 已经启动了, 等 oppo 可乐启动了以后,这时候我连接它的这个本地大模型还是不行。为什么呢?因为这个我连接的一开始连接的是千万三点五二十七 b, 二十七 b 这个大模型呢太慢, 所以它一直在这动, 后来我把它大模型改成千万三点五的九 b, 你 看这个是我连接飞速的时候,连接了好长时间都没连接上,后来还是一步一步排查原因啊,才才找到了。就是它的应用权限里面 没有配置好, 最终那个飞速机器人要和这这一个 opencloud 要进行配对,在飞速机器人里面发一个,你好,它会产生这个配对码,把这个配对码呢粘贴到这个聊天 界面上面去,它会自动的进行配对。那第一步呢,就是要把这个 搭模型要配置好,这个搭模型也花了我很长时间,主要是,嗯,电脑后台开的程序太多了,可能它运行不起来,跑不起来,所以现在更换了一个千万三点五九 b 的, 你看现在界面显示飞速配对成功了, 然后我问他,你用的什么大模型,看看这个模型有没有突出 这个反应。 open color 的 反应还是有点慢啊,这要等一会儿,它不像那个直接和大模型对话, 你看他出来了, 他显示的是饿了吗?千万三点五九 b, 这个模型九 b 参数是千万三点五的这个版本,然后他还告诉我运行的速度有点慢是什么原因, 你看它也出来了,说显存或者内存的限制,其实这个在本地跑这个大模型还是有一些弊端的,除非你的硬件特别好。 好的就这样这个本地的 openclock 和本地大模型就已经安装好了,谢谢。

一分钟教你 open 科二本地话部署 open 科二怎么安装到电脑!最新方法来了,让你告别慢慢错,新手小白也能分分钟轻松养龙虾!话不多说,直接安排。首先我们打开视频右下角分享,左滑选择分享, 然后打开手机搜一搜,再搜一搜,搜索办公软件大师这个界面下滑,找到后选择进入,在文字栏输入关键词 open core 并发送,最后复制蓝字部分在电脑上打开就可以下载了。接下来是 open core 怎么部署到电脑的具体方法,这里加载完成,进入后选择立即部署 这个界面,稍等片刻,接着我们自动安装,然后等待加载好后进入文件夹里,打开 open com 安装包,选择合适的位置开始安装,等待完成后进入软件,在下方框里输入好, 接着下一步,在弹窗中选择确定。进入新的窗口后,这个位置有详细的安装教程,任何不懂的地方都可以查看教程解决。下面我接着演示 这里点击第一个安装大模型这个界面可以看到里面有六云大模型合集,质朴青年 deepsea、 火山 mini max 以及千问等等。这里就以 deepsea 为例给大家演示一下。我们选择这里的访问按钮, 进入新的页面后选择登录这里,我们填入内容后开始登录。进入后我们在右侧下滑找到这个选项,接着选择新建,填写好描述后选择提交。接着我们将鼠标挪动到这个位置,选择复制,将复制好的内容粘贴到刚刚的这个框内,完成后确定。 接着稍等加载,出现这个弹窗后选择确定。接着我们只需启动服务,启动成功后,上方的状态会显示正在运行,这时我们点击打开龙虾,进入后就能开始使用 open core 了。怎么样?这个简单靠谱的 open core 本地化部署方法你学会了吗?

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

六步,从零搭建你自己的 di 量化助手,所有命令都会显示在屏幕上,跟着做就行,有问题评论区留言。 第一步,安装 wsl 二、这是 windows 上的 linux 系统 openclaw, 需要 linux 环境来运行,以管理员身份打开 power shell, 注意一定要右键以管理员运行,然后执行 wsl install 一 条命令搞定。 装完需要重启电脑,重启之后 bin 出终端会自动弹出来,设一个用户名和密码,注意 linux 输入密码的时候不会显示任何字母,盲打就行。最后验证一下 version 必须显示。二、 第二步,安装 note g s openclaw 需要 note 二十二以上推荐。二十四、一定要用 nvm 来装,不要用 app install, 系统员的版本太就会报错,安装 nvm, 然后装 note。 二十四、第三步,安装 python, 依赖 open to 自带 python。 三、只需要安装 requests 和 excel 两个库,装完验证一下 import 没报错就 ok。 第四步,安装 openclaw 主体 npm install 一 行命令搞定。装完之后执行 on board 引导向导,他会问你几个问题。第一个,选 and frope 就是 claw 的 公司, 然后输入你的 a p i k, 这个需要去 intropic 官网注册获取新用户有免费额度模型,选 close sunny。 四六,性价比最高。最后安装后台守护服务,选 yes, 整个引导大概一分钟就能完成。 第五步,验证四条命令,逐个跑服务状态确认 running, 健康检查返回 ok, 拍散脚本能查到贵州茅台的数据,市场情绪也能正常返回。四步,全率环境就 ok 了。 第六步,连飞书,在飞书开发者后台创建一个企业自建应用,填到 opencloud g s o n 的 channels 配置里, 然后配事件,订阅地址指向你的 get 位,配好之后重启服务,打开飞书,给机器人发条消息试试能收到回复,整套系统就跑通了。 有问题评论区留言关注 e c r 下期见。

把微信进入 opencloud, 就 能随时随地让小龙虾给你干活。打开微信,依次点击我设置插件,进入 cloudbot 详情页,复制这串命令。电脑上还没安装 opencloud, 可以 参考前面这期教程,完成小龙虾的本地部署。 接着打开电脑,开始菜单搜索,并以管理员身份运行 power shell, 把刚才复制的安装命令粘贴进来。如果遇到无法安装的问题,多半是没有启动 openclaw 网关服务,只需输入 openclaw getaway start, 系统会弹出一个新的运行窗口,把它最小化,然后再次把安装命令粘贴进来。等待插件安装完成后,系统会自动生成一个二维码,使用微信扫码即可完成绑定。

这只视频是使用 openclaw 这只龙虾的进阶教程,带你一次性规避安全风险,降低 token 使用成本。我会把每一步都拆解给你,你照做都能学会好。接下来,我们来为 openclaw 先连接外部工具与应用。 我准备将它接入我的 zap 服务器,因为我已经在上面绑定了大量应用,将不仅使用更方便,安全性也更高,还能精准控制 openclaw 可以 访问的内容范围。 pro pro 已经给出了完整的配置步骤,我只需要进入 zapper mcp, 新建一个类型为其他的服务,再勾选其他需要使用的工具即可。 因为目前只是测试,我只连接了 gmail, 让它可以查询邮件书写草稿、正式不开放删除或发送邮件的权限。这就是精细化权限控制带来的优势。 随后,我们建立正式链接先生成一个专用令牌。我不需要像程序员一样手动编辑配置,只需要把诊断信息复制粘贴给 opencloud, 它就会自动完成配置。 短短几秒后,设计就已生效了,温昆老也顺利获得了查看邮件创建内容等工具权限。我来简单测试一下,让他提取我收件箱中最新的五封邮件,他很快就以清晰的聊天格式把结果展示了出来。 在继续深入使用前呢,我必须强调一下 openclaw 的 安全问题与使用风险。比如呢,其实在装 openclaw 时,第一步就会要求你同意风险提示。据我了解,市面上很多所谓的 scale 工具有高达百分之十七呢,其实都是黑客控制的, 专门用于窃取用户信息。这也是我为什么选择通过 zapper、 mcp 这类中间层做安全隔离的原因? 而不是直接让 ai 访问账号?哪怕只是简单一句帮我配置,这一秒都有可能被诱导提交敏感信息,甚至你连接的可能根本就不是真正的这一秒符,因此一定要严格控制你向它开放的权限。 除此之外,还要注意 opal 会产生大量 api 调用,即使是日常使用也可能产生不少费用。我只是简单测试就花费了几美元, 如果二十四小时不间断运行成本会更高。在这种情况下,在本地运行开源模型就显得很有优势了。例如欧拉玛,他已经为 opencloud 提供了现成的配置文件, 如果你还没有安装欧拉玛,可以现在进行安装。我来教你快速配置一个适合搭配 opencloud 使用的模型, 把启动欧拉玛的配置的命令复制到终端中。第一个推荐的是叫星的 glm four seven flash, 大 小约二十五 gb, 我 选择直接下载,它会在后台自动运行。这个模型体积偏大,这也是不少人专门购买 mac mini 来本地运行 openclaw 的 原因。 当然,你也可以不这么做,直接在 vps 上连接 openeye 或者 cloud 服务。如果想了解更多自定义配置内容,可以前往 opencloud 官网查看详细文档。 全部设置完成后,运行 opencloud models 命令,可以看到 alama 已经成为默认模型,同时 aspake 相关模型也被保留作为备用。 接下来我们打开 opencloud 的 默认文件夹,在 vs code 中查看它的路径,通常是点 opencloud。 在 这个工作区里,你可以看到智能体配置、绘画记录、日制定时任务、 zapper 连接信息等全部内容, 这个目录还可以同步到 github, 方便进行备份、迁移到其他电脑,或是直接附用相同的配置, 是一个非常有意思的项目。我打算先使用它个三十天搭建多个不同的智能体,看看它在日常实际工作中能究竟带来多大的效率提升。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

大家好,今天我们来安装 openclo, 这个是 openclo 的 github 地址,这个是 openclo 的 文档地址,文档推荐安装 node 二十四这是 node 官网和 get 官网,安装 openclo 前要先安装好这两个。 get 安装目录可以自定义到其他盘,点击 next, 直到安装完成。 note 安装目录也可以自定义到其他盘,点击 next, 直到安装完成。接下来验证一下是否安装成功。快捷键, windows 加二,输入 cmd, 调出命令行窗口,依次输入以下指令,出现版本号则代表安装成功。 接下来我们还要安装一下 p n p m 用 p n p m 安装 open glob 比用 n p m 快 很多,首次安装 p n p m 需要用 p n p m set up 指令出示化环境。 完成这些安装后,我们开始 opencloud 的 安装。来到 opencloud 的 文档,复制安装指令,命令行窗口里输入安装指令,等待安装完成。安装完成后,输入指令参数化 opencloud 相关配置,这里选择 yes, 这里选 quickstart 快 速开始,这里模型服务商,我们按照实际情况选择,我选择 custom provider。 自定义服务商是因为我用的是第三方平台,里面有很多服务商模型可以选择 base u l, 根据对应的平台要求填写,这里选择输入 api key, 填写对应的 api key 值,这里选择 openai compatible。 model id, 从服务商平台复制你想使用的模型名称, android id 和上面模型名保持一致即可。 model id 为选填项,取个别名或者不填都可以。接下来耐心等待模型配置完成进行下一步。 这一步是选择通讯平台,我们先跳过,后面再配置,后面选项都跳过,先把 openclaw 运行成功, openclaw 出场完成后就可以运行了。 启动 openclaw 网关,输入,打开 openclaw web ui 的 指令,等待一会, openclaw 格式化界面就会在浏览器里打开。我们测试一下模型是否能正常使用,可以看到模型调用正常, openclaw 本地安装成功。

不懂代码的普通人怎么不熟 oppo clone 呢?根本不需要花几千块钱去买一个 mac mini, 今天看了我的这条教程呢,直接让你白嫖一百万。 talking, 咱们打开阿里云的官网,在这里点产品,然后选到清亮应用服务器, 然后呢,在这里可以选这个啊, open club 啊,然后一个月啊,一个月大概是这个二十多块钱,一年大概六十多块钱,咱们选个二十多的直接付款啊,付款之后呢,可以看到我们这个实力马上准备好了,咱们点我这个实力,点进去有个音乐详情啊, 因为详情一共有三个步骤啊,第一个步骤啊,就执行这个命令啊,可以放通这个端口啊,第一个已经成功了,第二个呢,就是配置这个 oppo 的 这个 mate 啊,咱们这里呢,直接使用这个百炼 callinplay 啊,确认开通就行了, 免费赠送一百万 token 推理额度啊,这个是阿里云旗下的一个百链平台。然后呢在左下角有个蜜柚管理,创建 a p o a p i k, 创建一个 a p i k, 然后呢勾选用户名称描述一下,随便填一把啊, opcode, 然后确定, 然后大家可以看到啊,这个庙已经生成了。然后呢,右上角有一个地区啊,我们现在是在华北啊,就在北京地区,然后复制这个,然后复制 api k, 然后在上一个页面,然后回到上一个页面,粘贴我们的 api k, 然后呢选北京。那就可以看到奥鹏哥老配置成功。 然后呢就是第三步了啊,就直接呃,可以给我们一个网站,让我们去访问我们的这个龙虾机器人, ok, 点开我们的龙虾机器人,直接问他用中文介绍你自己 啊,你看他已经回答了,下一期我会让 oppo cola 自动帮你干活,大家有遇到部署的问题可以随时问我。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

opencll 怎么接入飞书?首先我们打开飞书开放平台,点击新建应用,填写自定义信息后点击创建。在添加应用能力页面中点击添加机器人, 简单填写机器人配置后点击保存。接下来到权限管理页面配置权限,点击批量导入按钮,然后到 opencll 文档里复制配置权限的 jason, 粘贴到文本框,点击下一步, 点击申请开通,点击确认。在事件与回调页面中配置事件,选择长连接接收事件,点击保存,点击添加事件按钮,找到接收消息事件,这里可以手动寻找,也可以搜索查找。 选中后点击添加,完成配置。完成这些配置后发布应用,点击创建版本,按要求填写信息后点击保存。发布后我们来配置 open clone, 在 opencloud 页面复制指令,粘贴到命令行窗口执行进行飞书相关的配置消息渠道选择飞书 app secret 和 app id, 到飞书开放平台复制并粘贴到命令行窗口中。 接收消息的方式选择 website, 这里选择国内版飞书群聊响应策略,大家根据实际情况选择这里我选择禁用群聊模式, 这里选择 friendage 私聊访问策略,选择 no, 继续选择 no。 绑定到智能体,选择 yes, 这里是配置智能体大脑,选择 main。 以上操作完成后,需要重启 openclaw 网关,配置才会生效。网关启动后,我们就可以在飞书进行测试。 首次聊天机器人会返回一个配对码,我们将指令复制到命令行窗口,批准他执行完后,我们就可以在飞书愉快的使用 open class 了。文字下方出现小图标,代表机器人正在思考,耐心等待就好。 以上就是 open class 接入飞书的整个流程,现在我们再来了解一下飞书机器人怎么删除。到飞书管理后台的应用管理页面, 找到要删除的应用,将应用停用,只有停用状态的应用才能被删除。应用停用后,到飞书开放平台的凭证与基础信息页面的最下方,点击删除应用按钮,即完成了飞书机器人的删除。

首先直接双击打开登录电脑端的小龙虾,等几秒钟,如果你是没用过的话,你必须要先注册, 先注册。然后呢就回来网页端,就是这里先注册嘛,因为我已经注册了嘛,我就点登录账号是这一个,这输入密码这账号嘛?然后呢就连接, 比如说我随便发一个咯,五二零发送电脑端就会接收到了,你看是不是还有这里有一个使用说明,要先看一下这里。 好,现在可以了。

一分钟教会你如何在 mac 上本地部署原版 open curl。 都二零二六年了,你还在使用一些第三方的 open curl, 就 像个智障一样。不要着急,今天歪歪教你如何在 mac 上本地部署原版 open curl。 第一步,安装 homebrew 官方的一键安装命令,虽然会自动安装这些工具,但是可能会出现问题,所以我们直接先行安装。 我们在终端输入这个安装命令,如果这里跳出弹窗,证明你的命令行开发工具没有安装,我们点击安装,并且同意许可协议。等待安装完成后,我们回到终端,重新输入这行安装命令。回车后会问我们通过什么下载 homebrew? 这里我们通常输入一回车,选择通过清华大学镜像源下载,然后我们需要输入开机密码回车, 接下来会问我们是否删除之前的 homebrew, 可以 输入 y 回车,它会帮我们自动备份。在接下来我们还要再按一次回车开始安装 homebrew, 安装后再次输密码回车。接下来我们要选择用 homebrew 安装时用哪个国内镜像员,我们这里选择推荐的阿里镜像员回车, 再次等待安装完成,等出现安装成功的提示后,关闭终端,重新打开,让配置生效。第二步,安装 gte gte 是 一个代码版本管理工具,我们在终端中输入这行命令回车,然后等待安装完成。第三步,安装 notgs 来到 notgs 的 官方下载页面,下载完后打开安装包,在安装窗口中点击继续 同意用户协议,然后点安装,输开机密码,点击安装软件按钮这里我们稍微等待片刻,完成后点击关闭按钮。四步,安装 open curl 我 们在终端中输入这个命令回车。先把 n p m 的 下载源切换到国内镜像,然后我们继续输入这个命令,把 g t 访问 get 地址改为 https 地址, 最后输入这行命令,开始安装最新版的 open curl。 回车后需要我们输入密码,这个电脑密码不会显示,直接输入后回车。等待 open curl 开始安装。安装完成后,终端会输入 a, d, d, e, g, 某些数量还可以仅此的提示。 第五步,配置 off 壳,我们直接输入这个命令,启动驶驶化配置流程,然后会提示你使用它可能存在风险。问是否继续?这里我们按键盘上的左键选择 yes, 然后回车确认, 随后保持默认的 quick 模式回车。这一步需要选择使用的大模型服务商,我们这里以 kimi 为例,这里大家自行选择自己使用的就可以。这里选择注册商域名类型回车。然后把准备好的密钥粘贴到这里回车。 这里选择具体的模型,保持默认回车。这里选择通讯渠道,我们先选择最后的跳过,这里问我们要不要现在配置 skills, 我 们按空格键 pick for more 回车。选择先跳过。接下来问我们用什么方式启动 open curl, 简单直观推荐 w, b, u, i 随后会跳出一个网页,我们就可以和小龙虾对话了。今天的分享结束了,关注歪歪,下期教你如何对接飞书,用飞书操控电脑!

这只视频带你设定并配置好 open cloud 这只龙虾,并接入到 whatsapp。 创建 telegram 机器人没有代码基础也没关系,跟着做你的龙虾也能为你自动工作,即使你出门在外。好,接下来我们进入出场环节。 首先需要设置相关身份信息。先为 openclaw 取一个专属名称,再设置它对你的称呼。我这里设置它的自称为 claw, 称呼我为 adjourned。 你 可以更详细地定义它的行为风格。这些配置都会被保存下来,并在后续的对话中持续生效。 可以看到它正在将身份设定、用户交互规则等内容写入本地文件中。完成基础注册后,我们来配置 openclaw 连接 whatsapp。 这一步既可以在安装过程中设置,也可以在安装完成后通过终端操作。如果已经安装完毕,直接运行 opencloud channel add 命令即可添加聊天渠道。我会先配置 whatsapp, 再配置 telegram, 带你完整走一遍配置流程。 配置 whatsapp 十分简单,只需要用你绑定的手机号扫码二维码就能登录。扫码后,他会询问这是个人号码还是独立号码。 如果希望 ai 独立运行,不受干扰的,建议使用专门的手机号,方便它向你发送信息。设置好 whatsapp 后,我们继续配置 telegram。 同样运行 opencloud channel add 命令, 我选择使用默认账号,接着按照提示创建一个专供 opencloud 使用的 telegram 机器人。在手机上打开 telegram 搜索并找到 at boss father。 注意,一定要选择带有认证标识的官方账号, 然后发送斜杠 new bot 命令来创造一个新机器人。为机神设置一个唯一的名称,我这里命名为 agent two i s s cloud bot 创建成功后,会获得一个 api token, 将其复制并黏切到终端中勾 openclaw 使用。至此, telegram 也配置完成了下一款选择。完成,整个 openclaw 基础配置也就全部结束。 这样一来,你即便出门在外,也能通过手机直接和 open cloud 对 话,并且所有绘画内容与家中的电脑保持实时同步。 whatsapp, discord 等平台的配置方法也基本相同,操作逻辑是一致的。

大家好,今天大家给大家带来佳马仕加 open cloud 的 一个本地话故事,让大家实现本地脱贫自由,不用再为脱贫去烦恼担心。那么话不多说,我们开始, 首先我们需要下载这个欧拉玛,它呢它是一个开源的大魔性本地运行和管理工具,我们需要下用两种方式,我们下 windows 吧,有时候可以直接在抛物线里面去粘贴这个密令 完了,或者是直接直接下载这个下载一个一叉一的安装包,稍等吧,耐心等待,有一点八 g b, ok, 我 们已经下载好了,然后我们来进行一个安装,双击安装, 然后 yes 哦, ok, 出现这个界面就代表已经下载好了,然后呢你看看了没卖掉,这里是思考的一个模式, no 中高。然后这边呢是一个模型的选择,哎,比如说,哎,已经有看健马仕一四 b, 一 二 b, 那 么还有二十六 b, 那 么这个模型怎么选择呢?大家可以看一下谷歌的他们的一个要求,像健马仕推理内存要求有像一一健马仕一二 b, 一 四 b, 三十一 b, 二十六 b, 他们所需要的啊, gpu 跟 tpu 内存的一个需求,大家是根据自己的一个硬件情况去下载,那 bf 呢?就是原生的,这是压缩后的跟量化后的一个版本, 嗯,大家我呢这次硬件要求我就下佳木斯 e 四 b 的 版本比较好呢,可以直接点这里下载,他会他,他就会自己给你去下载,下载好了你会自己使用。 或者呢还有一种办法,比如像我们点 mod 这,然后呢加码是,嗯,所有 mod, 那 你会看出来的出来很多,那么我们选这个版本,那么这边一四 b it q 量化版本, 这呢就是一个压缩后的版本,他呢对内存的需求小一点,但是他的性能损失可能只有百分之五或者是百分之十,损失会非常小的,我们可以像这样直接执行, 直接执行这个它会自动去拉取本地模型,这模型大概本地有九点六几,所以大家嗯一定要注意设置存放路径,模型路径,那么可以在这里设置 载体,这里看着模型和 v 型,大家可以在这里去设置, 我们已经下载完了,等它验证, 验证好了就代表我们的模型已经下载好了,我们就只需要去配置 open cloud 就 ok 了,可以看到我们已经下载好了,而且它已经验证成功了,然后这边已经在进行一个思考了,这就是 要么是逆四 b 杠 i t q 四 k m 版本的,这是这是量化压缩后的一个版本,不管他,我们来现在来进行 open club, open club 之前已经大家应该也已经部署过了吧, 就没有部署的,大家可以去看一下我之前的视频,这边就不重复部署了。那么我们怎么配置进去呢?我们只需要运行这条命令,他呢是会重新让你去配置一个新的 小龙虾配置咱们稍等,比如说上 get 位让选 logo, 然后呢我们这边只配幕的,只配幕的,所以我们不需要额外的设置,是直接的幕的 默认,我们选择欧拉玛,这个欧拉玛看到没有,我们去光标移到这里回车,回车,然后呢?被谁而这个默认回车,然后大家一定要选 logo, 因为我们是模型,在本地一定要选 logo, ok, 然后 logo ok, 看到没有,我们这边就出来了。我们的模型也像欧拉玛杰姆斯 b, ok, 我 们呢 空格选中回车,然后这已经配置好了,因为其他的东西我们不需要配置,我们只需要新增模型,所以我们直接长停留, ok, 就 回车好了,我们再再启动我们的 get 位网关,所以提一百个意外 start, 一个 get, 一个 start, 然后等它启动就好了,哎,不好意思,打错了,好的,等待我们网关启动。 启动好之后,我们就可以使用我们本地的佳马仕模型了,可以看到这里它已经开始变更了, ok, 等它正常启动之后,呃,我们就能在我们的外部设置界面去跟小佳马仕去。大家之前 大家可能有的有的没有,小龙虾想体验也是一样的,比如说像大家可以打开这个下载好的饿了么 app 点一叉一,他就会去运行,比如说你像说中文那啥模型他会告诉你,然后呢我会问他一些逻辑方面的问题, 然后他会用热度去比较,然后包括问他一些更稍微复杂点逻辑博弈问的问题,他都会去 回答的。就目实测下来就说他的推理还有处理能力也是很 ok 的, 那么他也是支持你去上传图片给他的,比如说你看这个,我给他图片,他这也会去分析的, 所以说你的意见足够的话,那么本地步数也是一个比较好的办法。嗯,好的,那我们这本期到此结束。

ok, 大家好,我今天给大家分享一下腾讯云部署 opencloud 以及对接飞书的整个应用的股权过程。我们新手首先登录腾讯云,在这里我们直接搜索 opencloud, 在 opencloud 搜索界面之后,我们这里有两个,一个是云应用一键安装,一个是轻量服务器,我们推荐大家选轻量服务器,点击立即选购,直接就会跳出来 轻量应用服务器,这里的 opencloud 的 应用模板选择 opencloud 的 应用模板选择地域可以选择亚太地区,选择套餐类型,直接选择入门型就行啊,相对来说一个月会比较便宜,新手大家可以先试用一个月, 在这里我们直接点击立即购买。如果说您是首次购买轻量服务器,在这里登录立即购买的时候是需要进行实名认证的,我们其他的都不用选,直接去立即购买就可以,这里忘了选择,我已同意立即购买, 他就会跳到一个订单的一个支付界面,我们去支付,先实名认证再去支付就可以了。那假设我现在已经买完这个服务器了,我们就可以回到控制台 啊,控制台这里我们点击清亮应用服务器,就会跳到我们刚才已经购买的 open cloud 服务器这里。那在这里我们相当于给 open cloud 已经买到了一套房子,也就是我们的腾讯云。那接着我们要给腾 open cloud 安装他的大脑以及安装他的嘴巴,安装大脑也就是我们大模型这里 我们选择应用管理,在这里,因为我已经装好了一个小龙虾,目前我的小龙虾是用的呃 deepsea 的 大模型和飞书的应用,那在这里其实也可以推荐大家用别的模型,比方说我们选择这里有模模型的计划, 有 cookie plan 和这批 api。 选择模型 api, 这里面有非常多的模型的选择,比如说千问、 deepsea、 mini max 等等。那比如说我们选择 mini max, 接着会让你输入一个 api k, 那 这个 api k 我 们从哪里获得?点击这里,它会有一个自动跳转到 mini max 的 开发。呃,开放者平台,在开放平台这里,你首先登录之后进来就会有这样的一个界面,它默认会有一个 api k 的 一个呃,界面,那不是复制这个 api k 的 密钥,而是要给它创建 tok。 创建 token 相当于我们花钱购买了 emax 的 token 值。我们可以选择一个比较便宜的,先试用一个月,连续包月往下拉,会有一个每天五百次的一个调用,直接立即订阅 好确认支付就可以了。在确认支付我们就支付宝扫码支付就可以了。假设我这边已经支付完成了,支付完成之后,他会在刚才我们进来的首页这里会有一个呃, tokun plan 的 密钥,跟这个样子有点像。点击 tokun plan 的 密钥,我们点击复制, 回到我们轻量服务器这里,把那个 tokun 的 那个密钥给它复制进去,添加应用就可以了。那怎么判断我们的模型有没有添加成功?像我这里, 那他如果是绿色的应用中,就说明他已经配置完成了,这是给小龙虾先配置模型。那第二步我们接入飞书。怎么接入呢?其实现在飞书接入会比我之前安装的时候简单很多啊,我们直接选择飞书,有一个快速配置,在这里有一个前往授权之后,他会出来一个二维码, 我们需要用最新版的飞书去扫描这个二维码即可配置成功,这是第一种方式。这个飞书的应用需要是个人的一个企业,我们直接扫码就可以配置好它的应用,这是第一种方式,快速的配置,手机上装最新版的飞书即可。 第二个方式,手动配置,它要填飞书应用的 app id 和 app secret, 在 这里去添加,怎么去找这两个数据?我们直接点击查看详情,就会跳到飞书的开放平台,在开发者后台这里, 我们可以选择自己的 open cloud 去填写它的,去找它的 app id 和 app secret, 那 在这里直接复制就行, secret 也是直接复制,制好之后,我们把它填到这里添加应用,判断它是否添加成功,也是 添加运行中就可以。那这里 scale, 我 们可以先先不管它,直接它会默认带几百个 scale 供我们应用。 我们回到飞书,在飞书这里,我们直接如果扫现在最新版的飞书啊,直接扫码之后呢?它直接安装成功,就会出现一个 open call, 那 需要强调的几个点,因为我现在已经配置成功了。需要强调的几个点,第一个,如果报错,大概率是你的模型配置有问题,也就是这里你的 api k 选择有问题,我们 不断地去重复,去调整我们的 api k, 这是第一个。第二个,很多人想说自己配完之后,在这个 飞书上找不到 openclaw 这个机器人,那怎么办?我们其实需要检查一下你的飞书是不是最新版,如果不是最新版的需要更新,更新之后我们直接去在这里去添加应用,在应用这里会有一个添加自己常用的应用,会有 自己新增的这个 openclaw 的 一个机器人就会出现,可以去选择以上这个 openclaw, 用腾讯云安装接入大模型和飞书的一个操作流程。

今天我来教大家如何在 mac 上面安装 open core, 这个东西最近很火,是一个真正的 ai 私人助理。那么话不多说,我们直接开始。首先来到浏览器搜索 nojs org, 这里面呢?点击下载,然后我强烈建议下载 v 二十二,也就版本二十二 带有 lts 标签的,因为新的版本 v 二十四出现了很多错误,用旧一点的还是很稳。选择 lts 是 因为它是 long time support 的 缩写,意思是长期支持的。下载完后,我们来到这个链接 openclaw ai, 然后下滑,来到这个 quickstart 这里,选择 one liner, 然后点击复制键, 接着在 mac 系统里搜索 terminal, 将这个代码粘贴进去,然后敲击回车键,我们等待一会儿,如果提示要求下载 github, 那 么顺便就把它下载了。链接我放评论区了。等下载完后,你们应该就能看到像我这样子的场景。这里面的选项不是用光标来控制的,而是用键盘上面的箭头和回车键。 下面呢,我们选择 yes, 然后接着选择 quick start, 这后面的设置你们自己来填,如果不懂可以无脑一直 skip, 或者选择就是最常规的路线。等到来到这个 model provider 这里,我们需要来到这个 google eye studio, 然后点击左下角的 k api key, 把钥匙复制一下,然后我们回到这里, 选择 google, 然后将 api 要实战贴上去,后面的模型你们自己选。我这里呢,为了视频我就快速选,呃,二点五 flash, 然后就是这个选择,频道一般都是选择什么 telegram 或者 discord, 呃, whatsapp 这些你们自己来选,当然你们也可以直接跳过, 把信息填一下,然后后面我们就可以一直无脑跳过到 hook 这里可以点击空白键,然后加回车,全部勾选上。 当你看到这个 installing gateway service 的 时候,那你就成功了,等待一会儿它就会自动打开一个链接,现在你就能用 cloud bot 了。好了,这期就到这儿,下期我们接着讲 cloud bot 不 对, opencloud 为什么这么火?然后有什么功能?点赞、收藏、关注。

下面我们介绍一下本地部署的龙虾如何接入飞书。 在浏览器中打开飞书开放平台,点击右上方的登录按钮, 登录后点击旁边的开发者后台,点击企业自建应用创建企业自建应用,输入应用名称,也就是给飞书机器人起个名字,下面的描述可以简单写,然后点击创建, 然后再添加应用能力窗口,点击添加机器人, 然后点击右侧的权限管理,在权限管理中点击开通权限,在弹出的窗口中点击消息与群组,在权限名称处勾选全部选项,最后点击确认开通权限, 以管理员身份打开终端,执行 opencar config 命令,选择 local, 选择 chinese, 选择 configure link, 选择飞书, 选择 download from npm, 这时候 open curl 将自动下载飞书的本币,需要等待 飞书安装完成。需要配置,我们回到开发者后台,点击左侧的凭证与基础信息,复制 ipad 和 ipiscard, 粘贴回 open core 配置中, 然后选择 web socket, 选择飞书 china, 这里我们要选择 open respond in all groups, 这里选择 yes, 这里选择 open 选项,选择 continue。 结束 opencloud 的 配置。 回到飞书开放平台的页面,我们选择左侧的事件与回调,点击事件配置,点击订阅方式,使用长连接,点击保存,这里已经保存成功, 如果保存不成功,说明第二步 open 库澳配置非输有问题,从第二步再重新配置,这里我们继续添加事件,输入接收,选择接收消息二点零,然后点击确认添加,可以看到这里已经有添加好的事件。接下来我们需要发布应用版本,点击创建版本, 输入应用版本版本号一点零点零填写更新说明,这里我就填写添加龙虾往下拉,点击保存,最后点击最终的确认发布到这里我们的飞书就配置完成了,我们可以打开手机端的飞书验证, 打开飞书,搜索你明明的机器人助手名称,会看到出现在列表中,点击它给 open 科奥发信息或指令,这样我们的飞书就接入成功了,大家可以试一试。