粉丝506获赞5025

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

摄影师用 opencloud 能做什么呢?我第一件事的话呢,就让他收集灵感采集,我让他找什么呢?让他找一千张马的形象参考图, 然后指定呢?在编辑室的上面去参考,就找他找灵感,并且呢给我建立好文件夹,然后他自己呢就在我电脑上,哎,打开我的浏览器,打开编辑室,然后搜索马的一些形象参考,而且不要重复着一张张插好,插好之后呢,还把图片下载保存到我的那个电脑的文件夹当中, 而且还命名了个名字啊,你看这图片他采集的每张码的话呢,都不是重复的说,这个真的是让我很很吃惊,而且真的很方便。第二件事呢,我说什么呢?第二件事的话呢,我就让他那个帮我收集一下 ai 的 一些资料和 ai 的 一些趋势, 那他呢?我让他干嘛呢?我是先让他指定什么呢?指定他,呃,在推特或 ip 上找知名的专家博主搜索一下什么呢?就近期 ai 关于二零二六的 ai 的 趋势和方向, 然后呢要求呢不少,以一千篇的视频文章在梳理总结给到我,哎,然后就睡觉去了。第二天起来的话呢,哎,他就把东西梳理好了,而且还贴心的做一个网页,网页里面写了一个二零二六的一些提示,以及呢,哎,各种专家 一个圆论方向,他已经呢到二零二三年的话呢,会有什么变化,哎,在这里的话就是他整个网页总结出来的内容,非常权威的一个报告啊,而且树立的商业关系的话呢,也是,呃逻辑上呢会整理非常好,所以这样的话对我们要找些信息的东西,并且这些内容的话呢,这个都是非常非常方便的, 那最后呢也是最重要的,那做什么呢?我让他开始帮我去用 ai 去抠图了,因为抽卡是一个非常重复的工作哈,我,大家希望大家希望什么?就是在吉梦啊,米基尼啊,这种抽卡太重复工作的话让我自己去做对吧?那这种事太太耗时间了。 这里呢就开始让我崩溃了,我先是让他用积木去帮我做四张马云的海报, ok, 这他发给我的,你看丑就算了吧,他还什么呢?还是截图发给我的,都没有下的给我。我告诉他呢,一定要垫图,垫图图的话呢参考了构图,这样的话呢做东西会好看一些,有谁买一些,结果呢? 他不会用我就教他怎么用,教完之后呢他还是什么呢?还是不会怎么去用他,最后呢学习欲望还是很强烈的,哎,再让我教他怎么怎么去做,但是我没耐心,我截图告诉他他还是不会,那算了吧,就赶紧那个让他干别的事去了。 在这里我终于明白那个温凯的创创始人他为什么说为什么说什么呢?就是 ai 像什么呢? ai 就 像什么呢?就像一台百万级的钢琴一样,很多人以为 ai 呢就是你可以按一个键就一键成曲,不是的,钢琴呢还是需要去磨合,要你懂节拍你才能弹出好的曲子, 然后二进的话就像个实习生,你需要教他他才会变得越来越聪明变得越好用。所以说什么呢?所以不要想的什么,想的就是。呃,就是很简单的话让他干一个非常复杂的活, 而是就是当你磨合的足够多的时候呢,你才能把他做的越来越好,他就是你的实习生,你需要教育他,跟他学做,才能创造伟大的作品。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

这视频介绍如何将 opencloud 安装在阿里云清亮服务器?去阿里巴巴 cloud com 注册和登录后,寻找或浏览到清亮服务器, 选创建服务器,或直接去这链接,按立即购买。如果是自己选创建服务器,要这些选项, 我选中国香港, 我选一个月, 我选立即购买,费用是每月八美元。 选支付, 按管理控制台清量服务器 有 openclaw, 去搜索框打 model studio, 去大模型服务平台摆列。 首次调用千门 api, 按密匙管理 创建 a p i p。 我 之前已经开立的账户,就选择这账号,描述一下打什么可以自己决定确定。 按这里复制成功回去清亮服务器,按 opencll 这链接,按应用详情,按第一步的执行命令, 我复制并保留了这些资料。关闭, 按第二步的执行命令,按一下就可以选举之前复制的 a p i t。 下一步, 按第三步的执行命令 复制网站地址,按它启动了,可以在对话框打 message。 我 问他 what model are you using, 他回答,阿里巴巴 cloud 快 三,我问他 status。

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

还在为龙虾消耗滔天而发愁,那么这个视频给你讲一种方法,让你的龙虾能够免费的调用商用模型,这里面有两个关键点,第一好用,第二免费。那是啥呢?接下来给大家揭晓啊。大家都知道,这两天智普发布了智普五的模型, 在性能上已经达到了 a 公司四点五的模型的能力了,并且超越了 g 公司三 pro 的 能力了。但是大家有没有发现,随着智普五的发布,在官网上咱们可以惊讶地发现它的四点七 flash 免费了,也就是说咱们可以在 opencloud 里面 免费的去调用它的次新模型四点七了,那么这样咱们就找到了一个免费的并且效果还不错的一个模型了。好,那怎么对接啊?啊?给大家来说一下,首先呢,你得确保你已经安装了 openclaw 龙虾了,安装完成之后呢,首先啊,先把你的龙虾服务先结束掉啊,结束掉之后呢, ok, 这个时候 打开你的龙虾的配置文件啊,配置文件呢,就在你当前登录用户底下的 opencloud 文件夹底下有一个 opencloud 点 jason, 把它双击啊打开,然后打开之后呢,咱们去找到三个地方啊,一个呢是 model 啊,在 model 底下去添加一个智普的 model, 这是第一个,然后第二个呢,在 agent 底下将上面你配置的智普的四点七啊添加到你的 model 和 models 里面就行了。 好,那么接下来呢,咱们就添加一下,这时候呢,我去添加到底下,然后加一个英文的逗号啊,然后给它随便去起一个名字,这个名字呢就叫做 j m l 吧。啊, 好, ok, 然后完了之后呢,哎,使用 jason 这种格式,先给它包包装上啊,然后包装上之后呢?好,这个时候咱们需要打开一个之前已经配置好的内容,然后将里面的内容啊复制到字谱里面就行了啊,好,那这时候呢? ok, 粘贴啊,粘贴完了之后呢,就长的是这样啊,当然里面的 base u l 需要改成咱们连接的四点七的地址,然后 api k 呢,需要改成 api k, 然后里面的这些模型呢,也改成现在的模型就行了。 好,那么咱们回到这边啊,它的地址是啥呢啊?地址是这串叉叉之前的,复制它,然后更新到 bash 里面。好,粘贴了,然后完了之后, api k 呢?咱们需要找到你的 api k 啊,然后在界面上咱们去创建一个 api k 啊,比如说啊 test, 随便就几个名字啊,就有了,有了之后呢,把它复制,复制完了之后呢?哎,粘贴到这就可以了啊,然后粘贴完了之后呢,那么还有 id, 模型的 id 和名称啊,那模型的 id 和名称的话,咱们就回到这边,在哪?在这啊,这是模型的名称,复制,然后把它进行粘贴, 然后粘贴就行了,那么这样咱们的 model 就 已经配置完了啊,咱们就有 g l m 这个模型了。好,那么有了它之后呢? ok, 复制它的名字啊,在咱们的 agent models 的 默认模型里面给它换掉,那么咱们是它加上斜杠啊,加上咱们的模型名称,复制它, 然后进行粘贴好,然后完了之后呢?哎,同样的,把整个内容全部复制,来到 models 底下,好找一个地儿啊,随便找一个地儿,使用英文的方式来给它进行粘贴啊,然后它等于啥呀?等于一个括号号就行了,这是一个标准的 get 格式,这个配置完之后呢,意味着咱们整个 open class 对接免费的模型就已经 ok 了。好,那么接下来咱们来看一下效果啊,那么看效果的话,咱们首先先打开命令行窗口,然后输入这一行命令来启动咱们的 open class 啊。好,那么咱们等它启动好了之后呢,问一下大模型它目前连接的是谁啊?好,那么这时候就启动了,那启动好了,启动好了之后呢,咱们可以在页面上去访问啊,也可以在其他对接的,比如说某书上去访问,都是可以的。好,那这时候呢,咱们就输入一下,叫做我给你配置了一个新的模型, 告诉我你现在连接的是啥啊?那么这时候呢,它很快就给我响应了,它目前连接的是啥呀?四点七 flash 啊,它是可以快速响应的,并且是免费的模型到这儿咱们就对接完了,这样的话,咱们再也不用担心 talking 的 消耗量了,既能食用龙虾,同时又没有 talking 的 烦恼,一举两得啊,我是磊哥,每天分享一个干货内容。

oppo klo 中文版未贩机教程从零开始,手把手带您安装上大龙虾!兄弟们过年好!老张先给大家拜个年,二零二六年春晚的科技都变成了第一主题了,大量的机器人,那么这期视频老张就带您安装二十六年开年爆火的大龙虾全自动机器人,这是第一期教学视频, 这期视频呢,老张先教大家如何把中文版的 open cloud 这个大龙虾安装到我们的电脑上。很多兄弟们担心中文版的功能问题啊,大家可以看到它是 github 上开源的项目, 并且呢具备实时和原版保持同步更新的功能,而且内置的飞书及国内网络环境的优化,这样的话 opencloud 既能是中文版,又可以对接我们国内的网络环境,大家使用起来会非常非常的方便。接下来老张手把手带您安装一下, 我们来看一下它的安装方法,现在是非常方便的,只需要 node 点 gs 作为安装环境,然后通过 npm 一 次到进行全局安装,然后直接可以运行向导进行相关的配置,然后直接启动就可以了。所以首先第一步我们需要先下载 node 点 gs 搜索 node, 然后进入官网选择,当 node 直接根据你的电脑系统选择下载版本就可以。下载完成之后直接双击安装,大家完全都是下一步就可以了,不需要做任何的更改。安装成功之后,我们可以启动命令行开始菜单,单机右键选择运行输入 cmd 安装是否成功,输入 no 的 空格杠 v 回车,如果能够弹出版本 v 二十三点一三点零,因为老张是之前安装过,我安装的是二十四点一三点零版本,现在最新的呢是二十四点一三点一,这个都没有问题,只要能弹出版本号,证明安装成功,然后输入 npm 杠 v, 证明我们当前的环境已经成功配置了。然后接下来呢,我们就使用 npm 进行对应的安装指令,我们回到 get 仓库,把这行安装代码直接粘贴到我们的命令行,这个意思就是使用 npm 安装在大局,杠 g 的 意就是大局安装,安装谁呢?安装我们当前这个中文版的最新版本,然后选择回车, 这一步可能要相对来说稍微的慢一点,大家稍作等待,他的光标会一直在这跳,大家不要担心,直到光标还给我们才证明他本次的运行是成功的, 所以大家跟老张一样稍等片刻好。当我们看到当前添加六百五十六个成功之后呢,基本上就是安装完成了,然后大家可以看到有很多的警告啊,这个东西不影响我们运行, 我们还可以直接输入 open curl 杠 c n 就是 我们这个项目空格杠杠 v, 选择回车,如果他能弹出版本号,证明我们的安装也是成功的。好,接下来我们开始运行安装向导,把它复制过来, 选择回车,他会告诉我们本身他是一个业余项目,处于测试阶段,可能需要很多的权限,比如说访问我们的文件夹之类的,你是否理解,选择继续,然后接下来我们选择手动配置,跟老张一起一步一步的把每一项配置内容给他了解清楚, 然后想要设置第一本地网关,因为我们是运行到本地的工作区目录,默认情况下是 c 盘,然后你的用户里面的杠 openclo, 然后 worker space 选择回车, 然后模型厂商。这个地方在国内的话,我建议大家初次使用都选择 deepsea, 因为它是最好进行配置的,当然其他模型呢,我们还可以用本地的,但是现在初期配置用 deepsea 好。 deepsafe 的 api 输入 api 认证,我们进入 deepsafe 官网,选择 api 开放平台,找到左侧的 api keys, 选择创建 apikey 名称的话,自己随意输入,选择创建, 把这个 apikey 直接复制下来,粘贴到刚才的窗口当中,输入 apikey, 选择回车。好,然后模型的话选择当前的默认模型即可。这个选项是我们默认运行的 端口,就是他打开时在我们本地的哪个端口运行,如果你都不知道什么是端口的兄弟,直接回车即可。这是绑定我们当前的服务器地址,因为我们是绑定到本地的。选择第一项, 这个是我们当前的运行权限,简单来说就是我们在访问对应地址时是否需要一些认证。 off 是 完全关闭,但是大家不建议,因为你 off 关闭的话,万一别人访问我们的地址,就可以无限制调用我们的 api 了。 所以说我们通常用 token 验证或者用密码验证二十六年呢,老张看社群中很多兄弟们推荐都是 token 验证,我们直接回车, 然后这一步就是是否开放我们的远程服务,就是是否在本除了本地之外可以对接一些远程服务之类的。初次呢,我们就直接 off 关闭,然后这个地方就需要我们输入 token 了,就是我们刚才在选择时是不是选择 token 验证啊? 你可以自己去输入,比如说输入一段偷看我自己能够知道是什么的,比如说我们直接输入程序员老张,但是你不输入的话,它会随机双成啊,我们选择回车,好,接下来我们退配置聊天通道,我们看到它默认了很多的聊天通道啊,就是我们说的这个 电报啊, whatsapp 之类的,但这些都是国外的,我们既然是国内使用,咱们直接就选择飞书,然后这选择使用本地插件路径回车,选择飞书国内版。 好,接下来我们它会让我们输入飞书的 app id, 我 们需要登录到飞书的官方网站,我们直接搜索飞书开放平台,登录您的飞书账号,选择进入开发者后台,选择创建企业自建应用, 这些都是自定义的,大家任意选择好。创建完成之后呢,首先配置第一项能力就是把机器人添加进来,因为我们需要机器人来做自动化调用,把它添加机器人添加完成之后呢,选择权限管理,在这有一个批量导入权限 啊,有个 j c 文档,我们呢回到他的官方目录下,在这啊大家老张教大家怎么选,在他的这个快速开始选项中,我们找到消息通道,选择飞书往下拉, 这有一个专门的配置应用权限,把这个复制进来,然后在这选择粘贴 好,这样的话下一步确认新增的一些权限,然后选择申请开通好,然后告诉我们确认开通,点击确定好,这样的话我们权限基本上都保存,保存了已经,然后选择创建,然后配置完成之后呢,我们选择创建版本好,版本号随机输入一个,比方说一点 零点一,这是我的一点零点一版本,然后然后更新说明啊,开放了权限,然后选择下方的保存好,选择申请线上发布。因为老张本身是一个企业版的飞书啊,所以说需要在手机端做一个审批确认,就是手机飞书,他会给我们发一个消息啊,咱们直接选择 确认就行,确认完成之后你回到权限管理当中,发现所有的权限都是已开通,非常的方便。好,这一步配置完成之后呢,我们回到基础信息页面,把这个 ipad 复制,把它粘贴到刚才的这个位置,做一个 ipad 回车,然后把认证密钥这一块也复制啊,然后把它再回车一下。 好,然后这个地方选择已完成,然后现在我们检查了当前的状态,已经更新成功,工作区域正常,绘画正强,选择配置技能节点安装默认肯定是 npm。 然后这些呢,我们可以选择展示跳过啊,后续的话可以再进行二次配置, 按一下回车网关启动运行,选择 note。 好, 接下来呢告诉我们需要做一个基础认证,就是我们现在连接飞书呢,还是连接不上的,我们需要在刚才的设置当中找到事件与回调, 选择订阅方式,添加一个长链接,选择保存,然后不着急选择发布,选择添加事件,在这官方文档中给我们的一个事件名称,我们把它复制过来, 好,搜索,选择接收消息,把它进行确认添加,嗯,这样的话就可以接收机器人发送的对应消息了啊,一定要是这大家一定要注意好,一定是先配置启动到这一步,然后再去进行 啊,这大家稍作等待,然后我们可以再创建新版本,把它重新的发布一下,更新说明随便填,然后选择保存好,发布成功,然后再回到刚才的命令。行,我们选择第一项啊, 选择第一项如何孵化您的机器人?直接默认选择第一项,然后稍作等待啊,他这边一告诉我,醒来吧,我的朋友,哈哈哈, good morning, 你就可以跟他进行一个简单的对话了,你发个你好啊,就可以了,嗯,他有什么可以帮你的,你看这个机器人就正式的启动成功了,当然这种对话很多兄弟用起来不是很方便,我们作为新手小白呢,更想是格式化一点,所以我们按 ctrl c 把它这个东西停掉,停掉之后我们再回到刚才的这个 gitap 仓库中,把这个启动网关的服务复制下来,选择回车让他跑起来一个对应的网络端口, 这样的话我们就可以直接在网页中进行使用了,稍作等待啊,然后我们就可以直接访问对应的 地址,就可以直接打开了,健康状态呢是正常,我们就可以直接使用了。好,然后我们来简单说一下小问题啊,就是刚才老张也碰到了,就是如果你打开之后发现是这样一个界面, 一直显示幺零零八这个错误,老张当时第一反应呢,问了 ai 工具啊,看这个错误怎么解决。其实这个则就是当时我们设置是 token 连接,但是 token 你 没有加入到我们当前的访问当中,但老张碰到了一个什么问题呢?其实官方文档中的解释是这样的, 官方文档让我们啊输入这个指令,让他自动打开,或者让你手动的在命令行中去配置这个令牌,但是老张发现基本上都是不能用的,所以我们如果出现幺零零八的错误,在这个控制找到盖蓝选项,自己把你的令牌输入进来, 然后这样的话选择连接,他就会自动连接上了啊,就可以直接来进行使用了,所以说这个是完全的国内版的操作方案啊,希望能给大家。希望呢能给大家带来一定的帮助。后续老张会陆续的更新相关的使用教程,希望大家可以持续关注老张,大家新年快乐!

openclaw 使用扩大模型加阿尔玛模型调用,实现零费用。首先来安装 openclaw, 我 的系统是 win, 第一步我们先下载 node 和 git 这两个插件,去官网进行下载即安装。 然后到 openclaw 官网,下面有安装介绍。 回到电脑桌面搜索 power 十二,点击右键以管理员身份运行,输入安装命令 是配置模型中选择,快一步步选就行了, 配置完会自动打开网页,没成功。没事,需要等三十秒刷新页面就可以了。 opencool 到这里就基本安装完成了。确认 alma 是 否运行,需要保持运行状态,然后我们让 opencool 直接指挥 alma 模型干活就可以。

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

hello, 大家好,今天我教大家一个免费的拿到 token 数去练习 open call 的 一个方法。呃,阿里的百炼大模型里面,它有一个对新用户有一个一百万个 token 的 这样的一个优惠,后面我的视频给大家讲清楚,为什么。呃,百炼大模型,它的 token 数远远不止一百万。呃,每一个子模型使用的这样的一个 token 数是一百万。阿里云百炼 模型这样的一个列表给大家看一下啊,这个附送的列表里面这是第一页的啊,第一页的有天文三点五 plus, 天文三点五 plus, 二零二六年的版本,天文三点五的这个什么什么什么版本,然后有这个天文 plus 的 版本,然后还有这个天文 turbo, 这个我已经用完了啊的版本,什么什么什么,就我们看光天文的版本就这么多啊。然后还有第二页,我们再看一下 第二页天文啊, q v q, 天文三 v l v 一, deep seek 啊, deep seek 版本, deep seek v 三点二的版本, 这些都是免费的啊,都给了一百万,然后第三页还有还没完呢。天文 v 一, 天文,天文 deep reach 啊,天文 m t, 天文 next, 天文 m t 三十 b, 再往下看到吗?有多少页?到第九页 再往下,第十页有吗?第十页还有。 ok, 听了二点五,九十十一,呃,已经二十页了,我看二十页还有二十页还有,那么每页假设是,假设是十个吧,那就是两百了,两百乘上一百万 多少?两亿 tok 是 吧?我没算错吧,那么每个客户呢?用这个一百万优惠呢?它的注册时间是九十天,其实呢就是白练刀模型的,它是对每一个 这个子的模型是一百万,你可以想一想看,比如说呃千万的很多的,什么三点二,三点四,三点五,那么都给你一百万的这样的一个 token 数,你想想看,那么你拥有多少个 token 数呢?呃, open call 刚开始用完全可以用这个千问的百变大模型,他们免费开源的这样的一个呃资源去练习啊,没必要去花钱呃,而且就是呃也没必要去去花那么多 呃贵的这样的一个 token, 因为我们开始的话都是用的是 open core 的 一个基础的这样的一个功能,完全就是可以用比较简单的模型或者说很老的模型去做啊,这是一个我们要注意的, 当然在使用过程中大家要注意就是这个 token 数呢,它每个 token 数呢就有一百万,所以我们在每一个 token 数都要去 给他设定好这个权限啊,不能就是让他默认的会,比如说我托管数不足,让他默认的会自动加托管数, 那么在这个天问天问百炼大模型,他就有一个这样的一个小小的陷阱,就是如果超过一百万这样的 免费体验的投币数,他会自动给你默认就是要钱的这样的一个投币,这样的话你就开始要涨费用了啊,要收费了, 这个就是,当然如果你的账户里面钱没有,也许他就是,反正就是最多啊,他会让你这个要交费,如果是里面有充了一些钱,那么就是这些钱就要被扣掉了,这个是要一定要注意的。 技术巴顿最近关注于 opencloud 的 使用应用和分享,欢迎大家关注,如果有帮助别忘了点赞,我们下期见。

前两期视频我们介绍了用国内的服务器来接入 opencolor, 并且跟飞速联通,但是我知道有的朋友是不满足的,因为咱们都还想用 jammer 或者用 cloud 的 来作为它的底层模型。所以这期视频就给大家介绍一下如何快速的用 opencolor 接入 jimmy 三,然后再导入到飞速里面进行使用。 这里是整个的流程图,其实并不复杂,我们涉及到这么几个部分,首先在终端里面安装并且配置 openclo, 其次呢,在飞速的界面去安装一个专属于 openclo 的 应用和机器人,那最后再是把这个飞速的机器人跟 openclo 那 么合起来就 ok 了。我们先来看 第一拍,就是在中端里面直接安装 openclo, 其实非常简单,咱们直接打开 openclo 的 官网,他就会告诉你,你只要在终端里面输入这一行命令就够了。这行命令 你输入完成了之后,那就按照它的持影一步一步操作就好了。那首先的话它会弹出来一些让你确认的问题,比如说这个地方你就直接点 yes 就 可以了。再比如这个地方直接点 quick start 就 可以了。接下来就让你去配置模型了,这个地方有很多模型可以给你选,就是咱们特别喜欢的什么 cloud, open ai 还有 gemina 三应有尽有,然后像 timi 这些也都有,大家按照需求自己选择就好了。像我喜欢用 gemina, 我 就选了 gemina。 在 这个地方我们需要选一下你用 gemina 怎么样去接入它,我就直接选用 a p i k 接入就好了。 选完之后你还需要再继续选一下用 jimmy 的 哪款模型,我直接就选的是最喜欢的这个模型,大家也是按需选择就好了。那再接下来是配置,聊天软件也有很多功能配置,我直接选的是飞书,但是我自己配置飞书在这一步没有太成功,后面我们会继续再讲哈,然后接下来它就会引导你继续配置。 skills 这个地方可以选的 skill 非常多,这个也是我觉得我们可乐非常好的一点,我在里面都选了好多,大家也是按需选择就好。记得这个地方它是多选啊,选择的时候是空格,把它选中,然后回车确认,确认完了之后就会自己开始安装了,安装可能需要几分钟时间,咱们可以稍微等待一下,等它安装完 skill 之后就再来到下一步,它会提醒你要不要配置 hook 地方,我没有配置啊,这个地方有点技术难度,我就觉得决定等我使用过一段时间之后,如有需求我再来配置。再接下来咱们就来到了去配置使用界面,他这个地方会让你选择三个选项,第一个选项是 在 terry 里面使用,第二个选项是在网页里面使用,我直接选了网页,配置成功之后呢,由于我选的是网页,他就会直接弹出来一个网页,就直接可以在这个网页里面跟儿童可老对话了。 ok, 那 直到这个地方呢,其实看起来都非常的顺畅,那就是其实我发现当我接入 kimi 模型的时候, 你就直接在这个网页里对话是很 ok 的, 很顺利的。但是如果我接的是 gemini 的 话,其实我第一次对话是不够顺利的,其实就是因为请求 gemini 其实需要配置一下咱们的网络,那这个地方呢?我就直接让 cloud code 协助我修改了一下 opencloud 的 配置文件,把我的网络地址配置进去就可以了。 接下来咱们就开始在飞书里面创建机器人,直接打开飞书的开发者后台,在这点一下创建,创建完了之后呢,你就会在这个界面看到一个有很多卡片的页面,直接选这个地方的机器人,就能直接创建好一个机器人了。那创建完了机器人之后,关键是我们要配置一些权限,好让机器人可以在群里发消息啊,接受消息 直接点最左边的这个地方有一个权限管理,然后在这个地方两种方式都可以,一个是可以开通权限,你可以把那个消息和群组下面的权限都开通出来,也可以是批量导入权限,批量导入的话就把这一大段 jason 完全的输入进去就可以 配置权限。完成了之后,咱们再点一下左上角的凭证信息,点进去之后就能看到 app id 和 app secret 这两个信息,一定要把它复制一下,这个是我们后面把飞书跟 openclo 打通的一个关键的字段。 完事之后咱们接下来开始继续在 openclo 里面配置文件里面增加飞书,那有两个方式哈,第一个方式我们直接可以打开 openclo 的 一个网页,就刚才咱们出现的那个网页,这地方有 config, 再点一下 raw, 你 在这个 command 下面找到这一段 jason 把这一段就是跟飞书相关的这段直接复制进去,然后你复制的时候记得一定要改一下 app id 和 app secret, 这个就是我们刚才从 飞速开发者后台获取的那两个字段。第二种方式我们还是可以让卡的扣子直接帮我改,我用的就这种方式,你就直接告诉卡的扣子,你让他帮你干什么就好了。 另外一个小提示就是我通常不会把我的各种 appc 直接告诉卡的,我会让他改完配置文件之后,直接打开这个配置文件,然后我手动把这两个最关键的需要保密的信息填到配置文件里, 这样来操作的。以上都配置完了之后,咱们就需要在飞速机器人里面再配置最后一个东西,叫事件与回调,还是来到飞速的开发者后台, 点一下左边的这个事件,你回到这里,然后你发现这下面会有三个 tab, 咱们先点第一个 tab, 点完之后呢,在这个地方你点一下长链接保存就可以。还是在这个 tab 下右下角会有一个添加事件,你点一下把这个接收消息相关的事件添加进去,这个接收消息的事件它的名称叫做这个 message receive, 这个事件 添加完了之后,我们再点第二个 tab, 叫做回调这个 tab, 这个 tab 下你也是点一下长链接,然后再保存就可以了。它其实看上去繁琐,但是每一个操作其实都并不复杂。那最后你配置完了之后呢,我们就可以在 飞书里面跟这个小龙虾对话了,你直接艾特他,他就可以直接给你回复了,就很方便。那以上就是所有的安装流程并不复杂,大家如果想要这份文档的话,可以在评论区扣一。今天的 open 就 先分享到这了,祝大家新年快乐,下期见!