粉丝8607获赞4.0万

asherbot 是 一个开源的智能聊天助手,通过借助大模型和消息平台,它可以在 qq、 微信等聊天工具中和用户对话。其最开始的用途是用来活跃 qq 群,代替一些企业客服的。不过后来它更新了编辑的功能,这让它拥有了和龙虾类似的能力,可以 控制我们的电脑完成一些自动化操作。这里我做了一张图,可以帮助你更快的理解 ai agent 这个概念。相较于 open club after bot, 不 管是 ui 界面、部署流程还是扩展支持,我觉得都更符合中国宝宝体质一些。而且它是基于斗克儿部署的, 稳定性上我觉得要比 open club 这种在系统里横冲直撞的 a 级头更好些。目前我已经高强度的使用了阿斯特堡特几周时间,所以是时候来出一期阿斯特堡特的安装使用指南了。本视频很干件,先收藏再看,同时也要感谢为阿斯特堡特做出贡献的开发者们, 没有你们就没有这么好用的开源软件啊。看这些头像,这就叫专业。那么话不多说,欢迎来到阿斯特堡特安装使用指南 c s 准备工作。我们需要一台电脑,叉八六或 arm 的 都可以, arthur bot 都支持,但这两种平台的系统安装方式会有很大区别,我这里会以更通用的叉八六电脑来作为演示部署,建议使用一台闲置电脑来进行。 一个 u 盘用来装系统,贝尔纳 s 二用来写盘,某宝 extra 老工具人的用来敲命令,一个乌鸦图形镜像用来作为底层。我这里使用的是带 g u i 图形界面的版本,如果你没有让 agent 和操作浏览器这种需求,可以安装不带桌面的服务器版。最后你还需要准备一个 api key, 没有模型, agent 是 玩不了的。 本期视频会涉及到一些代码命令,不用记,附件表里都有,那么照国际惯例,这些东西我都已经放在了视频简介。点个赞,快去看看吧! 装完之后就要来自第一步安装系统,将 u 盘插入电脑,打开本地打印机,点击左侧从文件烧录,选择你下载的无版图系统镜像,中间选择磁盘,勾选你的 u 盘,确定点进烧录镜像就开始写入了,看到这个就表示已经写入成功。我们从电脑上拔出 u 盘,插到需要装系统的电脑上,开机, 选择从 u 盘启动,看到这个,按下回车,稍等片刻即可来到无版图安装界面。第一页语言往下拉,选择简体中文下一步,第二页默认 下一步第三页键盘布局,默认下一步第四页网络,我这里插的是有线,如果你用 wifi 自己连一下。下一步系统更新,先跳过 六页默认下一步,第七页默认下一步,第八页默认下一步安装专有软件建议把第一项勾上啊。下一步如何安装?第一项是装成双系统,第二项是单系统,这里我选择装单系统,注意这会抹除电脑硬盘中的所有数据,有重要资料记录备份 下一步安装位置,我这里只有一块硬盘,如果你有多块硬盘,注意不要选错了。下一步创建一个用户名密码,注意这个密码很重要,经常要用,一定要记住下一步时区他默认已经选好下一步,确定一下, 点击安装系统就开始安装了,稍等一会,等它金条跑完。看到这个就表示系统已经安装成功了,我们点击立即重启,然后拔出 u 盘,看到这个,按下回车,稍等片刻会来到登录界面, 我们按下回车,输入刚刚创建的密码,回车即可。进入无端图桌面,弹出这个框框,可以一路让脚跳过,那么这里无端图系统的安装就成功了。但还没有完, 我们点左脚开始选择终端运行,接着输入这行命令,意思是安装 s s h 服务,回车,输你的密码,退出的时候不会显示 回车。看到这个输入外按回车,稍等一下, s s h 服务即可安装成功。接着我们点击样角,设置网络,在已连接的网络后边戳一下,查看一下本机的 ip 地址,这个地址每个人都不一样啊, 它是由路由器分配的。记得我们在同局网内的另一台电脑上打开模板, excel 转角 c t, 弹出框,点 s s h remote host, 填无版图的 ip 地址,用户名,勾上填你的用户名,点击 ok, 输入你的无版图密码,回车即可。通过 s s h 远程连接至无版图系统,我们先输入这样命令回车,再输入密码回车。 切换至 root 用户,接着粘贴一键换元命令回车。切换至 root 用户,接着粘贴一键换元命令回车。安装一下 root, 就要再次粘贴一键换元命令回车。他这里会提供很多的软件源,随便选择一个即可。我习惯用清华大学的网络协议,随便选哪个都可以 回车,他就开始更新源了,更新完之后他会问我们要不要更新软件,我们选否再选是回车把软件也一并更新一下,看到这个就表示已经更新完成,那么到这里,这个乌班图系统的安装和准备就结束 住了。第二步,安装卡萨奥斯阿斯特布尔是一个基于多克的应用,你当然可以直接在终端里通过敲命令来安装它,但既然都用多克了,我求你还是装个面板吧, 可以用做管理。多克的面板有很多,例如宝塔、青龙王、 pad, 这些都可以,哪款顺手用哪款即可。这里我会用卡萨奥斯来做演示。来到某宝 xterm, 粘贴卡萨奥斯的一键安装命令,回车,然后等待,他会在这里显示一下 ip, 这就是卡萨奥斯的后台登录地址, 我们驾它打开同级王类的任意台电脑的浏览器,输入刚刚的 ip 地址,回车即可。进入卡萨斯,点击开始输一个用户名密码,确认密码创建即可来到卡萨斯的后台,那么到这里,卡萨斯的安装就结束了。第三步,安装阿斯特沃特来到卡萨斯后台, 点击应用商店,你会发现这里面有很多应用,有了卡萨斯后也可以方便的安装各种用途的多款应用。关于卡萨斯的详细用法,你可以去看看我的这期视频,本期视频的重点是阿斯特沃特 casio s 就 先略过了,记得在 app 数量这里戳一下更多应用,把 casio s 的 第三方商店原粘贴进去,然后点添加,稍等一下,你会发现应用商店 app 数量变多了, 我们选择第一排的 dk turbo 安装,这一步的作用是为多可添加国内镜像源,解决镜像无法拉取的问题。安装完成后,桌面上会出现一个 dk turbo 的 图 标,我们等待它变成灰色,就表示多克耳机还原成功。接着我们再次进入应用商店,往下拉,找到阿斯特堡安装,等下它安装完成,我们戳阿斯特堡的图标,即可进入阿斯特堡控制台。首次进入它会让我们输入账户密码,默认的账户密码都是阿斯特堡, 说完点登录,然后它会让我们创建一个新用户,我们输下当前密码,也就是阿斯特堡,再输入两次新密码,最后输入一个用户名保存,再使用新用户名密码登录, 立刻正式开始使用阿 sir boot。 那 么这里阿 sir boot 的 安装就讲完了。接下来我们来创建聊天机器人,这里我将以完整创建一个聊天机器人的流程为例,带你快速了解阿 sir boot 的 整体用法。 来到阿 sir bot 后台,首先我们点击欢迎他这里提供了一个快速引导,让我们先去配置机器人,再去配置大模型。我个人的话建议先配置模型啊,点击左侧模型提供三,你会看到它上面提供了一排各种各样的模型可以接入,正常的话我们只需要添加对话模型,阿 sir bot 就 能工作了。后边的模型是用来增强使用体验的。 先说对话模型,我们点击新增,可以看到它这里提供了非常多的结构方式啊,如果有你的模型提供商,你就选你的,如果没有就选 open ai, open ai 除了可以节约它自己的恰当 gpt 还是一种通用结构格式,几乎所有的模型提供商都支持这种格式。另外 antropica 也是一种通用结构格式,这里我以 emax 的 api 为例啊, 我会以通用 openai 来做演示,选择它,然后 id 这里随便填,无所谓 api key 需要在你的模型提供商那里获取。另外我买的是 mini max token plan, 就 在 mini max 的 后台这里复制 api, 然后右键粘贴到配 置框里 base url 每个提供商的都不一样,通常会在它们的说明文档中写明。例如 mini max 的是这个。转换成 openai 格式需要在后边加上斜杠 v e 转成 atrapec 格式则需要在后边加上斜杠 atrapec。 同样的,我们右键填入 base url, 然后点击下方的自定义模型,输入模型名字。根 据提供商不同,模型名字也不同,这个一般也会写到它们的文档中。利用 mini max 就 提供了以下这些模型,可以调用。我们复制它们的名称,然后粘贴过来,再点添加,就完成了。一个模型的添加,你可以按照这个方法把 api 支持的模型都添加过来,完了保存配置,再戳下名称,使用模型即可。 如果你在新增提供商的时候选择非 openai 六 mini max, 就 会发现其实它就是帮你把 face ui 填好了而已, 跟选 openai 并没有多大区别。接下来看其他几个模型呢,就有配置。首先是 a 镜的执行器,这个如果没有特殊需求,建议不动,因为阿斯特布特本身已经自带了一套 a 镜的执行器,这个选项是用来给你替换第三方执行器用的。接下来是语音转文字,文字转语音可以借助 tts 模型让机器人回复语音, 如果你的 gpu 够快,可以在本地用阿拉玛部署一个类似千本山 tts 这样的模型,然后选择 openai tts 来接入。如果你的电脑性能不够,那我就建议 不用它了,因为云端提供上的 a、 p、 i 都是要额外烧钱的,没必要为了把文字转成语音去花冤枉钱啊,当然副歌除外。 看来是嵌人模型这玩意重要性仅次于对话模型。嵌人模型是干什么的呢?它是用来整理本地资料,构建数据库的,利用一些律师行业、教育行业的小伙伴有很多文档对吧?不方便上云的就可以用嵌人模型来把它们整理成一个本 地数据库。另外,机器人的长期记忆能力也需要依赖嵌人模型来构建,嵌人模型通常都比较小,不需要太高性能就能跑,很适合本地部署。那我待会将详细演示嵌人模型的本地部署方法。现在我们先接着看重排序模型, 这是用来干嘛的呢?其实就是用来帮嵌模模型整理出来的资料排序用的,在构建知识库方面,重排序模型用不用其实都区别不大,而阿斯特堡是不支持使用本地部署的重排序模型的,所以这玩意儿我建议不用。 做完模型,接下来我们就要为机器人做个性化配置了。点左侧普通配置,上边戳一下管理配置文件,他这里有一个默认配置。我个人是建议为每个机器人单独建一套配置啊,所以我们来新建一个配置文件,名字随意确定。然后我们来看都可以为机器人配置些什么功能,由于功能比较多,这里我就挑一些常用的讲了。 首先来看 ai 配置。第一项,模型,用于给机器人指定聊天用的模型,不选这个的话没法聊天啊。在这里你可以为每个机器人选择一个默认聊天模型。下边是默认聊天模型未响应后的备用聊天模型。 在下边是图片转述模型,是在默认模型不能识别图片的时候,用来告诉默认模型图片的内容的。利用你的默认模型是 deepsea, 它并不支持识别图片内容,就可以先用转述模型告诉它图片是什么。待会讲 alma 的 时候我会想起说它怎么部署。 下面是两个开关,用于启动语音转文字和文字转语音。第二项,人格,用来创建猫娘、蓝娘、看门娘什么的。 这就根据你们的癖好喜好吧,我反正是没怎么用。如果不知道提示词怎么写,可以让阿斯特布特帮一下。阿斯特布特的网页聊天界面,在这里不需要机器人也能使用。回到配置单。第三项,知识库,用来启动知识库功能。知识库怎么答,我们待会说。 第四项,网页搜索。让机器人可以通过调用利用 charlie 等平台的 a p i 来进行网页搜索。 charlie 的 a p i 是 免费的,直接去他的官网注册个账号就能获取了。 把 a p i 粘贴到这里,就能让阿斯特布特获得网页搜索能力。第五项,使用电脑能力,也就是对电脑的操作权限默认它是没有开启的,选择 local 本地即可让阿斯特布特操作电脑系统,获得类似于 open cup 的 能力。 选择 sandbox 则是构建一个沙箱,让 arthur bot 所有操作都被限制在沙箱中,这个可以根据你的需求来,如果你是纯聊天,就选择关闭。如果你希望 arthur bot 像龙虾一样控制电脑,就 选 local, 如果有特殊的安全需求,就选 sandbox。 沙箱下边的配置就建议不要动了。第二页,平台配置这里主要是用来配置管理员的,它默认只有一个 arthur bot 的 用户是管理员。我们刚进入 arthur bot 的 时候,他不是让我们重新创建了一个用户名吗? 如果想让自己的用户获得管理员权限,就要把用户名添加到这里,成为管理员,才能使用 root 泄露权限。第三页,插件配置主要是可以指定机器人可使用的插件,默认它是全部可用。做完所有配置,记得一定要点下右下角的,保存完了,我们就可以来创建聊天机器人了。 点击左侧机器人右下角,创建机器人消息类别。我这里强烈建议你使用 qq, 因为它最最简单。我们选择 qq 机器人,然后来到 qq 开放平台 登录一下,再点这个创建机器人,他会给你一个 app id 和一个 app secret, 寄下他俩。回到阿 sir bot 这边,先修改一下机器人名字,接着依次粘贴 app id 和 app secret, 然后启动机器人,最后点一下下边的配置,选择你刚刚创建的那个,完了保存来到 qq 上。现在你就可以和机器人对话了。不过你会发现一个问题,你的机器人是被单独视作一个用户的,所以我们需要把机器人的用户 id 也 添加为管理员。这里我们复制机器人的 id, 回到阿萨尔堡的控制台,点击左侧配置上方,选择机器人对应的配置文件平台配置添加。管理员把机器人的用户 id 粘贴进去,添加确定 保存。现在 qq 机器人就能获得系统操作权限了,功能和龙虾差不多。如果你觉得机器人名字头像不好看的话,还可以在 qq 开放平台修改机器人的名字和头像,修改完就好 很多了。那么到这里,机器人的创建就讲完了。此时的阿瑟爆头已经可以正常使用,但我们还可以安装更多功能来让它变得更好用。不过在此之前,先让我们用阿拉玛来部署一些本地模型。 阿拉玛本地部署模型对 gpu 性能和内存会有一定要求,但本次我演示的两个模型都不算太大,应该大部分设备都能跑,只 要你的内存大于四 g。 由于阿拉玛,我们应该会通过卡萨斯来安装,点击卡萨斯的应用商店搜索阿拉玛, 你会发现卡萨斯并没有提供官方版的奥拉玛。这里我们需要使用 docker compose 来手动部署阿拉玛。点击上方置顶安装导入,把阿拉玛的官方 docker compose 配置粘贴进去,提交确定,接着需要指定一下端口号,再点安装即可。稍等一会儿,阿拉玛即可安装成功。我们戳下图标,看到提示阿拉玛已 running, 就表示阿拉玛服务已经正常运营起来了。接下来我们来下载模型,来到阿萨普陀机器人这边,先让他检查一下阿拉玛状态,他提示阿拉玛状态正常啊。接着我们让他帮我们下载 mx b a i 很 bad 那 级模型,这是一个高性能的嵌有项链模型,只有六百多兆,对低配机器很友好。稍等一下,他提示我们模型下载成功,我们可以让他帮我们测试一下模型啊。再稍等一下,他提示我们测试成功,这就表示 mx b a i bad 那 级,这个模型已经没啥问题了。我们接着让他帮我们下载。 monjun, 这是一个高性能图像识别模型,专为边缘计算设备优化,大小只有一点六 g, 内存占用两到三 g, 对 低配机很友好。同样稍等会,他提示模型下载成功,我们让他测试一下。 稍等一下,他提示测试成功。到这里,两个本地模型就搞定了。接下来来说下要如何使用这两个模型来到阿瑟堡的后台。首先我们来添加图像识别模型 monjun 点映左侧模型提供三,新增通用 open ai 格式, id 随便填一个 a p i k 随意本地模型,不需要这玩意儿。贝 斯 u r i l 为阿拉玛服务地址斜杠 v 一, 你可以在卡萨艾斯后台点击阿拉玛图标来获取它的服务地址。完了添加模型名字填 mengrenetest 确定保存配置,点击阿拉玛再启动模型就添加成功了。接着我们来添加线路模型, 点击上方嵌入右上角新增模型提供商,嵌入模型选择 open ai 格式,名字填, m x b a i binade nir g nattest a p i key 随意 base u i l 为阿拉曼的服务地址斜杠为一,模型名字 m x b a i binade nir g nattest 保存再测试一下,提示可用,这就表示嵌入模型添加成功了,改完记得保存一下。至于嵌入模型,我们下一小节来讲。 然而来说下插件的安装,阿瑟堡主提供了一个插件市场,里边有一千多款插件,你可以根据自己的需要安装。以 living memory 为例,我们点击安装它的插件都是从 github 上拿取的,这里提供了直连和加速选项,我们点击测试,可以获取每个加速镜像的延迟, 选择一个延迟最低的可用镜像,然后点安装即可一键安装插件,当然他会跳出一个使用说明,这些插件都是由第三方开发者维护的,所以具体的配置教程一般也写在他们的 插不上。我们关闭说明,查看已安装的插件。以 living memory 为例,点击齿轮图标即可对它进行配置。它其实需要配置的东西不多啊。一个是嵌入模型,用来整理长期记忆,我们直接粘贴刚刚用阿拉曼安装的 m x b i bin b i 内存 nettest 即可。第二个是对话模型,选一个你刚刚添加的模型即可 确定。然后下边的 web 控制台,我们首先起用它,然后把监听地址改成零点零点零点零,这样局域网中的所有设备就都能访问插件后台了,密码也记得改一个, 进不去保存。然后我们在浏览器输入本机的 ip, 加 live memory 的 端口号,回车即可进入 live memory 的 管理后台,输入密码,点登录即可进入空台, 到这里就可以管理和 ai 聊天的长期记忆了。这就是 live memory 这个插件的用法,它为机器人提供了长期记忆功能。其他的插件建议大家根据开发者的文档自行研究使用方法,因为每个插件都不一样,所以并没有一个通用的教程。 接着来说一下知识库的搭建。来到阿 sir bud 后台,点左侧知识库上方创建知识库,名字随便填一个,描述也随意。切入模型选择我们刚刚本地部署的 m x b i create large latest 创建,记得戳你的知识库文档管理上传文档,它自制的文档格式很多,你直接上传这格式的文档上来就行了。例如我这里选择一个 pdf, 它是支持批量上传的。至于文档处理速度就取决于你的 gpu 性能的,如果 gpu 性能不行,可以晚上的时候上传,让它慢慢跑。 m x b i 编辑 large latest 的 占用极低,即使处理分文档也要不了几分钟。等待文档处理完,我们点击盖栏,可以看到我们的知识库已经有了。第一个文档 下来我们就需要使用自助库解锁了。点左侧配置,上面选择你的机器人配置,下边自助库选择你的自助库,确定,别忘了右下角保存,现在你和机器人聊天对话,它就能解锁你的自 助库了。最后来说一下阿斯特布特的其他功能。首先是 skills, 和龙虾一样,阿斯特布特也支持 skills, 你 只需要手动上传 skills 的 压缩包即可, skills 的 下载你可以去这个网站下。然后是未来任务,你可以新建一个任务,让阿斯特布特在未来之行 又提议你上厕所之类的。接着是 sub a g t, 可以 理解为在主 a g t 下边创建主 a g t, 让它们分别执行多个任务,最后汇集给主 a g t 汇报,有点类似 ai 公司这么个玩法,不过我用的不多啊。 最后是日子,如果你的阿萨布特出问题了,报错了,可以在这里查看日子,对于搞不懂的问题可以复制日子,扔给 ai 帮你修复。那么到这里,阿萨布特的功能就大概讲的差不多了,至于更多的那些深度的功能, 交给你自己去探索了。本期视频的长度再次突破天际,制作不易,还请大家多多点赞啊!那好吧,本期视频就到这里,我是莫老师,我们下期视频见。

我发现还是有人不会部署 openclaw, 今天一期视频就讲清楚 openclaw 的 部署方法和使用方法。 openclaw 是 有本地部署和云端部署的,那我们应该选择哪个呢?首先云端安装的步骤比较简单,你不需要懂代码,虽然本地的也很简,但是本地还有,这除了安装方式之外,还有就是说权限的问题, 小白不懂代码的话,有一些权限你不懂的安全隔离,我们的一些隐私有可能被 opencloud 获取到,或者是有其他的一些安全风险,所以我建议大家先从云端开始来,那云端又有腾讯云、阿里 云等等这几个云服务场上都出了自己的一键部署小龙虾服务器,今天我拿腾讯云的举例子,今天我就先介绍一下云端部署的方法,下一篇我会介绍本地部署以及其他宝藏的文件的配置,它是怎么样 去养的,下期我会深度的去拆解一下。首先腾讯云上部署,首先打开腾讯云的官网,这个地址登录,先买一台服务器,我们打开腾讯云的官网,首页就出现 opencloud。 云端一键部署,我们点击立即体验,点击立即体验之后有个立即部署我的个人助理,点击点击这个立即部署我的个人助理 三步点击完部署之后,会让你选择服务器买这个就行,而选择立即购买,你这都保持默认就行,然后支付,支付订单就行。支付完了之后,来到清亮云服务器的页面,来到这个页面,点击这个服务器,它已经把那个 opencloud 给你部署好了。 点击这个服务器来到应用管理,这是应用管理的页面,然后在下面去配置模型通道,你就 china, 我 们是要接飞书,还是接 whatsapp, 还是 discord, 还是微信啊等等,都可以接,包括 skill, 然后我们就来接飞书。首先打开飞书的开放平台这个网址,这个是已经登录的状态哈, 打开这个网址,点击创建企业自建应用,点击这个蓝色按钮,填写应用名称,应用的描述,点击蓝色按钮创建。 创建完了之后,然后第二步,你先知道这 a p p id 和 a p p secret 的 位置,再凭证基础信息,知道这个位置之后,待会儿我们复制,然后我们先来配置权限,点击权限管理,点击,点击这个批量,然后把下面这个代码完全复制,因为这个开通权限非常多,一个手动开通的话就太慢了, 所以大家直接粘贴我给的这个代码,直接导入就行,然后这个代码的话三连这个视频找我拿,导入这个位置,粘贴好这个 jason 代码之后,点击蓝色按钮确认添加。添加完全件之后,第四步,开启 机器人能力,在应用能力这块添加应用能力,机器人这块选择开启。第五步,开启长链接,在这个页面点击时间与回调,然后这个订阅方式,点击这个编辑的图标,然后选择长链接,点击保存, 把下面这几个时间添加机器人进群,机器人被移出群,消息已读,接受消息这四个添加,然后确认。 然后第六步,我们发布应用之后,我们对机器人做了任何修改,添加权限或者是其他的一些修改,你发布了之后才会生效。 左侧这个菜单,点击版本与管理。第六步,在非书开放平台的版本管理与发布,这个位置点击创建版本,点击完了之后 会让你填写版本号,然后写一点零,点零可以加上这个机器人的描述,往下滑有一个保存,点击保存,点击发布。如果你是个人的飞书的话是秒通过,如果你是组织的话,那可能需要组织去通过一下。第七步,在 opencloud 里面配置飞猪。我们在飞书创建完机器人应用了, 然后我们需要获取到这 app id 和 app secret。 我 们创建完企业之后,我们需要把飞书和 opencloud 关联起来, 关联的凭证就是 a p p id 和 a p p secret。 我 们来到凭证基础信息, a p p id, a p p secret 这块一会要粘到我们的服务器里面,配置上 channel, 我 们回到腾讯云服务器,在第二个通道点击聊天软件 qq, 选择下滑,选择非输,在这里输上非输的 a p p id 和 a p p secret, 然后添加并应用,然后你下面就会出现非输的这个通道,显示绿色的。现在非输 oppo 卡号就打通了,但是现在还没有配大脑,没有配模型。 好,我们先来配模型,我建议大家选 coding plan 的, 因为太费头肯了,我之前用的是 openroot, 我 用的是 cloud 模型,烧,我每天烧的太痛了,太贵了。配置是 kimi, kimi 太慢了,回复得也慢,经常还会有 a p i 数据限制。后来试了个 mini max 的, 速度还不错,而且也不会有那个限制什么的,所以我非常推荐 mini max, 所以 大家直接闭眼入这个就行,我已经替你们踩过坑了,打开这个网址,注册并登录往下滑选择计划,我选的是这个四十九的套餐,买完之后我们回到这个 mini max 的 开放平台,这块是有个 tokenplay, 我们点击这个投屏 pad, 如果你没有 a p i k 的 话,点击创建,如果有的话直接点击复制就行。然后我们回到腾讯云,在这个模型里面选择 mini max, 选择完 mini max 之后,你这块都是默认的不要动,然后在这里面填入 a p i k, 然后添加并应用, 然后你的 mini max 就 成功配置了这个小三角,点击有不同的模型,我们直接选最高的二点七的就行,默认就行二点七,现在的话我们就可以在飞书上跟 oppo pro 对 话了。小龙虾本身它没有太多的技能, 比较强的是它的 skills, 所以 我们需要给它安装上很多很多技能,这样它才能帮助我们干很多事,比如说刚刚安装好的小龙虾,它也没有什么浏览器的功能,或者不能帮我们抓热点什么的,需要我们配置 skills, 所以下一期我就会分享这些 skills 以及这个 skills 的 一些构成,包括 openclaw 的 一些心跳机制啊等等。我们必须要了解的是 openclaw 是 怎么样才能把它养强,下期我会着重从 agent 记忆系统、 skill 仓库等这方面去分,让大家把龙虾越养越强,越来越能帮我们干更多的活儿,帮助我们省更多时间。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

云端 ai 托盘太贵,这节课教你本地部署 ai 大 模型,零成本使用纤维三点五,彻底告别托盘焦虑。我们这里会使用 o m l x 来运行大模型, 点击这里,请直接到下载页找到最新正式版本,未来稳定期间请不要找标注 dv 的 版本,找到后点击 s s, 根据操作系统版本下载。安装方法非常简单,直接拖拽过来即可。安装完成后直接运行,初次打开会弹出提示页面端口和其他的保持默认,点击启动服务, 提示成功后再点击。打开管理面板,在顶部的菜单中也可以实现这些操作。管理面板打开后接着安装模型,在顶部菜单,点击模型下载器页面,打开后用最快的速度点击摩塔社区,这是因为打开这个页面后会自动联网查找模型,但是由于网络不通问题,可能会导致页面卡死, 我们快速切换到摩塔社区,让它来不及联网就不会卡住了。点击模型下载器旁边的设置按钮,修改镜像地址为 h f mirror 点 com, 点击保存按钮,现在可以切换回来了,在搜索框里搜索千问三点五九 b mx 杠 speed 这个模型,这个模型的性能对一些常规需求已经非常足够了,运行起来大概占用六 g 左右内存,最低配置十六 g 内存的 bug, mini m 四都可以流畅运行。找到后点击下载按钮,因为我这里已经装过了,就不重复下载了,等待下载完成后会自动安装。再设置 模型,设置里可以看到已安装的模型,点击最右边的设置按钮图标,这里推荐设置聊天模板参数,点击添加设置 enable sync 值为 force, 不 然每次聊天呢,它都会思考很久。其他设置大家根据自己的电脑配置来调整,完成后点击保存,点击就绪按钮 会变成已加载状态,模型已经运行起来了,点击导航栏的聊天按钮,确认下顶部选择了正确的模型。现在啊,可以直接发消息给他, ai 会马上进行回复。 回到仪表盘里可以看到 tok 统计信息。总结下,在 mark m 系列芯片上,可以使用 o m x 来运行本地 ai 大 模型,彻底告别 tok 焦虑。低配置的 mac 电脑推荐使用纤维三点五杠九 b, 这个模型只占据六 g 左右内存, 而且性能足够使用,完全可以用来驱动 open core 文字版内容请看课程讲英文档。下节课我们继续学习 open core 的 安装,并对接上这节课所部署的本地 ai 大 模型。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

登录网址,网址在评论区八十八米一年比较划算,不够后面还可以升级。然后就是购买,一直点点默认配置基本不用动, 自带龙虾镜像,别自己选错了。 下一步扫码支付,等待服务器加载,点击配置,依次进行模型。通道技能的选择, 这里选择你要连接的通道,根据提示配置即可。 最后可以在这里安装技能,点击这里可以到龙虾技能库复制域名尾缀粘贴回去搜索就可以安装了。粘贴在这里搜索, 安装成功,点击这里,这个会进入一个网页端的龙虾,如果不想配置通道也可以这么用,里面有一些组合好的技能选择,就自动安装了, 测试已经完成了。

qq 快 速接入 openclaw 首先打开浏览器,搜索 qq 开放平台,进入官网, 找到龙虾专用入口,点击右边的去使用按钮,然后打开手机上的 qq, 扫码登录。我这里已经创建过机器人了,可以再重新创建机器人。点击创建机器人按钮,下边有 qq 接入的流程。 先安装 qboot 的 插件,点击右边的复制按钮,打开电脑的 power shell, 然后把刚才复制的命令粘贴进去,回车开始执行完毕。 接着复制配置 qq 的 代码,继续粘贴到 power shell 里,回车执行。执行完毕后,重启 openclock 服务,启动完毕即可用 qq 进行对话了。

前几天我发了一个视频,说微信官方已经可以接入龙虾了,在那条视频下面有很多人在问,比如说啊,那个二维码是怎么拿到的, 如果我没有龙虾的话怎么办?今天我就教大家一个更简单的方法,跟着我的操作,五分钟以内保证你可以接入龙虾。首先我们进入到 qq 老的这个官网上面去,他的网址是 qq 点, qq 点 com, 然后根据自己电脑的情况进行下载,比如说我的电脑是这个芯片的,不知道自己电脑情况的话,可以在这里看一下关于本机,然后我的芯片是这样的, ok, 好, 点击下载之后呢,等一会就可以下载完成了。打开这个本地的 qq, 然后在这里进行登录,选择微信登录进行扫码, 我刚已经扫码登录成功了,登录成功之后,这里会展示你的微信头像,然后我们点击这里设置,打开之后可以看到你可以把自己的小龙虾连接到微信企业,微信, qq 飞书都可以,我们来连接微信,点击配置,再一次进行扫码, 扫码之后会在我的微信上收到一条这样的通知,因为我之前已经绑定过龙虾了,而微信只允许进入一只龙虾,所以这一次的配置会把我之前的龙虾给顶掉,不过没有关系哦,我现在已经连接成功了,现在我可以开始给他发消息, 我让他帮我把电脑上的一个叫发票的图片发给我,等了一会之后呢,就可以看到已经收到了这张图片了,就是这里的这个发票啊,两个是可以对应上的, 怎么样,是不是超级方便,很简单呢,五分钟之内一定可以学会。除了发送文件之外,我们还可以让他帮我们整理 ppt, 整理电脑上的文件等等,所有你可以想到的一些简单的日常操作都可以教给他。好了,今天就说到这里吧,关注张小乐,带你了解更多的 ai 前沿知识,拜拜!

qq 终于可以接入原版龙虾了,就在昨天发布了最新的更新,支持原版龙虾, qq 官方也出了相关的教程,我们来看一下。其实 qq 的 这个非常好,它可以支持很多功能了,你可以给龙虾发图片,发语音,发视频、发文件,它也可以群聊,单聊就是你只需要简单的五步就能搞定。第一步你打开 qq 的 开放平台去注册账号,第二步, 注册好以后就扫码登录,开始创建机器人,创建好以后他就会给你生成两个东西,两个英文啊,这三排东西的第二排 旁边有个复制按钮,把它复制好就好了。打开你终端,把这一段代码复制进去,按回车,然后输入这段代码重启的网关,输入这段代码重启的网关,输入这个代码验证是否联通,如果说出现了这个绿色的就联通了,这边你可以测试一下 输入跟他聊天看一下效果,我跟他已经接通了,我跟他说我说我用 qq 在 控制你,由于我的 qq 和微信都同时跟他绑定了的,所以说现在是双通道,两个都可以跟他沟通,打开网页版的也可以看到我和他的沟通记录,快去试一下吧。

小龙虾已经出来三个月了,但是十个人里面有八个还都没有用起来,今天就两步,教你立马用起来,为什么卡住两个坎,第一,我不会装,尤其是 windows 系统,容易卡 bug, 而且还要配 apa, 各种事情非常的麻烦。第二就是我装上了,但是对话框一片空白,我的脑子也一片空白,不知道怎么用。 先说第一点,我直接用腾讯的 qq, 我 试了云端部署和本地部署, qq 是 最简单的,也是最省钱的,零成本,是唯一一个零成本,而且它的技能是比较强的, 我试了另外两个版本,它在我的 windows 系统上都没有,就是那个操作我本地网页的 能力,但是 qq 直接就可以。然后第二点,装上不会用,这个时候你只需要跟 ai 做下面的一段对话就可以了,第一,你让他给你解释一下他是干嘛的,他的每块功能 是干嘛的。第二,然后你让他给你做一个对比,你和之前的其他的 ai 软件最本质的地方是什么?然后你让他给你举一个具体的案例, 你的行业或者你正在做的事情,让他给你举例,你给我举一个什么什么行业,什么什么这个技能相关的案例,然后他都会给你举例, 基本上他举的例子就已经够用了,然后你再跟他继续聊天,继续迭代就 ok 了,就这两点非常的简单,但是很多人仍然不会行动。

大家好,我是小摩托,在过去的视频分享中,我介绍了许多关于 opencloud 的 安装与配置,总的来讲,小龙虾的配置与集成呢,还是略显繁琐。 今天无意中我体验了腾讯云最新版本的小龙虾的配置,并且将其一键接入了微信,整个安装的过程非常的丝滑,我想这才是小龙虾该有的用户体验, 不得不说腾讯云真的是蛮六的。本期视频我来分享一下安装与配置,大家一起来看看这是不是你真正所想要的安装体验。 那现在就开始咱们今天的分享吧。那么推荐大家来到现在我所分享的这个页面,点击立即部署,我的 ai 助理 会跳转到套餐的选择页面,按自己的需求选择购买就好。在完成购买后,你应该能够在自己的服务器列表中看到最新的这么一个 openclo 龙虾的实力,等待它进入运行状态。点击这个实力, 我们来到应用管理,作为日常使用来说,首先我们当然是要配置模型,在腾讯云端,我们可以选择 coding plan, 也就是大家日常所订阅的套餐,我选择的是上海服务器,看起来呢,在模型的 coding plan 这里,它所提供的都是国内的订阅套餐。 我就以火山引擎方舟 cookie plan 为例,在这个套餐下,有一系列的模型可供我们使用,比如选择 glm 四点七,在下方点击获取 api key, 他会引导我们来到火山引擎,在火山方舟这里创建自己的 apikey 就 好,并且将 apikey 粘贴回腾讯云端这里做配置,配置完成,点击添加为默认。如果一切顺利,我们会在下方看到模型的选择。 好了,配置完成,我现在用的就是火山引擎方舟的 qq 屏,接下来做通道配置, 这是我们将 openclo 集成到日常使用的聊天应用中,非常关键的一步,通道的支持呢非常的丰富,微信 qq、 企业微信元宝、飞速钉钉等等。我想今天的重点呢就是微信的集成,我们选择它点击前往授权, 现在使用最新版本的微信,扫一扫完成,接入手机端会提示我们确认将 openclo 接入微信。 好了,这样呢就完成了我们所要做的一切操作。大家现在看到的聊天历史 就是我在视频制作前做的测试,现在我们就可以在微信与 openclo 进行问答了。我首先来问他一下,你能做些什么,看起来还不错哟, 我了解一下它用的什么模型,看起来目前确实用的是 glm。 四点七到这里我们就完成了端到端的简单的验证, 微信现在能够与小龙虾进行正常的对话,模型一切工作正常,如果需要,我还可以动态的要求小龙虾帮助我安装技能。 到这里我们就完成了端到端的演示,从购买服务器到配置模型,再配置通道,最后我们可以直接在微信与龙虾进行对话。在结束今天的视频分享前,我们来看看技能。按照腾讯云端这里所列出的, 小龙虾目前已经安装了如下的技能包,包括了像 tablet search 的 支持 agent, browser 的 支持 github, obsidian weather 等等。 这些技能包已经包含了日常工作方方面面,感兴趣的朋友呢,可以来尝试一下,在微信中看看是否能够利用这些技能包,比如操作腾讯文档,比如查询天气,利用 agent brower 进行一些浏览器方面的操作。 好了,今天的视频分享呢,就到这里简单的总结一下吧。在安装与集成的这套方案呢,还是非常不错的, 集成非常的丝滑,在整个安装与配置过程中,我没有使用到任何一点控制台或终端,没有使用到任何的命令行工具, 我想这对于绝大多数的用户来讲呢,也是最舒适的使用体验。好了,今天的视频分享就先到这里吧,感谢大家收看我们下期视频分享,再见!

兄弟们,上条视频我讲的 cloud bot, 现在改名为 open cloud 了,很多人眼馋想自己试试。今天我告诉大家如何不买 mac mini, 不 占自家电脑内存,就直接把聪明的豆包大模型塞进你的手机 qq 里, 二十四小时在线,主动性强到离谱,随时随地,想调教就调教,走,带你起飞。很多人问,为什么非要折腾上云呢?因为 open cloud 这玩意儿呢,主动性太强,还有数据风险,放在云端,用手机随时对话才是最香的。 虽然现在微信呢还在严防死守,但 qq 加 open club 的 组合绝对是体验天花板。首先咱们得给 ai 选个住所,玩 qq 机器人,我用的是腾讯云,选那个两核两 g 配置的,一个月才二十块钱,贷款足,你也可以选择火山引擎,更便宜。 但听我一句劝,咱先买一个月试试,别一上来就整一年的,免得它最后变成你电子健身卡在那吃灰。好,只要完成个人实名认证,点开应用管理页面,咱们就开始干正事。这里有几个地方大家要注意一下啊,一个是这个 ip, 一个是这个模型配置,还有一个就是 channel 配置, 这些后面都要用到。第二步呢,就是获取豆包 a p i 了,你需要先去火山引擎的官网搜索火山方舟,开通豆包,并且创建一个 a p i k, 记得把这串钥匙保存好,它可是 ai 的 灵魂, 保存下来后,点击开通模型就可以了。三步,装上豆包大脑,到云服务器的应用管理,开始配置模型,把刚才领到的豆包 a p i k 粘贴进来。四步呢,就是去到 qq 开放平台, 如果你之前没有注册过,千万别直接点 qq 登录,得先点注册,填邮箱,过认证,注册完成了之后创建一个机器人沙箱,配置里面把自己加成管理员,这下你的 qq 就 能够搜到它了。 最后一步就是灵魂绑定,剩下的就是连连看了。把刚刚云服务器的 ip 地址填到 qq 机器人的白名单里面, 然后生成的这个 api id 和 app script, 划重点啊,这个 script 看完赶紧记下来,关了窗口它就隐身了,下次还得重置,非常麻烦。然后回到云服务器,把这两个信息填好,点击应用, 等待这个流程都跑完了,你要回到 qq, 你 就随便发句信息,只要他能以 ai 的 方式回你了。恭喜你的专属豆包 qq 机器人正式上线,到现在还没被玩坏,赶紧去试试吧! qq 加 open club 的 组合呢!一是改变了 ai 应用的入口,以后我手机里收到的信息啊,资料啊,直接转发到 qq 就 行了。 同时通过上云的方式也解决了数据安全的问题,后续再通过 opencloud 的 不断增加新的技能,这样是不是太方便了?还想看更多 ai 硬核玩法,点赞关注熊叔不迷路!

最近小龙虾很火,它可以处理任务、管理数据、执行各种操作,成为你二十四小时的 ai 助手。但把它安装在工作电脑上,往往安全风险比较高,部署在云端还有隐私泄露的风险,单买一台 mac mini 来部署又划不来。 其实吧,很多人手里的 nas 就是 一个更合适的代替,因为 nas 七乘二十四小时在线,同时又存储着大量数据,再加上飞牛对硬件兼容性很高,很多就电脑也能直接跑起来,也无需额外买设备。本周飞牛上线的 opencloud 原声应用,就让你的 nas 正慢慢从一个数据中心进化成了本地 ai 中书。 这里有小伙伴会好奇,相比直接 d 壳容器部署命令行配置的方案,非牛版的 openclaw 有 什么不一样?其实我们针对 nas 场景做了不少优化, 非牛提供的是原生应用加可适化管理界面,从运行管理、权限控制、模型接入到第三方配置,都可以直接在管理界面完成,简化了很多繁琐操作,在权限控制和运行安全上也做了不少细节处理, 一起来看看吧。老规矩,非牛应用商店下载安装 openclo 系统,首先会安装依赖环境继续下一步, 完成后,打开 openclo 界面,盖栏里展示了端口状态、运行时间等信息,同时提供了打开 openclo 启动、停止、重启、检查更新的快捷操作。模型配置里支持新增 编辑、删除模型配置配置项包括名称、模型 id、 可选自定义、端点、 api、 key, 当前内置多家大模型提供商,当然也支持欧拉玛部署的本地大模型,如千问 消息渠道默认提供飞书企业微信、钉钉接入,感兴趣的小伙伴可参考官方配置教程。 运行日制支持查看最近日制,自动滚动清空日制。接着我们来接入一下大模型选择模型提供商,这里就以 kimi ko 定为例,模型 id 选择最新的 kimi k, 二点五连接信息默认,我们在官方后台注册并申请一个新的 a p i t 复制填入保存即可。当然,如果你在欧拉玛中已经配置好了本地大模型,在模型供应商里选择欧拉玛列表中就会自动识别并加载已经配置好的模型。如果你对欧拉玛感兴趣,也可以在主页查看牛牛之前发布的相关教程。 此外,在打开 opencll 前,还可以在应用设置中提前配置下文件访问权限。这里建议最小权限原则,可以给一些备份过的文件权限先体验试试,后续有需要也支持新增。这里提供一个小技巧,你也可以打开单个文件夹的权限设置,赋予 opencll 对 应的控制权限。 接着打开 opencll 即可与它对话了,支持远程访问,移动端也很丝滑,如果配置了多个大模型,在代理中也能随意切换。 此外,对于最近大家都很关注的小龙虾安全问题,我们也在 opencloud agents 文件中也做了优化,教会了它尽量安全和控制成本的使用,尽可能避免恶意输入。 最后,小龙虾的厉害之处牛牛也有过体验,自动文件整理都是机操,比如我们就可以复制文件夹路径给他,让他根据文件名按中文规则自动分类并整理成文件夹。其他如检测、重复文件识别空文件夹、自动影视下载、自动数据备份、 zip 私人知识库等等,小伙伴们都可以尝试下。 这里再次提醒,小龙虾的能力有多大,风险就有多大,重要数据一定要做好备份!好啦,以上就是 open call 的 主要功能介绍,别忘了一键三连,我们下期见!

大家好,就是看评论区很多人不知道怎么通过 cloud hub 安装技能,或者是安装技能的时候提示什么限流啊,或者让你登录网页之类的问题,下面就给大家演示一下如何让龙虾自动安装应用的方法。 需要大家打开这个 colorhub, 点 ai 这个网站,嗯,进行注册并登录一下,登录之后在右边那个就是用户名的地方点设置,设置之后 然后向下拉,嗯,下面有一个创建 token, 在 这点一下创建,然后这会儿就生成了一个 token, 把这个复制一下, 然后打开我们的 qq 机器人儿,然后在里面输入, 然后输入 hello, 呃,怎么输入法?嗯, hello, have 空格, log in, 然后嗯, log 一,然后杠杠啊。 token, 然后空格后面就是咱们复制的那个粘贴一下,然后点发送,嗯,一会它就会提示那个已经登录。 嗯, 啊,好了,现在显示登录成功,然后我们再呃进行安装一下应用,嗯,看一下, 然后输入 close, 嗯, close, 哈不,嗯嗯, insode insode s k o 杠 a t t 幺,然后回车, 嗯,等一会儿。

先看效果,将 open club 接入 qq, 帮你处理日常工作。首先声明,本视频无任何额外收费,只需你有浪浪云的服务器就可以。今天手把手教你把龙虾接入到 qq。 首先我们打开浪浪云官网, 选香港地区最低配置,两盒四 g 就 够了。然后在镜像市场找到 openclaw 应用,镜像一键安装,如果有提前购买的服务器,也可以直接使用现成的服务器。首先重装系统,选择 openclaw 安装,稍等一会,等它重装完成。 安装完后点管理登录进去,之后双击桌面上的 jimmy claw, 选 dawk 模式。下一步开始配置。返回管理界面,点获取 api key, 用你的浪浪云账号登录,直接送二十万 token, 够你玩儿很久了。 添加令牌,复制这个密钥,回到 openclock, 把 api 接口填上,密钥粘贴进去,大模型就配置好了,这里模型输入 gpt, 五点四 点开始部署,等一会儿进入仪表盘,拿到公网访问地址,现在你的 ai 服务已经跑起来了。然后我们去 qq 开放平台注册一个机器人,拿到 a p d, 一 填进去就能让你的 ai 在 qq 里跟人聊天了。 海豚首页这里还可以看到你的记录以及赠送的 token, 并且每日签到也可以领取。整个部署过程不到十分钟,完全可视化操作,不需要敲代码,教你白嫖,需要的朋友快去白嫖!

哈喽,大家好,我现在正在我们联合腾讯云举办的欧芬克洛线下装机活动无锡站的现场。今天不光来凑热闹,还要给大家交个作业。经过合肥和无锡两站的魔鬼训练,我已经初步掌握了腾讯云全家桶新亮明的装机使用技巧, 今天全是干货,直接带你实战部署,体验真正的 ai 打工人。首先登场的是云端侠,他最大的特点就是安全,二十四小时不停机的办公室,今天教大家部署小龙虾的教程。首先我们按需购买清样服务器,购买过程我们就跳过了 点击配置模型,选择腾讯云 deepsea, 点击一键添加并应用,等待一会应用成功后,通道选择微信前往授权,微信扫码接入, 这样就完成啦!从微信遥控到桌面自动化,再到企业级编排,纯碎小龙虾这次是把 ai 智能体的门槛彻底打下来了。 ai 不是 要取代我们,而是让我们拥有三头六臂。今天的装机活动让我明白工具已经准备好了,关键是要看我们怎么用。想知道更多配置,关注我们下期视频,我会整理超全的技能 skills, 咱们下期见!