家人们最近爆火的 open club, 百度智能云给了我们一套最省事的部署方案,只要五分钟轻松部署,点几下就能接入飞书,一键搭建智能助手,一键 ppt, 各种宝藏 skills 随便用,只要一行代码就能让你的龙虾超级进化。而且它一托于百度智能云,超级适合 tob 权限,安全有保障。接下来大家可以和阿星直接走起第一步,安装一台清亮应用服务器,镜像选择 openclock, 等待创建完成之后进入实力详情页,点击实力管理 type, 点击一键开通,点击一键放行, 选择你想要的模型, t l m zip 啥都有,点一下 a p i k, 再勾选几个你常用的 skills, 比如百度搜索、百度百科这些,而且你可以去 cloud hub 上面去获得更多的宝藏 skills, 然后把那些名字复制下来,粘贴在这里,就可以轻松安装 啊。咱们先试试最简单的搜索 skills, 发现它是 ok 的。 接下来我们看看在电商业务中的几个应用啊。首先我们最常见的其实就是 listing 优化这些琐碎的功能喜欢描述,我们看它优化的结果啊,我们最开始只是一个法兰绒的一个标准的描述, 变成了冬季保暖,可机洗抗起球,午睡盖毯。然后包括产品描述的材质啊以及购买理由,都是非常开箱即用的,给到了你 啊!那接下来还有测评,百度电商搜索可以帮我们对某个产品进行了一个全平台式的搜索,而且现在 opencloud 的 出现,可以让我们在一个对话框中就轻松完成这些工作。 我们首先安装百度 e commerce research, 它使用的是百度千帆提供的专业电商搜索 api, 我 们让它先代入可以安装一下。接着就能看到各个平台的分析,比如说这个平台的京东平台的法兰绒毯子的这个市场分析,它不管是核心卖点还是规格尺寸,以及这个竞品标题的优化关键词, 以及跟你联想到的差异化卖点,给你的一个价格定位的一个建议,甚至场景扩展也给你说的非常明, 就相当于是帮你打开思路嘛。然后整个的这个分析其实帮我们代替了很多一个精品调研的一个工作。接着我们让 open call 把刚才的分析结果用百度 ai ppt generator 生成 ppt 试一试。啊。我本来以为要等个十分钟,既然只要三分钟不到就好了,那我们就是从 优化然后到调研到生成这个汇报,其实整个过程都用不了多长时间,而且这个 ppt 我 还打开看了一下,就没有乱码的情况出现,是一个很标准的我们直接可以拿去开会讨论的一个 ppt。 而且阿星还发现现在很多商家他想自己去做独立站,但是自己又不太懂技术。我们发现在 opencloud 里边可以像素级的去复刻一些网站, 比如说阿星找到这个苹果电商官网,让 openclaw 去复制一下,在百度智能云里边,我们其实就已经完成了一个复刻,这样的话我们商家通过自己的能力就可以对这种网站的前端做一个最基础的一个开发。另外你想挪到飞车上用的话也没问题, 百度智能云直接帮你傻瓜式操作,你直接去飞书平台新建一个应用复制 app id, app secret, 复制到对应的地方后,再回到飞书开发者后台,进入事件与回调,把订阅方式改成使用长链接接收事件,然后添加事件即可。 飞书建个群,然后把你刚才那个机器人拉进去。恭喜你,你的飞书 ai 员工正式上线。总的来看,百度千万这次把 open club 不 但做清了,而且还更安全了。 因为最近很多老板问阿星怎么部署 openclaw, 但是我都因为本机部署太危险,没有推荐太多。但是百度智能云这套方案的话,它有天然的安全优势,这套官方 skills 也是真的能帮你干活。 而如果你想把 openclaw 落实成生产力工具的话,不妨试试百度智能云这套方案。 ok, 我是 阿星,更多爱应用,我们下期再见。拜拜。
粉丝2150获赞2.1万

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

不用买 mac mini, 不 用自己的电脑,也不需要复杂的代码配置,九块九就能一键部署你的 open clone, 也就是最近大火的 clone bot, 这是我接入好的,已经开始为我去赚钱了。屁话不多说,跟着我这个教程跑起来。首先打开火山引擎,薅一个羊毛,拿上我视频下方的邀请链接,注册并关联一下子,你这一下子我就能赚一块钱,咱俩平分怎么也得对半分呢?如果你有账号了,也可以登录并关联啊。 然后打开第二个链接,下单九块九的一键部署服务,填写一个简单又复杂的密码,再点开高级设置。 重点来了,我们要做的核心动作就是填上这几个 k, 下面一定要按我说的操作,因为我发现全网都没人教怎么去薅这波火山的羊毛, 包括火山官方的配置文档也是一塌糊涂,我还做了一份详细的配置教程,文档链接放在视频下方,如果觉得我写的好,记得赏个关注,谢谢了。保持这个页面不要关闭,我们打开这个链接, 然后打开开通管理界面,根据这个步骤选择要开通的大模型,建议呢?开通一个升图的模型,然后打开 api k 管理,这个 api 就 可以不用去复制它。 然后回到这个界面,模型选择就能看到自己已经配置过的模型,下面的 api k 就 能直接选择出我们的 k, 那 模型的配置就完成了。 下面我们开始把飞书接入进来,首先要访问飞书开放平台,点击右上角的开发者后台,选择创建企业自建应用, 填写应用名称,写上描述,点击创建,然后点击凭证与基础信息,复制这个 id 和 app 密钥, 再回到这个界面,填写上飞书的两个选项,再点击页面下方的创建,点击确定,至此我们的实力创建完成,让它开始运行。 回到飞出的开放平台,打开权限管理页面,点击批量导入导出,然后到我的教学配置文档当中去复制这个代码,全替换进去,点击 下一步,再点击申请开通,然后在左侧的事件与回调点选一下,选择事件配置页签啊,单机订阅方式旁边的这个编辑小按钮, 然后选择使用长链接接收事件,并单机保存在已添加事件区域,单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签,并勾选接收消息, 如果找不到的话,你就先搜索接收消息,然后点击确认添加按钮, 然后我们向上看,点击页面顶部的这个创建版本这四个字,按照这个需要的配置内容呢,我们写上版本号及更新说明啊,随便填几个字就行了。翻到页面底部,点击保存按钮,然后单机页面个人发布按钮,完成应用的发布。 这个时候你就去看一下你的飞书是不是多了一个机器人,让你去审核,然后点击审核通过你的机器人就可以去用了,这个时候打开手机的飞书或者是桌面端的飞书,找到我们这个机器人,发送一个任意消息,比如说你好, 首先它会出现一个等待表情,如果出现等待的表情,那 ok, 说明正在调用你的模型,那我们的配置就成功了, 等他回复你的时候,你就知道新的世界已被打,已经被打开。如果你想通过浏览器去访问 open、 cloud、 web 这些界面的话,你可以参考一些官方的文档,更多的玩法大家可以自己去探 索。如果觉得我的教程比较详细,比较明确,那大家可以给我点一个关注,谢谢大家!再见。

想不想拥有一个二十四小时在线的 ai 员工呢?最近 oppo klo 特别火,我在云服务器上也折腾了一个,接下来带大家体验一下我在云上折腾 oppo klo 的 一个过程,还有使用之后我对它的真实看法。当然我这两天时间还没有部署完成,也存在一个比价的环节啊。 首先是腾讯云,腾讯云是比较实在的,他能够二十块钱买一个月的服务器,因为你如果是选国外的节点的话,他能够 使用里边的这个搜索功能,如果你选国内的节点,它搜索功能是不能用的。当然我也是对比了这个阿里云,阿里云的 open globe 是 原价五十九,它其实有一个抢购的计划,抢购的计划它能够做到好像是 九块钱买一个月,但是你如果是续费的话,他是按照原价来续费的。腾讯的续费仍然是二十块钱,这个比较方便一些。这个百度他有一元的抢购,但是我没有抢到,所以不知道他到底好不好抢。 如果是你,他的正常购买的话,就要买他幺五六的幺五六,但是他是买一年的,价格是挺便宜的。 但是,但是他这个有问题,他的地域呢?北京跟广州,所以他部署上去之后,应该搜索功能是用不了的,所以这个体验感到时候功能限制性就会很大。到最后我选的是腾讯云的服务器, 买了之后呢,他这个部署是相当简单的,虽然说已经是在云服务器上了,会省很多时间部署安装的过程,但是他配置的过程也是挺麻烦的。我觉得想用这个其实难度并不是特别小, 你看先配这个 openid, 我 就要选接入的即时通信工具,我就选飞书,飞书我已经我已经配置了。跳过选飞书这一步其实挺麻烦的, 因为你要去跳到飞书的官网上边去创建一个应用,获取这个应用的 api k 跟 secret。 另外你需要把这个应用里边加入这个机器人, 所以它才能有即时通信的机器人工具帮 openroot 来接收消息。所以这一步我大概用了一个多小时啊,这里配置 skill 现在也可以先用上,简单一点。 那现在我首先这里边点空格就能够选中你要装的哪些东西? gmail 跟 github, 我 先装上这些不太认识的,这个大概知道是干啥的, 所以我也先装上。上边还有苹果 note, 默认,其实这些都不知道是怎么用的,干啥的默认我,我感觉应该是做笔记。你可以, 因为它是云服务器,我本地当然有服都当然有默认,但是在云服务器上的话,我就需要把它复制上来。 行好先好,就这样等空格,空格它就会去安装,选择依赖。 但是我觉得现在有一有一个麻烦的事,后边我都需要通过这种没有界面的方式来访问这个台服务器和操作这台服务器我觉谷歌的 g p i k 我 感觉也是比较困难的,来获得又是比较困难的一步。 还有 notion, notion 当然是做笔记的 open ai。 呃,位置不变生成的。下边这个是什么?不太认识啊。 这个也不知道是干啥的。另外装 fox, fox, 因为这个其实不消耗资源, 我觉得都装上吧,现在为 siri c c installed install 你 装好之后重启吧,其实它之所以强大,首先它需要很多其他的软件来支撑啊, 另外有这些软件,当然你也需要有其他的软件的这些工具的账号,所以这账号也是另外一个麻烦事。返回服务器,我看现在看他文档怎么来操作。在配置完成之后,通过文档就能够看到, 看一下,通过文档就能看到。完成以上配置之后启动 get 位啊,这样就能够启动这个,现在按照他的文档来启动一下试试。应该他启动之后会打开一个软件, 现在这里它提醒我,我的 open core 已经启动了启动,但是应该怎么用呢?看一下我的乖乖啊,你启动这个 open core 之后呢?这个界面上服务器上是没有任何反应的,你看它现在这个 说明文档上边,比如说你配置了 discard 或者是飞书,你就需要下载飞书跟你的机器人进行聊天,这样通过聊天的方式给这个服务器发送指令。这个服务器呢,可口可乐在服务器上接收到你的消息,他通过理解你的自然语言去分解任务, 然后调用各种各样的工具来帮你完成这个任务,基本上就这样,所以现在我需要安装一下飞书,不是经常用飞书的人可能都不知道怎么去添加机器人。 腾讯文档上就没有啊,我是看的阿里云的文档,我现在就试一下在飞书里边创建一个群聊,添加一个机器人,添加机器人的时候,往下拉就能看到自己创建的这个自动回复机器人点一下,这无所谓啊,因为没有别的人, 现在他已经正常运行了,我现在看能不能往里输入啊,看他有没有什么反应。 我先不等他了,我在这个在这个飞书文档里边直接问他,金融大师,难道我有我艾特他一下吗?艾特他一下是啥?因为之前没有用过飞书文档,所以不熟 梳理 l l m 发展趋势好了,同样需要艾特他一下。应该是需要艾特他一下,要不然他这边接收不到消息。可能, 但是他在服务端这边不会看到他运行的对话,处理对话的过程感觉不太靠谱,不知道这个时候我应该怎么去检查一下,检查一下到底是谁来处理的这个东西,谁来处理的这个消息。 接着我想让他总结我 obsidian 下边有什么东西。这个时候呢,可以看到他不知道我的 obsidian 的 文件内容在哪个地方,所以我还需要告诉他我 obsidian 的 笔记文件放在什么位置, 现在可以看到我告诉他我的 obsidian 的 根目录是在什么位置,他就给我回复了。 这也是我在服务器上放的两个文件,一个是读书笔记的,另外一个是关于篮球的,他就告诉我这些内容,这个就算是基本打通了,也实现了一些简单的功能。我觉得通过云服务器简单体验了这个 open globe 它的功能,它云部署第一个优点就是它这个部署的方式特别简单,还有一步一步的配置的流程。 因为这些云厂商他们已经做了这个 opencloud 它的镜像,这些镜像使用起来会特别的方便,就是节省了我们安装的一个过程,我觉得第二个优点就是它能够二十四小时不间断的运行吧,这也是一个服务器应有的一个优点。 另外一点就是他不会破坏我们本地的环境,因为他是一个独立的私有的一个服务器。说完这三个优点呢,接着我觉得比较大的缺点有那么几个,最大的一个缺点就是在于我们需要不断的去维护里边的资料, 其实很多时候我们并不想去另外维护一份这种资料,为什么呢?比如说我想要像这个作者他那样说自己要定一个机票,有一些自己的个人资料在本地存着。 那么你让 open 来做这个事呢?他就会自己去找这些资料,打开网站,把需要的资料去填进去, 通过分析去筛选一个比较合适的航班啊,帮你买下来。如果是你在 云端使用这个过程的话,就算他有无头的浏览器,不用你操心,但是你仍然需要把自己的这些资料传到云服务器上一份。那么这个跟自己订机票中间省了多少时间和工作量呢? 这个很不好说,我觉得另外一个就是缺点我觉得也很大,在云服务器上他的 open globe 没有这个界面,这就算是对程序员来说, 比如说你在用 obsidian, 需要打开设置,设定一个根目录,才可以知道哪些文件属于你这个 obsidian 的 这个文件内容。当然还有更多的软件是有这方面的问题的,我觉得这个是对大多数人来说是比较难使用的啊。 通过这个视频大家应该能够知道 open globe 能够实现大概什么样的功能?希望这期视频能够简单的帮你认识一下这个当下最热门的 open globe, 它是一个什么样子的东西。评论区里边可以聊一下大家对 open globe 它的一个看法。

腾讯云 openclaw 秒级部署教程,一键搭建专属 ai 助理!第一步,前往腾讯云 openclaw 专题页面,找到并点击立即部署我的 ai 助理。 第二步,购买腾讯云轻量应用服务器应用模板选择 open claw cloud bot 地狱,根据使用场景选择规格,选择两核二 g 及以上配置,点击页面右下角立即购买,按照页面引导完成支付即可。 如果在此之前已经购买腾讯云轻量应用服务器,并且希望在该服务器中部署 opencloud, 且该服务器中的旧数据无需保留,则可以使用重装系统的方式进行安装。 第三步,配置 opencloud, 选择已经部署的服务器,进入管理实力页面,选择应用管理,腾讯云提供了可适化界面,方便进行配置,接下来即可在界面上进行模型配置以及 opencloud 的 channel 配置。 完成以上步骤,一个私人 ai 助理就创建完成了,回答问题、搜索信息、执行任务,聪明响应,二十四小时为你工作。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。


cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

国产 openclaw 来了!二月十四日,阿里云通易团队正式发布个人智能助理 copo, 直面对标近期爆火的 openclaw, 它不仅延续了本地优先、多平台接入的核心范式,更实现了本地加云端双部署,并将登陆 kissoff 开源,重新定义轻量化的 ai 数字搭档。 copo 意为携同个人智能体工作台,主打极致应用。 本地部署只需要三条命令, linux、 mac、 windows 全系统兼容,拍上三点一零到三点一三环境都能跑。 如果不想折腾本地环境,也可以在摩达创空间一键云端部署,打开浏览器就能直接用。它支持钉钉、飞书、 qq 等多个平台接入,你在哪发消息,它就在哪回复,实现真正的无缝交互。 和 chat 记 p t 那 种被动问答不同, coco 这位数字搭档拥有长期记忆能力,他能主动记录你的偏好、代办事项,并持续自我更新。用官方的话说就是越用越懂你。 更硬核的是它的自主执行力。通过内置的 styles, coco 可以 独立完成文档编辑、新闻摘要、骨架监控、浏览器自动化等任务,甚至能调用摄像头看懂现实世界。用户不需要修改底层代码,只需要添加 markdown 文件,就能无限扩展新技能。 这套能力基于阿里云的 agentscop 生态构建,背后有 remi 记忆系统和丰富的内置工具支撑,能实现文件读写、浏览器自动化等一系列操作, 后续还将深度打通云资源解锁,更强的算力与生态能力。一个值得关注的细节是, coco 把门槛降到了三条命令的级别,同时保留了 openclock 最核心的本地优先和可扩展性, 这背后的逻辑很清晰,阿里盯上的不只是技术极客,更是那些想用 ai 但不想折腾代码的普通用户。 那么问题来了, openclo 慌吗?从技术上看, openclo 先发优势明显, bose 新标十二万已经证明了它在开发者社区的地位。 但 coco 背靠阿里云,有成熟的生态和资源支撑,加上更低的使用门槛和云端部署选项,瞄准的正是 openclock 目前覆盖不到的轻量级用户。 值得玩味的是,发布时间二月十四日发布。阿里显然不是随便挑日子,这封告白信收件人是整个 ai 智能体赛道, 这场对决才刚刚开始。 openclock 有 生态和易用性, 最终谁能跑出来,取决于一个问题,当 ai 智能体从即刻玩具走向大众工具,用户到底愿意为异用付出多少妥协?答案可能比技术本身更有意思。

这两天,欧本科奥彻底刷爆全网,这一次, ai 终于从指挥纸上谈兵的智多星进化成了能动手实操的贾维斯,真正实现了听得到,做得到。此前,我曾折腾过腾讯云部署搭配非输远程控制,熬到半夜不说没聊几句,免费偷看就耗尽了, 体验感大打折扣。直到今天,发现百度 app 竟然支持 open club 一 键部署,重点是无需购买云服务器,完全免费。我立刻上手实测部署步骤,傻瓜式操作,打开百度 app, 输入 open club 而提示完成授权登录,点击领取, 最后开启对话即可。整个过程零配置,小白也能秒上手。核心能力实测他是真智能还是挂羊头卖狗肉?为了验证其主动执行能力,我设计了三轮测试,结果超出预期。第一轮, 自主注册并监控邮箱,我让他独立完成邮箱的注册,已登录。他快速分析指令后,一气呵成完成注册,还反手给了我账号和密码。为了进一步验证,我给这个邮箱发了一封测试邮件, 他不仅实时收到,还第一时间向我禀告,响应极其迅速。 第二轮,编辑并执行 python 脚本。我发送了一段 python 脚本功能,是向我腾讯云的服务器发起 http 请求,本以为会有环境适配问题, 结果它完美执行,这直接证明它具备真实的代码编辑与运行能力。第三轮,独立部署网页。最后一项测试是让它部署一个网页, 网页部署成功,访问正常对比下来,腾讯云每月还得花二三十元,而百度直接免费分配服务器资源,这份豪气确实打动人心。这次实测让我确信欧本科奥的本地执行能力绝非噱头,真正的 ai 助理时代真的来了。

大家好,我是小木头。在过去两期视频,我们介绍了如何在 clubflair 云端部署 opencloak。 在 视频分享后,有朋友也问到在云端是否只能使用 astropik 所提供的 cloak 模型? 当然不是的,在目前这套部署方案下,市场上主流的模型供应商都能够支持。本期视频我们就以最新发布的国产开元大模型 kimi 二点五为例,我们看看如何在 cloudflair 云端将这款大模型集成到 openclo。 那现在咱们就开始吧。首先咱们对 kimi 二点五模型做一番简单的介绍,这是月之暗面发布的最新款开源多模态大模型,它也用来驱动了 agent swarm 这个新的特性。 关于 agent swarm 感兴趣的朋友呢,可以来了解一下,这是一个用于驱动大规模并发任务执行的执行方式。 当然啦,这并不是我们今天分享的主要话题,那咱们还是回到 opencl 的 集成。在生态中,目前已经有许多的服务厂商提供了二点五模型的支持,比如 openerer。 我 们今天的分享呢,就借 openerer 的 二点五模型。在过去视频分享中,咱们用到了 cloudflair 所提供的 mod worker 这个代码仓库或项目。 这个项目呢,默认当然支持的是 ospec 模型,实际上它也支持到了 open ai。 从文档中可以看到,可以通过 open ai api key 这个 secret 来配置对应的密钥, 从而使用 open ai 的 模型。在今天分享中,我会用到我分叉出来的这个 mod worker 这个项目,在其中做了一些小小的代码改动,从而实现了对 open route 的 支持。 我不确定在原始的代码仓库中是否已经支持了 open router, 如果已经支持了呢?欢迎朋友也在评论区告诉我一声。那现在呢,我就以分叉出来的这个项目为例,演示如何做 open router 的 支持。在文档这里我做了简要的描述, 可以用到 open router api key 这个 secret 来指定 api key。 另一方面呢,可以通过 ai gateway api gateway base url l 这两个 secret。 如果要用这两个密钥,我们需要请用 cloud flair 的 ai gav 这个服务。在演示中呢,我们就用这套方案,那现在我们就操作起来。 在终端这里,我已经完成了 regular 登录。那直接我们就开始今天的配置。首先咱们还是需要配置一个 antropic api key, 这个是在目前这个工具或项目部署中它会用到的。 当然,当我们配置了 ai 给我相关的 api key 和 base 二六 anshropic api key 并不会被用到,它只有在 ai 给我不工作的时候作为一个备选方案会用到。 因此我们首先来设置 anshropic api key, 可以 随便给他一个无效的值吧,我们可以验证一下,在后面的应用中,它应该能够正常工作。 现在他会来创建一个新的 worker, 叫 multiple sandbox。 好 了,接下来我们要做的是首先配置这个 ai 给尾 api key。 这里要配置的就是大家会用到的 open router 的 api key, 我 去创建一个, 创建完成,接下来我们配置 ai 给尾 base 与 r l。 当我们配置 open url 时,需要使用目前我所复制的这个域域, 以 open url 结尾,那中间会需要用到 account id 和 gay 域,这两个值呢,都从 cloud layer dashboard 获取,比如现在来到 cloud layer dashboard, 在 account home 这里, 小点点这里有一个菜单, copy account id, 我 们复制它,粘贴进刚才的域域域。 接下来回到 dashboard, 在 computer and ai 这里,选择 ai gav, 可以 创建一个新的 gav, 给他一个 id, 这个 id 呢就会用到我们所配置的 base 域,而用我已经创建了一个 motoboot, 咱们呢就继续用它。 那现在呢,就可以配置好这么个 url, 我 们将其配置到这个 secret。 大家要注意的是,如果你的 ai gateway 已经起用了 authentication, 那 在这里呢,还要创建一个 os token, 我 们来设置它一下。 tobin 从哪里获得呢?回到 dashboard, 在 这个 ai 界面点击,在右侧点击 create, 创建一个 token, 给它起个名字,比如 openclip, 点击 create api token, 复制这个 api token 粘贴回控制台。 这样呢,咱们就配置好了 ai 给尾相关的密钥。接下来还要配置一系列的 secret, 比如 give token, 我 们复制这一段粘贴过来,通过 open ssl 随机地生成一个字符串,这个串呢用来作为 token。 好了,我们尝试部署。在部署中,同样咱们要启动 docker, 我 使用的客户端呢是 rancher, 大家可以根据自己的偏好来选择。现在咱们运行 npm run deploy 完成部署。部署完成,我们回到文档这里参考一下。接下来还要配置两个 secrets, 一个呢是 team domain, 另一个是 aud。 这两个 secrets 的 配置在上一期的分享中,我们也介绍到了,可以回看上一期视频来了解如何获取这两个值,我们快速的配置一下, 配置完毕,现在呢可以部署,不过我们暂时并不部署完成下一步的配置,这一步呢就是 r two arto bucket, 用于保证 multiple, 也就是 opencloud 的 数据,包括了配置配对的设备以及聊天的历史等等。我个人觉得这个呢还是很方便的一个存储的机制。 同样这部分的配置呢,在上一期的分享中也有介绍,那现在我们快速的就配置一下。第一个是配置 access key id, 我 们简单介绍一下,在刚才的配置后,其实呢已经创建了一个 arduino, 名字就叫 modbot data, 我 们只需要 在右侧在 account details 这里点击 manage, 创建一个 api token, 选择 creator api token 起个名字, 比如 open flow, 选择 object read and write。 应用到指定的 bucket, 我 们选择 multiple data, 这正是刚才在部署中已经创建的。点击 creator api token, 这里会给到我们一系列的值,比如 access key, 这是我们第一个需要的。 第二个是 secret access key, secret access key 同样复制它粘贴进来。最后呢是 cf account id, 这个在刚才配置 base 二 l 的 时候已经介绍了如何获取到这个 account id, 我们粘贴进来,现在呢就完成了又一波的配置,我们来部署一下。部署完成,我们现在呢就点击这里给到我们的 worker staff 这个 u r l。 在 初次访问这个 u r l 的 时候呢,大家应该会看到类似的界面,我们需要输入自己的 email, 获取一个 code 完成验证。在完成了验证后,大家可能会得到一个 invalid token 的 错误,那么我们初次访问的时候呢,需要在这个 url 后面加上问号 token, 等于 提供的值是我们在最开始配置的时候生成的那一长串 token。 因此大家需要回到最初的配置这里获取这个值。复制粘贴进来。 接下来或许会看到目前这一个输出,表示我们需要完成配对。初次配对以后呢,后续就不再需要操作了。 我们来访问一下这个 y l, 它会加载设备,这里会列出目前等待配对的设备,可以选择 approve 或在右上角点击 approve o, 一 次性完成配对后,就可以开始使用在云端运行的 opencl。 现在我们如果再一次访问刚才复制的这个 worker step u r l, 就 能够看到右上角 health ok 表示呢,这个 clawbot, 也就是 open claw 运行正常了,打个招呼吧。 hi, 端到端的通信一切正常。 这里呢加载了一些文字,大家不要惊奇,这个呢,是因为我的 arduino 在 过去已经有过聊天历史的存储,因此呢,它有所加载。 如果我提问 what's a model in use, 大家可以看到这里,它说是 open ledger 所提供的 kimi k two point five。 这样呢,咱们就完成了端到端的集成。 在结束本期视频分享前,我们回到 cloud layer dashboard, 来到 ai gateway。 在 刚才创建的这个 ai gateway 底下,点击 logs, 大家能看到所有的模型调研的情况。这也是使用 ai gateway 一 大好处,我们可以做很好的统计,跟踪, 了解非常详细的模型的使用情况。那感兴趣的朋友可以赶紧来尝试一下。 open ledger 提供了许许多多模型的支持,在目前我所分享的分叉的这个 motwerker 代码仓库中 硬编码的 kimi two point five 这款模型,大家可以在部署中自行地调整期望使用的 open router 的 模型,这样呢,我们就可以非常灵活地切换模型,在云端使用 openclock。 好 了,那今天的分享就先到这里吧,大家在配置和运行中有任何问题呢,也欢迎在评论区给我们留言。那今天的分享就先到这里,感谢大家收看咱们下次视频分享,再见同学们,拜拜!

当下科技圈最火的名字非 openclaw 莫属,它成功让 ai 进化成为了一个可以二十四小时帮你干活的生产力工具。我自己也部署了好几个用 openclaw 做的 agent, 比如这个我在飞书部署的二十四小时热点财经、股市信息收集 agent, 他会按照我的要求收集当下热点股票信息,并推送到我手机飞书上,让我可以了解最新的行情动态。不过 openclo 虽好,想要部署使用有一定的技术门槛,光配置运行环境就难倒了百分之九十的人。我今天就演示一下如何用最简单的方式,五分钟部署完成 openclo, 并将他的能力接入到飞书、钉钉等聊天工具,让 ai 来帮你打工。 首先打开百度智能云官网,可以看到这里有个极简部署 openclaw, 点击立即部署,就进入到这个专门的介绍 openclaw 部署相关的界面。最近百度智能云推出了一个零点零一元部署套餐,部署 openclaw 一个月只需要一毛钱,非常爽。一毛钱的套餐购买成功后,稍等片刻就可以正式进入部署页面了。首先第一步,把上面要求的一些服务开通, 再点击一键放行,让防火墙一键放行应用端口。接下来就是给自己的 agent 选择一个强大的模型,百度智能云提供了超级多可供选择的模型,像 deepsea 先问等等,我这里就选择默认的 deepsea v 三点二。接下来呢就是消息平台配置,只有完成这一步,才能把 opencloud 的 能力接入到飞书、钉钉、企业微信等这些消息平台。我这里以飞书为例,登录飞书开放平台,并 选择创建企业自建应用,按照需求填写应用基础信息,如应用名称、应用描述等等。第二步,在应用管理页左侧导航栏找到并点击添加应用能力,在右侧列表中选择添加机器人。第三步,获取飞书应用凭证 app id 和 app secret, 并将这两个信息填入应用管理的对应界面,然后点击添加平台,等待执行完成。 接下来再次回到飞书开发者后台页面,在应用管理页左侧栏找到事件与回调事件配置和回调配置均使用长链接模式,接下来点击事件配置中的添加事件, 在弹出的事件列表中选择消息与群组分类,勾选完成后,点击确认添加,就完成了事件的订阅。接下来呢,就要配置飞出的应用权限,我们找到权限管理,选择批量导入和导出权限,并在百度智能云的这个位置找到一个相关的 j 特文件,并将以下的命令粘贴进飞出。 都搞定之后,在顶部导航栏处点击创建版本,进入版本详情,填写应用的版本号和更新说明,接下来点击保存并确认发布。这样呢,就成功把 opencloud 的 能力接入了飞出 消息平台。搞定之后呢,接下来就是处理 skill, 这里所谓 skill, 就是 给 open cloud 添加一些技能。百度智能云这里提供了百度搜索、百度百科等技能,当然如果觉得不够,还可以自行到 cloud hub 上给自己的 agent 添加一些别的 skill。 所有步骤都完成之后,我们测试一下,看一下效果。我在飞书找到我刚才的这个机器人跟他对话一下,我先跟他打个招呼,你好。 从他的回答来看,他明显还处于初次启动的状态,还不知道自己的职责是什么。所以后边我就要跟他明确一下他自己的任务,这里直接用自然语言跟他交代就行。都安排设定好之后,我就可以正式在手机端和电脑端让这个机器人帮我搜集热点股市信息了。百度智能云这个快捷部署 opencloud 真的 又简单又实惠,有兴趣研究 opencloud 的 都可以来试一试。
![放弃ChatGPT!OpenClaw才是真·AI助理 OpenClaw这项目,一周时间GitHub直接冲到12万星,增长曲线疯得离谱!好多朋友催我出教程,接下来我将手把手教你们,在腾讯云零复杂命令,搞定这个爆火的AI智能体,全程鼠标点一点就完事!#打工人效率神器话题 # #效率神器 [话题]# #提升职场技能 [话题]# #高效生产力 [话题]# #UI设计师](https://p3-pc-sign.douyinpic.com/image-cut-tos-priv/33500f8c8b53e98204523ca1d930af0f~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2086740000&x-signature=a3HtnplCypR4HRqbJSvZwKTup6E%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=202602181028584C961839CE4E60CB382D)
opencloud 相信关注 ai 的 人已经不陌生了, opencloud 呢,这项目一周时间内 github 直接冲到十二万行,增长曲线疯狂的离谱,好多朋友都催我出教程,接下来我将手把手教你们在腾讯云零复杂命令,搞定这个爆火的 ai 智能题, 全程鼠标点一点就完事。先回答一个问题哈, opencloud 到底是干什么的?说白了,他就是你的私人 ai 助理。 一个能替代你干活的本地智能体,比普通工具强太多。第一,它能本地运行, 授权后能操控你的电脑,好命令,读文件要各种工具,堪比本地版的 cloud cloud。 第二呢,它能跨平台联动,不光能在电脑上干活,还能接入 whatsapp、 钉钉、飞书、企业、微信这些软件。不管从哪个渠道发指令, 控制的都是同一个智能体,记忆和状态全都同步。那它为什么如此爆火呢?很多智能体都是等待命令,你不问它,它就不动。 但 opencloud 能主动找到你,比如说主动去检查邮件,按重要的程度去提醒你,紧盯股票的价格,波动大了,就自动的去查原因,把新闻整理好发给你到手机上,不是单纯的聊天机器人,是真能帮你盯事办事的助理型智能体。 以前要靠鼠标操作瞧命令,现在只要说一句人话,他就能帮你去把事给从头办到尾,不用再去学习复杂的工具,只要明确你想要干什么,结果就可以。是不是很怕?我觉得从云端部署这个 open cloud 真的 非常方便,只需要几十块钱一台服务器, 就能根据官方的部署操作文档,一步步去做,让我一个纯开发小白用户去搭建出来非常不可思议,因为在遇到问题的过程中,不仅会有腾讯官方的技术工程师在群里帮忙排错, 而且还有 open cloud 的 专业排查工具,也可以去帮我们去解决问题。那它可以为我们带来什么作用呢?我觉得 open cloud 带来的最大的变化其实是你跟电脑交互的方式去变了,以前是操作鼠标或者是输入命令,但现在却变成了你说一句人话,然后它帮你去执行, 去排查,去收尾,最后把结果汇报给你。这个对我来说最大的启发呢,就是我们其实不太需要去学什么,而是应该想清楚我们最终需要什么样的一个结果,最后详细的部署流程以文档的形式共享给大家。