大家好,我是阿童木,这个系列呢,我会用真实的操作带你把 open class 从领跑到真实的工作环境当中去,不讲概念,只讲怎么用,怎么去落地。 今天呢,我这一期将从四个方面带大家跑通,第一个就是怎么去安装,第二就是 open cloud 基本配置,第三个就是大模型的集成,第四个就是企业应用的集成,主要是飞速和企业微信。 好,我们今天给大家安装的黄 g 选择的是腾讯云,我们打开腾讯云官网,找到 opencloud 的 云端的一键部署入口,然后往下拉,找到规格配置。 这里最关键的三件事,第一,内存至少要两个 g, 第二, cpu 要选两核。第三,站点要尽量选新加坡。 这边解释一下,为什么要选择新加坡呢?因为后面如果要接国外的大模型网络环境,这一步会直接决定你能不能用起来。确认没有问题之后,我们直接点击购买 好。买完了之后呢,在服务器列表里就能够看到这台机器,我这里用的这台机器是之前配置过的,所以呢,我给大家演示一下如何还原触手化配置,你照着做就能把环境恢复到一个干净的状态。 恢复服务器的时候呢,先重置密码,如果没有特殊文件要备份的话,那么可以选择无需备份直接出使化系统。出使化完成以后呢,我们直接登录, 登录到 c r i。 之后呢,先做两步,第一步先看服务的状态, 如果看到是 enabel rpc 也是 ok 的, 就说明这个服务已经启动好了。 第二步呢,我们跑要跑配置向导。第二步跑配置向导,大家可以看到,我们可以通过这个命令去进行向导配置, 他会问你是不是这台机器,这里选 logo, 然后进入模型的相关配置。好,接下来是大模型的集成, 这里呢我先用 openai 做演示,它会给你一个链接,把这个链接啊复制到本地的浏览器打开,用你自己的 openai 账号进行登录验证。 做到这一步,如果看到界面是无法连接的,先别慌,我们要拿的是 u i l 里面的 token, 按照我这个方法把 token 复制出来,回到命令行里粘贴进去。 注意后面的这个 scop 和这个百分号是不需要的,一定要删掉,只保留 token 这一段, 等它启动完成,我们用 modellist 的 命令来看一下。好,这里我们就能看到 gpt 相关的模型,这就说明后台 ai 已经成功地集成进来了。 接下来我们讲方法二,我们用命令行怎么来添加大模型?这里我演示用 cloud azure 的 cloud, 它会提示你要贴一个 token, 这个 token 一 般要在你本地先执行,它给你的命令完成验证。前提是你本地装好了对应的工具, 并且账号可用,才能够运行并产生正确的 token。 拿到 token 之后呢,粘贴回去,名字,你用 default 也行,这里就按演示起一个名字就行。 好,接下来呢,会让你选择模型,用空格键来选中或者取消。我这里把三个常用的模型全部选上, 选完以后回车再用 modellist 看一眼,然后你会看到 cloud 的 模型已经添加进来了。 接下来我用第三种方法来给大家演示如何集成我们的大模型。用网页端管理的界面给大家演示,我这里选 deepstack, 大家注意,聊天模型一定要选中,不要选思考模型。 然后去 deepsea 官网创建一个新的 apikey, 这个名字随便。创建完以后,把 apikey 复制过来,粘贴到这里添加应用, 它会重启服务,重启完成后再用 list 看一下,那么 deepsea 就 被集成进来了。 好!通过网页添加的模型,很多情况下会被设成 primary, 也就是主要使用的模型。如果你想改默认的模型,就需要改配置文件,这里我用 vi 演示一次,你跟着我做就行。 首先,第一步,先把光标移动到 model 那 一段。第二步,按小爱进入 insert, 也就是编辑模式。 第三步,把你想设为 primary 的 那一行复制一份,放到 primary 的 位置。 第四步,把原来的 primary 内行挪到下面去,一定要保持格式的完整性。第五步也比较重要,语法很严谨,逗号千万不要漏,也别多一个字母,包括一个空格,如果爆红就说明有问题。 第六步,按照 esc 退出编辑,再输入冒号 wq 回车保存好,保存后按照提示重新启动服务, 然后再用 modellist 看 primary 是 否已经成功切换。大家看到成功切换了, 接下来我们来做企业应用的集成,我会先给大家演示飞书,再去演示企业微信,具体的步骤呢?在帮助文档里面都有,你照着做就行。 飞书这边的核心就是在飞书开放平台创建企业自建应用名称,比如 opencloud, 描述随便写。把机器人添加进来,在登录凭证里拿到 app id 和 app secret。 第四步,回到 opencloud 的 企业应用管理,添加飞书,把这两项贴进去创建, 但还没完,还需要做事件与权限管理,在事件订阅里,按照文档的要求把事件勾上,这里总共有四个事件,大家照着屏幕操作就行,如果没有开通权限,要点开,逐个确认并且开通。 接下来在目标配置里面,权限管理里面把文档里的配置补齐, 里面设计的代码,文档里面都可以直接复制,不需要去背这些代码。 最后一定要创建版本,提交审核,注意发布需要管理员做最后的审批, 审批通过后,我们可以测试一下。在飞书里搜索刚刚创建好的机器人,发一句你好,如果他回答的内容不对,像这样通常还是需要做 open class 的 一些批准 approve 一下, 按照提示执行的 app 命令批准之后再测试一次。然后我们让他干点活,比如列出五条 ai 相关的信息,如果报错,常见的原因是服务器里缺少浏览器的运营环境。按照文档把依赖装上,把 需要的安装的软件也装上,我会把需要的命令整理出来,方便你直接复制使用。 好企业微信这边,在管理后台的常用工具里找到机器人。创建机器人也分为五个核心步骤。第一步, 图标随便选一个,名字随便起,简介呢是要填的,那它是带信号,那你就随便写一个权限范围,按照你的需求,在这里我给大家演示,只是我们公司内部用这个机器人。第四点,点 击 api, 把两段关键的参数生成并复制保存点,一次就够了啊,不要反复点。 回到第五步,回到 open cloud, 企业应用管理、企业添加企业微信,把这两段参数贴进去创建。接下来还有一个关键点, u r l 的 配置。 如果你是企业微信的,企业认证的,有自己的主域名的,一般用方法二。如果没有企业认证,没有主域名的,那就用方法二 到你的域名解析后台,比如阿里云加一条解析记录子域名,比如用 opencloud 点你后面是你的主域名点 com, 记录值一定要填写你的服务器的公网 ip 地址,这个地方不要乱随便乱写。 解析生效后,企业微信这边会出现一个二维码,用企业微信扫一下机器人的二维码,然后就可以跟飞书一样来进行对话。 比如你还是让他做一些简单的处理,把今天的 ai 的 热点新闻整理五条发给我,他就能通过企业微信来帮你接入,来帮你干活。 好到这里,飞书和企业微信这两条集成链路就全部打通了。 如果你是第一次接触 agent 或者 open cloud, 我 建议你先把这一期跑完,下一期我会直接用真实的工作流,看它到底能不能帮你干活。 欢迎一键三连点赞、关注、收藏,需要安装资料的或者代码的,请后台私信我会单独发给大家,感谢大家!我是阿托木。
粉丝800获赞2391

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

家人们,最近如果你有关注 ai agent 这个赛道,一定刷到过一个名字, cloud bot。 它在 github 上几乎成了一个现象级符号,甚至一度把 mac mini 都带火了。为什么这么火? 因为它精准击中了一个点,交互可达性。简单说就是你只需要一句指令, ai 就 能帮你自动完成一整套多步骤、跨软件协同的复杂任务。但问题也随之而来,在国内,很多用户真正部署时才发现,不仅配置复杂,需要独立专业设备, 还要担心安全和稳定性问题。对小白用户和企业来说,落地门槛非常高。那在国内,有没有更适合中国企业真正能落地、能规模化使用的智能体?答案是,有,而且已经有很多公司在用了。实在 a 真, 他更懂中国企业的办公逻辑,在安全合规、系统兼容、操作体验上都更贴近本土环境。你只需要到官网下载客户端,安装完成之后,他就可以直接协助你操作整台电脑完成任务。 比如你跟他说帮我下载腾讯会议安装一下,再创建一个明天下午一点半的快速会议。实在 agent 会自动打开浏览器搜索下载安装,最后把会议链接直接给到你使用。但这只是最基础的一层能力, 更重要的是,他面对的不是轻量办公,而是企业级复杂业务。在真实企业场景中,用户可以直接通过手机端下达文字指令、远程曝光、单自动化、电商数据采集、 di 文件识别、评论与售后自动化等专业系统操作,把原本只能在固定工位完成的核心业务流程,真正搬到移动端,这也是它和只会处理邮件消息、文件整理这类清亮 agent 本质区别。 不需要复杂部署,你甚至可以用手机直接下达业务指令。电脑端自动把整条流程跑完,不用立刻回到工位,也 能解决关键工作问题。在国内主流办公软件钉钉非书里也可以直接调用。比如你在手机钉钉发一句帮我生成 clubbot 的 调研报告,并发给文件小助手。电脑端的实在 agent 就 会自动上网查资料,整理内容,生成 pdf, 最后把文件直接发回给你。 手机负责下指令,电脑负责执行系统及流程。人不在工位,业务已经闭环,所以你可以把它理解成什么。它不只是一个帮你远程操作电脑的工具,而是在抢占企业及移动 ai 办公入口的位置,用手机调度电脑,接管企业工作流,随时随地、随叫随到的终身工作伙伴。 那么,你们希望实在 agent 能帮你在工作中解决哪些问题?评论区,告诉我你的需求,这里是 ai 风向标,关注我,下期带你实操更多能落地的超级 ai 工具,解放你的双手!


之前我制作了一期关于 openclaw 云端部署的教程,没想到大家还蛮喜欢的,也收获了很多的点赞和评论,在这里非常感谢大家。那么很多人问我就是如何把 openclaw 部署在本地,我今天呢就出一期简单的教程,来教大家如何一键把 openclaw 部署在本地。 本期的教程是用 macos 系统进行演示的,如果你是 windows 用户的话,可以去搜索一下网上的其他的部署教程,那我在这里做一个风险提示啊,就是本地部署的话,最好不要部署在自己的工作电脑以及有重要的隐私机密的电脑。 我们最好是部署在一个全新的或者是没有任何资料的一个 mac 系统,或者去购买一个 mac mini 进行一个部署。那么废话不多说,我们开始进行部署的教程吧。如果你的电脑没有安装 nojs 环境的话,你需要进行一下 nojs 环境的安装。首先我们来到 nojs 的 官网,我们点击下载, 你可以通过命令行进行安装,或者是直接下载一个安装程序就可以了。首先我们打开终端,然后粘贴这一行代码,点击回车,这个时候呢他就是在帮我们拉取那个 open cloud 的 安装文件, 看到这样的一行界面呢,说明我们的安装已经成功了。接下来呢我们就开始进行 open cloud 的 配置,我们输入这行代码,然后点击回车, 这边呢就是一些安全的提醒,你可以选择 yes, 然后我们进入快速配置的模式,点击 quick start, 这里呢是输入模型的一个 api, 我 们这里选的 monshift ai, 当然你可以选其他模型或者暂时跳过,我这边输的是 monshift ai 的 一个 api 模型,然后这边把 api key 粘贴进来,点击回车,然后点击这个 keep current, 然后这里呢是选择 channel, 就是 你可以去进行对话的,但是我这边呢暂时就不进行一个配置,我们点击这个 skip, 这里是进行 skip 的 配置。简单来说呢,这里就是你可以给 ai 加上一些技能,比方说一些捕取网页啊,下载一些内容啊,生成图片的功能,我们点击 yes, 然后我们把这些全部都勾选上就可以了, 然后我们点击回车进行一个安装,这边呢设置这个 api 器的话,你可以后续再设置,我这里先跳过,所以呢全部选 no, 这边是选择一个 hook, 然后呢我们把这几个都勾选上就可以了。 接下来就是到了一个 gateway, 就是 网关的安装的一个阶段,到这一步呢,基本上你的安装就已经完成了。我们可以点击 open the web ui, 然后打开个网页,之后呢就会打开一个这样的网页,这个是 open cloud 的 一个控制面板。这边 chat 这个部分呢,就是可以跟 ai 进行对话了,我们来测试一下我们的 ai 是 否安装成功。 siri, 你 好, 那么我们可以看到我们已经可以成功的收到 ai 的 回复了,这代表着你的部署已经完全成功了。

这个巴掌大的小黑盒,算力能完爆我们公司巨大的 ai 服务器。去年三月, nvidia 发布了一款能揣进兜里的 ai 超级计算机 dj x spark。 这么小这么好看,它到底能干多少活呢?我手上呢,是搭载了同款 nvidia gb 幺零 grace blackwell 超级芯片的惠普 zg x nano ai 工作站。 它在不到一本书的空间里呢,塞了二十个 armb 核心和六千一百四十四个 nvidia 酷达 gpu 加速核心,还有一百二十八 g 高速统一内存。 这台口袋电脑每秒可以运行一千万亿次 f p 四 ai 计算,总共耗却只有不到二百瓦,体积也缩小到原来的四十分之一。靠着大面积菱形进气格栅的全新散热设计,即使全速运转,机器的声音呢,也只有不到三十分贝,比笔记本电脑还要轻。要不是有个指示灯亮着,我还以为没开机呢。 不过它并不是一台精致的小玩具。转到背面,马上可以看到两个巨大的 q s f p 接口。这两个接口呢,提供了二百 g b p s 的 数据传输速度,是消费级雷电五接口的二点五倍,可以让多台主机的算力高效叠加。不过真搞个十台堆起来,成本也并不低。 所以 nvidia 贴心的在 blackwell 架构上推出了核心省钱科技 nvfp 四量化技术,可以在保证 ai 大 模型输出质量的前提下,把显存占用和计算量砍到只有四分之一。除了 nvidia 自己的 tntlrm, 这种高效率的数据格式,在 vlrm 和 sgl 两大推力框架下也都得到了支持。 微店官网上有提前配置好的刀口容器,一行代码下载下来,就可以体验这台机器的全部实力了。而惠普这边呢,又助攻了一套 z g x toot, 能一键解决这台机器的前期开荒部署,让我们能直接进入 ai 开发环节。 我们用 nv f p 四量化后的一千两百亿参数模型 g p t o s s 在 v l l m 和 ten 三 r t l m 两大推力引擎上进行了对比测试。 v r r m 的 文本生成速度更快,在没有上下文的情况下,可以达到每秒三十三点五头啃。而把上下文长度增加到三十二 k 之后,依然能以每秒二十四点七头啃的速度领先 t c r t l r m 百分之十三。 不过在响应速度方面,这两个框架的排名就对调了过来。在三十二 k 长上下文模式下, t c r t l r m 输出第一个字母需要等待七点八秒,而 v r m 呢,则需要十六点六秒, 所以在实际使用下,就得做好权衡。 vrm 更适合用户多,但是对话简单,聊天场景,而到了分析文档、写代码这些超长上下文的任务, type rrm 就 会更适合一些。 当然,对开发者来说, zg x nano 呢,肯定不只是用 ai 模型,还得能造 ai 模型。对独立开发者和小型团队来说,这指的就是微调和量化这些对大模型深度定制的精细化。 虽然消耗没有丛林训一个 ai 大 模型那么恐怖,但这些任务呢,依然对算力,特别是显存大小有非常高的要求。先说量化量化,就是把原始高精度格式的大模型转成低精度,它可不是简单抹个小数点就行了,而是要在保证输出准确性的前提下,完成模型的压缩,加快 ai 的 输出速度。 它的硬件门槛就在于计算机要能把原版模型完整装进显存里。基于 b f 十六这个常见的原始模型精度, z g x nano 的 一百二十八 g 显存,可以给最大五百亿参数的大模型完成量化加速。搞定了量化,如果想让模型在特定任务上更聪明,就得靠一条了。 为了展示 g b 幺零芯片的极限,著名的微调加速框架安斯拉斯团队呢,在二零二五年的 openai dev 上打了个样,他们通过 q lara 微调了一千二百亿参数的 gbtos 模型的四比特量化版本,让 ai 可以 更擅长当年大火过一阵的小游戏二零四八。 经过四个小时跌淡了一千步特训后的 ai, 得分提高了百分之三十三点四,胜率冲到了百分之六十。不过,即使用 q l r 这种省吃俭用的微调驯服 g p t o s s 这样一个一千两百亿参数的巨兽,依然消耗了六十八 g 显存。 如果要做最原始的全参数微调,这台机器也能支撑最大八十亿参数的模型,完全可以覆盖个人开发者学习原理、验证想法的需求。 不过对于大团队来说,这个小盒子的意义就远不止是算力了。以前大模型开发就没有十万元以内这么个生态位,要么就是直接在几百万的集群上花巨大的成本试错,要么呢就是存几张显卡自己 diy。 但是跑通了的模型放到高端计算卡上,架构不一样,搞不好哪里,那就又报错了,查起 bug 来又要烧掉不少服务器租金。 c g x nano 的 底层软件架构和大型 ai 服务器完全一致。在这台机器上,填好的坑、调好的餐,几乎是直接复制粘贴就能迁移到万卡集群,这就省掉了巨额的云端试错成本。 而除了硬件,在 c e s 二零二六上, nvda 还一起推出了更高效的扩大 tile 编程模型。在价格昂贵的 ai 服务器集训上,效率提升百分之一都是巨大的成本收益。但以往呢,这就需要死磕 c 加加直面抽象的线槽同步和内存读写。 在新的扩大 tile 规范下,只需要用直观的拍丧语言来描述需要完成的任务,编辑器就能自动完成后续的精细逻辑控制。 左手是完全对齐工业界的硬件架构,右手是让开发者几行命令就能手搓底层优化的软件工具,一个人一张书桌就可以复现最新的大模型。论文为一条智能助理,为大型游戏开发复杂的 ai npc。 这台小机器就是针对 ai 快 速开发验证给出的标准答案。

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

太牛了,我刚淘到了一种本地化部署 clubbot 的 新玩法,绝对能让你把当下火爆的小龙虾玩爽!之前老司机们都说,要想本地化部署小龙虾, mac mini 是 最佳选择。但我说的这个神器才是小龙虾更好的窝。先拆箱给大家实拍一下,这个神器是不是很小巧? 身材小巧,能量却大得很?先看外部端口吧,从左到右依次是电源、四个 usb 口、一个 hdmi 接口、一个十 gbe 网口。最右侧还有个神秘的端口,具体是干啥的,我们后面揭秘。 连接显示器,咱们直接开机启动完成。这专业的图形化界面一看就够劲!我仔细研究了一下,这个配套软件叫做 future xplay, 是 个一站式的 ai 开发工作空间,包含推理引擎、优化过的模型和应用市场。 应用市场里面精选了各类高质量的开源工具和应用软件,即插即用,可以轻松安装并持续更新。你没猜错,小龙虾也被预制好了,直接选择安装搞定。 接下来干什么呢?喂,我要烧 tokens! 快 去申请 api 充值!不不不,这个窝的妙处在于,可以直接调用本地运行的模型,让我们在本地桌面上同时搞定大模型和智能体,又方便又省钱。 还有更重要的一点,小龙虾刷屏一周来,大家最担心的是安全问题,那些暴露在公网上、云上的小龙虾们,可都成了黑客、黑铲眼中的肥肉。现在模型、智能体都在我手边,一切尽在掌控,安全、隐私都有保障了。 这么小的一个盒子,凭啥这么强?一看算力,这简直是个性能怪兽!二十盒处理器,拥有六千一百四十四个库达核心, f p 四算力高达一个 p, 要知道 f p 四将是下一代推理服务的主打精度, 除 f p 四之外,还支持 tf 三十二、 f p 十六 i n t 八、 f p 六等各种精度,用起来相当灵活。 二看内存, mac mini 标配的统一内存只有十六 gb, 即便是最顶配的也只有六十四 g 这档次。想要本地化运行大尺寸模型,再留点八倍给智能体,闪转腾挪基本就是玩具。 而这个神器标配一百二十八 g l p d d r 五 x 统一内存,显存内存高达两百七十三 gb 每秒,单机就能轻松拿捏两百 b 模型。 三看扩展性,还记得最右侧那个长方形的接口吗?那是速率高达两百 g b p s。 的 connectix 七智能网卡接口,可以双击互联组成小集群,提供更强算力,这样可以支持高达四千零五十亿参数的超大模型推理。 四看软件平台,这盒子不仅硬件能打,软件上也做足了功夫。前面我们开机时看到的 fusion xplay 软件,就是配套的一站式 ai 开发工作空间,同时还支持 nvidia ai enterprise 套件,这搭配岂止是玩小龙虾,各种 ai 开发大场面都能 hold 得住。 五看模型适配与优化盒子预制超巨变自研的推理加速引擎,并对国产模型进行了特别优化。以千问三三十二 b f p 四为例,单用户性能提升百分之一百五十,吞吐达到二十 tokam 每秒,最高可支持三十二路并发。 这个小盒子其实是天生干大事的,这个小盒子师出名门,它就是超巨变最新推出的随身智能体开发平台 fusionx park, 千万别只把它当成龙虾窝,人家堪比一台大模型一体机,下面这些地方都是它的用武之地。 一、办公室 ai 应用很多企业、部门、科室想要体验大模型能力或者部署智能体应用,却不具备机房、机柜环境,又不希望调用外部模型,选用 futurex park 就是 最佳选择。开箱即用,跑本地知识库、图表分析、会议助手、 公文写作、智能客服、合同审核都能搞定。二、 ai 教学时训在教学时训场景, futurex park 可以 变成 ai 教学时训一体机,性能强、功能多,管理维护方便,还很省电呢,连时训式的颜值都提高了不少。 三、桌面级 ai 智能体开发大模型日新月异,各种智能体玩法层出不穷,怎么能快速构建开发环境?跟上这波风口? 用上 fusion x park, 通过超巨变 fusion one ai 专属优化,集成全套智能体开发工具链和最新优质开源模型,快速部署海量应用即刻使用。 跟传统本地化方案相比, fusionx park 更具高性价比,也更易用。跟云上 api 方案相比, fusionx park 纯本地化更安全,不用担心隐私数据泄露。而且本地化算力无需额外 tokens 费用,一次买断,长期受用。更好玩的是,超巨便还为广大技术极客们提供专属签名拷客服务。怎么样?看看我这个专属盒子带出门去有多酷? 不瞒大家说,自从入手了这个 future x park 算力随身带,不仅能在家里用、办公室用,还能来一场说走就走的旅行。怎么样,各位老铁,你心动了吗?

不用买 mac mini, 不 用自己的电脑,也不需要复杂的代码配置,九块九就能一键部署你的 open clone, 也就是最近大火的 clone bot, 这是我接入好的,已经开始为我去赚钱了。屁话不多说,跟着我这个教程跑起来。首先打开火山引擎,薅一个羊毛,拿上我视频下方的邀请链接,注册并关联一下子,你这一下子我就能赚一块钱,咱俩平分怎么也得对半分呢?如果你有账号了,也可以登录并关联啊。 然后打开第二个链接,下单九块九的一键部署服务,填写一个简单又复杂的密码,再点开高级设置。 重点来了,我们要做的核心动作就是填上这几个 k, 下面一定要按我说的操作,因为我发现全网都没人教怎么去薅这波火山的羊毛, 包括火山官方的配置文档也是一塌糊涂,我还做了一份详细的配置教程,文档链接放在视频下方,如果觉得我写的好,记得赏个关注,谢谢了。保持这个页面不要关闭,我们打开这个链接, 然后打开开通管理界面,根据这个步骤选择要开通的大模型,建议呢?开通一个升图的模型,然后打开 api k 管理,这个 api 就 可以不用去复制它。 然后回到这个界面,模型选择就能看到自己已经配置过的模型,下面的 api k 就 能直接选择出我们的 k, 那 模型的配置就完成了。 下面我们开始把飞书接入进来,首先要访问飞书开放平台,点击右上角的开发者后台,选择创建企业自建应用, 填写应用名称,写上描述,点击创建,然后点击凭证与基础信息,复制这个 id 和 app 密钥, 再回到这个界面,填写上飞书的两个选项,再点击页面下方的创建,点击确定,至此我们的实力创建完成,让它开始运行。 回到飞出的开放平台,打开权限管理页面,点击批量导入导出,然后到我的教学配置文档当中去复制这个代码,全替换进去,点击 下一步,再点击申请开通,然后在左侧的事件与回调点选一下,选择事件配置页签啊,单机订阅方式旁边的这个编辑小按钮, 然后选择使用长链接接收事件,并单机保存在已添加事件区域,单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签,并勾选接收消息, 如果找不到的话,你就先搜索接收消息,然后点击确认添加按钮, 然后我们向上看,点击页面顶部的这个创建版本这四个字,按照这个需要的配置内容呢,我们写上版本号及更新说明啊,随便填几个字就行了。翻到页面底部,点击保存按钮,然后单机页面个人发布按钮,完成应用的发布。 这个时候你就去看一下你的飞书是不是多了一个机器人,让你去审核,然后点击审核通过你的机器人就可以去用了,这个时候打开手机的飞书或者是桌面端的飞书,找到我们这个机器人,发送一个任意消息,比如说你好, 首先它会出现一个等待表情,如果出现等待的表情,那 ok, 说明正在调用你的模型,那我们的配置就成功了, 等他回复你的时候,你就知道新的世界已被打,已经被打开。如果你想通过浏览器去访问 open、 cloud、 web 这些界面的话,你可以参考一些官方的文档,更多的玩法大家可以自己去探 索。如果觉得我的教程比较详细,比较明确,那大家可以给我点一个关注,谢谢大家!再见。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

腾讯云 openclaw 秒级部署教程,一键搭建专属 ai 助理!第一步,前往腾讯云 openclaw 专题页面,找到并点击立即部署我的 ai 助理。 第二步,购买腾讯云轻量应用服务器应用模板选择 open claw cloud bot 地狱,根据使用场景选择规格,选择两核二 g 及以上配置,点击页面右下角立即购买,按照页面引导完成支付即可。 如果在此之前已经购买腾讯云轻量应用服务器,并且希望在该服务器中部署 opencloud, 且该服务器中的旧数据无需保留,则可以使用重装系统的方式进行安装。 第三步,配置 opencloud, 选择已经部署的服务器,进入管理实力页面,选择应用管理,腾讯云提供了可适化界面,方便进行配置,接下来即可在界面上进行模型配置以及 opencloud 的 channel 配置。 完成以上步骤,一个私人 ai 助理就创建完成了,回答问题、搜索信息、执行任务,聪明响应,二十四小时为你工作。

真正的个人 ai 助手,它来了,就这两天非常火的 cloud bot, 也就是最新改名之后的 open cloud, 它是最近 get up 上非常火的一个开源的 ai agent 项目, 呃,很短的时间里就有了十万星,在全球范围内热度都非常高,它本质上是一个本地运行的 ai 智能体框架,可以从系统层面直接操作电脑。而甚至搭建好之后啊,你可以用手机的聊天软件给你的电脑里的 ai 助手发布指令,让它帮你完成你的工作。 今天我就手把手教你如何用自己的 macbook 来搭建这个本地运行的 ai 助手 open clone, 方法真的非常简单,跟着做三分钟之内就能搞定。首先我们搜索 open clone 出来的结果,第一个就是我们直接点进去, 那接着下拉页面,可以看到一行命令,我们直接复制它,然后搜索,打开电脑上的终端,在终端里直接粘贴进去,点击回车,接下来我们等待就可以了, 这里会出现一个风险提示,我们选择 yes, 然后点 quick start, 然后接下来这个页面我们来选择模型啊,我这里选择谦问比较方便,它会弹出一个页面,让我们进行一个认证, 认证之后我们返回终端,选择 keep current, 然后接下来需要选择一个聊天软件,就是你手机跟电脑去交互的方式。第一个 telegram 呢,会比较方便一点,我们选择 telegram, 然后这里需要输入 telegram, 然后搜索 bot 发布这个频道。 进去之后我们点击 start, 然后我们选择最上面的 new boot, 接下来根据指示给你的 boot 进行命名,然后这里会给到你一长串的 boot token, 我 们复制这段 token, 然后返回终端里粘贴上去, 点击回车就可以了。接下来会问你要不要去装一些 skill 技能啊?这里可以随意啊,我们选择 yes, 然后选择 n, p, m, 然后在这个 skill 列表里,你可以根据自己需求去选择安装,直接跳过也是可以的。然后接下来提示你配置一系列的 a, p, i, 这些也都全部可以跳过的。 ok, 这里要装 hux, 那 这三个我们都给它选上啊。然后点击回车, 然后安装完之后,我们选择第一个啊,然后它会弹出自己的 web ui 来,那接下来在 web ui 里,我们跟 open curl 就 可以直接交互了,当然你也可以通过手机上的 telegram 跟你的电脑 ai 助手进行交互。 ok, 如果你觉得这视频对你有帮助的话,记得点赞双击加关注啊,接下来还有更多的 ai 干货。

这几天又一个 ai 硅谷了啊,就是这个 cloudbox, 它可以通过手机远程控制电脑自己完成任务。 废话不多说,我这次三分钟教给你如何本地部署,如果喜欢的话可以点赞收藏一下,谢谢!他到底有多厉害?我们这次先看看 jimmy 怎么说的,他说这是一个可以接管电脑操作系统的 ai, 传统的 ai 只能给建议,但是这个可以直接拥有系统权限。 我让他用一句话总结,他说可以通过手机聊天软件直接控制电脑,远程让电脑自己完成任务,这真很厉害了。然后他可以把聊天窗口当成全能的一个跑腿助手。好,接下来就是教程。 首先你们可以搜索这个 open cloud, 之后出来的这个红色的图标就是千万不要点错了,然后往下拉,在这个 quick start 这里直接点击这个复制这一串, 然后在终端直接复制粘贴,点回车等待一会, 然后出现红色这一串英文的时候,你们就可以按键盘左箭头点 yes, 然后回车点 quick start, 然后回车之后跳转的这个页面就是你可以选择的模型,平时我都用叉 gpt, 所以 我这次就用 open ai 了, 然后它会弹出一个页面登录,让你认证一下,认证之后再回到这个 keep current, 然后回车 之后跳转到聊天软件的页面,你可以根据自己的需求去选择一个你需要的一个聊天软件,然后他每一个的认证方式都是不一样的,因为我平时用这个 whatsapp 做,所以我选择这个第二个,然后这个 这个 app 他 就会弹出一个码,然后你用手机扫码去登录,然后再在终端这里输入你账号的手机号就可以,之后点 yes, 然后选这个 npm, 然后接下来这个页面是选择安装的工具,嗯,空格就是选,然后上下箭头可以移动,选完之后按回车就可以了,后面这些全都点 no 就 可以了, 然后过一会聊天页面就自动跳转出来了,我来试一下,告诉我叫什么。好了,成功了。

关于 open klo 的 安装和部署,前两天呢,我给大家录制了一个非常详细的教程啊,跟着我的教程一步一步操作的话,其实你就可以无论你是 windows 电脑还是 mac 电脑,都可以把它安装进去, 但是呢,很多人拿到这个教程之后呢,还是不会安装啊,这个我完全能够理解,因为每个人的这个 这个水平啊,对于电脑这个水平可能还是不一样,因为 open klo 的 目前也不是一个产品化的东西,所以呢是有一定难度的, 所以我在想啊,是不是有需要给大家去呃,直接把它预置到一台电脑的主机里面,比如说一个小主机啊,比如说 windows 的 小主机,或者是 mac mini 的 小主机里面,这样的话呢,大家可以拿到就能使用啊,并且呢我们也给大家去开发一个小程序,那在手机上面 拿到之后简单的配置一下,嗯,然后呢就可以直接去进行使用,这种的话是不是更加方便呢?嗯,考虑到这种方案的还有一个想法是什么呢?因为 opencloud 现在它可以获取你的电脑全部权限,你如果直接在你的主力电脑上面去进行使用的话,它是存在一定的安全风险的,这个的话大家是需要注意的, 所以呢,我觉得我们如果想充分发挥它的作用,最好还是有一个专门的给他专门准备一个房子, 这个房子呢不需要多贵啊,可能现在我们看到的有方案可以做到,呃,整个硬件成本大概一千左右吧,一千以内甚至都都有可能啊。 然后就是我们完全给大家预制好,然后呢相应的教程,相应的课程,相应的这个服务都给大家准备好,大家可以直接拿来即用,并且在手机上非常方便的就可以去打通了。我不知道这个方案有没有人需要呀?那这里也做一个调研,如果你需要这个方案的话,大家可以在评论区留言 啊,我们到时候,嗯,在过年期间啊,我们就会做好测试,然后到时候如果你真的有需要的话,我们就可以给你去做好交付,这个感兴趣的话可以留意一下。

我们本次的部署方式采用的是原码构建的方式,同时我们也能够指定 open cloud 平台默认之外的模型,这一点对我们企业用户来说是十分重要的。 今天我们的部署呢一共分为三步走,第一步我们需要克隆项目,配置一些环境变量,搭建一个基础的环境。第二步,我们需要构建专属的 open cloud 容器,保证安全隔离。第三步,配置专属大模型,让 open cloud 真正的动起来。 首先我们需要将 opencloud 从 github 上进行源码克隆,大家可以如果在遇到网络问题的时候,可以直接在我们的 open, 在 我们的 github 上将 opencloud 直接下载下来,解压后上传到我们服务器即可。我这边已经提前给大家把项目给它克隆下来了, 这里我准备了一个我们今天所要用到的所有的操作指令,大家跟着我一步一步来就可以。首先我们需要创建一个我们自己专有的 opencloud 的 一个工作环境, ok, 在 创建完工作环境之后,我们需要给它部署一个呃,给它赋予一个我们用户组和所有者。 这一步也很关键,因为呃在我们容器的构建过程中,我们使用的 uid 为一百的非 root 用户来构建和运行服务, 避免我们的容器以 root 身份运行带来一些安全风险,同时呢也方便我们与数据库进行映设。然后我们之前刚刚提到这个 open cloud 杠 data, 还有这个 workspace, 这个目录也是非常关键的,这是我们区分不同用户之间的一个关键目录。 好的,接下来我们继续执行,我们导入几个关键的环境变量,这个环境是我们构建 opencloud 的 一个最基础的一个支撑。 ok, 到此为止,我们的所有的准备环境都已经做好了,接下来我们就可以真正的去构建专属于我们自己的 opencloud 容器了。我们首先给我们的执行脚本赋予一定的执行权限,接下来我们直接执行 dock setup 这个脚本。 ok, 我 们可以看到它已经在构建我们的镜像了。当然大家在构建我们的镜像的时候,可能会遇到一些网络连接的问题, 这个镜像在构建时受网络影响环境还是比较大的,在实际部署时,大家拉取基础镜像或者下载 note 相关依赖的时候,可能会遇到网络连接失败的问题。所以在在这里建议大家在构建之前,先对我们的这个镜像进行换原,使用国内的镜像仓库来完成构建, 能够大幅的提升我们构建镜像的一个稳定性和成功率。 ok, 我 们现在可以看到我们的界面已经进入到了 opencloud 的 一个配置界面,我们接下来就按照以下步骤,大家跟着我走,我们就可以快速的先把我们 opencloud 的 一个配置文件给它,给它布置好。 我们首先要同意我们的风险,然后选择 quickstar, 在 这里在这个模型提供厂商这里,我们可以按照自己的需求去选择,因为这里我们使用的是 deepstack 这个 呃,这样一个平台,这在这里没有显示。我们这这一步就先跳过,大家有条件的话可以按照自己的这个需求去配配置自己的 atik, 这个地方我也选择默认的就可以,然后到了这个 china 这一阶段,我们可以看到它提供的很多 china 都是 呃像 telegram、 whatsapp、 whatsapp 这这种,呃国外的一些呃这种渠道,呃对于我们国内的用户来说使用不是特别友好。在后面第二部分实际案例子讲解时,我会给大家专门的去讲解我们如何将 opencloud 与我们的企业微信做一个对接。 这一步我们就暂且先跳过。 ok, 接下来到我们的配置 skill 的 这一个阶段,我们在首次使用的时候可以先选上这样一个啊配置项,但是,呃, 但是在下面的这个具体的 skill 中,我们可以不用去选择,大家可以按照自己的需要去填充这些 skill, 我 们可以后续也可以自己进行扩展。这里我就直接跳过了,对于这些 apik, 大家有需要的话可以按照我们的需求自己去部署去配置。 好的,我们现在稍作等待啊,它现在呃需要等待网关服务启动之后才就可以通过我们的 web ui 去快速访问我们的 open cloud 了,它现在正在安装部署。我们大家稍微等一下, ok, 到这一步我们使用我们使用 ctrl 加 d 退出这样一个容器环境,我们可以看到我们的容器实际上已经呃构建完成了。 好的,到这一步,实际上我们的 open cloud 已经完成了基本的雏形,我们可以在左侧的这个配置文件中看到我们自己的专有的工作目录,以及它在这个工作环境下, 工作环境下去已经创建好了我们的这个 open cloud。 点 json, ok, 我 们看一看是不是有一些步骤有遗漏, ok, 没有,没有问题。呃,当然啊,这个我们直播环境也是非常的呃,可能会带来一些问题,但是这个问题既是困难也是挑战,我们共同去克服它。 好了,我们现在要去配配置我们专属的大模型,这样的配置能否呃也是我们 open cloud 能否真正运行起来的关键一步。下面我将给大家按照步骤去演示我们如何去 呃,真正的把我们的 open cloud 给它运行起来。在这里我们可以看到,呃,我们的 open cloud 叫 json, 有 很多的配置项,我们主要配置的是它的模型和它的一个 呃, model 和它的 agent 的 这样一个 json。 呃,如果大家的这个服这个 模型是不如在本页的话,大家可以在这个 bash 中进行替换,然后 api k 选择使用自己的 api k, 然后这些模型大家可以随意的替换,这样我就直接把它贴到我们的 open cloud 点 json 中。 好的,下一步我们配置我们的网关服务。首先第一步的话,我们需要去创建这个 tsl 这个配置脚本, 这个配置关乎到我们如何我们后续把它从 http 升级到 http s 服务。这样的升级有一个非常大的好处,就是可以在我们的传输过程中对我们的数据进行加密,防止中间人进行攻击和数据窃听,保证我们的数据安全可靠。下一步的话,我们需要 去呃给它配置 control ui 这个关键参数,这个参数可以呃会直接影响到我们能否在服务器上,能否在外部端进行预览,去访问到我们的 open cloud。 ok, 接下来是 browser 这个浏览器插件,我们也给它配置上,因为 openclaw 在 执行 agent 的 过程中会很大程度依赖我们的浏览器。大家在配置的时候一定要注意一下这些缩进问题,因为可能很多时候会因为缩进问题导致这个我们的配置不成功。 ok, 我 现在保存一下,到此为止,我们的基本的所有的内容都已经部署完成了。下面导播老师切一画面,我配置一下我们专有专属使用的这个 open deepsea 的 一个 api k。 好 了,我这边已经完成了我的呃配置文件的一个更新。接下来的话,我们只需要重启一下网关服务,就可以把我们的新配置给它刷新上去。 ok, 我 们可以看到我们的网关已经呃重启了,我们看一下具体的一个 log, 检查一下它有没有重启。 ok, 我 们现在检查一下我们的外部端是否能够去使用。大家可以在我们的浏览器中输入您的首先用 http 进行包裹,输入您的 ip 和端口号,然后进行访问。 当我们看到您的这个链接不是专用链接时,就说明我们已经能够通过外部端进行访问了,这样我们无视它的风险,继续去访问。 ok, 我 们可以看到我们当前这个环境似乎没有真正的配好,因为它出现了一个 disconnect, 这应该是我们在配置环境变量的时候,我的麦,我的那个 token 没有按需要正确的配置。这样我导播老师,我们再切一下画面,我这边再对它进行第二次重新修正。 我们这边啊,一不小心把我们的 token 写成了 my token, 实际上是 my test。 我 这边再次重启一下我们的服务, ok, 现在服务起起来了。嗯,那么其实呢,我们在日常的配置过程中呢,或多或少都会遇到一些问题, 那这里呢,李老师也是帮我们做了一些复现,然后也是展示了一下我们应该如何在遇到问题的时候去解决这些问题,非常感谢李老师。哎,好, 那我们再继续这些步骤吧。我们确实在这个正真正的这个开发环境中,我们很容易会因为这些配置问题导致我们很多小白在部署我们的 open cloud 出现很大的问题,大家很可能就卡在这一步。当然我们刚刚经过刚刚的检查,我们再一次把我们的 open cloud 给它启动起来了,我们可以看它的这个右上角的状态已经是 chaos ok 了。那么我们接下来就需要做一个所有小白在部署完 opencloud 的 第一个要问的问题,那就是今天的天气怎么样? 我们稍作等待,因为我们刚刚已经部署已经启动了 scale 这样一个技能工具,那么它在真正使用的时候,它会优先地选择我们的 weather scale 来去查询我们济南的天气。 如果大家在一开始配置的时候没有使用 scale, 那 么它会就用我们我们这个平台中的呃网络解锁工具 brave, 或者是使用 web search 或者 browser 等工具来解锁天气,这样我们稍作等待,看一下它能不能把我们天气真正给它获取出来。 好的,我们已经看到结果了,当前的体感温度是零摄氏度,但它实际温度是五摄度,这和我们当前在这个直播间的环境中感受是一样的。

最近整个硅谷都在为一个叫 opencloud 的 软件疯狂,感觉它无所不能,但又觉得离自己有点远,其实它可能就是一直想要的那个超级助手。现在有一台电脑,七十二十四小时待命, 就在你桌上不占地方,它就是 s e r 十 max, 一 台高性能又安静的迷你电脑。 搭载最新的 amd 悦龙 ai 九 hx 四七零处理器,提供五十五 top 四 npu 算力,采用可扩展 ddr 五内存,标配万兆网卡,能让 oppo club 直接调用你电脑里面的所有软件为你干活。 首先在官网下载好 git node 两个前置软件,以管理员身份运行 power shell, 验证 git node 是 否安装成功。在 openclip 官网复制安装命令到终端自动安装。 选择你的云端模型,登录你的云端 ai 账号,选择 skip for now。 选择 skip for now。 在 飞书打开开发者后台,创建一个应用, 添加机器人应用能力,打开权限管理,输入 i m 确认开通权限, 发布应用版本, 复制应用 id 和密钥, 发送给 open cloud。 自动安装, 进入事件与回调页面 搜索并添加 in message receive v e, 使用长连接接收事件, 进入版本管理与发布。只有发布后,前面的配置才会真正生效。 发送消息给机器人,他会自动回复一个配对码,复制配对码发给 openclaw, 会自动完成绑定,绑定成功后,你就可以在飞书里跟 openclaw 愉快交流了。在网页搜索奥拉玛, 下载本地大模型,运行后端一直点击下一步,等待安装完成。 进入设置,打开本地模型,调用权限, 选择本地部署模型,发消息自动安装, 安装完成后回复说明本地模型安装成功。 在飞书中发布检测本地大模型的指令,检测成功后即可通过飞书切换本地与云端模型。 有了它,下班接到紧急工作,用手机给 opencloud 发消息。一句话调用工作电脑进行文件分类整理及视频剪辑,完成过去半小时的基础繁琐工作。 面对 ai 绘图需求,一句话批量转绘,生成你想要的风格图片,同时也能让他做你的编程助手。一句话完成写代码、找 bug、 写网站等工作。 将写报告、整理表格、重复的信息收集等日常办公工作,你也可以交给不知疲倦的他, 你的指令得到的是高效的响应,把原本需要复杂的专业技能的操作变成了说句话那么简单。这不仅仅是升级一台电脑,而是升级你整个工作的方式。把繁琐交给他,把时间留给自己。