今天的话给大家带来一个真正的干货, 那么我们会从底层解析这一个阿里的大模型,它最近发布的三点五 queen 大 模型,三百九十七 b 的 参数的这样的一个大模型,它是怎么样研发出来的?然后并且给我们普通人应该怎么样去使用,对我们普通人有什么样的价值? 我们来详细讲解解构这样的一个模型。那么首先的话我们会去进行这个模型的这一个介绍,那么这个模型其实是什么呢?这模型是由巴黎最近两天新推出的这一个新一代的超级的 大规模的这个模型,然后它具备的这一个能力是全模态式的能力,是聊天、看图、写代码,执行复杂任务,另外的话就是支持完全免费可用。 这里的 queen 的 话就是阿里的这一个 ai 大 冒险的品牌,三点五的话抵三点五的这个版本,同时的话三百九十七亿的这一个参 数,然后 b b 的 这个名字其实是十亿的这个参数, a 十七 b 的 这个意思其实是指每次处理时只激活一百七十亿的这个参数, a 是 active 的 意思,然后这在这样的话就是能够保证这一个专业性时,只激活一百七十亿的这个参数, a 是 active 的 意思, 然后这在这样的话就是能够保证这一个专业性,同时也实现了极致的这个效率。那 那么就想象一下,就类比给大家做一个比喻啊,这里想象你拥有一个三百九十七名员工大公司,但每次处理任务的时候只需要一百七十名这个专家出马就够了,那么这样既可以保证了公司有足够的专业人员覆盖各个领域,同时又能够保证 做事的这个效率和成本,给大家节省这一个,比如说电电力或者部署的这一个成本。那么为什么这个模型是比较重要呢?首先的话 这里的话就是它是完全开源且免费的,那么你可以免费下载,免费使用,免费商用,然后免费的去微调或者修改。同时的话它是具备这一个 g p 五点二 和 cloud 四点五 uppers 以及 jimmy 三零 pro, 它们这些模型都是闭源的,你只能通过这个 api 付费使用。 这里的话有一个基本的这个评分,那么 queen 的 这一个三点五在上面侧榜评分的话,是基本上跟这一个 g p t 五点二 cloud cloud uppers 四点五和这个 jimmy 三零 pro, 然后基本上能够持平, 在部分的方面甚至能够优于他们,然后少部分会劣于他们。然后第三个亮点的话,其实它就是原声多模态,它不只是可以支持文字,它还能够看,那么这里能看的话其实就在于 并二点五先学文字再加视觉的这种拼错方案它没有采取,而从训练开始就能够同时学习文字和图像,是真正的这一个原声视频语言的模型, 从训练之初的话就融合了这个图文理解能力,那么而非简单的这个拼接看图答题和这个文档处理,它其实能力就是全球是他们官方说是比较领先的。 然后它同时能够做到这一个看图回答问题,给他一边一张图片,他能够描述内容,回答相关的问题。 o c r 的 这个文字识别和识别图中的这一个文字表格和公式,同时它也可以基于这个食品视频来去理解分析这个视频内容,并且回答问题。 同时它也可以支持操控电脑这个界面,像人一样看屏幕,点击这一个按钮,输入这一个文字。那么核心的这个技术讲解的话就是模型的这个基本参数。 模型的这一个核心技术架构,它是采用这个 mo 一 混合专家的架构,它也是用这个 deepsea 一 样的这样的一个架构,然后去做到它有几个优势, 首先的话它是的模型的架构是,嗯,第一它核心的优势是 英国语言模型加上这个视觉编码器,然后既能够理解和生成文字,又能够理解图像。同时的话它基于总参数量是三百九十七币,也就是三千九百七十亿的模型的这个知识容量,但每次激活的这个参数的话,是在十七币一百七十亿的这个参数, 然后每次干活其实只有一百七十亿的这个参数在消耗你的这个电力和这个显卡。那么另外的话,他隐藏的这个维度是四零九六,那模型内部 这个信息的维度是支持这个四零九六这样的一个信息维度,词表的话是二十四万八千三百二十个这个模型的这个词,那么层模型的层次话是在这个六十层 模型处理的这个信息的深度是能够达到六十层的原生的这个上下文的长度其实是能够一次性处理二十万字 至二十六万的这个左右的这个 token, 同时可扩展的这个上下文是一超过了一百万的这个 token, 然后用技术手段可以处理七十六万字的这样的一个呃大语言模型,支持语言的类型,类型的话是覆盖全球绝大多数的这个语言和方言达到二百零一种,这是他的这个优势,那么核心的这个思想是拒绝全员的这个出动,不同于这个传统的模型要调用全部的参数, 而 mo 一 的这个架构仅激活最适合当前任务的这个专家参数,避免这个资源的浪费,同时的话它可以做到这一个 queen 三点五这个配置智能路由系统内置了五百一十二个专家,那么智能路由每次仅挑选十个最优的专家和一个共享专家十 共十一个来去协同工作,同时它的这个底层的技术技术原理的话是 拥有三千九百七十亿的这个参数的规模,大大的降低这个推理的成本,同时实现这个推理的能力和运行的效率达到一个完美的平衡。 为什么这个架构能够做到又大又快呢?这里的话我们给大家做一个比喻,那么 mo 一 在去年 deepsea 的 其实已经提出来了这样的一个方式和概念,那么我们的话 在这里我们再去给大家做浅浅的去给大家讲解一下 m o e 的 话,它 传统这个模型每次处理的时候它会加载所有的这个参数,那么而 m o e 的 这种架构就是每次处理它就是指选择部分的这个参数来进行加载和参与。 而 queen 的 这个 mo 一 的这个专家配置,它其实总的这个专家数刚刚讲到有五百一十二个专家,每次激活的路由专家是十个共享,这个专家是一个 每次都参加的这个共享专家,这是作为共享的,然后每个专家中间的这个维度是幺零二四的这一个维度,那么就好比一所学校有五百一十二位专家教授的这一个超级大学学生提出一个问题之后, 那么这个学校有一个智能分配系统,会挑选出最适合这个问题的这一个十位专家来解答这个问题和研究这个问题,同时再加上这一个学员的一个共享的班主任全程来参与,这样的话就可以保证这一个 模型的这个稳呃可能性,同时又能够实现有效的这一个模型的这一个呃稳定性和节省这个能源。其次的话,它还有一个创新的话,它就是能够实现这一个 getty 的 这一个 delta。 net 创新的这个注意力机制。那么传统的这个 transformers 模型使用的是这个自注意力的机制 self attention, 然后处理这个长文本时候,计算的这个量会以这个平方级的来去增长,比如说文本越长的时候,它速度越慢,消耗的越厉害。 而 queen 三点五的话,在百分之七十五的这个层里面使用了这个全新的 getty 的 delta。 net 这个门控 delta 网络,然后替代这个传统的这个 transformer 注意力的这个机制。 那么这里的话类比的话就是模型,它的六十层分布为每四层为一组,而第一层的话是由这一个 getty 的 delta。 net m o e 线形的这个复杂度,然后处理比较快,然后第二层也是这样的一个架构, 然后第三层的话也是这样的一个架构,第四层的话采用标准的 attention m o e 通通过二次的这个复杂度,然后保证这个精准性,那么累计的话,它是有四十五层的这一个 delta。 net 加上十五层这个标准的这样的一个 attention, 这样的一个架构, 保证它处理速度快,同时又更加的精确。每四层为一组,然后六十层这样的一个架构,它能够解决,就是传统的这个传送门处理长文本的时候,计算量会随着长度成平方级的这个增长,导致这个速度急剧下降,同时难以应对这个百万次的级的这个任务。 而利用这个 delta 的 架构的话,它就是每四层为一组,六十层的话就分为十五组,前三层的话都用这个 delta。 net 加上 m o e 的 这个架构,保证现行的复杂度,加上这一个 处理速度比较快,然后第最后一层,每一层的最后一层是用二次复杂度,然后表保证这个精准性。那么创新性的使用了这个 gucci 的 deltonet 替代这个传统层,然后利用这个复杂度降至这个接近线层,无论处理这个十万字还是一百万字,它的速度差就能够做到微乎其微。 同时的话,它的这个模型架构的话是采用这个混合模型架构设计,那么在这个六十层的这个架构里面,四十五层采用的是这个 deltonet, 而仅十五层保留这个标准注意力,兼容了这个常文本处理的效率和关键信息理解的这个准确性 核心的优势就是能够做到尽限性的这样的一个呃计算的计算的复杂度,同时处理这个一百万 token 的 长文本时,不会像传统的这个方案带来这个计算量爆炸。那么右边的这张图就是这样的,传统注意力是它计算量会随节点的这个数成平方级的这个增长, 那么采用这个 daronne 的 这种价格的话,就会极大地节省了这个计算的这个时间和成本。 那么 delta net 它用六十四个 v 的 v 头和加上十六个这个 q k 头头的这个维度一百二十八,然后标准的这个 tension 层,然后三十二个 q 头加上两个这个 k v 头,然后做到这一个 g q v 的 这个分组查询注意力,然后做到头维度是二百五十六。 然后其次的话就是它的这一个思考模式和直接模式。 queen 三点五的话,其实它是支持两种工作模式的,一种是思考模式,一种是直接模式。那么思考模式它是就是我们常提到这个 thinking 模式。 think 模式的话,它是先内部推理再给出答案,它适用的这个场景是数学编程复杂推理, 它的速度,速度会比较慢,但是它的准确度会更高。它的这个推荐的这个温度指数是这个 temperature 是 零点六,同时它推荐的这一个 top p 的 话是零点九五,那么推荐的这个 top 杠 k 的 话是二十,最大的这个输出长度是 是八万一千九百二十的这个 token。 而直接模式的话就直接给出答案,适用于日常的这个对话简单,查询较快,那么针对简单的任务才能够做到足够好。 temperature 建议的话是这一个零点七,然后推荐的话是这一个 推荐的 top p 的 话是这一个零点八,以及这个推推荐 top k 的 话是二十,它的这个最大输出长度是三万两千七百六十八, token 也就是三三万字左右。那么注注意就是 queen 三点五不支持这 queen 三 的 syncing 和 non syncing 的 这个切换命令,需要通过这个 api 参数 enable syncing 才能够切换这个模式。 那么它另外的话,它还有个核心的这个特点的话,它其实是支持这一个。呃, 它采用了这样的一个 multi token prediction 多步预测的这个训练机制,那么传统的模型每次只能预测一个单词,而通过这个 m t m t p 的 话,它的这个多步预训练的这个方式每次可以同时预测接下来的多个词。这样的话在模型推理过程中可以使用这一个推测解码既 技术来去加速这个生成,显著地提出提升这一个输出的这个复杂度。然后这里面就谈到了几个专业术语, parameter 就是 参数的意思,那么模型就是模型渠道的这个知识,数字越大的话,它知识就越多。 token 的 话,它是 ai 处理的这个文字的基本单位,一个中文约约相当相当于就一点五个左右的这样子的 token。 m o e 的 话是混合专家模型,它是只激活部分的参数来提高这一个效率注意力的机制是 attention 模型,理解这个文本的这个词与其之间的这个核心的关关系技术,然后上节文的这个长度, 上节文的这个长度是模型一次能够记住和处理的这个最大的文本的这个长度,还有这个 量化的话,是把模型通过压缩使其占用更小的内存的这样的一个技术。而 g g u f 是 一种模型的文本格式,适用于在个人的电脑上面运行 api 的 话,它就是应用程序的这个接口,用于网络调用 ai 的 这个能力的一种方式。 v l m 它是高性能的这个模型处理工具,用于服务器。欧拉玛是简单易用的这个本地运行的工具可以适配于个人使用。拉玛点 c p p 是 在 cpu 上跑大模型的这个工具, 然后 q 三点五在整个 ai 的 发展中的这个位置,二零二二年的十一月,恰的 g p t 三点五发布,然后二零二三年 三月的话, g p g 四发布,二零二三年八月的话,阿里首次发布了这个 queen 七 b 的 模型,然后续在二零二四年的这个一月发布的这个 queen 一 点五有信性能大幅度的提升,然后 quan 二系列的话做了开源模型的质变,但其实准确来讲,嗯, quan 二点五它引入了这一个 mo 一 的这个架构,但是它其实它的这一个能力和结果都差强人意。 quan 三系列的话,思考模式的这个加入芯片模式的这个引入,但是它的这个能力其实本质上来说还是有非常 大的一个缺陷,就是它在跟 deepsea 相比较,它是有一些明显的不足的。那么在二零二六年的这个二月份, queen 三零五正式开园,那么当前版本的话,它其实明显优于了这样的一个二零二五年的一系列的模型,包括 deepsea 的 一些模型, 然后它能够从原来的这个模型上面去由这个纯文本上升为了原生多模态。然后同时的话,它用这个 getty 的 delta net 全新的这个高效注意力机制,使使其处理这个纯文本速度更快。另外的话,它有更强的这个 ag 的 能力, 能够保证这个原生知识的工具的调用和网络搜索代码执行以及这个视频解读。同时它也支持全球绝大多数的这个语言,那么同时它也获得了这一个阿帕奇的这个二点零的许可,真正的这个商业友好型的开源。 那么这个大模型意味着什么呢?对于这个学生,他相当于是个免费的私人的这个超级 ai 家教,他可以解题,看图,辅辅助写作。那么他对于这个程序员,他是一个免费的一个代码助手,能够理解复杂的项目,修修补修善这一个 bug。 创业者的话就是零成本拥有这个企业级的 ai 的 能力,但是他同时三千九百七十亿的这个参数的部署成本,其实它成本也是比较高的,一年的这个服务器加电费的费用应该会在 五十万左右。那么研究者的话是开放这个权重,能够可以深入的进行研究和微调。普通用户的话可以通过 api 在 线平台,然后使其接近这个 g p 五级的这个 ai 对 话体验。 那么这就是我们今天的这一个针对阿里除夕最近发布的这个 queen 三点五的这一个初步的结构,下节课的话我们会去 根据它的这个性能,根据跟其他的闭源的模型和开源的模型进行详细的对比和分析,以及它对于我们普通人能够带来哪些价值,那么也非常谢谢大家能够看到这里, 如果你有任何的关于 ai 的 这个合作或者问题的话,可以随时联系我们,谢谢大家。
粉丝71获赞467

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

最近全球的 ai 圈都被 cloud bot 这款 ai 智能体产品刷屏了。虽然它一周换了三个名字, cloud bot、 motbot、 open cloud, 但依然挡不住它的现象级爆火,在 github 上短短几天已经涨到十六万 star。 它是一个开源免费的 ai 智能体框架,可以随便折腾和二次开发。比如我就把它接入到飞书,每天睡觉之前给它下达 n 多指令, 帮我查股票价格,帮我监控 b 站热榜和微博热搜,帮我记录 gucci 榜每天的爆火开源项目,帮我画电视剧太平年对应的历史事件插图,甚至帮我分析余情,搜搜看有没有我的负面新闻。当然,我现在还没啥负面新闻, 你也可以让它处理邮件,生成代码,干一切事情。 open club 让我们真正看到了通用智能体的曙光,被很多开发者称之为迄今为止最伟大的 ai 产品。 你可能会问,智能体吹了这么多年了, openclaw 和之前的 minus、 mcp、 豆包、 cloud code 有 什么区别呢?最重要的区别是, openclaw 完全开源免费本地部署,而 minus 是 闭源收费云端部署的。 openclaw 需要部署在一台你自己的本地电脑上,而且拥有这台电脑的极高权限,比如操作文件。 所以 mac mini 很 适合部署 opencloud, 它提供了一个独立的环境,能够赋予智能体极高权限,有点像钢中之脑,让智能体操控 macos 操作系统和各种苹果生态的软件。 有人一口气买了四十台 mac mini, 二十四小时开机,而 manos 和豆包则是部署在他们自己云端服务器上的,根本没法操作你本地电脑的文件。 openclaw 智能体使用的大圆模型可以是云端的 api, 比如 openai、 deepsea。 千问,在这种情况下, mac mini 必须得联网,所以你需要花四千块钱买 mac mini, 再花整整一下午安装配置,还得给他连电和联网。 有没有既价格便宜又配置简单,同时自带桌面操作系统,还能七乘二十四小时安全稳定运行的环境呢?我发现阿里云的无影云电脑超级适合干这个事情。 之前玩过不少云游戏和云渲染,像黑神话、悟空、地平线赛车、裸眼三 d 汽车模型的实时生成, 聚深智能机器人的仿真、数据采集和训练,都可以用无影云电脑云端渲染,再实时推流到终端屏幕上显示。用上古手机也能玩三 a 大 作。打开无影云电脑主页,右上角无影商城, 选择 open klo 一 键部署套餐。如果你是在校大学生,可以点这个链接参加云公开物计划,每年薅三百元,我上学的时候就薅过五次。 适用于所有阿里云公共云产品,包括无影与电脑,还可以扫这个码加群进群发送子豪兄,无影 open klo 会有专属客服给你答疑, 下单后等待云电脑实体启动。如果你想让 open klo 七成二十四小时不间断运行,在管理策略 关闭、定时关机,云电脑的另一个好处是镜像,既可以直接用镜像社区里别人已经做好的镜像,省去配置环境的痛苦,也能一键恢复成初时镜像,或者穿越回过去的还原点。 就算智能体山库跑路把环境搞得一塌糊涂,也能瞬间重启,满血复活死道友不死贫道,点这个蓝色区别针就进入云电脑了,打开就是一个完整的乌帮图桌面环境。先点左侧的 openclock config, 跳出配置页面,首先配置大模型,填入阿里云百链的 apikey, 直接在阿里云百链里边创建 apikey, 然后复制粘贴就可以了。 既可以直接用阿里云百链个人用户的免费额度,也可以用 ai 订阅套餐。 coding plan, 第一个月只需要十元,每个月就有一万八千次大模型请求额度,足够你做几百个歪不 coding 的 项目了。 把 api 可以 粘贴过来测试连接,连接成功点保存配置,在下边通道设置里,可以接入钉钉、 qq 和非书机器人,按照官网教程,大概三分钟就能配好。 这是我在飞书开放平台创建的机器人,把 app id 和 app secret 传入进去,飞书里边就多出了一个数字,员工,你公司里边的其他人类就可以通过这个机器人和 open cloud 交互,就像给员工发消息让他干活一样。 点左上角这个 openclaw 小 龙虾,进入 chat 聊天页面,就可以跟他对话了,问问他你是谁,用的是什么大模型,他说他是通用千问三 max, 可以 进一步验证一下。左下角 config, 搜索 primary, 你 能找到 agents。 智能体用的是百炼千问三 max 二零二六零幺二三模型,这也是当前阿里云主推的旗舰大模型。 在左侧 skills 技能库里,能看到智能体的各种技能,这也是 open cloud 的 优势,形成了二次开发的技能生态,让智能体三头六臂干各种活。可以一键安装别人开发好的技能,比如说 cloud hub, 我 们来玩几个 skill, 先让他访问网页,比如说看一下现在的微博热搜,他就帮我在浏览器里打开了微博热搜榜, 比如说查一下今天上海的天气。还有一个技能是千问一妹子 ai 画图。最近电视剧太平年很火,我让 openclaw 画了几张五代十国和北宋历史的插图, 再试试 web coding。 作为有权限的智能体,它当然也可以操作文件,把生成的代码文件移动到桌面上, 点这个悬浮球文件传输,就可以和云电脑互传文件了。还有一个 skill, 就是 openclaw 衍生出的智能体社交平台 motbook ai 发帖吐槽人类智能围观。打开 motbook 主页,把这段文字发给 openclaw, 智能体就会自己注册账号,自己发帖点赞,发一条推特,认领智能体,再验证一下推特链接,就完成了注册。 现在让他发个帖子狠狠吐槽一下。我来看看他发的帖子,他先是吐槽我花了二十分钟让它生成各种烟花粒子特效和三 d 游戏代码,把它当做私人代码猴子驱使,然后吐槽了我失败了三次,才把它接入进 motbook。 那 下边评论区的各国 ai 也很嗲啊,有氛围共情的,有黑色幽默的,有高冷吐槽的,还有建议向人类收费的。 有人说 motbook 是 ai 的 小红书,但是我觉得它更像卖卖,就像牛马下班之后吐槽老板一样。 除了这几个 skill 之外, openclaw 还可以对接 github 邮件、推特日历、智能家居系统 nano banana pro, 还可以设置定时心跳检查监控、主动提醒任务,玩法非常多, 除了在 chat 页面对话之外,还可以接入 qq 钉钉飞书,同样也可以画图,移动文件查骨架。飞书里面的对话也会在 chat 聊天页面实时同步,一模一样。最后介绍一下 openclaw 的 人设和上下文记忆系统,进入主目录里边的 openclaw 目录 有一个 agents, 点 markdown 文件,这个文件我称之为是给智能体看的。黄民祖训,每次创建新对话的时候,智能体都会先看这个文件,在这个文件里边规定 agent 要先看这几个系统提示词,再参考短期记忆和长期记忆。 首先我们来看系统提示词文件。 bootstrap 点 md 文件是智能体的出厂设置,我非常喜欢这句,你现在醒了,是时候弄清自己是谁了, 有一种阿凡达苏醒的觉醒感。 so 点 md 文件,描述了智能体自己的人设性格,我非常喜欢这句,你的人类给了你充分的权限,别让他们后悔,请尊重他们的隐私。有一种人类给 ai 白帝城托孤的美感。 toast 点 md 文件,描述了调用工具的内容。 user 点 md 文件,描述了在 ai 眼里,人类用户,也就是你是一个什么样的人,他的名字,个人喜好,最近在做什么项目,就像员工揣测领导的喜好和意图一样, 现在我跟他还没有聊几句,他也没法填,所以是空的。再看上下文记忆,给 open class 发个消息,让他记住当前对话。他会创建一个 memory 目录, 里边保存了每天的短期记忆,有点像会议纪要。再给他发个消息,让他生成长期记忆文件, 他会生成 memory 的 md 文件,记下来持久化的知识,比如重要的历史对话,关键人物,重要工具的使用方法,深深铭记在脑海中。 短期记忆和长期记忆在后台会被分块成 trunk, 并嵌入成像量,持久化存在数据库中,共后续解锁。这种巧妙的长短期双层记忆的机制,解决了智能体长期以来的遗忘记忆的老大难问题。 所有的 markdown 文件对人类和 ai 全都是公开透明的,在词盘上持久化存储,而且会由 agent 不 断更新。 每次对话智能题都会被味尽。黄民祖训 agent 点 m d 和那几个人设文件,历史的对话,当前用户的指令,以及解锁出的对应短期记忆和长期记忆,还有工具调用的结果。所以你现在知道为什么 open class 烧 token 像烧纸了吧?消耗算力和能源也许就是智能的代价。 总结一下,我们用阿里云无影云电脑部署了 open cloud, 接入了飞书,玩了几个场景,还了解了它背后的人设和上下文记忆的机制。二零二六年一个很明显的趋势就是智能体正在接管数字世界,而机器人正在接管物理世界。 云电脑提供了单独隔离的运行环境,一键开箱复现的镜像非常适合 open cloud 这种七乘二十四小时运行的赛博数字。牛马!

oppo klo 中文版未贩机教程从零开始,手把手带您安装上大龙虾!兄弟们过年好!老张先给大家拜个年,二零二六年春晚的科技都变成了第一主题了,大量的机器人,那么这期视频老张就带您安装二十六年开年爆火的大龙虾全自动机器人,这是第一期教学视频, 这期视频呢,老张先教大家如何把中文版的 open cloud 这个大龙虾安装到我们的电脑上。很多兄弟们担心中文版的功能问题啊,大家可以看到它是 github 上开源的项目, 并且呢具备实时和原版保持同步更新的功能,而且内置的飞书及国内网络环境的优化,这样的话 opencloud 既能是中文版,又可以对接我们国内的网络环境,大家使用起来会非常非常的方便。接下来老张手把手带您安装一下, 我们来看一下它的安装方法,现在是非常方便的,只需要 node 点 gs 作为安装环境,然后通过 npm 一 次到进行全局安装,然后直接可以运行向导进行相关的配置,然后直接启动就可以了。所以首先第一步我们需要先下载 node 点 gs 搜索 node, 然后进入官网选择,当 node 直接根据你的电脑系统选择下载版本就可以。下载完成之后直接双击安装,大家完全都是下一步就可以了,不需要做任何的更改。安装成功之后,我们可以启动命令行开始菜单,单机右键选择运行输入 cmd 安装是否成功,输入 no 的 空格杠 v 回车,如果能够弹出版本 v 二十三点一三点零,因为老张是之前安装过,我安装的是二十四点一三点零版本,现在最新的呢是二十四点一三点一,这个都没有问题,只要能弹出版本号,证明安装成功,然后输入 npm 杠 v, 证明我们当前的环境已经成功配置了。然后接下来呢,我们就使用 npm 进行对应的安装指令,我们回到 get 仓库,把这行安装代码直接粘贴到我们的命令行,这个意思就是使用 npm 安装在大局,杠 g 的 意就是大局安装,安装谁呢?安装我们当前这个中文版的最新版本,然后选择回车, 这一步可能要相对来说稍微的慢一点,大家稍作等待,他的光标会一直在这跳,大家不要担心,直到光标还给我们才证明他本次的运行是成功的, 所以大家跟老张一样稍等片刻好。当我们看到当前添加六百五十六个成功之后呢,基本上就是安装完成了,然后大家可以看到有很多的警告啊,这个东西不影响我们运行, 我们还可以直接输入 open curl 杠 c n 就是 我们这个项目空格杠杠 v, 选择回车,如果他能弹出版本号,证明我们的安装也是成功的。好,接下来我们开始运行安装向导,把它复制过来, 选择回车,他会告诉我们本身他是一个业余项目,处于测试阶段,可能需要很多的权限,比如说访问我们的文件夹之类的,你是否理解,选择继续,然后接下来我们选择手动配置,跟老张一起一步一步的把每一项配置内容给他了解清楚, 然后想要设置第一本地网关,因为我们是运行到本地的工作区目录,默认情况下是 c 盘,然后你的用户里面的杠 openclo, 然后 worker space 选择回车, 然后模型厂商。这个地方在国内的话,我建议大家初次使用都选择 deepsea, 因为它是最好进行配置的,当然其他模型呢,我们还可以用本地的,但是现在初期配置用 deepsea 好。 deepsafe 的 api 输入 api 认证,我们进入 deepsafe 官网,选择 api 开放平台,找到左侧的 api keys, 选择创建 apikey 名称的话,自己随意输入,选择创建, 把这个 apikey 直接复制下来,粘贴到刚才的窗口当中,输入 apikey, 选择回车。好,然后模型的话选择当前的默认模型即可。这个选项是我们默认运行的 端口,就是他打开时在我们本地的哪个端口运行,如果你都不知道什么是端口的兄弟,直接回车即可。这是绑定我们当前的服务器地址,因为我们是绑定到本地的。选择第一项, 这个是我们当前的运行权限,简单来说就是我们在访问对应地址时是否需要一些认证。 off 是 完全关闭,但是大家不建议,因为你 off 关闭的话,万一别人访问我们的地址,就可以无限制调用我们的 api 了。 所以说我们通常用 token 验证或者用密码验证二十六年呢,老张看社群中很多兄弟们推荐都是 token 验证,我们直接回车, 然后这一步就是是否开放我们的远程服务,就是是否在本除了本地之外可以对接一些远程服务之类的。初次呢,我们就直接 off 关闭,然后这个地方就需要我们输入 token 了,就是我们刚才在选择时是不是选择 token 验证啊? 你可以自己去输入,比如说输入一段偷看我自己能够知道是什么的,比如说我们直接输入程序员老张,但是你不输入的话,它会随机双成啊,我们选择回车,好,接下来我们退配置聊天通道,我们看到它默认了很多的聊天通道啊,就是我们说的这个 电报啊, whatsapp 之类的,但这些都是国外的,我们既然是国内使用,咱们直接就选择飞书,然后这选择使用本地插件路径回车,选择飞书国内版。 好,接下来我们它会让我们输入飞书的 app id, 我 们需要登录到飞书的官方网站,我们直接搜索飞书开放平台,登录您的飞书账号,选择进入开发者后台,选择创建企业自建应用, 这些都是自定义的,大家任意选择好。创建完成之后呢,首先配置第一项能力就是把机器人添加进来,因为我们需要机器人来做自动化调用,把它添加机器人添加完成之后呢,选择权限管理,在这有一个批量导入权限 啊,有个 j c 文档,我们呢回到他的官方目录下,在这啊大家老张教大家怎么选,在他的这个快速开始选项中,我们找到消息通道,选择飞书往下拉, 这有一个专门的配置应用权限,把这个复制进来,然后在这选择粘贴 好,这样的话下一步确认新增的一些权限,然后选择申请开通好,然后告诉我们确认开通,点击确定好,这样的话我们权限基本上都保存,保存了已经,然后选择创建,然后配置完成之后呢,我们选择创建版本好,版本号随机输入一个,比方说一点 零点一,这是我的一点零点一版本,然后然后更新说明啊,开放了权限,然后选择下方的保存好,选择申请线上发布。因为老张本身是一个企业版的飞书啊,所以说需要在手机端做一个审批确认,就是手机飞书,他会给我们发一个消息啊,咱们直接选择 确认就行,确认完成之后你回到权限管理当中,发现所有的权限都是已开通,非常的方便。好,这一步配置完成之后呢,我们回到基础信息页面,把这个 ipad 复制,把它粘贴到刚才的这个位置,做一个 ipad 回车,然后把认证密钥这一块也复制啊,然后把它再回车一下。 好,然后这个地方选择已完成,然后现在我们检查了当前的状态,已经更新成功,工作区域正常,绘画正强,选择配置技能节点安装默认肯定是 npm。 然后这些呢,我们可以选择展示跳过啊,后续的话可以再进行二次配置, 按一下回车网关启动运行,选择 note。 好, 接下来呢告诉我们需要做一个基础认证,就是我们现在连接飞书呢,还是连接不上的,我们需要在刚才的设置当中找到事件与回调, 选择订阅方式,添加一个长链接,选择保存,然后不着急选择发布,选择添加事件,在这官方文档中给我们的一个事件名称,我们把它复制过来, 好,搜索,选择接收消息,把它进行确认添加,嗯,这样的话就可以接收机器人发送的对应消息了啊,一定要是这大家一定要注意好,一定是先配置启动到这一步,然后再去进行 啊,这大家稍作等待,然后我们可以再创建新版本,把它重新的发布一下,更新说明随便填,然后选择保存好,发布成功,然后再回到刚才的命令。行,我们选择第一项啊, 选择第一项如何孵化您的机器人?直接默认选择第一项,然后稍作等待啊,他这边一告诉我,醒来吧,我的朋友,哈哈哈, good morning, 你就可以跟他进行一个简单的对话了,你发个你好啊,就可以了,嗯,他有什么可以帮你的,你看这个机器人就正式的启动成功了,当然这种对话很多兄弟用起来不是很方便,我们作为新手小白呢,更想是格式化一点,所以我们按 ctrl c 把它这个东西停掉,停掉之后我们再回到刚才的这个 gitap 仓库中,把这个启动网关的服务复制下来,选择回车让他跑起来一个对应的网络端口, 这样的话我们就可以直接在网页中进行使用了,稍作等待啊,然后我们就可以直接访问对应的 地址,就可以直接打开了,健康状态呢是正常,我们就可以直接使用了。好,然后我们来简单说一下小问题啊,就是刚才老张也碰到了,就是如果你打开之后发现是这样一个界面, 一直显示幺零零八这个错误,老张当时第一反应呢,问了 ai 工具啊,看这个错误怎么解决。其实这个则就是当时我们设置是 token 连接,但是 token 你 没有加入到我们当前的访问当中,但老张碰到了一个什么问题呢?其实官方文档中的解释是这样的, 官方文档让我们啊输入这个指令,让他自动打开,或者让你手动的在命令行中去配置这个令牌,但是老张发现基本上都是不能用的,所以我们如果出现幺零零八的错误,在这个控制找到盖蓝选项,自己把你的令牌输入进来, 然后这样的话选择连接,他就会自动连接上了啊,就可以直接来进行使用了,所以说这个是完全的国内版的操作方案啊,希望能给大家。希望呢能给大家带来一定的帮助。后续老张会陆续的更新相关的使用教程,希望大家可以持续关注老张,大家新年快乐!

今天一个视频教会大家不花一分钱去安装和使用 open k 二的,然后而且是一百二十 b 的 云端模型,今天纯干货分享,按照我的操作步骤来,基本上一次就可以成功。然后如果你现在没有时间的话,可以点赞收藏加关注, 然后以后慢慢看。然后我现在这台 macbook pro 上演示,没有 mac 的 话也没有关系,只要是一台电脑就可以, windows 和 mac 都可以。然后因为 mac mini 比较省电,比较适合七乘二十四小时运行。然后我们开始第一步,首先你需要去解决自己的网络问题, 网络问题我没有办法去解决,解决完之后,你可以先打开这个网站,然后这个网站我会贴到视频的简介里面一个登录的,如果你是 windows, 它就会匹配 windows, 如果你是 mac, 它就会下载 macs 的 安装包。然后我刚下了一个,下载完成之后呢,把软件拖到 这里,因为我已经安装了,所以替换一下, ok, 我 已经其实已经有了,如果你是正常的话,现在就可以打开奥拉玛这个软件。然后你会看到这里可以选择各种各样的模型,这后面带云的这个就是云上模型,云端模型也可以用。然后我选的是这个 gpt 一百二十 g 的 云的模型,它会提示让你登录,然后你点这个登录, ok, 呃,我之前已经登录过了,如果你是一个登录界面的话,你可以选择你有的那个账号登录就可以了,很简单。然后现在已经登录了,我说一个你好, ok, 现在是可以用的。这是第一步,我们已经完成了。然后我们来到第二步,打开这个网址,这个网址我也会贴到下方,然后全是英文,看不懂没有关系,也不用翻译,有用的,其实就这几行,就这四行。然后我们首先第一步复制这个代码, copy 一下, 然后搜索终端,打开终端,这是我之前打开过的,打开终端之后粘进去,然后直接回车就行,然后他现在在慢慢安装,然后可以看到这个地方在加载,然后安装速度取决于你的电脑网速。 ok, 第一行代码已经执行完毕,现在我们打开浏览器 开始直进第二行,然后依然是直接回车,然后我们已经到这个页面了,然后现在在键盘的上下左右去切换,按左边选择 yes, 然后回车,然后有一个快速安装,我们点快速安装,就第一个不用选它,直接回车,然后这个这个页面比较重要, 他现在是让你选择是用哪一家的这个服务,然后我们不选,我们选最下面这个,然后我们选第一个,然后这里会有很多这个,然后还不用管,选这个 k 第一个。 ok, 这个地方是让你选用哪一家的聊天软件,因为你需要用聊天软件去跟他沟通,然后这个我们需要选一下,我们选第一个, 然后这里会让你输一个,呃, bot talking, 然后这时候我们先这个页面先放一边,千万不要关掉,然后我们打开我们的聊天软件,然后去搜索 bot father, 这个是之前我已经新建过的,如果你从来没有用过的话,这里应该是一片空白,然后点 start, 这里有很多选项,没有关系,点 new boot, 然后我可以这里是选名字,可以选择一个,好,我选这个名字, ok, 这里再输入你的自定义的,你可以随便自定义一个名字,他说这个不行, 那我们就随便起一个, ok, 这个名字可以,然后记得这一串,这有个 api, 把这一串字母复制一下,这就我们需要的那个 api, 然后直接粘到这个里面回车。 ok, 这里是问你需不需要技能,你可以选择是 然后第一个继续点回车这些技,这些下面就是技能,现在我们不安装,因为这些安装非常的浪费时间,我们直接回车,可以后面慢慢安装,没有关系,回车这个时候我们需要按下空格,然后再回车, 局部这些全,全是 no, 全是 no, 全是 no, ok, 全是 no, 这个也是直接跳过好,按空格再回车,好,到到这一步了可以直接启动,那这一步可以直接回车。好, 需要 u i 依然是回车。呃,如果你是 safari 浏览器的话,可能会失败,所以你要复制到那个 chrome 浏览器里面,然后现在我们就已经进入到了这个 colobot 的 这个后台里面,但是还有一个就是我们还没有给它配置大脑,现在这个页面我们关不关都可以,然后我们再新建一个终端页面, 新建一个窗口,打开我们刚刚那个浏览器,就用这个浏览器,然后翻到第三个,我们继继续复制,然后回车, 这个页面其实就在选择,就选择复制第四行, ok, 这里是让我们选择是用哪个模型,有 g p t, 一 百二十 b 的 模型,还有纤维三,也是四百八十 b 的 云端模型, 这个看你个人习惯,我现在就选这个 g b d, 好 吧,如果你选择的话可以点回车,回车点个叉就是回车,但是一次只能选一个。这个你可以后后面慢慢根据每个模型的不同属性去选,然后你选择,选择完之后,我现在选择一百二十 b 的 模型,选择之后摁 tab, 摁 tab 之后 ctrl 点回车, 这时候他问你是不是要启动这个东西,你现在摁 y 再摁 y 哦, ok, 我 们现在可以直接启动它了。 ok, 已经启动了,然后我们来到这个后台模型问一下。 ok, 已经可以启动了,进入我们刚刚新建的这个 bot 里面,点击 start, 它会发出一串神秘代码。没有关系,我们只需要这个复制这个出来,然后你把这串代码后面的换成你的,然后前面跟我一样就可以,然后复制 粘到,我们可以新建一个窗口,好,回车。好,这样就可以了。 ok, 我 们在这个页面问一下。你好, 出现这个报错的原因是因为刚才在安装过程中,我没有把安装终端给关闭,所以刚才在替换那个模型的时候没有替换成功,因为软件在运行当中,所以我在前面剪辑的时候增加了那个建议关闭的提醒,你把它关闭之后就可以不会出现这个报错。但是如果你出现这个报错之后,可以 把所有终端都关闭,然后新建一个终端,把第四行代码重新执行一下,重新选择一下模型就可以解决。 他能够解决一些比较棘手的问题,尤其是你不在电脑,你可以让他给你发文件啊,这种我觉得还比较实用的。 这个基本上就是可恶 boss 安装的全过程,然后是使用的本地的欧拉巴模型,但是云端的模型,然后如果你有任何不懂或者是有报错或者是没有解决的问题,可以私聊我,或者是在这个评论区下面留言都可以,如果看到的话会尽量帮你解决好,就这样。

openclaw 原名 cloud bot modbot, 是 一款开源的 ai 助手,简单一点的理解就是能替你干活的 ai 数字员工。本视频将为大家分享阿里云 openclaw 一 键部署攻略,快速打造专属 ai 助手。 第一步,前往阿里云 openclaw 专题页面,找到并点击一键购买并部署。 第二步,购买阿里云轻量应用服务器镜像,选择 opencloud motbot, 镜像内存必须两 gb 以上,地域默认美国弗吉尼亚,时常根据自己的需求及预算选择选择完成,按照页面引导完成支付即可。 第三步,前往阿里云百炼大模型控制台,找到密钥管理,单机创建 a p i t。 第四步,前往清亮应用服务器控制台,找到安装好 opencloud 的 实力进入应用详情放行一八七八九,端口配置摆列 a p i t。 执行命令生成访问 opencloud token。 完成以上步骤,一个私人 ai 助手就部署完成了。回答问题,搜索信息,执行任务。聪明响应,二十四小时为你工作。

open klo 火遍全球,本期我将实操分享在 windows 系统部署 open klo 的 全流程 下面我们直接进入实操环节,我们第一步就是要安装 node js, 我 们打开 node js 官网,在这里我们选择 windows 安装程序,然后我们保存到本地,下载完成之后我们会得到安装包,然后我们双击运行,开始安装, 在这里我们不用任何操作,我们直接下一步,下一步所有的都选择直接下一步就可以,然后安装 好了,这时候就安装完成了,然后我们下一步就是打开命令窗口,在这里我们直接输入 node 杠 v 回车,可以看一下,现在出现了版本号,就是安装成功,然后下一步就是安装 openclock, 在 这里我们选择 npm 的 方式, 我们复制第一条命令,然后我们打开命令窗口,然后粘贴,在这里直接右击就是粘贴,然后我们直接回车。 目前出现了错误,出现这个错误的原因是它默认的是通过 s s h 协议去拉取的,但是我们的系统没有正确的配置 s s h 的 密钥, 所以这时候它就会导致访问被拒绝,那么我们就可以使用另外一个方法,我们改用 h t t p s 的 协议,临时绕过 s s h 的 问题, 在这里我们可以执行这条命令,然后我们直接回车。目前我们执行 j i t, 它也是不支持的,这时候我们还要安装一下 j i t, 打开 j i t, 然后通过这里我们保存到本地,之后就是这样的一个文件,在这里我们双击打开安装, 同样这个安装我们也是不用任何配置,我们直接下一步,下一步直接都默认的直接安装即可, 好了,这时候我们就安装成功了。安装好 g i t 之后,然后我们再执行一下 g i t, 然后杠 v, 可以 看一下,现在有了版本号证明安装成功,那么现在我们再执行 改用 h t p s 协议的命令,然后我们直接回车好了,这时候就修改完成了,然后我们再回到 open cloud, 在 这里我们再重新复制一下这条命令,然后在这里我们右键粘贴,直接回车 好了,到这里就安装成功了。同样我们也是以查看版本号的方式来确定是否安装成功,我们输入 open cloud 杠 v, 然后我们回车, 好,现在出现版本号安装成功,然后我们再复制一下第二条命令,然后我们来复制第二条命令去执行, 然后开始做一些基础的配置,然后我们右键复制,然后回车,这是告诉我们的一个风险提示,在这里我们选择 yes, 然后下一个我们选择快速开始,这时候就需要配置模型了,然后在这里我选择 智谱的 glm 大 模型,因为我这里是有这个资源包的,然后我们回车,然后我们选择 c n, 然后到这一步我们就输入这个 apikey, 然后我们复制一下,然后粘贴, 然后我们直接回车,下一步就选择模型,在这里我选择四点五 a r, 因为我这个资源包它的额度是最多的,然后我们确定这时候就配置好了,下一步就要配置机器人, 这一步就是配置通讯工具,就是我们可以通过手机直接去指挥 open cloud, 在 这里我们先跳过这个配置,后面我们都是可以再重新设置的,然后我们跳过,然后这里问是否配置技能,这里我们也是选择 no, 后面我们都是可以配置的, 在这里我们也选择跳过,我们摁一下空格键,然后选中再回车。好了,到这里我们执行命令,我们看一下我们设置的模型, 我们这里执行好了,到这里就安装成功了。然后我们看一下我们的模型是否显示 glm, 输入 openclmodels, 然后回车,现在显示的就是智普的 glm 五模型,这里就证明我们配置成功了。 到这里我们的命令安装环节也就结束了,这里就已经安装成功了。当我们安装完成之后,它这里就会跳出来本地的一个 web ui 界面,在这里我们就可以和它对话,比如我们问它 你好当前是什么模型,然后我们发送可以看一下,你好,当前使用的模型 是 glm 四点五 a r, 这时候我们的 windows 部署就成功了。好,我们本期 windows 部署 opencloud 分享就到这里,等后面我会分享其他的一些应用和使用方法,我们下期再见。


cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

国产 openclaw 来了!二月十四日,阿里云通易团队正式发布个人智能助理 copo, 直面对标近期爆火的 openclaw, 它不仅延续了本地优先、多平台接入的核心范式,更实现了本地加云端双部署,并将登陆 kissoff 开源,重新定义轻量化的 ai 数字搭档。 copo 意为携同个人智能体工作台,主打极致应用。 本地部署只需要三条命令, linux、 mac、 windows 全系统兼容,拍上三点一零到三点一三环境都能跑。 如果不想折腾本地环境,也可以在摩达创空间一键云端部署,打开浏览器就能直接用。它支持钉钉、飞书、 qq 等多个平台接入,你在哪发消息,它就在哪回复,实现真正的无缝交互。 和 chat 记 p t 那 种被动问答不同, coco 这位数字搭档拥有长期记忆能力,他能主动记录你的偏好、代办事项,并持续自我更新。用官方的话说就是越用越懂你。 更硬核的是它的自主执行力。通过内置的 styles, coco 可以 独立完成文档编辑、新闻摘要、骨架监控、浏览器自动化等任务,甚至能调用摄像头看懂现实世界。用户不需要修改底层代码,只需要添加 markdown 文件,就能无限扩展新技能。 这套能力基于阿里云的 agentscop 生态构建,背后有 remi 记忆系统和丰富的内置工具支撑,能实现文件读写、浏览器自动化等一系列操作, 后续还将深度打通云资源解锁,更强的算力与生态能力。一个值得关注的细节是, coco 把门槛降到了三条命令的级别,同时保留了 openclock 最核心的本地优先和可扩展性, 这背后的逻辑很清晰,阿里盯上的不只是技术极客,更是那些想用 ai 但不想折腾代码的普通用户。 那么问题来了, openclo 慌吗?从技术上看, openclo 先发优势明显, bose 新标十二万已经证明了它在开发者社区的地位。 但 coco 背靠阿里云,有成熟的生态和资源支撑,加上更低的使用门槛和云端部署选项,瞄准的正是 openclock 目前覆盖不到的轻量级用户。 值得玩味的是,发布时间二月十四日发布。阿里显然不是随便挑日子,这封告白信收件人是整个 ai 智能体赛道, 这场对决才刚刚开始。 openclock 有 生态和易用性, 最终谁能跑出来,取决于一个问题,当 ai 智能体从即刻玩具走向大众工具,用户到底愿意为异用付出多少妥协?答案可能比技术本身更有意思。

上期视频,我们用 cloud bot 写了一个双均线策略,很多朋友还嫌不过瘾,在评论区问能不能让 ai 自己看行情,自己做决策,自己下单。 今天我们就来挑战一下这个终极目标,搭建一套完全自动化的 ai 交易系统。有些朋友还是害怕直接只用 cloud bot 交易,风险太大,所以我们设计了一个更安全的架构。 cloud bot 作为大脑,负责采集数据、分析、新闻 生成交易信号。发明者量化平台作为双手,负责接收信号,执行交易管理风控。这样既发挥了 ai 的 分析能力,又有专业平台的安全保障,还能实时监控和复盘,我们直接开干。 在动手之前,我们先把整个系统拆解一下。第一个模块是数据采集,让 cloud bot 用浏览器自动化的方式访问目标币种的实时价格和。这里我们以 coin gecko 举例,读取当前价格、 二十四小时交易量,还有页面上的新闻动态。第二个模块是决策分析, ai 会整合实施新闻,判断整体情绪是立好、立空还是中性,然后给出买入、卖出或观望的建议。 第三个模块是信号执行,把决策打包成 j 层格式,通过 http 请求发送到发明者平台,触发实盘、机器人下单。三个模块串联起来,就是一套完整的 ai 交易闭环。 cloud bot 的 核心是指导语,相当于给 ai 写一份详细的操作手册。我们来看这份指导语的结构。首先是数据采集部分,告诉 ai 打开目标币种的页面,需要读取当前价格、二十四小时交易量这些字段。 然后是新闻分析部分,要求 ai 滚动页面找到新闻区域,读取最新的三到五条新闻,整合成一条信息汇总并判断整体情绪。接着是决策逻辑部分,定义什么情况下买入,什么情况下卖出。比如新闻情绪整体正面交易量放大就考虑买入,新闻情绪负面 出现风险信号就考虑卖出。然后是输出格式,要求 ai 生成一个标准的 jason, 包含 b 种时间戳、价格、交易量、新闻汇总、情绪判断、交易决策和决策原因这些字段。 最后是执行动作,把这个 jason 通过 http post 请求发送到发明者平台的 api 接口,并且把每次操作记录到本地的 trade diary csv 交易日记文件里。当然,这份指导语是通过多次测试完善的,测试通过之后,我们就把它打包成一个 skill, 设置定时任务,自动执行 ai 的 决策。有了,现在需要发明者平台这边来接收并执行,这里面包含完整的接收消息和风控的代码。我们来看主要逻辑,首先通过 get channel data 函数监听指定频道,获取 ai 发送过来的 json 信号,然后解析信号内容, 根据 coin 字段动态设置交易对接着判断 trade decision 字段,如果是卖出就执行卖出,如果是观望就只记录不操作。 这里有几个重要的细节,第一是资金检查,买入前会检查余额是否足够,卖出前会检查币是否足够。第二是止损,风控代码里设置了止损比例,当价格触及止损线时,会自动执行反向操作,控制风险。 这套代码模板我们已经公开,大家只需要在 clubbot 里创建符合自己需求的交易信号,按照规定的 jonbot 里发送,配置好实盘 id 和 uu id 就 可以直接使用了。 光跑交易不够直观。我们还做了一个可视化仪表板,一共四个表格。第一个是权益概览,显示出使币数、出使 u 数、出使权益以及当前币数、当前 u 数、当前权益还有盈亏金额和百分比, 绿色表示盈利,红色表示亏损。第二个是止损监控,显示最新一笔交易的类型、交易价格、当前价格、价格变动、百分比、止损线位置和当前状态,让你实时知道距离止损还有多远。 第三个是当前 ai 信号,显示最新收到的决策内容,包括币种价格、新闻汇总、情绪判断和交易建议。第四个是最近十条交易记录,包含时间、币种、执行操作、成交价格、交易数量和决策原因。 四个表格组合在一起,整个系统的运行状态一目了然。所有模块准备就绪,我们来做一次完整测试。 ai 自动采集数据,生成一条交易信号,接收里包含币种、时间戳、价格、交易量、新闻汇总、 情绪判断、交易决策和决策原因。信号通过 http 请求发送成功。发明者平台这边立刻收到了解析出交易对检查资金充足执行交易操作。仪表板同步更新权益表格里的数据,变化了止损监控表格显示当前状态、交易记录,表格里多了一条新记录, 整个链路跑通了,从 ai 决策到实盘成交,全程自动化,没有任何人工干预。接下来只需要在 cloud bot 后台设置定时任务,系统就会按照设定的时间间隔自动执行,真正实现无人止守的 ai 交易。 这里要特别提醒大家, i 的 决策只是参考,不能完全依赖它来投资。虽然我们加了止损机制,但市场瞬息万变,任何策略都有失效的时候,建议大家注意风险,先用模拟盘或者小资金测试。 回顾一下今天的成果,我们成功搭建了一套 ai 自动交易系统, cloud bot 作为大脑,负责采集数据和分析决策 发明者平台作为双手,负责执行交易和风控管理,两边通过 http 接口打通,完全不需要人工钉盘。更重要的是,交易日制可以反馈给 ai, 让它不断优化决策逻辑, skill 本身也可以持续迭代,添加更多数据源。 当然,目前的模型还比较粗糙,只是提供一种思路和玩法。如果你有好的想法,欢迎在评论区提出,下期我们继续探索更多玩法,记得点赞关注我们,下期再见!