如果你这两天在看奥蒙克洛,我觉得三月二十二号这次更新最值得看,不是又多了几个功能,而是他把很多底层的能力开始统一重构了。 这次更新我看下来有四个点最重要。第一,插件生态开始收口了。以前装插件这件事路径比较散,但这次更新以后,奥蒙克洛开始优先走自己的插件分发体系,找不到再走原来的外部分发渠道了。 这次变化看起来不大,但本质上很重要,因为这代表澳门科罗开始把插件生态往自己的官方体系里收了,以后,插件安装、版本管理、生态控制都更像一个正式的平台。第二,浏览器这个链路变动很大,这次不是小学小普,而是直接把旧的那套浏览器接法往下拆了。 原来一些旧配置旧路径,这次不建议使用了。官方给的方向也很明确,往新的绘画方式上迁移,该修的是用官方工具修, 这说明什么?说明澳门克洛不是在打补丁了,而是在把浏览器自动化这块往新的运行方式上切。 第三,图片生成能力开始统一了。以前这块的接法有点散,也有旧的写法,也有历史包袱。这次更新以后,图片生成开始统一收成核心能力里配置方式也开始变得更加集中,这个变化的价值很直接,以后做图片生成 不会像以前那样好几个入口,好几套写法,而是开始往统一的能力上走。第四,开发者接口也在换代。这次对插件做拓展、做工具接入的人来说,变化会更加明显, 因为旧的一套开发接口开始被清理了,新的接口接上来了,这意味着你以后按老的方式再接,这次不是简单的升级,而是跟着他的新体系走 哦。所以我对三月二十二号的更新判断很简单,他不是一次单纯的加功能,而是一次插件、生态、浏览器链路、图片能力、开发接口一一启动的底层重构。再往下看,还有两个小动作也很说明问题, 一个是他又补了新的链接能力,另外一个是他把过去的一些历史命名、旧兼容写法开始清理掉,统一到现在的这套命名体系里。这些动作一起看,他的方向很明确,收口统一重构。 所以你问我三月二十号这更新该怎么理解?我会说,不是奥本克勒又多了一点新花样,而是开始他把很多底层的能力往更统一、更平台化的方向做了。三月二十二,这次奥本克勒真正大的不是新功能,而是底层能力开始统一重构了。
粉丝3784获赞5260

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

一说到最强核显, amd 粉丝, yes 七八零 m 八九零 m 八零六零 s 都是真能打级别的核显,但是在非牛的玩家里, amd 的 核显硬解一直没有适配。作为非官方非牛代言人提前透露,非牛马上发布 amd gpu 加速的适配,并且会一锅端的推出一键部署。非牛 open club, 咱们今天先来尝尝馅儿,为什么总是你仰仗各位,那不得开香槟庆祝一下吗?然后去薅了一台三九五的机器, 飞牛官方合作伙伴,林克 gtr 九 pro、 amd amx 加三九五插电开机。 咱们先来看一下林克这台 aimax 加三九五的系统信息。 amd ryzen ai max 加三九五内建八零六零 s 的 核显十六核三十二现成。我这台是一百二十八 g 的 统一内存,八千兆赫的频率, gpu 识别正常,双万兆的网卡啊,这都是免驱的啊,直接识别,我现在给它装了一块四 t 的 硬盘。 ok, 咱们先来看一下这个包升级的地方。第一,支持了 amd gpu 的 硬件转码播放视频, 支持了 amd gpu 的 相册人脸识别和智能识别,也就是 ai 相册的全支持,全硬件加速需要安装 amd 的 rocm 七点二驱动和非牛自研的 ai 引擎。安装飞牛 ai 引擎和 amd rocm 七点二驱动, 飞牛影视的设置已经自动打开了 gpu 加速。咱们来播放个视频给大家看,四 k 蓝光史比特 hdr 杜比全景声走起,我们让纳斯端应解启动, gpu 应解成功,咱这三九五你就说是啥解不了吧,随便拖。 接下来咱们来提升一下难度啊,这是杜比世界版本的 hdr 视频,颜色对应,牛,注意看啊,也是服务器端硬解杜比世界四 k 杜比全景声,这就是典型的全杜比,所以即便你的电视或者你的设备不支持杜比世界,他也不会出现色彩映射错误, 惨绿惨绿的。在 ai 相册里面也可以识别出这块和弦, ai 设置里面下面就多出了启动 gpu 计算的按钮,咱们启动 gpu 设置成功,咱们先看机操啊!人脸识别情况走起!一共是五百四十五张,计点计用,然后我们来看资源管理器,但愿让大家还能够看到 gpu 占有率只有轻轻松松的百分之十四, cpu 根本就不带动的啊,所以 gpu 人脸识别, ok, 这负荷有点太轻了是吧?哼,分分钟你看就识别完了,接下来上强度智能识别走起,你看直接就几十几十张的跑, 用 cpu 的 时候大家懂了吧,都是一张好几分钟 gpu 硬解,直接拉满 c p u, 非常轻松。五百张哇,智能识别秒没 amd 玩家,你就说狂喜不狂喜,但这只是基础操作。 amd 粉丝飞牛玩家第二部,欧拉玛 本地大模型,在飞牛 amd 的 平台上部署欧拉玛,我给大家看有多简单,直接输欧拉玛。 最新版本的欧拉玛已经升级为一点一的版本,已经可以直接对接 lcm 的 硬件加速,你只需要安装然后就可以了,一键打开欧拉玛,牛皮,我已经给大家下好了,千问三点五,一百二十二 b q 四量化的模型 gptos 一 百二十 b q 四量化的模型,塞进显存的容量分别是七十六 g 和六十一 g, 哎,正好适合咱 aimex 加三九五,咱们来调戏调戏 ai, ok, 这生成速度还可以哦,大约二十点五六, tokens 每秒 amx 加用户进阶玩法。第三步,一键部署 openclaw, 直接调用欧拉玛的本地 ai 模型。所以你看你家什么机器,二十四小时开机啊, 你的纳斯,你家什么机器算力过剩啊,你的纳斯,我说你要累死纳斯。所以你看你在纳斯上部署 本地大模型,部署 openclaw, 资源的利用最大化。所以之前好多次老张直播的时候都告诉大家,我一直认为 nas 才是 ai 的 最好平台。好,接下来咱们一键部署 openclaw, 这个很快会给大家推送啊,推送之后,你直接在应用中心就可以找到一个叫做非牛 openclaw 的 应用,然后它依赖的应用都会直接部署,所以真的就是一键部署。 yes, 一键启动,我们是本地模型,所以直接选择欧拉玛自动识别本地模型,包括 ip 端口号,一概不需要懂,自动读取出现有的 本地大模型,然后啥也不用管,保存, ok, 恭喜你, openclaw 配置完毕,然后这大家说这怎么用啊?非常简单,你看这打开 openclaw 图形化界面了啊,远程访问网页版就可以和你的 openclaw 互动了,咱们问他,你是什么东西? 恭喜你打开新世界的大门,再也没有 token 焦虑了。 在小龙虾给大家生成的第一个文件屋缝对接飞牛啊,来大家看吧, 很多小伙伴玩小龙虾是希望在即时通讯工具中能够直接对接的飞牛的,这个 open claw 直接内置了飞书的对接, 企业微信和钉钉的对接一键安装。一个意外发现啊,因为是在非牛的应用中心中直接安装了一个非牛的官方应用,所以你根本不需要管什么端口映射、外网穿透这些技术的问题。因为非牛纳斯自带 f n connect, 你 可以随时随地在你的手机 外网访问你布置的 open club, 一 键打开移动端,直接无缝连接之前的对话。所以在飞牛上玩龙虾,事实上,你根本不需要去对接 实时通讯工具,这事变得更简单哦。依然是老规矩,明天中午老张直播间大家准备了很多好东西, ro 明天中午不见不散!

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

openclaw 系统构架底层原理好?大家好啊,这节课是咱们这个 openclaw 的 这个公开课,之前听过我课的同学在这个 vvip 课上听过我课的同学啊,知道我是主要做科研的啊,简单自我介绍一下吧,我是硕博毕业于海外某高校的人工智能专业,师从海外工程院硕士。 呃,国内的大长江团队啊,现在是博士两年毕业,现在是该领域上最年轻的全职助理教授啊。据我了解,反正是这样的啊,大概就是些这样的发文情况, 现在呢,也是主要做大模型 opencloud 它现在特别火嘛,那咱们也是趁着这股东风,那我们一起来看一下这个 opencloud 到底是个什么玩意儿? 好,咱们这堂课呢,主要会分三节来讲。第一个,我们会详细的去讲一下这个 ai agent 是 什么啊?我们都知道 openclaw 它很火, 但是 openclaw 它其实也只是 ai agent 的 一种而已啊,那它在这个普通的 agent agent 上,它有什么样的改进啊?或者说它到底是做了什么样的操作, 可以让他这么出圈,可以让他摆脱大大众对这个 ai agent 的 这个认知啊,可以进入到我们普通人的视野里面啊。第二部分呢,我们会讲一下这个 open code 的 底层架构啊,咱们既然来了这个课嘛,那就是知其然,我们更希望知其所以然啊, 现在网上有很多的教程啊,路客啊,大家应该都刷到过啊,大概就只会讲一下这个 openclaw 怎么用啊,大概是个什么玩意儿啊,但是它底层工作是怎么进行的,它怎么运行的?它用了哪些框架,用了什么样的技术 啊?这个可能一般涉猎的会比较少一点啊,这样,了解了底层之后,对咱们这种不管是做开发的同学,或者说做科研想用到这个 open code 的 同学,我相信都是会有点帮助的。最后呢,可能也是大家比较关心一点,我们做一下本地部署啊,链接一下推书。 好,因为咱们这个是个直播课啊,大家如果有问题可以发在这个弹幕上,我这边看到的话,会跟大家解答的。好,话不多说,咱们发车吧。好,我们先讲一下什么叫 a i a 阵的啊, 大家也知道,大概呢,在年前开始啊,就选选起了一个全民养虾热潮啊,左边是腾讯大楼, 腾讯大楼下面免费装虾啊,大家都看过新闻哈,说一代人有一代人的鸡蛋要领啊,那我们这一代人的鸡蛋是什么?去领一个小龙虾过来啊。那右边呢,是抛开我们这个现象不谈啊, openclaw 在 这个 github 上,它的新数啊,从二月一月底二月初开始就一路飙升啊,可能大多数原因呢,是得益于咱们国内的宣发能力啊,还有一些比较出圈的操作啊。那在这个这么火的一个现象后面, 我们不禁要思考一个问题啊,大家为什么非要来养虾啊?你拿到这个虾的时候,你知道他是干嘛的吗?或者说你能知道他能对你创造一个什么样的价值吗?你就去领啊,你鸡蛋囤多了还会放坏呢, 对不对啊,我,我个人觉得呢,现在大多数人啊,养龙虾主要还是以猎奇心为主啊,更多的呢,我觉得可能是我们家的哎, f o m o 在 作祟啊,就是 fear of missing out, 你 是怕错过这个技术啊,可能觉得哎呀,这是是不是一个像 g p t 一 样出来的技术,我如果不提早入局的话,我就要被淘汰啊,大多数人可能都是情心理对不对啊, 那也因为这个给他蒙上了一个非常神秘的一个面纱,那他到底是不是这么厉害,是不是这么神秘啊?我们其实只要理清这里面的结构原理就会发现啊,他其实还是一个很好懂的一个东西啊,对于我们个人来说, 要不要去部署这个 open klo, 或者说我们学这个 open klo, 我 们需要学到一个什么地步啊?我觉得要从它部署难度还有成本啊,还有一个呢,就是它安全性这三个方向来考虑一下啊。好,这个是前话。 好,那我们正式进入今天的课啊,讲一下这个 ai a n 的 以及到这个 open klo 的 这个发展历程啊,实际上已经落地的阴影,感觉没有那么强大,哈哈,这个我们到后面说啊,好, 我们说这个 agent 啊,其实在 agent 之前啊,它的前身其实还是大模型,就是我们最早熟知的这个 gpt 啊,以切的 gpt 为首的是一个传统的大语言模型啊, 说早不早啊,那个时候呢,大家其实对这个大模型最主要的概念呢,就还停留在问答上,就跟大家现在用用豆包一样啊,打开一个手机问个问题,他告诉你一个答案啊,那个时候还是以这个叫什么,以问答为主的大大语言模型时代啊, 但是呢,发展到 g p d 四的时候啊,三到四它其实是一个很大的跨越啊,那个时候呢,就已经出现了早期的这个大模型 agent 的 框架雏形了啊,大家那个时候可以发现,这个大模型好像不光只是简单的问答那么简单了 啊,他会用上一些。我们听过我之前的课的同学都知道,有个叫 react 的 框架啊,他会推理了啊,并且会做一些相应的操作啊,这个是早期的大模型 agent 的 啊,但是呢,那个时候他叫什么?他还是主要停留在类似于在大模型上做一个拓展能 力部部署的地方呢?还是服务器?还是云端?还是大模型厂商,我们的可操控性还是非常低的啊。后来呢, 再往后发展,大概有个半年到一年左右啊,这个时候呢,就有类似的推理模型框架出现了,我们在之前的 vip 课上也讲过啊,这个 v i m 啊,它的作用是什么呢?简单一句话就是可以搞了个框架出来呢, 帮你非常简单的可以把这个大模型给部署到本地啊,并且呢,他不光是一个问答,他还有操作的属性在里面啊。 那当然呢,你既然部署到本地了,那你就只能用一些开源的模型了,比如我们的拉玛,还有谦问以这个为首的代表模型啊,这个是本地大模型 agent 的 时代啊。那从这个之后呢,其实也没有过多久,大家就看到了现在的突然有一夜爆火的这个要 opencloud 的 东西啊, 这个东西他到底是个啥啊?大家可能了解的知道啊,他是一个欧美一个退休的程序员啊,他闲着没事一个小时搓出来的一个东西,目的就是为了让他在外面的时候也可以用手机操控他的电脑,电脑黑奴来帮他干活 啊,就是一个这么简单的东西啊,但是他突然就火起来了啊,他为什么火起来啊?他相比于之前的本地大模型啊,他做的无非第一就增强了这个 g u i 的 控制能力啊。之前这个本地的大模型,大家可能需要用到一下命令行或什么样的东西,会需要稍微有一点点的基础 才可以去完成这个东西啊。那个时候大家觉得搞大模型,用大模型这些可能还是稍微专业一点的基础才可以去完成这个东西啊。那个时候大家觉得搞大模型用大模型这些可能还是稍微专业一点的就可以了啊。 open cologne 呢,在我看来它是走了最后一公里的路的啊,就把它给带到了大众的视野里面,用一个相对于比较傻瓜式的操作就可以去干到某些之前我们想不到的事情啊。再来一点呢,它有一个非常关键的改进呢,就是它 大胆的开放了权限啊。刚刚有个弹幕同学问这个 open klo 为什么没有被认定为病毒啊,很简单啊,还没到时候啊,哈哈,他如果一直这样发展下去的话,肯定是会有相应的限制措施出来的 啊。现在大家从新闻上已已已经能看到啊,可以有很多的学校已经开始明令禁止在这个学校的电脑里面按 open klo 了, 并且呢,有些国家啊,比如说我现在在日本,他们对这种对这种数据安全是非常的在在乎的啊,所以在这个实验室的电脑上去部署这种 opencloud 也是不太现实的啊。 好啊,我这里放了两两张图啊,大家一看这个画风就知道 ai 生成的啊,但是我发现啊,它生成的非常好啊, 这个我们先看看一下左边那个图,从左边那个图我们可以看成三部分,第一部分就是 ai 是 怎么工作的,这里我们啊先不细讲, 左下角呢,是这个 ai agent 的 现在有哪些类型啊?这个我们也先放在这不讲啊,右下角这个 ai 系统在部署的时候啊, 我们知道大家可能看新闻也看到了有人说什么一人团队一个人养了一群龙虾啊,养了一个池塘的龙虾,什么意思呢?就是一个 multi agent, 就是 一个做代理的一个过程而已啊,它其实就是一个二个这种 ai agent 的 实力 啊,这就是所谓的多个 agent。 好, 那我们再回到上面再看啊,上面这个 ai 是 怎么 walk 的? 我们现在先不讲它的流程是什么样的啊,我们先主要理解一下这个 ai agent 它有哪些东西啊? 首先右边啊,它啊有一个工具,比如说什么我如何去访问互联网,对不对?我怎么样可以写代码呀?我怎么样去调用这个 api 的 接口啊,对不对啊? 还有一个很关键的 memory, 这个是大模型就有的啊,那 agent 里面的 memory 跟大语言模型里面的 memory 有 什么不一样? a i agent memory 跟我们 openclaw 的 memory 又有什么不一样?大家先留一个小小的疑问啊,它其实是这个是 openclaw 比较创新的一点改进啊,在它的 memory 上面。好,这里我们先不讲,我们下一页会讲到,我们先再看一下右边这个,右边这个 中间这些组件啊,大家可以先不管啊,可以先看这两个标识啊,第一个我们一个 wifi 画了一个叉,还有一个就是锁了啊,什么意思呢? 没有 skills 吗?有 skills, 这里 ai 没画出来。我们后面会讲啊,这里意思呢,第一就是在本地,你可以部署到本地啊, 部署到本地之后呢,你的数据就非常安全了啊,那这两个属性叠加在一起会产生一个什么效应呢?首先在本地之后啊,你就可以自我玩的很花嘛,我们常说的 可以随心所欲的去改它呀,去操控它呀,你的数据全部都在你的本地。我们之前讲那个 v l l m 框架的时候,我们就提到了,这个框架对于公司或者企业来说 是非常友好的啊,因为很多公司和企业,它的数据不可能说我放到我调用的这个 api 的 云端上,不可能放到 openai 那 里,我不可能放到 google 那 里啊,这是我公司的私有数据,所以在很多业务场景下呢, opencloud 它是 叫什么?是一个非常好的选择的啊。好,那我们具体来看一下这个 ai agent 是 个啥玩意儿?我们说到 ai agent 啊, 其实可以拆成两块来看,第一叫 agent, 第二才是 ai。 有 同学如果了解过,强化学习啊, 应该知道啊,这个 agent 呢,是里面的一个概念,一个最基最基础的概念。它的定义呢,就是说一个实力啊,可以通过观察环境啊,做出行动 啊,为什么做出行动呢?为了达到某一个目的啊,这样的一个实力呢,就把它定义为 agent, 在 强化学习里面,那 ai agent 无非就是说可以用 ai 来提升自己的性能,这就是 ai agent 啊, 这就是它最基础的定义,没有什么太难的地方啊,我们看框框架这里啊,先看左左边,我这里写了三个模块啊,第一个是输入模块啊,输入模块的作用呢,就是从外部环境中来获取信息啊,它可以是多模态的, 在传输系统当中呢,这个输入的可能只是文本数据而已啊,但是呢,在我们今天这个 ai agent 呢,包括 open code 现在用的这个环境里啊,它其实已经是多模态的啊, 也就是说不光包括文本,还可能包括图片啊,语音啊,还有视频啊,或者说是来自于各种 api 的 结构化的数据,都是有可能的啊。 那我们如果想把它应用到科研领域,或者说应用到一些比较专业化的垂直领域的时候,可能就会需要这种 api 的 结构化数据了 啊。我讲的尽量稍微概念浅一点啊,因为咱们直播间里会有很多对这个 ai 基础会稍微薄弱一点的同学啊,希望大家都是可以听懂的。 蛋白质结构能不能详细介绍一下?那行,我们最后会有十分钟的答疑,如果你感兴趣的话,我跟你讲一下。好啊,我们继续回到这里啊,我们说第二个模块呢,叫思维模块啊,这也是 ag 的 系统中最核心的部分 啊,也就是这个大模型发挥作用的地方啊,这个模块呢,通常是由这个大模型来驱动的啊,他负责对我们前面说的这个输入模块获取到的多模态的输入进行理解推理啊,以及决策 啊。具体来说呢,大模型可以根据当前任务啊,先对问题做一下分析啊,对任务做一下分解,去规划一个策略来解决这个问题啊。 所以我们说这个大模型在 agent 系统中呢,其实就扮演的是一个大脑的一个角色啊,用来负责思考和决策啊。那我们现在获取了输入,有了小龙虾的钳子了 啊,有了思维模块,小龙虾有了大脑之后啊,我们需要进行交互啊,这就是我们的交互模块,当 agent 完成思考之后呢,我们就需要采取行动。 什么东西?左下角有个小窗口遮挡,是否关掉?我这里看不到哎,这个很影响吗?同学们,我这里啥也没有啊,哈哈,问问题不大啊,那我先讲了,因为咱们咱们时间比较紧啊,我准备的内容可能一个半小时讲不完啊,有个思维导图啊, 好, ok, 这个让我们助教老师去解决一下吧,我这里控制不了。好,我们接着讲。刚刚这个思维模块讲哪来着啊?对,我们这个小龙虾就需要采取行动了 啊,这些行动呢,其实没什么高大上的,他就是通过一些现有的工具啊,你看我们这里画的图里面啊,工具啊,其实你比如说 我们这个小龙虾遇到一个需要计算的任务了,他干嘛呢?他又去调用一个 calculator 啊,他可以根据他的角色,他自己去写一个小小的这样的方法去计算一下。可以啊,他如果觉得累的话,他也可以去调用一下。你这个计算机里面自带计算机的程序啊,小程序他来去计算一下都可以 啊,具体怎么做就看它自己来判断了啊。再有像 search 啊,其实呢,我们一般把它叫 websearch 啊,但是呢,因为 search 比较高大上嘛,所以现在都是把它叫 search 的。 大家看到这个其实就是一个搜索网页的过程,但是相比于搜索网页来说的话,它还有一个 就是综合和整理的过程啊,如果单纯只是搜索网页的话,他其实就像爬虫嘛,你爬虫下来的数据啊,那全部喂给这个小小的龙虾里面,当然也不合适,所以呢,需要有一个稍微一个整理的一个工作在里面的, 用什么代码写的可以有这么高的权限?是这样的,他有这么高的权限不是因为什么什么代码,而是因为他的端口啊,他在端口开放的这个过程当中啊,是给予了他一个非常高的权限的,再来就是很多端口他本身就是具有很高的权限啊, 超级用户对当前里面讲的 agent 的 比较像,对,当前这个其实叫什么,也是大模型的一个框架嘛,其实 agent 所有的东西,不管是什么,最终就是一个 基于大模型作出的拓展而已。大家记住这一点啊,现在你们看到的所有东西啊,它的底子啊,都是切了 gpt 一 手的这种大模型,只不过呢,我们因为受到这个 scanning log 啊,尺度规模 法则的这个限制,大家在堆叠基础能力上,大模型本身的基础能力上,目前是现金陷入了一定的瓶颈啊,所以呢,之后从 g b t 四开始,现在所有的大模型厂商开始把这个大模型从这种堆参数砸钱,把它往大了去搞, 从这个思路慢慢去转向了一些工程化的一些改进和落地,就比如 ag 的 就是其中的产物之一啊。 好啊,我们再看一下右边这个模块图啊,我们刚刚讲了有输入模块、思维模块和交互模块分别对应的。哪输入模块没有啊?我们这里 工具 pos 刚刚讲的有这么多我们这个智能题啊,他可以直接去执行操作,也可以调用这个工具来执行操作,这个取决于你给他的任务难不难啊,如果你只是简单的问答,他本身的大脑就可以告诉你了啊,他就不用去拿计算器了 啊。右边是他一个决策的过程啊,如果你的给他的任务非常难啊,他首先会触发他的这个决策过程,去判断一下他需要通过什么样的操作才可以去完成你指定给他的任务啊。这里面会有一个思维链, 这个也是一个说老不老,说新不新的概念啊,在大模型里当然老,但是按年份来算的话,还是一个比较新的概念啊。我们这个 vip 课里面也是之前详详细的讲过两节关于这个 c o t 的 内容啊,它也是当前这个 a j 的 能出现的最主要原因之一 啊,让那个大模型可以像人类一样进行思考啊。当然呢,它现在变成小,变成小龙虾了。好,那我们看完这三个模块会发现我们还有一个什么模块没有讲呢? 这个 memory 啊,刚刚我也说了,这个 agent 里面的 memory 跟这个大模型里面的 memory 有 什么不一样的啊?我们知道大模型里的这个 memory, 我 们通常指这个上下文窗口,对不对啊?上下文窗口? 那在 agent 里,它分成一个 short term and long term 的 memory, 有 有一个长期和一个短期的 memory 的 区别啊,那它到底是个什么东西?好,我们仔细看一下这个记忆模块儿啊,前面可能稍微会枯燥一点,因为给大家讲的是从发展历史开始啊,去讲这个 open code 出现的这个原理 啊。但是希望大家还是可以好好理解一下这一块的内容啊,因为现在网上 openclaw 的 视频这么多,你看了他们也会看,大家都会看,你的同事也会看,那你跟他们相比,你的特性在哪里啊?对吧?你的特性就在于你可以跟他讲出这些底层的架构上的不同啊,对不对? 他的决策和能力是通过调用的大模型能力决定的吗?对,根本来讲就是大模型进行思考的啊,包括你要不要用工具,怎么用工具这个东西也是大模型里面的思维链来进行决定的,是不是和 lstm 相似啊?不是,完全不是一个东西啊,我们仔细看一下。 好,我们说一下这个最关键的记忆模块啊,我们在理解这个 agent 的 时候,很多人会觉得你的大模型怎么这么厉害,好像那啥都记得啊,我昨天跟你说的话,你怎么今天还记得呀?我明明都关机了,对不对啊?但实际上呢,并不是这样的, 大模型本身呢,他并不具备真正意义上的持续记忆的能力啊,大模型是没这个玩意的,他的本质还是代码啊,那他如何去获得这种能力的呢啊?他的工作主要是依赖于这个, 大家都知道叫这个上下文窗口啊,因此呢,我们可以把这个大模型的上下文窗口理解为一块儿面积有限的一块儿黑板理论啊。所谓的黑板理论, 他的核心思想就是大模型,在每一次推理的时候,你只能看到当前上下文理的内容,也就是说,推理的时候,这个模型会把所有输入的信息全部写在这块黑板上, 基于他黑板上写的这些版书啊,去进行思考啊,进行推理来产生结果啊。但是有个问题,什么这块黑板它的面积大小是有限的啊,比如几千 tok, 几万 tok 啊,甚至在一些大的模型里面会有几十万的 tok 啊, 无,不管多大,他始终都是一个有限的资源啊。一旦信息容量版书的内容超过了个黑板的大小, 那新的内容就必须要覆盖旧的内容啊。我板书写不下了,大家上学的时候都看过,老老师一开始从左边写板书写到右边写满之后啊,再跑到左边,问大家这边抄完没抄完,我擦了啊,大模型也是一样的,如果内容太多的话,就会导致信息丢失啊。 因此呢,在这个 ai 智能的系统中,就需要专门设计这个叫什么一个记忆管理机制来解决这个问题啊,弹幕啊,主持人的屏幕,哈哈哈,这个我没有办法,看看那个助教老师他们那边有,有没有办法解决啊? 没事,人类是一个适应性的动物啊,你多看一会就适应了。好,我们刚刚说这个大模型需要专门设计一个记忆管理机制来解解决我们刚刚说的黑板理论的问题啊,我们没有办法把所有的历史信息都无限制的堆在这个上下文窗口里, 而是呢,要有策略地去管理哪些信息应该保留,哪些信息呢?应该压缩或者删除啊。这里就涉及到两个非常重要的机制了。第一个机制叫这个 system prompt 啊,叫系统提示词, 它是什么呢?我们可以把它理解为啊,就固定在黑板顶部的一段指令啊,这段指令呢,通常用来定义我们这个 ai agent 的 它的人设, 给他一个身份啊,给他一个角色以及一个行为轨,一个行为规则啊,比如我们可以规定在 a 证呢,它是一个金融分析助手 啊,或者说你是一个科研助理啊,甚至呢,你是一个超级牛的一个 p 十级别的这个代码生成专家啊。由于这个 system prompt 它的是位于这个整个上下文的最前面啊,所以,并且它在整个对话过程当中,它通常是保持不变的, 因此呢,它可以持续地影响这个模型的行为啊,不会发生改变啊,相当于给我们这个 ai agent 锁定了一个叫什么稳定的人设和任务目标啊,这个是 system prompt 啊。第二个呢, 叫 contact 呃, contact management 啊,一个上下文管理在真实的这个 ai agent 的 系统中啊, 这个对话往往会持续很长时间啊,如果你把所有的历史对话都保留在这个上下文当中,那很快就会超出这个上下文窗口的限制了。但因此呢,系统常常会针对这种大量的历史信息进行压缩摘要或者筛选啊, 什么意思啊?就比如说我们可以定期的对我们之前聊过的内容历历史对话进行一个总结 啊,因为大家很多时候用大模型上来来来一句你好对不对?像这种就属于废话,在大模型看来,而且也额外消耗你的 talk 啊,也占用你这个上下文窗口的这个限制大家以后用的时候可以不写了啊, 没有必要跟 ai 那 么礼貌啊,谢谢也不用说你好跟谢谢都是废话啊,那我们说了,把历史对话压缩成一短一段简短的这这种摘药,或者说只保留与当前这个任务相关的重要信息啊,把不重要的内容删除啊,这样就 能够在有限的上下文空间中来保留最关键的信息啊,从而保证模型在推理的时候既可以看到前面的知识啊,也有空间来理解当前的这个任务啊。 这个是他的一个记忆模块,主要有两个关键的机制啊,第一个我们回回顾一下,就是固定在那整个黑板的最顶端啊,就比如说这这堂课的内容, 他通常会定义了你一个大模型的一个角色行为和准则啊。第二个我们会对历史的大量的这种记忆进行一个记录、优化、结论总结,把那些废话全部什么 ok 剔除掉,我会感觉到正在进行社交互动,哈哈。啊,这倒是啊,这是一个叫什么?这个是一个情绪价,情绪价值的体现啊。我那小侄女啊,天天我, 我问她你懂不懂 ai 啊,她说我懂,我说你懂 ai 什么?她说我每天都会跟豆包讲话。哈哈,谢谢可以作为奖励算法的关键词啊。 那不一定啊,比如说你没有得到答案,你也有可能会跟他说谢谢嘛,对不对?那只是出于你礼貌的一种表现。你在淘宝问这个商家的时候,他没有货了,你不会跟他说一句谢谢吗? memory 点 md 啊,这个同学了解的比较多啊,这个我们在这个 opencloud 里面会讲。好, 那我们刚刚了解的这个记忆模块,基本的 agent 的 记忆模块是什么东西啊?我,我们看一下它具体实现方式是怎么样的啊?我们上页说到大模型本身的上下文窗口,它是有限的啊,因此这个系统必须通过一些机制来拓展这个记忆能力。 那么在实际的 ai agent 的 系统当中呢?最常见的一种实现方式呢?就是这个东西,我们说叫 rap 啊,外部记忆系统,或者说知识库或向量向量数据库啊,是 rap 的 一部分啊, 大家如果之前上过这个大模型的课啊,应该会了解这个 r a g 啊, rap 解锁增强生成记忆机制啊,它其实分为两块啊,它既有解锁和增强生成记忆机制啊,它同时它也是一个记忆模块 啊,整个流程就可以拆分为这几步。首先用户提问,用户向这个 a g 呢输入一个问题,那这个时候大模型就会把你输入的问问题 embedding 之后进行解锁啊, 跟什么东西解锁呢?你给他的一个知识库啊,这个知识库是什么?你自己来定义啊,他会把你给他输入的问题啊,和这个知识库里,他觉得在向量空间中最相似的那个东西做一个 match 啊,把知识库里给的答案 做一个增强跟这个大模型它本身的能力生成的这个回答,去做一个 enhance 的 一个操作啊,这个就是你最终的答案啊,简单来说就是让你在考试的时候让你啊带一本参考书, 你做一道题,你可以翻一下那本书,你看跟哪道题比较相似的,你就去抄吧啊,当然也不能全抄对不对?因为他毕竟只是例题,跟你这个题跟你考试的题可能不太一样啊,所以就要把这个参考书里的内容和你自己本身的 题目的内容去做一个修改也好,改进也好,拼接也好,反正就是一种以 hands 的 操作,这个才是你的最终答案啊, 这个就是我们常说的这个 reag, 它现在是一个主流的 agent 的 记忆,一个记忆模块 啊,这种机制机制的核心优势在哪呢?就是它可以突破大模型参数知识的限制啊,能够有效的解决这种上下文窗口有限的问题啊,为什么?因为知识库在外部的。

如果你当下对 open call 的 部署和卸载你还不太明白的,那你先不要碰。第一,咱们普通人有没有必要去安装 open call? 第二,本地部署和语音平台需要什么配置?第三,哪些人又不适合用。 那简单的理解了, open call 跟别的 ai 的 区别就是别的 ai 像豆包,他可能是你问,他答给你建议和方法,但是 open call 是 直接帮你完成指定和任务。如果你是想 长线官方给你的最低要求是你的 cpu 只要是一个两核加上四 gb 内存啊。显卡就不说了嘛,因为大部分人现在显卡肯定都是 ok 的, 这个要求大部分也能达到。那第二点,做一些终端的事情。这边的要求我建议是六核 核心 cpu 加八 gb, 然后搭配一张类似于三零六零这样的显卡,你就可以用它去尝试。哎,跑一下代码, 做一下脚本,做一下脚的编程。那第三点,高端一点的这边竟然是八核的 cpu, 三十二 gb 内存显存的容量八 g 到十二 g 是 起步嘛? 当然,如果你这里实在差一点,你单根十六 g 或者是双根十六 g 也能去跑一跑。哎, open call 或者是哎呀,对我的硬件要求没有那么高,为什么呢?因为我们这里会涉及到一个东西叫云平台,我们向云平台租借算力来完成你的事情,所以本身对你的电脑配置要求没有那么高。 所以现在为什么有很多公司,他们自己搭建了很多服务器,向网络上出借它的算力给大部分的消费者来使用。就你的电脑配置,哪怕没有那么好,但是你租用它的算力,你也可以完成你想要的事情。 本地不熟的人,你是要对 open call 或者是一些 ai 软件是当下比较依赖的,你是确实可以通过它来完成你的工作需求,并且呢变现的。 那这样的人你肯定是要自己有一个非常好的设备,不需要再去租借算力了,因为他会涉及了一个概念叫 holcon, 你 每用 ai 软件完成一个指令,包括你每租借一个算力会产生一个费用。那我既然自己都需要长期干这个事了,我肯定就不用再租了,不划算,我自己买。 那既然是本地部署 cpu 这都这个东西,你是能多核就多核,多现成就多现成了。那多核的 cpu 很多啊,你比如像什么十二核心,包括像什么二八五 k, 很多这样高端的,包括 m p 九九五零叉,对吧?这个咱就不多说了,看你预算来行事。内存个人建议是六十四 g 是 个标配, 那网上还有很多一百二十八,对吧?甚至还有两百多 g 的 呢。显卡,显卡这个地方一定要是大显存的,那当下大显存的显卡首选一定是五 零九零,因为他给到了三十二 g 的 显存,那当然四零九零也行嘛,四零九零也是个高端显卡嘛,他的显存也够多嘛,对吧?那你相对于五零八零的十六 g 显存来说少了一点,你去完成一些你的顶级算力大了,模型就不太够。 那么还有一些专业的工作在显卡就是预算更高的人了,你比如像 r t 叉两千,或者是 r t 叉四千,当然 cpu 也是嘛。 cpu, 我 们刚刚说到多核心多现成,还有哪个 cpu 很 屌啊?现成撕裂者吧,对吧?撕裂者, 当然这是看你预算的,但是总体的预算我们给大家初步估计下来啊,你得达到这个数起步吧,五万块才能达到一个 比较高端的电脑配置的运行一个基础。那么还有以下的这一部分人,我觉得你不太适合用,包括第一点,你没有备用机, 因为国家也发不过风险提示,他有可能会越狱,删掉你这些重要文件和重要邮件。如果你只有一台电脑,而且又很重要,你部署了,把你的文件删掉了,你去找谁说理去, 对吧?还有第二个就是现在它的部署有一定的难度,大部分人是不会的,所以会请人上门安装,安装需要花钱,卸载也需要花钱,那当然最后使不使用看你自己,就算你不需要它也可以去了解一下,因为我觉得未来这个 ai 的 世界,它真的在生活中无形的帮助我们太多了。

先说结论,我选择的是千万三点五三十五 b a 三 b 四位量化模型。大家好,今天这期视频我们来解决一个非常关键的问题,当你买了一台 max studio 后,到底应该怎么选择模型?怎么选择推理框架? 下面介绍三种最主流的模型格式。官方模型格式通常是官方发布在哈根 space 上的模型,采用 pad 加 gpu 训练完成, 这个是最原始的模型格式,特点是精度最高、最完整,适合训练,但不适合推理,并且非常吃显存, 不适合直接在本地使用。一句话,这个是用来训练的,不是用来直接跑的。第二种是 g g u f 格式,这是目前最流行的本地推理格式,它的特点是模型经过量化,兼容性很强,可以在 n 卡 a 卡 mac 电脑上都能运行。 第三种是 m l x 格式,这是 mac 电脑的专属格式,它的特点是专门为 mac 电脑设计, 利用 mate gpu 内存统一调度,在 mac 电脑上性能比其他两个格式更快。再来介绍一下模型的分类, dos 模型和 mo 一 模型。 dos 模型就是稠密模型,意思是每一次推理所有的参数都会参与计算,因此速度会相对比较慢一些,大约三十五 to 每秒。 m o e 模型全称是混合专家模型,特点是每次激活一小部分参数,因此它在本地设备运行时速度会非常快,大约可以达到七十多个每秒。 mac 电脑上常用的大约模型推理框架软件有三个, 分别是 o m l m studio、 o m l x。 这里推理性能最好的就是 m o m l x, 专门用来推理 mx 格式的模型,比另外两个推理软件要快很多,所以在 mac 环境下可以无脑选用。我在哈根菲斯上下载了下面这几个模型,官方版本的千万三点五二十七 b 四比特, 千万三点五三十五 b a 三 b 四比特。千万三点五三十五 b a 三 b 八比特 还有第三方的蒸馏模型。利用 cloud 四点六蒸馏的两个模型,由于进行了针对 os 的 蒸馏, 其推理思考能力应该会更强一些。但是这两个模型不能直接通过参数来关闭 sync 模式,所以每次调用时都会 消耗很长时间在思考。有时候在做简单任务的时候会有一些繁琐,所以在处理简单任务的时候,我会选择官方版本的模型并关闭 sync 模式,这样更快一些。再看一下四位和八位比特以及输入 token 与占用内存的关系。通常在 open craw 或者 cloud code 中,调用 agent 完成任务时都会有很长的上下文,因此输入 token 都会很长,这会影响内存的占用。 通过这两个表我们可以看出, token 越多,占用的内存也就越多。考虑到还需要加载纹身图的图像模型,所以必须控制模型的量化位数,因此最终我选择千万三点五三十五 b a 三 b 四比特模型 或者对应的帧流模型。下面我来实操一下在 max studio 中如何使用 o m l x 这个软件来调用模型。好,我们现在通过远程来登录这个 max studio, 你 可以在这里 点击双击 o m l x, 它就会出现在右上角这个 toolbox, 这里点击右右键就可以 chat chat with, 而且这里就可以直接跟他聊天。当然我们可以看一下左下角有个后台管理,这里有一些可以设置的地方,比如说它当你加载了一个模型之后,你就可以直接通过这些啊, a p i 的 a p i 和 cloud a p i 也可以通过这个命令行直接将它集成到 cloud code 里面,或者 codex open code 和 open cloud, 这都支持。第二个就是模型的管理,我下载这六个 也可以从 facebook 上直接下载,也支持了摩达社区,这里有一个全局的设置,比如这里设置了一个 a p i 的 密钥,设置模型的下载目录或者加载目录。这里有一个地方需要注意一下, 我下载的这个千万三点五的模型是上下文支持两百五十六 k, 所以 这里一定要填这个东西,因为它默认的那个最大上下文窗口大概只有三十二 k, 如果这里不改的话就会报错,所以这个 一定得把它改过来,改成呃你的模型最大支持的那个数。再就是这个模型的设置,比如说关闭这个 thinking 模式,你在这里要把这个添加一个 enable thinking 这个参数,把它设置为 force, 而且最好是强制的, 就可以保存。你下次再调用这个模型,它就不会开始那个 thinking 模式。但是对这两个蒸馏的模型,你关了这个也没用,内部始终是把那个 thinking 模式打开的,所以如果你不想用这个 thinking 的 话,你就用这个官方的把这个参数给关掉。 如果你想用 sync 模式的话,可以考虑用这两个推理的蒸馏过的模型,这里是日制分析,日制可以看一下它的调用,这里是这个性能精准测试, 可以来用来测试你下载的模型的精准。比如我们来测一下这个稠密模型,千万三点五二十七 b 四 b 的 比特的这个模型,看看速度怎么样啊?这里跑完了一次这个稠密模型的基本测试, 可以看到它基本上它的速度是在三十一点八 to, 每秒并发的话可以达到四十, 我们再跑一个 m o e 格式,这也是斯比特的这个跑完了,这个是比较快的,它可以达到七十八 to, 每在本地 使用这个 m o e 来跑这个 agent 应该速度是够的。 ok, 今天就讲到这,下期就讲一下如何在 max studio 上运行这个纹身图模型。好,下期见,关注我 ai, 分享时尚技巧,我们下期见。

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

在配置小龙虾的时候,这里有不同的模型可以供我们选择,但是呢大多数都是国外的模型, 那很多小伙伴说我更喜欢使用 deep seek 模型,要如何配置呢? ok, 那 这个视频中咱们就手把手教大家如何在 opencloud 小 龙虾中配置 deep seek 模型。好,我们看到当前这个页面就是我们之前配置好的小龙虾的 web 页面, 在这里面我们输入任何聊天内容,它都会返回一个错误信息,这是因为这个模型 and topic 咱们没有配置,我们要配置的是 deep sec。 那 怎么配置呢?接下来跟着我的流程。首先我们在这个页面中找到这里的设置,这里有个配置, 然后我们找到模型在这里 models, 那 么配置方式有两种,如果你会编程的话,你直接找到这个路径,在这个接私文件中进行配置。我先给大家演示一下, 直接打开你电脑中的访达,然后点击这里前往粘贴一下这里的路径。好,现在就已经找到这个文件了,然后打开你的一个编辑器, 比如说我这里就使用文本编辑 sublime, 这是每一项配置,比如说 agent tools, message 等等等等,咱们就给它添加,到最后这里添加一个逗号。接下来就是咱们的 provider 模型的设置,这里呢给大家准备了一个文档,大家可以直接粘过来, 直接把这个文件全部粘过来,这是一个新的一项叫做 models, 那粘过来以后,我们会发现这里有一个 api key, 它是 deepseek 的 api key, 那 么我们需要访问 deepseek 的 网址,查看一下它的后台, 找到 api 开放平台,充值完成以后,这里有一个 api keys, 点击它,然后点击新建 api keys, 输入一个名称,比如说我们就叫做这个 open crawl, 直接复制它,然后把它保存到一个地方,然后把你的 api key 添加到这里,保存这个文件就 ok 了,这是你会编辑代码的情况下, ok, 我 们还原回去。 那小伙伴说如果不会写代码,不会这么操作怎么办?非常简单,我们直接就在这个配置页面中来进行添加。 ok, 那 接下来咱们看一下怎么添加。首先咱们找到配置,找到 models, 然后这里 model parameter 模型提供商,点击它, 点击这里的 a, d, d entry 添加试卷,咱们就在这里进行添加,其实无外乎就是把刚才内容这里添加了一遍,咱们叫做 deep seek, 起个名字, 然后这里选择模型,选择模型的时候呢,这里没有 deep seek, 咱们可以选择这个 open ai competition, 因为什么呢?因为 deep seek 它是兼容 open i 的, 所以说你选择它是没有问题的。接下来这里填写 api key, 也就是我们刚才在 deep seek 中复制的那个 api key, 把它填到这里,好,下一项,这里咱们选择 api key 的 形式, 接下来这里有个 base ui 二, base ui 二,我们应该填写这个 base ui 二, 这样的话它就会请求 deep seek 的 这个 api, 然后继续 model list, 这里是额外的选项,咱们点击 a d, d, a, p i, 选择这里,我们还是选择 open a i, 然后继续 content window, 这是文本长度,对应的就是它,把它拷贝过来,然后点击 cost, 这些全部设置为零。 id, 这个 id 呢,咱们就叫做 deep seek chat input, 点击 a, d, d, 然后选择文本形式 t y 七 ok, 最大的 token 这里咱们设置为八幺九二 name, 这个 name 呢,咱们就叫做 deep seek chat。 好,全部填写完成以后,点击这里的 save, 现在呢就保存成功了。保存成功以后,咱们再回到聊天系统这里,那此时它的回复是,我是 deepsafe chat 模型, 这也说明咱们现在 deepsafe 配置成功了。如果你在配置过程中遇到任何问题,请在评论区告诉我,关注我,带你玩转小龙虾!

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

现在一堆人推荐云版的 open curl, 那 你用过就知道,一到真实场景实在拉胯,两分钟帮你把现在所有的 open curl 形态从哼到拉排清楚。第一种叫本机的 mac mini 部署,这是目前最能打的方案,因为它生态最完整,工具最丰富,而且不会被风控。 现在随着迭代,安全性能也逐渐补上了,可以给到哼。第二种就是像 auto qq 啊这种, 它们都能一键接飞书或者微信,能自动配置 ui 也很友好,一上来就可以给你一大堆的 skills。 但问题是你就模型被绑定,而且能力上限也会被限制,但是仍然可以给到人上人。 第三种就是像 nano curl, zero curl, coco 这种,这种开源的工具是工程玩家最喜欢的,比如说 nano curl 极简可控, zero curl 安全而且是极致性能, coco 多 agent 可以 给到顶级,但是仅限高端玩家。 最后说说各种云部署,其实又分两种,第一种就像 kimi cloud、 max cloud 这种厂商深度集成的。 第二种就是像阿里云镜像,腾讯云镜像的 lighthouse, 还有火山的镜像等等。这两种都有一个非常棘手的问题,就是它容易被封控,它登录很困难,而且非常容易被拣出,云 ip 被限制, 很多高价值的信息都需要浏览器登录才能拿到。要解决这个风控问题,你需要搞代理啊,指纹啊,环境等等,费的劲直接能把我半条命都搭进去。但是看在一键接入方面上,我还是给 kimi cloud 和 max cloud 给到 npc, 最后各种云的镜像直接给它拉就完了。核心结论, opencloud 的 能力上限不只是模型,还取决于两件事,一是能用什么工具,二你在什么环境里运行。

openclaw 保姆级安装教程,搭配免费大模型,让你唱完龙虾,十分钟搞定 openclaw openclaw 最近实在太火了,但是自己搭建的时候难免会出现各种问题,比如这样的这样的, 所以很多人已经开始做起了上门安装五百一次的生意。这里教你小白安装法, 包括环境配置、权限问题、下载速度等等,看完不仅立省安装费,你熟练后甚至都可以接上门安装的单了。我们直接开始第一步,安装 no js, 虽然 opencon 官方文档并不要求我们提前安装 node js, 但先把这一步做完,可以避开很多坑。首先来到 node js 的 官方下载页面中,点击 windows 安装程序按钮开始下载。但是由于 node js 的 服务器在国外,所以下载速度会很慢, 也可以通过 node js 中文网来下载,下载速度会有明显提升。下载完成后,你打开安装包, 安装位置可以保持默认,也可以选择你想要安装的文件夹。接下来呢,我们就一路无脑点击下一步, 然后点击 insert 开始安装,这里要稍等片刻,完成后点击 finish 按钮, note g s 就 安装好啦。第二步,安装 get get 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 get 的 配置有关, 所以安装了 get 可以 提前避坑。来到 get 的 官方下载页面,根据电脑的架构选择对应的下载链接开始下载。下载完成后,打开安装包,点击下一步, 这里同样可以保持默认,也可以选择你想要安装的位置。再往后,如果你不是专业的开发者,不必纠结这些配置,一路点击 install 开始安装, 等待一小会儿。安装完成后,我们可以把这个对勾给取消掉,它会打开 git 的 更新说明网站,对安装没有影响,然后点击 finish git 就 安装完成啦。第三步,安装 openclaw, 在菜单栏搜索 powershell, 这里要注意以管理员身份运行,然后会打开一个大黑窗口。为了避免 powershell 默认策略太严格,等着安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略, 这里输入 y, 然后回车表示同意这一次修改。为了避免 npm 源导致的下载失败问题,我们需要切换 npm 镜像的下载源,输入一下这个命令,然后回车运行。 很多人安装的时候都会出现这个报错,这个错误的本质是 npm 在 执行 get 操作时拉取仓库或者依赖失败导致的国内访问 get help 困难。先把 get 协议强制切换为 https, 输入一下这个命令,回车运行。上面三条命令能避开很多坑,确保我们一次性安装成功。然后我们再输入这个 open cloud 的 官方安装命令,并回车执行。 这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络或专业网络访问此应用?点击允许。当你看到一句来自 open club 的 欢迎信息,就说明 open club 已经安装成功啦, 不过这还没完。第四步,配置 open club。 open club 会展示一段话,提醒您使用它可能存在风险。问是否继续? 这里可以按键盘上的左方向键选择 yes, 然后回车确认继续回车。 下一步需要选择 open class 背后的大模型服务商有很多选择,比如 open api、 千问等很多。这里教大家使用免费的大模型。我们先选择 v l l m。 第五步,配置免费大模型。