今天我们来研究 openclaw 本地大模型,玩到 openclaw 本地大模型的程度,大家基本上在 ai agent 方面已经出师了,今天我们经过测试来拿出最佳的实践方案,包括最后来一个应用解析。我们首先回顾一下三种部署方式的优缺点, 当然不仅限于 openclaw, 像我们国产的已经有至少四十多种不同的虾形成了养虾热 openclaw 它是内核都是一致的,所以这个教程也都是通用的。 第一种方式就是本地 opencloud 加云端 api 模型的方式,本地 opencloud 就 装在我们自己的电脑上,或者一个小主机,比如 macmini, 然后调用云端大模型 toon, 我 们可以是按量付费的。另一种方式的话就是纯云端部署,但这种模式它最大优点是有固定的 ip。 第三种方式,也就是今天我们要测试的就是本地 open 加本地大模型这种方式。首先第一个我们不需要再去购买 token 了,因为所有的算力都在本地进行预算。第二个就是我们的数据的隐私性非常的强,可以离网进行部署,对保密 隐私性要求比较高的情况,这种方式是非常的适用的。废话不多说,我们先看运行效果, 我在本地四零九零电脑上安装了 lm studio 和 copo, 当然也有原声的 open cloud, 我 们现在就看一下本地大模型它的一个速度啊,如果说直接对话,我们可以看到我们先引用四 b, 就 四 b 定有四十亿的参数,它的一个速度。 随便问一个问题,我们可以看到他的输出是非常快的,因为他在本地运行没有那种网络的一种延迟,但是如果说模型过大,他的速度就会低一点,因为他需要运算,我们本地的算力可能不如云端算力那么强大。 好,我们把模型切换为千万三点五三十五 b, 将将它的调用方式切换到一个 ai 进程里面,也就是一个瞎当中。这里我们选用的是 coco, 后续会告诉大家为什么会选用 coco 来做本地大模型的 ai 进程。好,我们问他一个问题,看一下效果, 你有多少参数。我们可以看到,在我们使用 ai agent 去调用本地大模型的时候,我们它有自己的速度闪视进运行状态,我们可以看它已经把自己的一个问题回答了, 这个速度还是可以接受的。下面我们就开始正式的教程,教大家如何在本地部署一套 ai agent 加本地大模型。 提到本地大模型,很多教程推的都是奥拉玛,奥拉玛也是本地大模型运行环境中的中流砥柱,但是经过实际测试,我还是发现 ml studio 会更快一些,所以说今天的技术路线就是我个人发现最佳的一个实践。 当然也给大家安排了文案教程,文案教程我放在了公众号,大家可以通过公众号留言本地大模型,它会自动帮你找到这篇文章。好的,我们先看一下基本的一个运行环节要求。第一个是 ms 六, 我们打开 ms 六六的官网,可以发现有苹果啊, windows 还有 linux 的 下载选项,大家直接下载安装就可以了,这个安装非常简单,就不浪费时间去演示了。 但 coco 我 要着重介绍一下,我们打开 coco 的 官网,在官网里面找到查看文档,项目介绍,可以简单看一下, 我们最主要的是安装,点击快速开始找到,嗯,它的一个安装教程,官方提供了很多的安装方法,我们可以看到有命令行安装,还有桌面应用,我们要选择桌面应用,在桌面应用,打开它的 github 的 链接, get 它 app 链接里面,嗯,翻到最下面,它会有一个 exe 文件,我们点击下载。 安装完成之后,我们可以看到两个桌面图标,一个是 coco top, 一个是 m l studio。 我 们先打开 m l studio, 重点讲解一下如何配置本地大模型。点开之后我们先测试一下它有没有自带的一些 模型,默认的话它会自带一个谷歌的非常小的四 b 的 模型,可以直接去用的,但这种四 b 的 模型参数是非常小的。我们先看一下 设置在设置里面,在界面里面我们先把这个语言切换成简体中文,当然这个你看大家看到了,我这个是已经切换过的,所以它对简体中文支持度不是非常的高。好在我们可以通过图标来识别, 点开这个小机器人的按钮,可以看到它已经给我们了一个最佳匹配,这个最佳匹配是什么意思?我们点开我们的设置, 可以看到这个 hardware, 那 就是我们的硬件 i 九幺三九零零 k 六十四 g 的 内存,还有英伟达四零九零有二十四 gb 的 显存,它的主要匹配原理 就是要匹配我们的显存大小。我们再点开这个小机器人图标之后,可以理解成它是一个模型市场,我们可以选择自己所喜欢的模型进行下载,比如说我们现在正在下载这个 g m l 芝普的四点七 flash, 它也是能够完全加载进 gpu 显存的。 下载完成之后,我们在选择对话的时候,就可以选择到这个千万三点五,这是我已经下载过的二十多 gb 的 一个 模型,那本地对话我们知道的。那么我们如何让其他的 ai agent, 比方 coco 或者是 opencloud 去引用它呢?我们在这里选择第二个对话框,第二个图标里面它是个 local server 本地服务 stage, 我 们要把它打开, 在 server setting 里面尽量的是创建一个 api key, 这样我们更安全一点。当然本地用这个不是必要的,只是建一项 我们把没用的模型,暂时不用的模型给它推出加载。我们下载好的千问三十五千点五,三十五 b 的 大模型, 它加载的同时,我们尽量呢是要把这个上下文要推一下啊,把上下文我一般情况是要拉满的啊,然后 cpu 给他多一点啊,然后再重新加载应用。 好,我们让它跑着,我们再打开我们的 coco。 coco 是 阿里出的一个企业级的 ai agent 运营环境,它跟我们 opencloud 是 极其相似的,但是经过了阿里大牛们的优化,我们这里可以看到它有聊天,还有这个 已经内置了很多的 skills, 就是 技能,还有一些对应的频道,也就是我们可以直接接入钉钉,飞书 还有 qq, 比我们自己配置要简单一些。在这里我们要找到的是什么是模型,这就是为什么我们要用 coco 作为最佳的技术实践,因为 coco 能够非常 嗯自由地进行模型供应商的自定义,而且它已经内置了 ml 四六六和欧拉玛的一个本地模型的配置 点模型。这里我们先自动获取模型,我们可以看到本地 m l 四六六里面已经安装过的模型,它都已经能够自动的进行获取了,非常的方便,比我们手动配置要简单很多。好,我们再回到聊天框里面,我们就可以看一下, 这样的话我们就可以在聊天框里面自由选择和切换模型了,它就是一个非常完整的 ai 进特了。 我们如何在原生的 opencloud 里面去调用本地大模型呢?因为我们很多的项目已经跑在了原生的 opencloud 里面去了。我们还是借用 cherry studio, 在 cherry studio 里面这点设置找到模型服务点添加, 可以给它起个名字,比如说 local 这里我已经添加过了,添加之后就这样一个效果,我们把刚才 server 里面生成了 api k 复制到我们这里面,我们再把地址 logo house 的 冒号一二三四杠 v 一 复制在 api 地址里面,然后就可以获取到它对应的模型了。好,在启动的时候我们要注意,选择的时候一定要选择 logo, 我 们想要的模型点击启动就可以了。最后给大家分享一个应用实践。 呃,我们有没有遇到过这样的场景,我们在翻自己聊天记录的时候,发现一些记录已经找不到了,甚至一些文件是通过微信聊天的方式给我们传输的,但是我们在实际去寻找这些文件的时候,可能浪费了很多时间和精力,最后已经被清理掉了, 所以说我们就可以把我们近五年的微信聊天记录全部喂给 ai 机器人,以后让 ai 机器人帮我们去打理这些聊天记录的一些文件和重要截图。像我们的聊天记录,它本身就是我们的隐私, 保密性非常的强,我们让完全本地化的模型、本地化的 ai agent 去处理我们的事物,还是相对来说比较必要的。 当然这只是一个抛砖引玉的场景,一些涉密的工作,很多涉密的一些 ai 应用都需要进行本地化的一个大模型部署, ok。
粉丝931获赞2752

欢迎回来,精彩继续! 哈喽,大家好呀,上期视频教了大家如何本地部署扣炮,并且安装了欧拉姆 app, 那 么这期视频就带大家一起看看如何安装适合自己电脑配置运行的模型。话不多说,直接来吧! 首先我们得先知道自己电脑配置运行的模型。话不多说,直接来吧!首先我们右键任务栏空白处,点击任务管理器, 或者按下 c r t, 加 shift 加 esg, 然后点击性能,这里就会显示我们的 cpu 内存, gpu 是 什么。比如我用的这台电脑是 r i x 三千零七十 t 一 六 g, 显存内存三二 g。 然后我们可以右键将我们的配置复制下来。 接着打开 deepseek 官网,粘贴刚才腹肌的内容,问他,你好, deepseek, 我 想要在本地部署 ai 模型,通过 copout 让他帮我自动即兴文件清理桌面等我已经安装好了 olame app, 但是我不知道我的配置能够运行什么模型, 请你帮我分析一下我的配件,然后推荐一些适合我本地不朽的模型给我,再次感谢。然后 deepsea 就 会给你修出一些适合你安装的 ai 模型, 因为你在提系词里填了 olamma app, 所以 它可能还会给你提系安装方法,复制 deepsea 推荐的模型,然后去 olamma 官网模型界面搜索, 我们点击这个 gpt 模型,在这里可以看到它的下载量,更新时间以及详细介向往下滑,还可以看到模型的各个量化版本,基本上我们就选择一个最接近我们显存大小的版本,比如这里我就选择下载了 gpt 杠 os 二零 b, 它的内存只有一四 g, 我 的电脑是可以很快速运行的,它还支持一二八 k 的 向下文,但是只支持文本输入。 我们再换一个 q n 三点五看看,它有很多量化版本,而且五天前才更新,性能强大。可以看到零点八 b 的 模型尺寸只有一 g, 但是机器二五六可以向下纹,还机器图像输入,可以学习,非常强大了。 当你选定了几个模型又犹豫不决时,可以将这些模型的名称复制下来,然后粘贴给 deepseek, 再加上你的需求,问他你应该选择哪个,他会为我们详细介绍每个模型的优缺点,再根据我们的需求为我们选择比较契合的模型。 然后我们就可以挑选二到三个和系的去强行安装了。比如我想安装 q one 三五比零八 b 这个模型,我们直接复制名称,然后打开 cm, 输入欧拉玛 pro q one 三五比零八 b 回车,然后模型就会开始下载了。 当模型下载好后,就会自动放到我们之前设计的路径里,这里刚开始可能是正向速度下载,过一会就会降到几 kb。 不要怕,我们先点击窗口,然后按下 control 加 c, 就 会打断下载,接着选中并 control 加 c, 复制刚才那条下载命令,直接 control 加 v 回车,可以看到下载速度又正常了。 我们可以输入 olama list, 查看已安装的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。模型安装好后,第一件事情肯定是先细细它的所有模型。我们打开 olama app, 点开设计, 将最底下的 context link 拉到二五六 k, 发挥出这个模型机器的最高象限,同时模型运行所需要的算力也会增加。然后回到聊天界面,跟你的新模型打个招呼。这个模型机器图像和文字,所以我们还可以点击习字按钮添加一张图片。 由于这个 app 只是个聊天窗口,没办法控制我们的电脑,我们打开 cd 输入的地址,粘贴到浏览器, 回到扣怕页面,然后点击左下角模型,将提供箱换成欧拉玛模型,选择刚才刚安装好的 q n 三五比零八 b, 然后就可以跟他对话,问他有什么技能让他帮我们的忙了。 好了,恭喜你学会了简单的欧拉玛模型下载。接下来我们来看看难度稍微高一点的模型下载方法,它可以更自由地选择模型量化版本,压架你的性能象限,或提供更流程的运行,还能给你的模型加入一点个人调味料。 我们打开摩达官网,找到模型库,然后我们选择 g u f。 模型的格式有很多, 不过你想要在 copw 运行这个模型,就需要将下载的 gduf 格式模型转化。我们搜索 qwind 三五比零八 b, 然后点击后置带 gduf 的 模型,这里有很多这个模型的详细信息,感兴趣的可以自己研究一下。 点击模型文件往下滑,可以看到这里有很多量化版本,还有一些欧拉玛官网没有修路的版本。这些 q 四 k m i q 四 ax 是 什么?看起来就复杂,别怕,我们直接复制,然后丢给 ai, 问他这些字符是什么意思。接着 ai 就 会像叫你学 abc 一 样,告诉你它们的含义。 回到模型文件这里,我们选择一个和系自己的下载下来,如果下载的很慢,可以去下载个什么雷软件,它会直接接管浏览器下载。将你下载好的文件放到你的欧拉玛模型文件夹旁边,新建一个文件夹,随便起个好分辨的名字, 然后新建一个 txt 文本,接着从命名为 model file, 删除 txt 后缀,然后用记事本打开,在里面可以自定义模型的配件,还可以给他一些角色设定。 首先要在第一行输入模型的文件名称 from q n 三点五杠零点八 b 杠 q 四 k m g e q f 然后粘贴模型基础信息,不修这些直接转化也行, 但是模型很容易胡言乱语,答非所问,不知道怎么填基础信息。我们可以看看其他模型是怎么写的。输入 olammo list, 查看已安装的模型,然后粘贴这串代码, 展示这个模型的 model file, 我 们复制这一块代码就行,把它粘贴到我们的 model file 中,你们可以自由对这个参数进行微调,不会就问 ai, 记得保存。文件都准备好后,在地址栏窗口输入 c n b 回车,然后输入欧拉玛 create q n 三五比零八 b 杠 q 八零杠 f model file 中间的这个模型名称是可以自己随便填的,建议简化模型名称,比较好记,易辨别。 然后回车,等待模型创建完成。创建完成后,我们就可以在欧拉玛 app 看到它了,也可以在 kopw 切换它。跟你的自定义模型打个招呼吧,测试一下是否创建成功。 接下来你就可以去反复调戏你的模型了。学会了点赞投币没学会再看一遍,哈哈哈! 通过这几个细频,你已经从零基础小白学会了如何本地不朽 coca w, 如何通过欧拉玛下载模型,还学会了如何自定义模型、参数设定、劫色破球线模型等。 更重要的是学习如何向 ai 提问,让 ai 帮助你学习熠熠进步。能看到这里,说明你们真的很爱学习新机器,有着追求新事物的热情。下期我将从零开始,带大家一起安装 openclaw 小 龙虾,解锁更多好玩又有趣的机器,拜拜!

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

阿里刚开园的 q 泡桌面智能体,我替你们实打实踩坑实测了,一句话总结,咱们普通小白想上手,真的再等等,别着急,跟风折腾。 最开始我想本地部署,跟着豆包给的步骤一步一步来,全程全是代码操作,要配置各种环境,跑好几个网站下载对应的安装包。对我这种不懂小代码的小普通小白来说,真的巨复杂, 前前后后折腾了快两个小时,最后还是因为环境不兼容,直直接卡死,只能彻底放弃。然后我就去试了阿里云官网标注的五分钟一键部署,结果踩的坑一个接一个。首先就是大家最关心的费用问题, 别看模型本身是开源免费的,但实际用起来有不少消费调用大模型需要开通阿里百链服务,首月套餐七块九,包含一万八千次请求。这个倒是不贵, 但想在云上部署,必须租赁阿里云服务器,我选了最基础的入门配置,最低要先充值一百块,按量付费,折算下来一小时差不多七毛钱。 这里必须给大家提个醒,也是我自己踩过的坑,这个服务器不是你关机,不用就不扣费了。我折腾完关机放了一晚上,第二天一看啥操作也没做,又扣了好几块。 后来才搞明白,他默认状态下关机还是正常计费,只有手动开启节省停机模式,才能免掉算力部分的费用。而且就算开了这个模式,系统盘的存储费用还是会持续扣除 大家,大家如果只是临时测试用,用完一定要直接删除释放实力,不然钱不知不觉就被扣没了。 呃,钱的事还是其次,最折腾人的是他对咱们普通小白真的不够友好,操作手册的很多关键步骤对新手来说说明不够详细,就比如开通密钥,手册里只提到了开通编程密钥, 我照着操作折腾了半天一直报错,后来问了千问才搞明白,调用大模型需要开通的是大模型专用密钥, 就这一个没说明白的细节,白白浪费了我快一个小时。好不容易部署完成,我把它关联到钉钉上,想着手机上也能随时用,结果刚用第二句就出问题了,我先给他发了个文章链接,让他提炼核心要点,倒是很顺利就完成了。 紧接着我用语音发了一句,把这个内容和要点生成一个 ppt, 发出去直接就报错了。后来我问了技术支持才搞明白, 这根本不是我操作错了,是这个刚开源的初识版本本身就还没开发语音识别功能,原声只支持文本输入,不支持语音消息处理,属于版本本身的功能缺失,咱们普通人根本改不了,只能等官方后续更新版本。 整个折腾下来,我最大的感受就是这个工具真的只适合技术爱好者,懂代码的专业人士拿来测试学习。 对咱们这种只想拿它来干活、写文案、做内容的普通创作者来说,真的不建议。现在着急上手,到处都是没说明白的细节,不知道下一步 就会不知道下一步哪就会报错,时间全花在调试上了。有这功夫,用豆包、 deepsafe 那 些都写完好几篇文章了 其实,呃,跟我之前测的 mini max agent 一 样,这些新出的智能体对懂代码、懂逻辑的专业人士来说确实自由度高,很好用,但对咱们普通人来说,真的是步步都有门槛,体验感很不好。 最后给想试的朋友提三个新手一定会遇到的问题,大家记好避坑。第一,普通小白别轻易碰,本地部署操作门槛非常高。第二,开通密钥一定要开大模型专用的,别只开编程密钥。 第三,当前版本不支持语音识别,别在这上面白瞎白费功夫。给咱们普通人一句实在的建议,想玩这些新的 ai 智能体真的不用着急,再等等,等他们出了正式版本,功能完善了,哪天 咱们在应用商店里直接能下载到了再去用也不迟,现在跟风折腾,最后大概就是浪费时间浪费精力,还没办成事。 嗯,接下来我也会回归内容本身,把我用 ai 写头条、做自媒体的真实心得和实用技巧毫无保留的分享给大家。想跟着一起用 ai 做自媒体,少走弯路,不瞎折腾浪费时间的点个关注,咱们一步一步慢慢走。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

大家好,我是根谷,今天是 open core 第六堂课啊,本地模型配置的 lm studio 片和微软的这样一个开发了这个,呃,本地大模型管理的工具啊。首先祝大家二六年, 呃,新年快乐,明天就过年了,建议大家先去看欧拉玛篇,因为欧拉玛篇会的话,这篇就非常容易了。非常容易了,那首先给大家看一下我这个那个 bug 啊,就是这就是 open core 的 一个官网,我前天好像提了个 bug 啊,就在这个英雄里面给他开了个 bug, 我 看看 这个 bug 其实就是 l m 十丢丢的一个 bug, 就是 在它重启的时候,它会失去了这个通信链接,我待会怎么证明我是它是一个 bug 啊,我把各个的环境啊,还有我怎么操作的选择的模型啊,最后配置文件都截图都分享出来了,现在还没有人回复我, 好,我是怎么做的呢?就是首先你要打开 i m 四丢丢点 ai, 这是微软的一个官网,你去下载啊,你如果你是 windows 电脑,它自动的,就会自动的给你到 windows 的 电脑那个那个,呃,安装的这个软件啊,你把它下下就好了,下下来以后就会出现一个这样子的 i m 四丢丢啊,这个就是你的一个那个, 呃,就比欧拉玛复杂多了,因为这个他不是面向开发者的,但是我感觉,呃,用这个也是挺不错的,他有海量的这样一个模型,让你去下载,我这里面下了一个千万三的一个模型。千万三的一个模型,呃,正常的就是在这个地方,比如说 给我讲个笑话,那这个非常容易啊,就不需要去给大家演示,你直接下一个模型,它都是界面的管理,你在这里下一下就好了,点它下载它就能下载,下载了好了以后在这个地方就能够选模模型,选到了模型以后,在这里你就把它去装入这个模型了,就是去加载这个模型,这个模型在这里, 在这个地方千万三星,那就就这个,就在这个地方。然后呃,我说这这个这里,这是他开发文档,然后这个地方他有几个端点,就是他有几套的去对接 api 调用,你首先去这里设置里面把这个, 呃网络这个服务供应,这个服务网络中提供服务,把它打开之前是默认关闭的,你把它打开就好了,那这个端口也不要去改,就用它的一二三四,那这个比较好记一些,比较好记一些。 配置好了以后,配置好了以后就点一下它就关了。嗯,首先这个地方 state 需要,需要开启这个服务啊,需要开启这个服务,开启这个服务完以后就是输入这个啊,就是 ceo 啊,然后这个 我这样就跟它对接了,你看吧,我的,我的 h t t p local house, 一 二三四五,对吧?一二三四 api v e chat, 并且你还是可以用这个 open ai com compatible 这样一个呃 协议进行对接,那你 pos 的 请求就是唯一,呃,你,你是 boss, 它自动的会跟你拼接啊,那我这里就用这个客请求和它对接好了,剩下的就是我用客请求去把它塞到呃这个 open core 里面去。那怎么做呢? 也是在这里啊,就是我因为它这个网站啊,它这个网站不像欧拉玛,它自动的里面,呃,跟它做了 open open clone 这样一个对接啊,大家看到上海课就知道这里微软的 i m studio 并没有对这个小龙虾进行做对接,那没有做对接也是没问题的,我们就直接在这个这里去做配置啊。就是我首先是 open clone 是 吧? clone 有 一个叫 daisy board 的 啊,不是 daisy board 的 on board, on board 的 一个 insode 这样一个地方,我重新进行配置啊,重新进行配置的话是 yes 啊,然后 click start, 然后我要更新其中的一个字,这里选选第二或选第一都是可以的,我去更新它,对吧?到了这个地方 一定要选 custom pro i 的, 因为因为你这里没有没有那个 lm studio, 它都是模型在线的。我们是需要 http 请求,这个 http 请求就是呃, local house 的 一二七点一这里,这个地方就是一定是一二三四。 好,这个地方一定是写一二三四。我,我需要把这个呃日字给清掉,待会可以看一下我,我这个 open core 已经会怎么和它连通的哈。如果你这个地方假设我,我写错了,我这个地方假设有个什么 a a 啊,这是瞎写的,他就会报错啊。这个 api key 没关系,因为他我没开通那个,我没有去开健全这个地方我没有去开这个要求健全,所以说这个 api 你 写写不写 api key 都可以的。 这个时候就是 open ai controllable, 和这里是一模一样的,看到吧,哎,回车好, mod id 非常重要,你不能瞎写,这个 mod id 就 在这里,你看把它粘出来就好了。对 啊,他都告诉了你啊,就 local horse 的 一一一一 charnel 就 一二三四啊,这个它比那个小龙虾啊,不是比小龙虾,比那个欧拉玛要做的好啊的地方,就它各个地方都出来,哎,你看, 呃,其实它已经连通了,但是你这边唯一 a a a a, 它应该是唯一,你看到了吗? 所以说他就报错,报到错,对吧?然后这里有个端点 id, 这个端点 id 让他默认给就好了。啊,这个,这个这个名字啊,然后这就是错了,错了的话你就得重新填过,所以说他没有返回的机会,就是我,我现在 就是你只要按 esc 退出重新来过,所以说这里那我快速的演示一遍就是正确的应该怎么做。 yes, click start 第一个, 然后选这个 customwide 的, 哎,这个地方他又默认的,就就写一二三四就好了。呃呃。你说有些人为什么不加 api 呢?你看我这个地方为什么有 api? api 是 它的另外一套这个接口服务啊,是这个, 这里有一个 api 点微,但是一般来说是没有 api 的, 所以说这个就是没问题了,一定是这样子的,微一它后面会自动的跟你加陌陌的啊和那个例子 box 啊,然后这个就回车啊, 一定是要选择这个 openair compatible, 哎,然后这个 mod id 不 能瞎写啊。就是你,你这里,呃用的是什么 mod 就是 用什么 mod, 哎,你如果可以换的,就是在在在在这个地方换啊,就是在这个 my mod 里面,我这里只有一个,你可以选,你可以选 好,然后这个地方我,对了,以后你看,哎,这个地方他就补报错了,全绿了,看到没有,哎,这个地方全绿了,我给他全通了,全通了,那全通了就赶紧去启动一下,那就是 skip, 因为我之前都装了,也不要去装他的 skill 式,也也不需要装他 fuk 式啊, 直接就启动这个网关是吧?因此多领啊, get 位首位,然后让它浏览器打开,那这样就通了,其实它配置起来其实是比那个欧拉玛要简单,为什么呢?这微软还是做的可以的。但是呢,但是呢,这个 open core 竟然和它 内部的就是那个,我感觉它很多没有去做兼容到这一步就已经通了啊,你学会了吗?

哈喽,我是严总,这期视频给大家分享一下这个 mac studio 超大内存的版本,我们去跑本地大模型,现在目前比较热门的这三款挂载大模型的工具,我们要如何选呢?首先如果你是 windows 用户的话,你可以划走了,我们这期视频主要讲 mac 端。首先第一个我比较推荐的就是这个 i m studio 这款产品的话,它的它的优势就是图形界面,我们可以看到挂载的各种模型,然后以及选择各种模型都比较便利。第二个就是这个奥拉玛,奥拉玛这个它是属于 g g u f 的 一个模型,它其实并不太适用于 m l x 啊,但是这一个它是目前用的比较多的,因为它比较轻,量化比较简单,配置也比较轻松,如果你只是简单入门的话,这个可以尝试一下。 然后最近比较火热的就是这个 o m l x 这个这个我非常不建议使用 open club 的 用户用它,它存在内存卸六以及这模型加载上去智力真的是非常低,基本上只能玩一玩。我看虽然说很多人说它速度快啊, 但是我们真正用这个 open club 不 在于就是它速度快,而在于它真正能解决问题。那我用了最多的这个 l m 四六六的话,我就给大家仔细讲一下,到底它这个模型怎么选。 我们在选模型的时候有很多点必须是我们要考虑的啊,首先我我举个例子啊,比如说我们现在看到了这个千问三点五二十七币,他就是一个非 m o e 模型,我们要玩本地大模型,现在肯定是主流的要玩 m o e, 什么叫 m o e 模型呢?就是二十七币,我们选出几个专家对你的内容进行分析和解锁,这样的话你的内存压力就不会那么大。比如以我这台机器为例子, 可以看一下我目前的这个内存情况是二百五十六 gb, 然后我现在挂在了这个 mini max 的 大概占用了,我就是算算系统,我大概占用了一百九十三,其实压力是挺大的,但是你要知道像这个 mini max, 我 如果是不是 mo 一 的话,我这个二百五十六 gb 基本上都挂载不了。 所以说我们在选模型的时候不要选这种直接版本,加上二十七 b 啊,或者是三十 b 啊,一百二十 b 的 一定要选择 mo 一。 那么怎么看是否 mo 一 呢?我们在下载的时候,一般他会后面带一个什么 a 三 b 啊,什么什么这样的模型 啊,比如说像这个看到没,千万三点五,一百二十二 b a 十 b a 十 b 代表有就是呃十 b 的 参数,供你及时调用,那实际你这个模型是一百二十二 b 的, 这样的模型性价比就特别高。还有这个三十五 b a 三 b 啊,这种就是选这两个模型,但也不要选这个模型,除非你的内存贷款非常大,因为哪有机器。但是你苹果八百 g 每秒的这个 m 三 ro 配置的话,优先还是选择这样一种类似于 mo 一 的, 像我们常见的比如说像纤维上扣的 gim 啊,还有迷你 max, 这都是 m o e, 所以 说我也只下了 m o e 模型。 那么还有个很重要的参数就是你的量化啊,你的量化标准,比如说像我们纤维三点五的这个量化是,呃,六位量化,还有八位量化,还有 q 四量化。我建议啊,所有玩这个 open color 的 话,你下模型你就关注一个点,就是 q 四 k m, 就 用这个模型就行了。 然后还有个问题要看一下,你看这个模型里面有 g g u f 和 m i x, 但是 m x 目前对 oppo klo 的 体验以及这个 max 六六的使用是有问题的,它的这个整个反应出来的智力水平以及它的缓存的这个优化是存在问题的。所以说哪怕是苹果的,你都不要用苹果原生的 m i x, 呃,至少现在阶段它这个对 oppo klo 的 体验是非常差的,所以我建议用 g g u f, 然后在这个 g g u f 下面我们又有很多配置啊,比如 说你的病房,比如说你的手机和你电脑同时在给这个本地大模型发消息,呃,可能会涉及到看两个绘画, 所以说我们在新建这个模型的时候,这有一个这个参数,我们要把这个病病房按照自己的要求去设置。比如说你手机和电脑可能同时发消息,以及你用两个员工同时可能对你的模型进行沟通的话,那你这个地方就调成二。 如果你想更高速让他不要去占据你病发的这个效率的话,你可以调成一啊,比如你四个员工同时用,那调成四, 我建议调成二就够了。还有这个参数,如果你是 m 三凹球的话,你可以把它调高一点,比如说四零九六,那他的这个思考的这个速度会明显快很多 啊,这就是一个小细节啊。当然这个关于 im 十六六你可以配置的选项是非常多的啊,后期我也会出教程去讲了。这些参数我们具体怎么调啊?比如说模型的这个温度 啊?我们到底,比如说根据我如果是审核合同的话,我希望他足够严谨,不要胡思乱想的。呃,可能会犯的错误的情况,那我把温度调低一点。哎,如果我是写文章,像比如说做新媒体,我希望文章创意十足,非常有特点的话,那我给它调高一点 啊,这至于调多少,这个要根据自己的实际情况来去优化。那默认情况是这个是不要乱调,就是零点六就可以了。 ok, 这是大概的一个本地部署大模型的一个思路。那后期的话我会更新更多关于这个本地大模型各种软件以及 oppo 的 配置相关的一些教程。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

展示一下,就是我在我这台 macbook 部署了本地龙虾,并且在这一个 lm studio 的 这一个框架里面去运行大模型,随便运行的一个本地的模型,就是一个 英伟达的 nano 四 b 的 模型,非常的有意思,因为它很小,在我电脑上面运行的话没有太大的负担。 这个 lm studio 开了本地模式,应该是这里看设置这个位置,开发者开了这一个 llm 服务,就是已经对接好了,我电脑也装了龙虾了,就是 openclore 已经部署好了, 在这里面也可以跟龙虾交流。我想展示的是在这哎,已经也不输在苹果端的微信了,就是已经绑定了微信的 clawbot, 你 来一段自我介绍好吗? 就直接发给他,之后就直接在这里面可以看到他运行的过程,是可以显示的,就这个位置,就这里他就在跑, 只不过回复的有点慢,可以看到发了这么久,哎,现在来了。那就说作为 opencloud 的 平台什么助手。那你帮我拼一下百度吧,看看能不能拼通。 很明显这个识别不准,对方正在输入, 太慢了,还是得对接那种 a p i 接口才会快, 那样可能也和我这个电脑是有关系,百度点 com 看看他会不会。其实部署本地话也只是拿来玩一下,毕竟硬件的水平有限, 体验比较差,只是玩一下就是这样子。这是可以回复,但是可能是这个模型太差了,只有四 b 的 这个模型 运行的话都不怎么烫。我之前运行的是阿里的三点五九 b 的 模型,也可以用它大概有六 g 多就聪明多了,但是非常的发烫,就这个位置, 现在呢,我就运行了这一个比较简单的四 b 的 模型,它占用的内存不高,但是呢它的能力也有限, 回复的非常的慢,有兴趣的话可以去大件,就是基于 lm studio 来部署本地模型。然后呢,又部署龙虾,如果能用 macdong, macdong 它是统一内存版本的,它可以内存可以当显出来用,正常的话 用 mac, 我 觉得优化是比较好的,比 windows 运行这些模型的话,比 windows 体验真的好很多,而且也比较省心一点,比较容易就可以达到一个比较理想的效果。好了,那本期视频就到这里了,我们下期再见, see you guys。

朋友们,本地部署那个大模型还是可行的,我根据网友的建议去用了这个,用这个模型加载器,然后我现在在本地部署,在 mac mini m 四上部署的,然后我现在问他一下,他响应速度还行, 你看没这么快就响应量也还可以,你看响应速度非常棒。 然后就是这个拓展处理的话,拓展量非常大,如果说你本地绘画的话就还好,如果说你上 ag 的 话就得上这个模型, 不是这个模型这个容器吧,用这个加速就挺好的,可以部署本地的。

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

使用欧拉玛可以一键部署本地大模型,我选择的模型是千万三点五九 b, 现在来演示一下, 可以看到 gpu 使用率向升,由于我这台电脑的显卡配置比较低,所以输出的比较慢。 好,终于输出完成了,接下来是 gg 教程。 首先肯定是要下载欧拉玛的这个软件,进入欧拉玛的官网之后,选择 windows 点击下载,当然这个下载起来会非常的慢, 我也给大家把安装的程序上传到了网盘下,下载后双击打开直接安装,安装完成之后就是这样一个界面,可以在这里点击你想要的大模型,比如说这些是云端大模型, 从这里开始就是本地大模型,这个是谷歌开源的本地大模型街吗? deepseek 千问三,还有其他的一些模型啊, 对于模型怎么挑选,得看电脑的配置,比如说我这台电脑 cpu c a m d 二五六零零两根 d d e 二四的一六 g 内存条, 显卡是一六六零 s 六 g 的 显存,这个已经是非常老的显卡了,后续我准备根据我的电源升级成四零六零 t 一 六 g 显存的,所以根据我的电脑配置 选择了比较小一点的模型。那你的电脑适合哪一个大模型?可以把配置发给豆包问问,让豆包帮你分析适合下载部署什么样的大模型。今天的教程就到这,关注我,评论私信。

大家晚上好呀,你看这是我的电脑配置 g p u 八 g, 内存十六 g, 然后呢?我在我电脑里面呢装了两个大模型,一个是千万三点五九 b 的, 还有是 deepsea 阿姨八 b 的, 你看我现在把这个千万给刨起来,看看它那个资源分配是什么样的,你看, 因为千万三点五九币的话,它对那个就是它是有九点五 g, 然后我的,那我的我的显存显然不够,然后呢?所以就它是这么分配,百分之三十五用 cpu, 百分之六十五用那个 gpu, 然后本地大模型有了,那能跑起来吗?因为我用的是欧拉玛作为那个服务框架作为容器来装他们的,然后你看这是欧拉玛他自己,他自己的那个一个用户界面, 你看我就是跟他聊天那个,让他创建创建那个文本吧,他就会告诉我,哎呀,作为 ai 语言模型,他没法直接操作我的操作系统啊,然后叫他搜索政策信息吧, 他说那个啊,哈哈哈,他说他不知道,现在是二零二六年,他说他的这知识都是基于训练数据的,都是二零二四年出的, 你看这个欧拉玛自己自己配套的那个那个平台不行吧?那东西,然后我我呢试了好几种,最后面用的切瑞这个,你看切瑞啊,你看我,我给他现在连的就是那个千问三点五九币的这个 本地大模型,然后我现在让它,让它在我的 d 盘, d 盘那个这个文件夹下面创建一个 t s t 文档,里面写 cherry 测试创建来看看,我现在我现在就在这个位置, d 盘 ai workspace 那 个位置,然后我现在这边是没有 t s t 的, 对不对? 然后我先让他创建,让他执行一下,然后把它再改一下,对,让他创建好。你看他这个反应还挺快的吧?他那个你看思考用的,思考最后面出结果, 他几乎把我在我有限的资源条件下,然后把我的大模型给用起来,我觉得我已经挺满意的了。你看这是他刚创建好的,你看里面内容, cherry 测试创建, 然后你看我用它来搜索,搜索那个,你看我那会用那个欧拉玛,让它搜索是二零二六年中国的 ai 政策,那我让它来搜索一下,看看 二零二六年的 ai 政策,然后把那个网络搜索给它勾上,用那个百度的, 看我本地大模型,它也是开始思考,然后开始收。 你看这已经是在最大程度上把我的本地大模型给用起来,关键吧,它这个还有个知识库,我可以创建自己的知识库,这个就是作为我的一个助手,我觉得还挺好的。 虽然说用 open curl 还是有点那个够呛,养不起本地龙虾,但是也算是发现了其他的一些用法。 你看这边他告诉我用时花了多长时间, 看一下我的那个就是它现在在用的时候我的那个 gpu, 你 看我 gpu 和 cpu 内存它们的那个使用的比例还可以吧,你看这些东西都出来了, 它也会总结,所以在那个操作本地就是文件系统,当然它也是有有文件格式限制,就说只能是 tst 的, html 的, 还有就 md 的, 就是记忆的那种的, 然后其他的那就那个我还在摸索中,这就是我现在本地大模型使用的情况汇报给大家,你看 他那个搜索的那个政策信息,总结的还挺非常不错,我觉得差不多在我这么有限的一个那个笔记本条件下,能让我的大模型用起来、跑起来,我觉得这已经是一个很大的突破了。

这些天继续在深度测试小龙虾,说下进展,之前是在这个笔记本上测试,那用了好多家的云端模型,当然成本也不低,因为这个东西他是越用头根消耗的越快, 你一个任务,他在后台就你不知道要来回多少轮。这个上下文的交互综合串下来就是对我来说,呃本地呃模型部署是合适的,所以我在网上淘了台二手的二二年的 me 系列的 max studio, 就 这台 六十四 g 的 统一内存啊,这个型号已经停产了,但他的配置非常适合本地部署模型,跑龙虾,跑三十五 b 大 小的模型非常合适啊,性价比非常高。 这期谈一个关键的问题,就是本地部署大模型,小龙虾的这个速度, 它除了跟 cpu 还有显存大小相关外,那还有这个跟这个内存的带宽那影响比较大,像迈克迷你,它的内存带宽就比较受限,那本地跑模型的话就很慢,这些都是硬件的瓶颈, 当然配置高的价格也高。另外那这些天综合测试下来,还有一个主要的影响因素,就是推理引擎的选型啊,你用什么软件来连接后台的大冒险和小龙虾?这个影响挺大的, 网上的教程基本上都是在推荐用欧拉玛。我首先测试的也是这个,很慢,就一个回复,等上几十秒是常事。 后来测试的是 o m l x, 这个很快啊,但不稳定,反正就是我装的,用起来是不稳定,经常后台就断了,但它速度是真的可以,很流畅。 最后测试的是 i m studio, 它处于中间并且稳定,它一个好处就是能实时看到后台模型的投跟的状态就不至于没反应的时候你摸不着是怎么回事,所以我现在用的就是这个 啊。还有就是啊,测试中大部分应用的都是千万三点五的三十五 b 的 q 八量化模型,这个模型它的推理能力很强,网上有很多的跑车数据, 到目前为止啊,算是配置也基本定型了,后续就是逐步的一个啊,进一步养成的过程。 总是就是感觉这个东西想尝尝鲜很容易,现在各大厂都出了各种傻瓜版,但想深用还是挺麻烦的。它跟传统的软件不太一样,它是个千人千面的非标品, 所以就是如果是真想使用,最好就是尝鲜之后就一定要想清楚用它做什么。那这期先到这吧,下次再聊。

今天演示最近用 ai 辅助搭建的本地大模型服务器,在纯 cpu 电脑上测试加载了三个不同版本的量化模型,最终捆二点五三 b 的 量化模型运行速度最快。以下是演示视频, 本次实战任务顺利完成, 后续会持续更新学习进度,如果你们也在尝试用 ai 辅助学习新技能,欢迎在评论区打卡交流,关注我,一起变强!

你是否也为养龙虾而烦恼啊?我刚才试了一下,咱们这个龙虾线上 toking 太贵啊,根本养不起。但是要想用本地模型啊,你的本地模型小龙虾是不是傻傻的呆呆的?那是因为你本地步数太小了,四 b 八 b, 那, 那龙虾简直就跟啊幼儿园的小学生一样,想要部署本地大模型啊,首选枪神九 plus 超净版啊!我刚试了一下,部署三十 b 以上的本地大模型啊,六十四 g 两 t 加五零九零显卡 绰绰有余啊!还有一款就是咱们的幻 x 啊,幻 x 的 一百二十八 g。 我 刚看了一下啊,一百二十八 g 内存,如果你又放到台式机上,光内存的价格就已经 将近一万二三的价格。但是咱们现在换 x 的 笔记本啊,显存又高,内存又大,一百二十八 g 版本还可以同时叠加补贴的价格,现在两个 w 都不到,而且还有学生优惠啊,又方便携带, 轻轻松松啊!本地部署大模型龙虾啊,让你的龙虾啊比别人又聪明又快,而且还不用耗耗,耗费大量的 tucker 啊,不用耗费资金就能帮你办事啊,这样的下属谁不爱?想要预知详情,赶紧点我主页!