今天给大家推荐一下字节的 t r a e r。 因为确实有点被小镇喊到了,我之前写了一个 agent 啊,我是借助于浏览器作为媒体啊,是一个网页,但是呢,浏览器它会提供一个接口,是可以用来直呼直接访问用户本地文件的, 所以呢,我觉得用这个接口然后再做一个网页啊,那用户可以操作文件的同时,然后还不用下载安装,不输任何东西, 那就很方便了,对吧?但是我自己那个 agent 的 相对来说比较简单啊,然后是能力上差一些,所以龙虾开园之后呢,我是希望能把龙虾的能力接进来, 但是龙虾的代码呢,它是针对后端环境来写的,我这个东西如果是按我这个 agent 的 模式呢,它就必须运行在浏览器里面,它是有存前段的环境,所以相当于我必须要在一个存前端的环境下,把整个龙虾很多的一些 啊,特性啊特性全部重写啊,相当于重写了,挺复杂的一个项目,我觉得,然后今天啊,一天搞完了,就一天,就一天, 所以我觉得两个感受吧,第一就是工具与这个东西呢,它可能没有大家想象的差距那么大了,之前我看我说我看考拉的科德莱马还被喷了,对吧?呃,就是它那个核心循环能看到啊,核心循环是在一个 gs 文件里面,它那是能看到的, 然后呢,他那个循环很明显也很简单,然后提示词呢,他可能看的不是很全啊,能看到东西不全,但是相对来说也是比较通用的,所以核心的区别可能还是在记忆系统啊,还有一些提示词上面那各个厂家的工具可能差距没有大家想象那么大 啊,我在网上还经常看到说呀,这个东西不行,对吧?很纯,但实际上呢,可能是什么?就是说方法, 就是 ai 口令或者是 web 口令啊,方法上面能够起到的作用还是挺大的,所以接下来简单分享一下我的整个过程吧。啊,仅供参考啊。首先第一步呢,我就是直接把龙虾的代码考到 项目文件夹里面了,直接考过来,然后让 t r a e。 我 说你去给我读代码啊,读完了之后呢,你把龙虾的所有特性列出来,我这个当前 a e 认可的所有特性,你给我列出来做一个对比, 对比完了之后呢,我再去一条一条的看啊,这个接下来一个最关键的特点就是你自己还是得一条一条的去看,你必须得能看得懂那些特性到底是啥,你得能看得懂才行。 不是说现在你搞 ai 拷钉,你自己啥都不管了,然后也自己去搞啊,这个不可能的。然后呢,有一些特性啊,是我需要的,有一些特性呢,它压根就不现实啊,你说我把它拿拿过来用,不可能啊,有一些特性压根就实现不了的, 所以你自己还是得有一些判断在里面。然后完了之后呢,我把那些我要的特性列出来,我说你去给我设计方案,然后 t r v 开始设计一套方案,然后第三步, 在方案的基础上啊,这还没完,我会让他去做一个拆分啊,就是你给我拆分出来一个实现方案,就是第一步做什么?第二步做什么?第三步做什么?把这个东西拆分出来, 当然每一步之间啊,最好是不干,能互相之间不干涉的,对吧?拆分完了之后呢?第四步啊,直接去执行嘛,就是一步一步的啊,直接去写代码执行嘛,整个过程中我没有做任何的干涉,然后没有做任何的测试啊,整个过程中一气呵成,写全部写完, 完成之后的最终效果是这样子的,它写出来了一个超级大 bug, 然后改这个 bug 用了大概一可能有一个小时的时间,然后但是这个 bug 改完了之后呢,剩下的就是一些边边角角的小毛病了,然后整个的 a r e 就 到了一个可用的状态, 所以今天还是比较兴奋的一天,然后又把 t r e 这东西推荐给大家试用一下吧, 同时它还有个最大的好处在哪? g r e 最大的好处在哪啊?便宜就是便宜啊,我买的年费会员六百二十多块钱,九十美元啊,六百到二十多块钱, 然后如果你是用科斯这种啊,科斯一个月二十美元吧,应该是很贵了,然后如果你是用克拉克的这种你,那你得自己去买头肯,你自己买头肯的话呢?目前最便宜的是 g l m, 它是一个季度四百多 啊,所以总共算下来,大家可以算出来,对吧?六百二十块钱一年啊,还是非常便宜的一个价格,这讲给大家。
粉丝541获赞4947

昨天我们已经把简历优化工具的 mvp 版本做出来了,但是大家看到的最后的一个演示画面是非常的丑对不对?而且它的功能也是不完整的,简历诊断没有接入大模型。 ok, 今天我们就去把这两个事情给完善掉,因为今天有一个接入大模型这样的一个功能, 整个视频相对会长一点,大家可以先码住了再看。第一件事情是先做页面的美化,页面的美化有,除了我们之前讲过的简单描述加参考以外,其实还有一种方式,我之前有推荐过一个网站叫 ui to web 啊,你直接去那个网站上找到你想要的页面样式的一个风格,然后 copy 它的 prompt, 然后放到你的 builder 里面,告诉他参考以下内容,调整 ui, 然后同时进行一些字体的样式的适配 啊,那这个系统它就会根据你给到它的这个 ui 提示去进行一个调整了。好,那它调整完之后就是这个页面呃, 好看了一点,对吧?但是它离我们真正的发布上线其实还是有一大截可走,那这个事情我们可以留到这个分享课之后,慢慢的去跟 ai 去进行一个调整。第二点就是我们要真正的去接入 大模型,这里是一个相对比较专业和比较繁琐的一个点,如果大家吃的不是很准,你可以先跟呃 builder 去聊说,我现在要接入这样的一个大模型,请告诉我整个具体的接入步骤啊,这是一种方式,另外一种方式就是把我的这段 prompt 你 可以记一下。 首先第一个给本产品要接入 deep tech 啊,第二点就是要保留现有的网页结构不变。第三个就是当我点击真诚诊断的时候,你需要去调用 deep tech 这个接口,把用户的身份啊简历 j d 传给他。 那大模型的输出是什么呢?你需要返回给我的是三块内容,第一个是问题诊断,第二个是优化后的一个简历内容,第三个是职位匹配的一个建议。对,这就是一个 呃 prompt 了,你要去定义这个,你要用的是什么大模型,对吧?那我用的是 deep seek, 那 我告诉他,你可以去 deep seek 的 这个 url 是 这个地址,然后我要用的这个模型是 chat。 最后一个呢,就是你要告诉他的是,在我点击生成诊断的时候,页面就相应的要有一个 loading 的 状态,同时要去做好一个错误提示,然后如果成功的拿到了,那么就要有一个结果展示,对你听起来这个是不是就很长?是不是对你来说会比较的辛苦?那我们来总结一下,就是当你需要去调用一个大模型的时候, 你要先把你的输入的内容告诉他,然后你告诉大模型,我给了你一二三,你按照怎么样的格式给我输出四五六, 对,你把这个描述清楚就可以了,那他就会给我去构建了。啊,那这里还有一个点,就是我们要去调用这种 api 的 时候,你要去配置环境变量,什么叫环境变量呢?我们这里左边看到的这个, 呃, environment example 这个文件,你的 api key 是 什么?然后你的 url 是 什么?然后你的 model 是 什么?相当于是一个钥匙,我们复制一下,把它复制成 environment, 那 dbic 的 api 怎么去拿啊?你只要打开它的开放平台,然后去注册并且充值个十块钱,你就可以拿到 对应的 key 了。十块钱可以用很久很久,我大概三个月才用了两块钱左右。环境变量就是你的 api key 是 一个非常重要的钥匙,你不能把这个钥匙直接挂在你的家门口。 今天我们是为了把这个跑通,同时也告诉大家怎么样去接入这个大模型啊,来进行一个演示,所以我就先放在这里了,然后基于这个环境变量本身的一些东西,我们后面再去聊。 好,那在今天的整个项目里面,我们就做了两件事情啊,第一个就是把页面做好,看了到你能接受为止啊,不要追求太过完美,因为会浪费你的时间。那第二个就是我们把 ai 真正的给接上了,通过 api 调用的方式来进行一个对接。 是那这个版本虽然我的样式还是很丑,但是它已经接近一个真正的产品了,因为它的功能是能够跑起来的,只要在 课后我再去调整一下样式,就是可以发布上线。那么后面一节课我会先来给大家补一个知识,我们要去看懂一些代码,在后面我们会花两节课的时间来把这个作品发布上线。 ok 啊,那今天就先聊到这里啦,拜拜。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

前几天我给他介绍了一个可以预测 k 线的 a 压模型啊,很多朋友在问怎么安装,今天我就跟大家讲一下这个具体的一个安装步骤。首先我们进入那个 geth 以后,然后呢搜索啊, crooks, 搜索完以后,他会进入他这个一个介绍页面,在这个扣的这个位置, 咱们直接下载它的一个压缩包啊,下载成功了,下载完以后我们把它解压缩啊,我这个是解压缩直接放在第一排,在这第一排下面啊,就会有一个 crooks 啊, master 的 一个文件夹。然后呢我们又去哎 a r 编辑器去打开这个文件夹 啊,我这些是已经打开过了,打开完以后这里会显示所有的这个文件,然后呢这有一个 requirements 的 一个文本文件,这里面都是需要安装的一些依赖包,我们先把这些依赖全部安装, 那他就会把这个我们这个项目需要的一些依赖全部安装完成,自动安装 好,现在这个所有的依赖已经安装完成了。安装完成以后,我介绍一下这里面我们重点的两个文件夹,一个一个 zenpus 啊,一个 web ui。 web ui 很 简单啊,就是用来它有一个 web 界面, web 界面啊,一个 zenpus 是 它的一个四个四 d, 那最重要的就是里面有一个 c m r case, 对 啊,一个 py 的 一个文件,这里面就是可以通过 excel 获取我们 apple 市场的一个某一个代码的一些数据啊,日 k 数据,其他的它是导入本地的一个数据,它有一个私立数据, 保留那些那个视力数据,然后做一些预测啊,然后生成一个预测一个图,那这个文件这里面有有地方要建议改一下。第一个这个贝斯这个模型啊,它贝斯比较大,下载的过程中可能时间太长了啊,我们测试的话就没必要了,我改成 smart 什么小一点啊,就直接去照那个背时的话有一百多照,改什么?然后呢?下面最下面啊,有个代码啊,零零零零幺啊,大家都知道这什么票的代码,这个就你想改成你想要预测的那个票的代码就可以了,我这这就是默认的。然后呢我们在这里就直接点,直接输入 运行这个文件, play dictionary, c n 啊, market 对 点 p y 啊,你看它使用默认的啊,零零零零幺进行测试,你看它这里就写了啊,需要使用 x c 二库获取历史数据,代码是零零零幺啊,进行测试, 然后看到没有,这里面它有个预测结果,它输入到这个 output 这个文件夹下面产生一个 c s v 的 一个文件,然后呢还有个预测结果图表在 output 这里面啊,有个 p n g 的 一个图,那我们打开这个图看一下啊, 啊,这里就有个图,这里是数据,这里是图,这图的这个后面这个红的就是一个预测的数据数,预预测的一个走向。 然后呢这个是通过运行我们这个文件来实现它这个目的啊,那我们怎么用 web ui 呢?怎么用 web ui 去实现呢?啊?我们运行这个 web ui 啊, 把这个界面打开以后,它是全英文的,等一下我们把它换成中文的,我们看第一下它是选择模型,这里我们测试,我们就选择什么模型就好了,然后这个地方选 cpu 啊,如果你的电脑没有因为达到 gpu 的 话,就直接选 cpu 啊,它可以运行的,然后点加载模型, 它就会加加加载成功提示啊,这下面的话呢,它是导入数据,但是它是从一个固定的叫做加载的一个文件夹里面去导数据,我们默认它是没有数据的,而且我们这种操作也不方便,所以我们也把这个地方改成什么?改成输入,呃,我们的股票的代码以及需要一个历史长度,然后去加载数据,我们现在去改一下,第一个就是改这个 导入数据的地方,第二个就是把整个的一个界面改成中文的,接着我们这个回到我们的 ar 编程软件, 然后在那个提示词这里输入一段的提示词,修改我们加载加载这些数据的部分,然后呢把前端改成中文来看一下,这就是我自己经过修改获得一个展示一个效果, 这里模型我选的是什么?然后呢?下面他可以通过输入代码,一个历史长获取一个,从 x 二获取一个在线数据啊,一个数据获取完以后,他会自动下载到本地啊,这个地方就会自动选择, 然后其他的基本上可以动不动直接可以预测,预测的话它就会有一个呃一个图标出来,下面是一些上面这个是预测的数据,上面这个是实际的一个数据,历史的数据 啊,在这个我们用那个 ar 编程软件呢,修改的过程中,它会经常弹出这个界面进行调试,大家可以不用管它,不用管它,一直等它修改完为止,如果报错的话呢,你就把错误丢给 ar, 丢给 ar 编程软件,让它再重新修改,大家可以去试一下。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

扣你鸡娃,我是小孙。时隔多月,今天教你们在手机上本地部署一个 ai 模型,不用联网,也不需要复杂的命令行操作,关键还可以搭配破甲模型使用,它就是 pocket top。 这是个轻量级 ai 模型运行框架,界面超简单,支持 d u f。 呃,这种适合手机跑的模型,完全不用代码基础。 第二步,去哪找模型?我这里为你提供两种方法,一、摩乐社区浏览器搜摩乐社区, 进去直接找想要的模型,下载导入即可。二、我的网盘资源找不到破甲模型,迅雷搜索鱼鱼的保障,进资源盘就能看到怕甲模型文件和提示词,保存下载后直接导入即可。网盘里我还放了往期视频的资源,需要的可以了解一下。 第三步,导入模型超简单,在网盘下好模型文件,然后来到传输页面,点击左上角的下载,等到模型下好后,点进去,点右上角,打开本地目录, 就可以看到刚刚下好的模型。然后选择移动,选择手机系统文件,这里随便选一个记得住的文件夹临时放置,我就放在电脑目录,然后就可以退出。来到 pocket 号,打开 pocket 号,点击右下角的 go to model, 这个界面的模型不用管它,需要科学上网才能下载。先点右下角有个加号,点它选添加本地模型,添加本地模型,找到你的模型,等着加载完成。导入后,模型会出现在我的模型 列表里。重点来了,每个模型右边有三个按钮,第一个,删除不想要的模型直接删。第二个,设置,这里能加提示词,这里就不多说了。第三个,开始聊天,点它就能跟 ai 进行友好互动了。 这次就有人要问了,这手机上部署有个傻子 a a 有 啥用?这手机上部署个傻子 a a 有 啥用?重点来了,破甲模型和角色提示词。我在网盘里准备了提示词库,让他帮你写小说,甚至模拟特定角色聊天。当然了,咱得用在正道上。在这里要特别提醒大家, ok, 好,虽然能让我们在本地现运行 ai, 但任何工具的使用都要遵守法律法规和品牌规范。分享的模型和提示词仅限于合法合法合法合法正当的学生创作与交流,严禁用于诈骗、钓鱼、传播违法信息或其他危害他人及社会的行为,请大家务必使用。尊重隐 私,保护数据安全,让技术真正为生活带来便利,而不是风险。不要当罕见的人,就这么简单。从找模型到聊天,全程离线,隐私拉满,方便便捷。今天教程就到这,我上次正式更新时 到现在应该有两百多天了,中途也有一些朋友来催更或者来鼓励我,我也非常感谢各位!还有,以后我可能会选择更换其他形象来更新视频,所以孙孝川小课堂可能要绝版了。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

好,今天给大家分享一下跑本地大模型的一个现状。首先这是一个 java 的 编辑器 dear, 然后它装了一个插件叫做 continue, 然后这边是一个 lm studio, 这个是加载本地大模型的一个件,然后我也装了龙虾,但是没有用,用的是这个 continue 这个插件。然后今天从早上八点到 现在下午的是快六点,然后就做了一件事情,就是这一个页面,它要实现一个什么功能呢?就是上传一个本地文件,然后保持原文件名不 传到服务器上的一个目录下,然后在这里列出列表。呃,我一点代码都没有写,全部让这个大模型跑了整整一天,然后结果是什么呢?它确实是可以选文件,然后也可以上传,也可以到这边服务器上有响应,但是呢,它会自动给你加这个,后面有这个版本号的名字,就 自动给你创建创建一个子目录,现在我让他把这个子目录去掉,全部都上传到一个指定的根目录里面去,然后今天就是差不多改了两三遍,但是现在还一直没跑完,然后这是代码,他写的代码,然后其实还是就是很成熟的,就是能够能够跑的通, 但是目前还不能用,因为他也没有达到我这个需求。然后这边的配置是四零九零,然后加一个一百二十八 gb 的 内存,如果说你想让他跑 一个单独的功能模块,其实他还是跑不通的,很多地方都不是你很满意的,最好是你如果写代码当当成一个助手的话,最好是能够把你的需求拆解成小功能,然后一个一个的让他去 实现,那这样的速度可能会快一点,但是这样的速度是快了,但是又面临一个什么问题呢?如果说你把这个功能拆的太碎,那我还不如去这个网页版的。 呃,这个谦问上面去,或者 deepsea 上面把这个代码贴上去,一段一段的去问他,然后再贴回来。现在这个就是很尴尬,就本地跑有点慢,但是你给他太抽象的,他又做不了,所以说就还是有点纠结。呃,这个只能自己做一个权衡和取舍了。就是说如 果说你要让他把这个框架搭建起来,然后自己再一点点去修改,那现在应该是没有问题。框架搭建起来,我可以把代码复制出来,哪部分要改,然后让他再单独改。这个没问题,但是就是会比较麻烦,想完全省事几乎是不太可能的。我就 这个,如果说你完全付费去烧这个 toon, 就是 去网上买这个云端的资源的话,也不太靠谱,像这种本身就是低预算没有收入的项目,然后你让程序自己去写,自己去改,它要跑好久好久。现在大模型基本上文字对话这方面基本上是没有任何问题了, 视频生成就另当别论了。但是文字对话写代码这方面,特别是 python 啊,还有 html、 css 这些主流的前端的这种高级语言,写起来非常的成熟。然后如果说你想让 你在睡觉的时候他在工作,那么你就给他布置一个比较复杂的任务,基本上像四零、九零跑这些代码任务的话,大概跑一个小功能,就是一个比较抽象的小功能,就是你要他,就是你告诉他你要什么功能,帮我把前端的代码, 前端的页面设计出来,然后再把代码写出来这样一个小小的上传功能。呃,在这个四零九零跑,它的效率大概就是大概就是两到三个小时,会把这个东西给你跑出来两三个页面,两三个程序文件,然后现在用的是千问的千问三 code max 也可以用这个千问二点五, 一个是,呃,一个是四十 gb, 一个是八点九 g 二点五的,这个我还没有测试,但是四十 gb 这个跑的效率大概就是这样,这就是一个真实的现状。 好,现在已经出来结果了,调试成功了。现在上传之后呢,看一下上传后呢 m 键钻出来。但是有一个问题,就是它这个 zip 文件在这 m d 五跟我想要的不是一样的,它把这个 zip 的 原文件名加上这个 m d 五的后缀存起来,然后代码呢带在这里。我觉得我应该把 把那个,哎呀,这个还不太好定位,只能是在 zip 包后面点 m d, 把整个 m d 都放进去,这样可或者改成一个去掉 zip, 改成 t s t 文件,这样也可以,总之就是在这改一下就行了。那基本上这个代码算是跑通了,跑了一天,可能也是因为我这个不太熟练的原因,跑了一天可以了。

好,现在是四零九零一百二十八 gb 的 内存,本地的大模型,现在是千问的二点五 hold 十四 b 看一下,然后上下文是给它拉到了最高多少,上下文是三二七六八,然后让它写代码。现在是 idea, idea 装了这个 continue 的 插件,然后现在它给它生成代码,一行一行的。 以前生成的代码是 system arrow print, 就是 直接打印到这个控制台上面的这个日制,我现在让它改成了 log 这个往上面去看,我给它在里面加了一行代,就在这上面直接加了一行代,用的是这个日制,名字叫做 s l, f 或四 k or java 的 这个 log, 然后这边加了一行代码。加了一行代码之后给他下了一条命令,就是让他把这个 system 的 这个代码直接用 log 打印出来,然后一行一行的再打印,然后这整个的文件大概是有 看看多长,整个文件是四百零二行,然后这个已经过去了差不多十分钟了,一行行的出,他比这个千问的这个三的那个模型好像并没有快多少。昨天我发了一个千问三的那个,那个模型是, 呃,四十 g b, 大 小是四十 g b, 现在这个是大小是八 g b, 八点九九,相当于九 g, 那 个是四十 g。 我 以为换成这个小模型,这个出代码的速度会快一些,但是好像是并没有变快。这模型的出代码的速度并没有变快, 但是输出蛮稳定的啊,基本上它就是现在你看它的 catch 里面的这个 i o 全部变成了 log 了,往上面它也会一行一行的给你存到这个缓存里面先,然后再把它最后输出成 log。 还可以,就是这点代码如果我手动改肯 肯定一会就改完了,用不了十分钟就改完了,但是让他出的话,现在十分钟过去了,刚把这个上传的这个也就是说刚应该做到哪了?是 get get 上传的这部分,也就是说现在四百多行,刚刚出到这个一百多行,刚刚到一百二十五行,这个绝对没有自己手改快啊。但是 你现在可以让他在写,然后你去干点别的,洗洗衣服、做做饭什么之类的,反正就是你干点别的,他写好了,你往里面一粘贴就 ok 了。这个就是确实是省劲了,但是并没有在效率上提高多少。

最近这个龙虾啊,真的是太火了,前几天腾讯楼下的工作人员免费给大家安装了龙虾,真是人山人海,有两三百人排队,甚至还有很多人没有排上号。所以今天我也来给大家讲讲如何安装部署,不用排队,自己在家就能安装了。当你一不小心突然想配置一个在国内可以用的中文版小龙虾 agent, 聪明的你呢,就打开了编程软件 tree, 非技术背景的你啊,直接可以在对话框里面和 tree 说帮我配置 no 环境, 几秒之后呢,按照小龙虾的前置条件就解决了。然后聪明你呢,这个时候就在 github 里面找到了这个中文版的小龙虾,确认这个版本的小龙虾是在国内也可以用的,而且还能够通过飞书对话给它下指令。于是你就直接在这个网站里找到这三段神秘的代码,先把第一行丢给 tree, 几秒钟之后呢,就搞定了。接着呢,你再回到刚才那个网址,把第二行代码复制后再丢给 tree。 这个时候就进入到了紧张的部署环节。第一个问题,问我们是否理解有风险?回答, yes。 第二个问题,选择引导模式,选快速引导模式。第三个问题,选择配置现有值。第四个问题,选择模型商,因为之前在 deepseek 充了 token 啊,所以我就直接选择了 deepseek。 然后第五个问题是让我们提供 api key, 聪明的你呢,这个时候打开了 deepseek 的 官网,点击开放平台,点击左侧的 api keys, 然后快速创建一个,并且把这个代码复制后丢给 tree。 第六个问题,我们默认模型就选保持当前。 第七个问题,跟我们使用什么与小龙虾沟通,我们选择飞书,然后选择使用本地插件,选飞书国内版。 这个时候聪明的你就搜索飞书开放平台,登录后点击右上角的开发者后台,点击创建企业自建应用,然后随意输入应用的名称和描述,然后就创建好了。 这个时候呢,点击左侧添加应用能力,选添加机器人,然后点击权限管理,再点击批量导入权限,获得对应的接入文档, 这个时候输入第三段神秘代码,然后就开通了所有需要的权限啦。接着呢,我们点击左上角的线上发布,随意输入内容后就完成了发布。那么接下来有毅力的你再坚持一下,把应用 id 的 秘钥呢,分别复制给翠,然后回答最后几个问题,分别选 yes, np 和暂时跳过钩子。好到这里恭喜你,小龙虾的部署完成了,有毅力的你呢,也决定再把最后一步飞书也配置好。 这时候聪明的你呢,就回到了刚刚的飞书应用页面,点击左侧的事件一个回调,选择订阅方式,添加一个长链条并保存,然后点击右下角的添加事件,搜索接收消息,然后点击确认, 这时候再次点击上方的创建新版本,仍然是随意填写内容后完成发布。好了,现在恭喜你,你已经可以在飞书里给小龙虾下指令了。

大家好,最近大家都应该刷到那条新闻了吧,深圳一个程序员用了某个在线工具,才三天就花掉一万二,全是掏坑费用,真的太吓人了。很多朋友跟我说,现在都有掏坑焦虑了,不敢随便用,不敢随便问,生怕一个不小心就扣费, 其实真的没有必要,今天我就教大家一个完全免费,不靠 talkin, 不 联网也能用的方法。本地部署大模型用到的工具就叫欧拉玛,它就是专门让你在自己的电脑上快速跑大模型的,像什么 deepsea、 千问这些主流大模型全都能本地跑。 接下来我就一步步带大家操作,跟着我做,你也能轻松把大冒险装在自己的电脑上。首先我们打开欧拉玛的官网, 这个时候我们会看到右上角有一个下载按钮,来我们点击一下, 在当前页面我们就可以选择适合我们操作系统的版本, 那么我的是 windows, 我 就选 windows, 然后继续点击下载按钮,这个时候呢就已经开始下载了,因为这个文件比较大,它需要的时间可能会长一些, 然后我们就找到我们下载完的这个文件,双击 双击之后就会开始安装,然后我们进行下一步 啊,等他完安装完成以后呢,他就会自动启动,那么这个时候呢,就出现了这么一个界面,就说明已经安装成功了。 我们来看一下这个界面,这里呢给大家说一个小技巧,如果在安装过程当中遇到什么问题,我们可以把问题发送给抖包,让抖包来协助解决。 那么接下来呢,我们就来验证一下欧莱玛是否运行成功, 当我们看到这个反馈界面的时候,就说明已经成功了, 那么这里呢,我也会把一些常用的指令分享给大家,赶快去下载试试吧!

还没有安装 openclock 或者不会安装的小伙伴们,我建议你们安装一下 tree 啊,这种 a 诊断可以使用 ai 在 本地执行命令行操作,你完全不用懂代码就可以让 ai 帮你完成一大堆的专业配置。今天我来演示一下啊, 打开 tree, 在 对话框中直接把这句话复制给 ai, 这是 openclock 的 官方文档,请帮我根据该文档指引在本地安装 openclock。 好的,我也会把这句话复制在评论区,各位可以在评论区取一下,然后就一路下一步或者允许翠来执行命令操作就可以了。好,用不了多久 ai 就 会显示安装完成,他会在本地起一个外部服务。我们复制这个网址,在浏览器中打开, 我叉无法访问,应该是服务没有启动啊,让 ai 启动服务好,重新打开浏览器。 ok 了,但是出错了,提示未授权,丢失 token, 我 们把这个错误直接复制给 ai, ok 啊, ai 重新给了一个带 token 的 链接,我们复制链接,再次打开浏览器。 好了,这次正常了,跟 ai 说你好,又提示错了是吧?这是没有提供 api k, 它默认的是 osrbic 的 模型啊,那我们不用它默认的,我们用国内的 deepsafe 模型,或者你选择你喜欢的模型也可以啊, 让 ai 直接对接 deepsafe 模型,把 api k 发给 ai, ai 让我选择网关,我们选择本地机器,然后他让他又让我选择模型,直接打断他,告诉他不要再让我选择模型了,直接帮我接入 deepstack, ai 开始一顿操作。 好,等 ai 操作完以后啊,再打开刚刚的网址。 ok, 这次龙虾已经可以跟我对话了,说明模型已经接受成功了。龙虾现在要跟我认识一下,让我给他取名,那我就跟他说,你就叫大龙虾, 我希望你专业干练,然后给我推荐几个签名 emoji。 关于我呢,请叫我老板,我在中国市区。 ok, 发给龙虾基础配置就激活了,现在就可以正式的养虾了,是不是很简单,还没有养虾的小伙伴赶紧收藏养起来吧!

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。