大家是不是都遇到过 open cloud, 跑起来特别爽,但 token 烧的是真快,我之前用硅基流动的 a p i, 随便聊几句,跑几个操作,几毛钱就没了,更别说 gbt cloud 这些多轮对话工具,调用费用蹭蹭往上涨,长期用真的扛不住。 今天给大家分享一个实战级省钱方案,直接把 openclub token 成本降到零。核心方法就是本地网页代理转发,我用 notejet 搭建一个轻量本地代理核心做一件事,接口协议转换与参数兼容。因为 openclub 默认走 openai 格式, 而网页版 ai 接口结构不一样,所以代理层要把 messages、 model stream 这些子段重新映设。把 opencloud 的 请求体转换成网页接口能识别的格式,再把返回结果逆向转成 opencloud 等解析的结构,全程不需要 a p i t, 不 消耗官 方 token, 完全兼容。 opencloud 也有格式,不用改原码直接就能用。使用步骤也超级简单,第一步,用 note g s 启动本地代理服务,做好请求与响应的参数转化。接 第二步,修改 opencall 的 配置文件,把 bashil 指向本地代理地址。第三步,保存重启,直接正常使用,控制电脑、跑酷动画、执行任务都不受影响。这个方案成本极低,部署简单,非常适合个人学习,日常轻量化使用,彻底告别透坑焦虑。 最后提醒一下,本方法仅用于技术学习和个人测试,高强度正式场景还是建议使用官方 a p i, 更稳定也更合规。学会这一招, openclos 随便玩,再也不用心疼 token 了。
粉丝96获赞994

人人喊贵的 open call 到底该怎么省钱?最近啊,无数 open call 的 用户哭晕在了厕所,明明是想请个数字员工帮自己干活,没想到他却实打实的是一个吞金兽。网友们纷纷晒出了账单,一个免费开元的产品,每天呢,却能花几十上百美元。其实啊,这真不能赖 open call, 因为你花的每一分钱都是在为 token 买单。 咱们都知道啊, token 是 ai 理解和处理文本的最小单位,所以说呢,只要让 ai 帮你干活,它就会消耗 token。 比如说,你好,今天天气怎么样?这句话大概就包含了八个 token。 普通的聊天机器人呢,消耗很少,但是当你把它当成任务来询问 a 整数的时候,消耗量就会大得惊人。因为呢, open call 要求大模型的时候,除了要提交你的问题,还会打包发送历史的对话。 英姐呢,按 skills 执行任务,做网上搜索、读取本地文件、反复推理等。这一套组合拳下来,后台可能已经和大模型交互了十几轮。所以你的这一句,今天天气怎么样,实际的消耗啊,可能高达八千到一万五个。输入 token, 如果是整理邮件、写代码,或者是对接其他的工具, token 越用越多,账单呢,自然水涨船高。如果啊,你设置了一个夜间的检测新闻早起汇报的任务,那一夜烧光所有的 token 也就不奇怪了。 那有没有什么低成本用上大龙虾的方式呢?我最近呢,就总结了三个省钱的小妙招,大家可以试一试。首先呢,就是选对模型。大家在看 openclaw 的 攻略时啊,肯定会有很多人说 jimmy 的 效果好, claw 的 能力强,那对于大多数而言呢,用于 openclaw 可能只是想让它做一些简单的工作,并不一定要实现极致的性能。 国产的模型的价格只有海外模型的四分之一左右,所以啊,完全可以考虑用国产模型的 a p i。 如果你有专业需求,比如说代码、文字等等,那针对性的研究一下就可以了。打开全球 toker 消耗量的排行榜啊,前五个已经有四个都是国产模型了, 全球 ai 的 用户啊,都在用脚投票。其次呢,一定要多关注各家 ai 厂商的套餐,就比如说这个套餐呢,它并不会按照 token 来收费,而是开了一个固定价格的会员之后呢,就能按每五个小时问多少问题,最少的呢,是四十个, 我感觉大部分人一天都问不了四十个问题,那这个价格几乎相当于就是一天一块钱随便用了。甚至呢,还有一些平台的套餐,首月七块九两倍蜜雪冰城的价格,他敢让我一个月发一万八千次的请求,还是四款大模型随便选。国产 ai 的 这个价格,老外看见估计就得哭了。 另外呢,如果你是一个坚定的白嫖党,也可以看看阿里云、 deepsea 或者智普,他们也会有一些免费的额度啊,可以薅羊毛。 另外呢,咱们还可以从节流上下功夫。现在呢,各种 opencloud 的 大神呢,都在分享好用的 skills, 它除了能帮你完成任务之外,也有能帮你省钱的功能。 比如说呢,你让一个没有安装 skills 的 大龙虾来帮你写一个 ppt, 那 它呢,就会尝试用各种途径来完成任务,网上搜索写代码,调用本地工具之类的。这个过程啊,不光会消耗头肯,而且还会降低效率。 如果咱们安装了 skills, 它就能够直接指导大龙虾来工作,省去了不少的误用工。而且呢, skills 比 mcp 啊更实用。如果是利用 mcp 来调工具, open class, 就 要把 mcp 这个巨长无比的手册读完才会开始工作,浪费 token 呢,还低效。 而 skill 的 手册就会把目录和指令区分开来,这个 ppt skill 啊,就只用了一小段话描述清楚了自己的功能,只有在需要处理 ppt 时,它才会继续去调用剩下的指令。 这样一来呢,少浪费一些头肯,也能省下不少钱。其实呢,这次 openclaw 的 付费焦虑在整个 ai 行业还是头一次出现。大家在过去啊,习惯了为会员付费,哪怕是贵一点呢,也是一锤子的买卖。但是这次呢, agent 调用 api 的 玩法却是让大家开始为头肯付费,看着花出去的钱,感觉还是很肉疼的。 toky 的 主要成本除了算力以外,更多的是消耗电力,美国的 ai 工业用电的成本比咱们国家要高个好几倍,所以呢,用海外模型的 tokyo 呢,自然也要贵上不少,中国 ai 也有了 tokyo 出海的机会。那么你还知道哪些关于 open color 省钱的小妙招呢?评论区里分享一下。

你每在 opencall 里问一句你是谁,或者今天天气怎么样,都在白白烧掉昂贵的美元。这种无效的 token 损耗其实完全可以避免。接入这个开源插件 c i a e w z max, 它能让你的 token 账单直接脚踝展,最高狂省百分之九十八。它不是靠牺牲模型质量来省钱,而是通过本地代理,在不到一毫秒的时间内,对你的每条提问进行十四维度的智能评分。 简单的动作,走最便宜的模型,真正硬核的需求才调用顶配。现在就去 get 搜索 v 五一 ai 斜杠 c l a w 思慕 max 下集我带你拆解他不花一分钱投坑就能做决策的底层逻辑。别忘了关注,这可能是你今年最省钱的一次点记,很多人担心在 opencloud 里加一层路由判断会不会拖慢响应速度? 完全不会。这个插件在本地起了一个极轻量级的代理层,它会对你发出的每一条 prompt 进行十四个维度的关键词扫描。这个过程完全在你本地 cpu 上运行,耗时不到一毫秒。最关键的一点,这个评分过程完全不消耗任何云端 token。 这就好比你在家门口雇了一个火眼金睛的保安,他一眼就能看出来访者是来送外卖的还是来搬家的,根本不需要打电话去总部请示。这种本地化的硬核决策,是你实现最高百分之九十八省钱目标的第一道关卡标记。玩复杂度, 剩下的就交给智能路由。当你开启 c l a w z max 自动模式,系统就开始展现真正的超能力。 如果你只是随口问一句你好,或者查询简单的语法,插件会自动把流量切到最便宜甚至免费的模型上。只有当你甩出一个极其复杂的架构设计或者深度 bug 需求时,它才会精准调度最顶级的模型。 这种切换在后台是完全透明且丝滑的,你感知不到任何区别。但月底看账单时, 你会发现,自己一直享受着顶配模型的智力,却只付出了极小部分的 token 费用。下集我带你实操如何获取 apikey 并完成部署。记得关注这套方案,能帮你省下大笔开发预算。为什么要选 zmax 做底层? 因为它解决了最头疼的模型碎片化问题。一个 apikey 就 能直接调动一百多个顶尖模型, 你再也不用去维护那一堆乱七八糟的平台账号。它完整兼容 open ai 和 antropic 两大协议标准, 你现有的开发工具改个地址就能用。最核心的是,它跑起来极其稳定,是目前大规模智能调度的最佳底座。这就是省钱又不降智的底层逻辑。下一集,我带你进入终端, 直接配 key 跑通流程,还没关注的朋友,点个关注,别错过最后这一步。实操部署拿到 zmax 的 api key 之后,直接在终端执行这行命令, 用 echo 把你的密钥写入到加目录下的点 open claw 斜杠 j m m t t 斜杠 api 点 key 文件中。 这里的等号是赋值操作,横杠是路径分格符,千万别写错,这个路径是插件读取权限的硬性约定。 如果你习惯使用配置文件,也可以直接在 open class 点 json 里进行定义。这一步完成后,你的智能路由网关就已经拥有了访问百大模型的通行证。虽然十四维评分很聪明, 但有时候你可能想手动指定,在你的消息开头加入 close max 横杠 auto 这种指令就能实现强制层级路由。 比如你要处理复杂的图标逻辑,直接在 prompt 里带上特定的参数标记插件,就会跳过本地评估,直接把请求打到你指定的模型水位上。到这里,你的 open claw 已经彻底完成了省钱进化。 下集,我将带你深度实测不同模型在极端压力下的路由表现,看看它到底有多稳。点个关注,后续更多 ai 提效黑科技准时推送!

给大家介绍一下,就是可以节省 token 的 一种方法,就是使用 qmd。 当然安装使用也非常简单,我们可以直接安装 select, select 是 支持是一个轻量级的数据库,然后它支持有项链搜索的一个插件。第二个就是 qmd, 我 们直接安装,配置也非常简单,直接加一个 memorize memory 的 一个配置,加上 backend, 使用 qmd 驱动,然后更新的频率是五分钟更新一次。 当然我们也对照着官方文档 agent memory, 然后 q m d backend, 它这个地方讲了怎么去安装,直接安装它,然后官方推荐的一个配置 完之后,直接重启 opencloud 切换,我们就可以看到 我们这个 a 镜子的下面会有一个 kmd 的 文件夹,这个文件夹里面会有这个,这个配置主要是写它,呃,搜索的哪些内容,就是我们的搜索我们 memory, 然后每天的 memory, 然后同时它这个 select 会在这个地方创建一个 select 数据库,我们也可以看项链数据库,然后他把我们的那个 所有的记忆文件,就是引白领之后存入这个向量数据库,后面查询的时候就可以以片段的形式查出来,因为因为以前他是一个 md 的 文件,他在那个 md 文件里面搜到之后,直接把那 md 文件就整体的就给大模型了,你搜到一个片段,他就会指 这是给这个上下文,它一个是一个是,它搜出来的是片段的话节省了多肯。再一个就是它剪辑的速度肯定更快,因为一个是在很多文件里面去剪辑,一个是在数据库里面剪辑,这个速度是有所提升的。通过讲 qmd 呢,我就想 讲一下为什么 open cloud 那 么的费 talkin, 然后去引呃,看一下它的这个核心的原理,地方有个 walk follow, walk follow 就是 代表了 open cloud 整个工作的一个流程,它首先要读取 soar 安全边界规则, soar 是 核心人格价值观的定义, i 定义法就是这个 open 这个信息的身份,身份信息 u 的 话就是我们本身我们自己的一些信息。 thor 就是 本地的配置环境的笔记,它这个这个配置的版本是长期长期的一个记忆,它每次启动的过程中都会把这些文件都 都读取一遍,然后带着用底层的一个代理,把 open cloud 和 大模型进行交互的时候,所有的调用的请求打出来的一个日制,大家可以看一下,这个日制非常的大,然后我们可以把这个日制调用的日制虚拟化的,看一下它为什么这么费 talk, 它在向这个大模型进行调用的时候,它有几个比较重要的子段。第一个就是 system, system 就是 它的刚刚那个工作流的核心的提示词都在这个里面, 大家可以看一下。就是首先那个就是那个 agent 确定一些边点工作流,他会辨别我给他定义的, 然后这个是长期记忆,有的时候我们这个地方会有个 catch control, 这个临时的 就是说我们所发的这个系统提示词在没有变化的时候,其实这个会命中大模型的一个缓存,然后这一部分的长,他如果长期不变的话, 这个系统系统提示词就不会费托管。但是如果你是因为这个默认还有这些数据一直在变,如果你是每次读文件的话就一直变,但是引入了 qmd 的 话,它可能就有缓存,它好久不变,而且它有一个截断, 他只会在搜得到自己需要用到的新的记忆的时候,他才会塞到这个新的提示词里面,然后让这个缓存一直可以命中来节省这个 token。 也就是说 kmd 为什么可以节省 token? user 就是 我们用户,然后 assistant 就是 opencloud 跟我们之间的一个对话,对话的历史一直都带着,然后这个 tools 就是 告诉了大模型哪些工具可以调用, 其实这个体式词就是 opencloud 的 一个核心思想,其他的,呃, skills agents 啊,其实都是在这些基础上面延伸出来的。

别再在 openclo 的 使用上瞎摸索了,高达百分之九十的人都用错了方法。今天咱们就通过错误与正确用法的对比,用一分钟时间教你掌握 openclo 的 正确打开方式。四到十五秒错误打开方式 错误用法大揭秘很多人把 oppo 科二单纯当成普通的聊天 ai, 只知道提问却不利用他执行任务。还有人一上手就盲目安装各种插件,结果软件越用越卡顿。更有甚者将权限全部开放,随意修改系统设置、删除文件。还有些人只会机械的复制命 令,根本不理解本地部署的逻辑。最终的结果就是软件卡顿,频繁报错、偷啃、疯狂消耗,却什么事情都做不成。 正确用法来了,首先要明确 opencloud 的 定位,它是能实实在在动手干活的 ai 代理,而不是单纯的聊天机器人。启动时先运行官方提供的一键命令,以最简方式启动,避免复杂的配置。 权限方面,只开启必要的权限,重要操作一定要先确认再执行。使用时,一个任务对应一个绘画,不要混淆,避免程序乱跑。部署时优先选择本地部署,这样既能保障数据安全,响应速度也更快。 错误示范,同时给 openclaw 安排写脚本、剪视频、搜资料等多项任务,软件直接崩溃。正确做法,让它专注于单一任务, 比如自动整理文件、发送邮件、填写表单、控制浏览器等。错误示范,全程在云端运行,不仅容易导致隐私泄露,成本还很高。正确做法,采用本地部署,在按需连接模型,既安全又省钱。总结加行动指令, 记住关键的一句话,欧芬科奥不是用来闲聊的,而是用来干活的。先进行极简部署,接着专注于单一任务,最后再按需扩展功能。结尾勾子, 要是你还不会部署 open club, 就 在评论区打出 open club, 我 给你发一键安装包和避坑指南。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

今天给大家分享一个项目,让你用最少的钱去用上最好的模型来使用这个 open curl, 因为我们都知道这个 open curl 小 龙虾,它的性能很好,而且非常有意思,但是它的 token 消耗太恐怖了, 如果你要用 open i 的 这种 codex, 五点二,五点三这种模型的话,或者用 cloud 的 这些模型的话,它可能跑一晚上,你明天就欠费了。 今天来给大家分享的这个项目是什么?可以让你把这些 cloud code, 把这种 etgrity 这种应用 它里面的会员额度给它套成 token 来使用这个 open curl。 当然你如果要用在其他地方也是可以的,比如说你想用这 codex 这个模型去在 cloud code 里面使用也是可以的。这个项目本质上就是一个怎么样把这些会员的 token 给它套出来, 把它弄成一个标准的 a p i 的 格式,标准的 open i, a p i 的 格式,让所有的这种应用都可以去调用。 ok, 我 们来看一下,我直接给大家看一下出来的结果是什么样。提起来这个服务,就可以直接到这个网址里面去配置了,这是它的一些仪表盘,你可以配置上你的这些会员 ai 提供商是什么? 一般我们用的话,用这个 codex 的 会比较多一点,像其他的是这种 jammer 或者 ideographic 的 cloud pro, 这种会员基本上就不用考虑了,因为在国内是非常容易被封的, 所以说基本上是不用考虑的。所以为什么要用这个?它的二十美金 plus 这种会员它有一些渠道,它会比较便宜,并且最近最划算的是什么?去买那种 team 的 账号, team 的 母账号,它还可以拉四个子账号,只要几十块钱,它相当于你一共有五个这种 plus 的 二十美金的会员账号,然后你有五个 codex 的 使用量,你只要登录授权, 登录了之后,它的这个网址里面有一个 token, 你 就直接复制到这里面提交就可以了,它可能会报错,但是不用管它,你直接砍看这个配额管理,这后面就可以,只要它这儿是有的,都可以使用, 就是正常可以使用的。还有这些配置面板这些,这个提起来也很简单,大家用 cursor 或者说用 cloud code 直接全选 给它复制,让 cloud code 的 去给你做配置就行了,就 cloud code 的 这些直接给你做配置就行了,但是它还是有些坑,但是 cloud code 呢?这 coser 这些它自己就能解决,它需要自己去配置一个 key, 这个 key 随便是什么都可以。还有一个坑就是我这 cloud code 第一次登录的时候,它把这个这个东西它搞错了, 他以为不需要这个后缀,他一直告诉我这个,我让他检查,他检查了半天才知道他是要要这个的才能登录进这里,提起来也是非常方便。总体来讲这个项目还是非常不错啊,他可以把这种 codex 可以 套出来,甚至你可以把你的端口 去做个内网穿透,或者搭在服务器里面,这个项目你就可以去卖 token 了。我也用这个 codex 这个模型在我的 cloud code 里面去跑了一遍,它是真的有点慢。 codex 这个模型,但是它的准确度这些没太大问题了,感觉跟 cloud code 是 没有本质的区别的,但是效果都还是蛮蛮不错。

兄弟们,用老本夸大概十天了,我跟你们说,这东西是真好用,可玩性非常高。但有个很头疼的问题,免费抽根不够用, 玩着玩着就超时,要付费。对我们普通玩家来说,一天抽根费就要上百块,真耗不起。所以今天我直接把我研究出来的 低成本白嫖 talking 免费套模型的方法分享给你们,先做我踩过的坑。一开始我去英伟达官网注册了免费账号,想用它的免费模型, 网上都说免费模型慢,我又下来,根本不是慢不慢的问题, 直接调用不了,没法设成默认模型。你们看这里哦啊,显示 no 用不了,服务商那些设置又太麻烦,我也懒得折腾。后来我找到一个最简单最稳的办法,先去注册一个 mini max 付费账号, 不用贵,我开的就是二十九块那种。把它配纸巾稳稳夸。 终点来了,这是最关键的一步,默认模型固定用 mini max 别动,但让它实际回答的时候优先用免费模型。我现在设置的是 优先用千万二点五,不行再走。英伟达那些免费模型, 八 b、 四 b, 十二 b、 三十 b 全都失败了,最后才走 mini map 付费。只要末音模型不改,这个顺序不乱,他就会先拼命用免费的,实在不行才走付费。 我亲测了好几天,非常稳,我现在一天玩十几个小时,查查资料,问问题,熟悉功能,偶尔聊聊天,抽根完全够用,几乎不怎么扣付费额度,等于白嫖。 这个方法我亲测有效,分享给跟我一样喜欢折腾 open call 的 兄弟,希望能帮到你们,我们下期再见!

今天教大家一个让你的 opencloud 免费联网,并且节省百分之八十的托肯消耗的方法。 首先我们都知道 opencloud 它是依赖这个小熊作为搜索引擎的,但是这个小熊它是需要付费的免费套餐,每个月只有两千次查询,而且通过这种方法, opencloud 它查询到的网页 跟我们人的肉眼看着其实是不太一样的。比如说我让他去官网查询一下,我们人看到的是这样子的页面, 但是 opencloud 眼里他看到的其实是像这样的代码页面,那像这样的代码他也能够读懂,但是肯定会浪费他的托管和上下文。于是就有了这么一个 scares, 它不仅可以免费配置,而且它会对 opencloud 搜索到的这个网页进行清洗,他看到的网页就会变成这样子的。虽然说在我们人类看来这种网页是非常不清晰,而且非常杂乱的,但是在 ai 眼里他就是一个排版清晰的文章和网页, 这里是搜索关键词的页面,也就是说它还可以利用这个 scales 去进行搜索以及一些数据抓取。这里就是 opencloud 官网的页面,那这个工具的名字呢?就叫 smartweb fetch, 我 们安装它不只是 让 opencloud 安装这个 scales, 我 们还要给他一行指令,让他去禁用掉它自带的这个网页搜索,这样的话就可以降低我们的托管消耗。

深夜紧急提醒二师兄,请所有使用 openclaw 即成飞书的用户注意,现在立刻马上去更改小龙虾原码的这个配置项,改完再回来感谢我 小龙虾突然不回复你!除了常见的网络连接问题或者 a p i 额度耗尽等原因,还很有可能是因为飞书机器人的调用次数达到了上限。 目前基础免费版的飞书企业自建应用 api 调用总量的上限为每月一万次,但是小龙虾默认每一分钟就会向飞书发送一次 api 心跳请求,目的是验证机器人是否存活,也就意味着即使你不使用小龙虾,不到七天,飞书机器人将不再响应你的任何指令。 那么解决办法分两步,第一步,修改心跳间隔,远程登录服务器,找到如下文件,将参数的值修改为八千六百四十万,即二十四小时。第二步,复制这段指令, 直接让小龙虾执行,完成后检查此处,验证配置项是否生效。这里是二师兄 ai 分享 ai 实操干货,欢迎关注!

很多人在 win 十上面装这个 open hello 啊,发现运行非常的慢,你知道是什么原因吗?来,我给你看一下,先打开这个任务管理器, 打开之后你在这个性能这里啊,你会看到有一个速度,对吧?这个是 cpu 的 速度,我这个 cpu 是 i 五幺幺四零零的啊, 你看现在的速度才才多少?一点多,对吧?一点多啊,来,我教你一个方法,你就按住这个 win 跟 x 键啊,然后在这个电源选项这里看到吗?电源选项打开它 啊,在这里电源模式好,这里选择最佳,性能 好,选完之后关掉它。这个时候你回来这里看啊,现在是多少?现在你的 cpu 速度已经跑到最顶,看到没?四点幺九啊? 四点幺九,这个时候你再看一下它快不快来,你现在随便开,是不是很快,对吧?

如果你在用 openglue 经营一个数值团队啊,你的头肯消耗又特别特别大的话,一定要记着用上一个向量数据库,也就说呢,他需要把你本地的一些知识啊文件转成一个向量数据库,而不要放在本地啊,这样不然会导致你的啊头肯消耗你是承受不住的。为什么呢? 因为这个 openglue 他 在处理任务的时候,他的任务过程中,他要去提取大量的文件,他一旦提取文件之后,就会把整个文件加入你的绘画,这样就会导致你的头肯呢与滚雪球一样,越滚越大啊。那为什么要用上向量数据库呢? 用上线的数据库的话,那你把你的这些知识文件进行项链化啊,存在一个外界的数据库里面,那他需要的时候,你就可以通过语义的相似度去匹配,匹配到这个文件可能需要的某一段落, 把它截内段截出来给到大模型去处理就行了,他不需要把整个文件加载到你的这个对话里面,这样就可以大大的节省你的 token 的 消耗,也可以大大的提高你的效率。注意啊,记得一定采用这种方式啊。