大龙虾 openclaw 确实用的很爽,但是头壳消耗就是太快,怎么办?今天教你怎么使用,一句话就能帮你减少头壳,使用至少一半。直接带你上手看一看。首先打开你的终端,输入 openclaw, 如果它能给你返回一段内容,说明是正确安装的。 然后输入 openclaw skills, 调出来你已经安装了的技能。在这里左边有对好 ready 的,是安装好了的 missing 是 没有安装好的。在你安装好的里面,确保你能读得懂每个 skill 它是做什么的。然后第三步,当你在你所有的任务之后,加上一句话,就是 使用你指定的 skill。 比如在这里,我让他编辑 pdf, 我 告诉他用 nano pdf skill 做这个任务,这样会避免他使用错误的技能去干这个任务,同时也避免在寻找新的技能的过程中消耗了头壳。如果你正确本地已经部署了 oppo pro, 赶紧去试试,这个方法也可以转给你正在用的朋友和同事。如果你还没有开始使用 oppo pro, 也想上手去试一试。 我们正好在 ai 工具小组里面提供手把手的安装教学以及进阶的课程内容。如果你感兴趣,可以看视频主页介绍,第一行专人给你提供更多的信息和介绍。
粉丝2822获赞1.3万

今天给大家分享一个项目,让你用最少的钱去用上最好的模型来使用这个 open curl, 因为我们都知道这个 open curl 小 龙虾,它的性能很好,而且非常有意思,但是它的 token 消耗太恐怖了, 如果你要用 open i 的 这种 codex, 五点二,五点三这种模型的话,或者用 cloud 的 这些模型的话,它可能跑一晚上,你明天就欠费了。 今天来给大家分享的这个项目是什么?可以让你把这些 cloud code, 把这种 etgrity 这种应用 它里面的会员额度给它套成 token 来使用这个 open curl。 当然你如果要用在其他地方也是可以的,比如说你想用这 codex 这个模型去在 cloud code 里面使用也是可以的。这个项目本质上就是一个怎么样把这些会员的 token 给它套出来, 把它弄成一个标准的 a p i 的 格式,标准的 open i, a p i 的 格式,让所有的这种应用都可以去调用。 ok, 我 们来看一下,我直接给大家看一下出来的结果是什么样。提起来这个服务,就可以直接到这个网址里面去配置了,这是它的一些仪表盘,你可以配置上你的这些会员 ai 提供商是什么? 一般我们用的话,用这个 codex 的 会比较多一点,像其他的是这种 jammer 或者 ideographic 的 cloud pro, 这种会员基本上就不用考虑了,因为在国内是非常容易被封的, 所以说基本上是不用考虑的。所以为什么要用这个?它的二十美金 plus 这种会员它有一些渠道,它会比较便宜,并且最近最划算的是什么?去买那种 team 的 账号, team 的 母账号,它还可以拉四个子账号,只要几十块钱,它相当于你一共有五个这种 plus 的 二十美金的会员账号,然后你有五个 codex 的 使用量,你只要登录授权, 登录了之后,它的这个网址里面有一个 token, 你 就直接复制到这里面提交就可以了,它可能会报错,但是不用管它,你直接砍看这个配额管理,这后面就可以,只要它这儿是有的,都可以使用, 就是正常可以使用的。还有这些配置面板这些,这个提起来也很简单,大家用 cursor 或者说用 cloud code 直接全选 给它复制,让 cloud code 的 去给你做配置就行了,就 cloud code 的 这些直接给你做配置就行了,但是它还是有些坑,但是 cloud code 呢?这 coser 这些它自己就能解决,它需要自己去配置一个 key, 这个 key 随便是什么都可以。还有一个坑就是我这 cloud code 第一次登录的时候,它把这个这个东西它搞错了, 他以为不需要这个后缀,他一直告诉我这个,我让他检查,他检查了半天才知道他是要要这个的才能登录进这里,提起来也是非常方便。总体来讲这个项目还是非常不错啊,他可以把这种 codex 可以 套出来,甚至你可以把你的端口 去做个内网穿透,或者搭在服务器里面,这个项目你就可以去卖 token 了。我也用这个 codex 这个模型在我的 cloud code 里面去跑了一遍,它是真的有点慢。 codex 这个模型,但是它的准确度这些没太大问题了,感觉跟 cloud code 是 没有本质的区别的,但是效果都还是蛮蛮不错。

带你看看我用 oppo pro 两周之内的真实消耗,再告诉你一个技巧,让你的头壳消耗直接减少至少一半,这是谷歌官方的 api 基本系统,我们来看看这个月我是用了十二美元,我使用的模型主要是 java 三 pro、 nano 三 pro 和 sunflash, 我 用它做一切的流程,自动化、视频生成、图片生成、代码生成。再看看我们团队的差不多有三十人,这两周用了七十美元,算下来每天就是五美元,他们用文字、视频、图片的模型做类似的用途。这样算下来,我们每人每天用 java 的 模型差不多就是五到十块人民币, 这个费用远远低于大家在网上说的数字。那为什么我们能做到这么低呢?告诉大家一个技巧,首先打开你的电脑终端,确保你的 open class 是 正确安装的,然后输进去 open class skills, 这里面会告诉你你已经安装了哪些没有安装,哪些打了对号的是安装的。当你认真读清楚你安装的这些技巧之后,在你用旁边和 open class 对 话的过程中,在每次做任务的时候一定要加上一句话,就是用指定的技巧。比如在这里我让他帮我修改 pdf 的 时候,用到了 nano pdf skill, 如果你不指名的话,他会调度多个,一个一个去尝试,所以很多头衔就会浪费在过程中。 如果你已经安装部署的 oppo core, 赶紧去试一试这个技巧,你会看到明显的头壳消耗的下降。如果你还没有安装,或者你不知道怎么去本地部署安装 oppo core 的 话,我们正好有一个 ai 工具小组,里面有手把手的安装教程和进阶的 oppo core 落地应用教学。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

你的 openclab 是 不是也是一只吞金兽?今天我用三分钟把你的 openclab 从这样调教成这样。首先我们需要准备两个 gpt 的 team 账号,然后我们需要一个开源项目叫 cli 杠 pro x y 杠 api, 它的作用呢就是把我们 team 账号的额度转换为 openclab 可用的 api 格式。如果你已经安装好了 openclab, 那 么你可以把这段指令发给他, 它会自己吭哧吭哧的给你装好。在安装完成之后呢,我们打开这个管理面板,然后选择 o r 登录,它会给我们一个链接,我们复制这个链接,去新窗口打开。登录完成之后,它会跳转来有一个打不开的网址,我们复制这个打不开的网址的链接,然后返回到面板 粘贴链接,选择提交认证,然后在密钥管理界面编辑一个密钥,把它的值复制下来。最后呢,就非常简单了,你只需要把刚刚的管理面板地址和你的密钥发送给 opencloud, 让他把管理地址作为工作地址,然后添加为你的 openai 密钥就 ok 了。

你做 a 阵塔,是不是觉得上下文越全,模型会越聪明?但现实里上下文如果不进行裁剪,那 a 阵塔一定会越来越贵。先说清楚一个概念,上下文窗口就是大模型的工作记忆。 很多 a 阵犯的错误是把曾经有用的信息当成了永远有用的信息,结果就是任务一跑的越久,上下文就堆的越来越大,偷困消耗自然就越来越大。 真正的记忆系统啊,不是把所有的历史都塞进上下文,而是通过裁剪压缩剪索,只把对下一步策略有用的东西放进模型里。上下文裁剪本质上就是 agent 的 记忆管理,一个简单的判断,下一步用不用得上,用不上啊,它就不应该继续占 token 了。

还在为龙虾消耗滔天而发愁,那么这个视频给你讲一种方法,让你的龙虾能够免费的调用商用模型,这里面有两个关键点,第一好用,第二免费。那是啥呢?接下来给大家揭晓啊。大家都知道,这两天智普发布了智普五的模型, 在性能上已经达到了 a 公司四点五的模型的能力了,并且超越了 g 公司三 pro 的 能力了。但是大家有没有发现,随着智普五的发布,在官网上咱们可以惊讶地发现它的四点七 flash 免费了,也就是说咱们可以在 opencloud 里面 免费的去调用它的次新模型四点七了,那么这样咱们就找到了一个免费的并且效果还不错的一个模型了。好,那怎么对接啊?啊?给大家来说一下,首先呢,你得确保你已经安装了 openclaw 龙虾了,安装完成之后呢,首先啊,先把你的龙虾服务先结束掉啊,结束掉之后呢, ok, 这个时候 打开你的龙虾的配置文件啊,配置文件呢,就在你当前登录用户底下的 opencloud 文件夹底下有一个 opencloud 点 jason, 把它双击啊打开,然后打开之后呢,咱们去找到三个地方啊,一个呢是 model 啊,在 model 底下去添加一个智普的 model, 这是第一个,然后第二个呢,在 agent 底下将上面你配置的智普的四点七啊添加到你的 model 和 models 里面就行了。 好,那么接下来呢,咱们就添加一下,这时候呢,我去添加到底下,然后加一个英文的逗号啊,然后给它随便去起一个名字,这个名字呢就叫做 j m l 吧。啊, 好, ok, 然后完了之后呢,哎,使用 jason 这种格式,先给它包包装上啊,然后包装上之后呢?好,这个时候咱们需要打开一个之前已经配置好的内容,然后将里面的内容啊复制到字谱里面就行了啊,好,那这时候呢? ok, 粘贴啊,粘贴完了之后呢,就长的是这样啊,当然里面的 base u l 需要改成咱们连接的四点七的地址,然后 api k 呢,需要改成 api k, 然后里面的这些模型呢,也改成现在的模型就行了。 好,那么咱们回到这边啊,它的地址是啥呢啊?地址是这串叉叉之前的,复制它,然后更新到 bash 里面。好,粘贴了,然后完了之后, api k 呢?咱们需要找到你的 api k 啊,然后在界面上咱们去创建一个 api k 啊,比如说啊 test, 随便就几个名字啊,就有了,有了之后呢,把它复制,复制完了之后呢?哎,粘贴到这就可以了啊,然后粘贴完了之后呢,那么还有 id, 模型的 id 和名称啊,那模型的 id 和名称的话,咱们就回到这边,在哪?在这啊,这是模型的名称,复制,然后把它进行粘贴, 然后粘贴就行了,那么这样咱们的 model 就 已经配置完了啊,咱们就有 g l m 这个模型了。好,那么有了它之后呢? ok, 复制它的名字啊,在咱们的 agent models 的 默认模型里面给它换掉,那么咱们是它加上斜杠啊,加上咱们的模型名称,复制它, 然后进行粘贴好,然后完了之后呢?哎,同样的,把整个内容全部复制,来到 models 底下,好找一个地儿啊,随便找一个地儿,使用英文的方式来给它进行粘贴啊,然后它等于啥呀?等于一个括号号就行了,这是一个标准的 get 格式,这个配置完之后呢,意味着咱们整个 open class 对接免费的模型就已经 ok 了。好,那么接下来咱们来看一下效果啊,那么看效果的话,咱们首先先打开命令行窗口,然后输入这一行命令来启动咱们的 open class 啊。好,那么咱们等它启动好了之后呢,问一下大模型它目前连接的是谁啊?好,那么这时候就启动了,那启动好了,启动好了之后呢,咱们可以在页面上去访问啊,也可以在其他对接的,比如说某书上去访问,都是可以的。好,那这时候呢,咱们就输入一下,叫做我给你配置了一个新的模型, 告诉我你现在连接的是啥啊?那么这时候呢,它很快就给我响应了,它目前连接的是啥呀?四点七 flash 啊,它是可以快速响应的,并且是免费的模型到这儿咱们就对接完了,这样的话,咱们再也不用担心 talking 的 消耗量了,既能食用龙虾,同时又没有 talking 的 烦恼,一举两得啊,我是磊哥,每天分享一个干货内容。

agent 是 不是觉得多反思一轮模型就会更稳?但实际上啊,反思可不是免费的思考,而是一次啊,完整的大模型调用在很多 agent 里啊,所谓的反思,其实就是任务跑完之后,把任务结果执行轨迹啊,再塞回模型里让它复盘一遍。 这一轮啊,会完整的消耗一轮上下文和推理的 token。 问题在于,很多的反思并不会改变下一步的动作,比如说工具返回是不是空,字段有没有齐全,这一步到底有没有成功等等。这些反思啊,本质只是状态的较验,却用了一整轮的模型来做。 这类事情其实完全可以用规则或者代码来解决,比如非空判断或者 skype 叫院等等, 不但速度更快,而且不会额外的烧头啃。有一个很实用的判断标准就是这轮反思的输出会不会改变下一步的 action, 如果不会,那这一步就是我们要准备下刀的地方了。

自己消耗了十亿头肯欧盟 club 国产热门大模型头肯消耗测评我来了,暂停,先看结果, 别着急,表格呢,我也已经整理好放在文档里面了,你们啊,全网都在找一些省钱的模型,我们就日常工作的场景就消耗和交付的结果来对比一下。先看一下这次参赛的选手,热门国产模型三喉结, gim、 mini max 和 dbic, 还有另外一位终极本地免费外卡选手奥莱玛。我准备了一个七千行的员工考勤表,让他去做本地的数据分析,最后产出一个可以汇报的文件发送到飞书。 ipsic 呢,响应时间很长,整个过程经过不停的催促和卡顿,花了挺长的时间。 mini max 挺利索的,五分钟左右吧,可观性呢,也很强。 glm 速度很快,可观性也很强,核心的动产部分展示更清晰, 沃达玛等了半个小时直接报险存,个人更偏向 g l m 五点零模型速度最快, ui 更简洁,观点也更清晰。头克数呢,也看了一下,基本上都是两百万到三百万之间,其中啊, g l m 两百万出头,另外两家都是三百万以上。 我们准备了一个三千字的会议资料,让他呢去提炼会议内容以及建议,并搜索网上的大模型数据进行佐证。生成一个可以汇报的文件发送到飞书。 deepsea 呢,响应时间依旧很慢,且一直有无效的回复。 mini max 呢,还是人狠话不多,直接就是干活。 gim 的 结构非常清晰好读,对比维度呢,也很全面。奥拉玛依旧等待半小时连接超时。在这里啊,已经可以看出 gim 五点零这次新出的模型已经拿出优势了, 在涛哥的消耗上呢,也依旧能省下百分之十五的领先表现。我们准备了一下常识逻辑的脚本题,去试一下他们的反应,看看 ai 们会不会看出零课时不加猫粮的反常识问题的反馈呢。这次很快,理论逻辑环环相扣,但是呢,他好像并没有考虑到常识上面的逻辑。 mini max 呢,由于接口问题,工具代用成功,但是不能回传,不支持本地脚本。 jim 五点零不错,最重要的常识逻辑呢,他会进行一个提示,他也发现了零课时不加猫粮的意图,他执行,但提醒你,这样的设定是不是为了洗猫粮盆 奥拉玛老规矩,连接超时。 deepsea 啊,在单文本任务上的反馈时间终于恢复了,不过呢,也仅仅只是停留在他只是一个还不错的执行者。最后,如果你的使用需求很大的话,需要他二十四小时不间断的工作。不管什么模型,都是推荐扣丁 plan 的, 月费小百元级别,轻松拿捏。 请做一些文员日常数据整理, ppt 内容输出。实际应用上来看啊,一个总结性的输出内容,各家用的 token 消耗都差不多。目前最新的 gim 五点零模型呢,有一点点的小优势。至于模型之间啊, deepsea 还是等四点零出来吧。现在这个状态呢,是不太理想的, 而且呢,也没有月费的制度。 mini max 呢,如果做一些 office 相关的工作的话呢,还是非常不错的,充钱呢,也比较灵活, 还有优惠。对于前面试的两个案例的总结啊,其实整体花费也就一块钱不到,最全能的呢,还是 g i m 五点零,想要一个一直在线的能写项目能聊天的全能助理,就看啊这小百元的月费和你的工作内容能不能匹配的。上了 省钱党的最终模型奥拉玛。这个呢,是真的有点失望了,错了很久啊,几乎是没有办法在大龙虾上指挥他干活。 oh god please no! 都说免费的才是最花钱的,有更多时间的玩家呢,可以继续去跟奥拉玛搏斗一下,想真正提升工作效率的话,找到合适的模型才是正确的选择。好,本期视频就到这里,希望对你有所帮助。我是阿瑞,我们下期再见。

最近玩智能体啊,实在太消耗 token 了,所以我们今天要来讨论说啊,哪里能搞到便宜的甚至是免费的大模型 token 呢?首先我们来看一下,如果正常使用 token, 大 概是个什么价格呢?像我们日常最常用的这个网页版的聊天机器人啊,类似于豆包、 jammy 这些网页的服务, 一问一答,大概每一次呢会消耗几千到几万的 token。 一个月下来呢,大概可能就是三百万的 token, 数量也就是几块钱。但 agent 就 完全不一样了,它要自己规划,自己执行,自己反思,一个任务跑下来呢,可能会调用几十上百次模型。像我们最常使用的 cloud code, open code、 open cloud 这些智能体啊,每一次跑起来都要消耗几万甚至上百万数量级的 token。 我 也翻了一下我自己的使用日志啊,然后大概估算了一下,我每个月的使用量呢,大概是三亿个 token 左右。然后我们来算笔账,如果你使用的是 cloud sum 的 四点五这个模型, 它的价格呢,大概是每一百万的 token, 输入呢是三美元,输出呢是十五美元。考虑上一些这个缓存啊,折扣啊,平均价格呢,你可以认为是每一百万的 token 五美元左右。那这么一算啊,其实你跑一个 agent, 每个月其实要烧掉一千五百美元左右, 就算是换成便宜的多的国产模型啊,一个月也要用到两百到三百美元,这个价格呢,我觉得还是蛮离谱的。所以这期视频啊,我就来跟大家聊聊,怎么才能搞到便宜的甚至是免费的大模型接口。先说好,这期视频呢,是没有任何的广告的,全是我自己实测 实际使用的经验。在正式开始之前啊,我想先给你一个这个思考框架,省钱这件事情呢,本质上其实就在做三个维度的取舍,价格、稳定性、模 的能力。你不可能三个都要,如果你想要最强的模型并且稳定,那肯定就会稍微贵一点,如果你想要便宜,那肯定就要牺牲一些模型的能力或者是稳定性。我们带着这个框架呢,然后再来逐个看各家的方案。先来说这个 cloud 买套餐到底能省多少钱呢?官方没有公布套餐的实际使用量,但有人测过了数据呢,放在这个网址里面,我给大家总结了一下,如果你订阅一百刀的这个套餐,用到极限的话,就能用掉价值一千三百五十刀的这个额度, 相当于打了不到一折,换成人民币算的话,差不多就是零点五元的人民币就能买到一美元的这个使用量。但 cloud 的 官方有两个大坑啊,大家也都知道,第一呢就是国内的用户特别容易封号。第二个呢就是不允许介入其他第三方的服务, 只能在这个 cloudco 的 这些官方应用里面使用,没有办法拿它去接入 opencloud 或者是其他第三方的这个智能体。如果你又想要这个按量付费的这个灵活性,又想要这个套餐的折扣价,那怎么办呢?我觉得唯一的选择啊,就是中转站,中转站呢,你可以把它理解成为这个零售商,就他们会去批量的向 cloudco 的 官方购买 这个套餐,然后呢在中间加一些价格再卖给你刚才说的,比如说零点五元的人民币兑换一美元以上, 市面上有上百家的这个中软站,那怎么挑呢?有人做了一个中软站稳定性的监测,大家想要购买,想要具体了解的,其实可以看这个网站,上面呢监控了几家比较大的这个中软站的稳定性。不过说实话,这个中软站呢,基本上还是一门比较灰色地带的生意, 所以呢,建议大家每次别充太多,这里呢就不具体展开了。然后我们来说第二家那个 check gpt, 相比较那个 cloud code 的, 动不动就封号啊,然后不让接其他的这个工具 open i 呢,其实就大方了很多, 它不仅能接自家的这个 codex, 还允许你去接 open code, 允许你去接 open cloud 这些第三方的项目,而且额度啊,要比 cloud 的 要给的多,大概是零点三元人民币就能买到一美元的使用量。更香的是啊, open i 的 活动特别多,比如说像那个 gpt 开通团队套餐,首月免费,你可以去某鱼搜这个 team, 新车几块钱呢,就能用上价值二十五刀一个月的会员。如果你拿这个会员去跑 codex 啊 token, 相当于说完全白嫖。 codex 的 缺点呢,就是它写代码的速度啊,会相对来说比较慢一点,不过呢,你可以开多个 agent, 让它并行去跑 数量去换取速度。然后下面一个是这个谷歌 gemini gemini 系列模型写代码的综合能力啊,普遍来说稍微比这个 cloud 和 gpt 弱一点,但有个骚操作啊,就是可以通过教育活动拿到免费一年的谷歌 ai 会员,然后用这个谷歌的编程 i d e anti gravity 来跑这个 cloud 模型,然后还有一个更狠一点的玩法,就 使用这个项目 cloud proxy api, 它可以把 antigravity 里面 cloud 的 模型转接出来给 cloud code, open cloud 这些工具去用。因为谷歌会员啊,几乎都能白嫖,所以它对应的这个 token 啊,也约等于免费。不 过这么玩的人啊太多了。谷歌最近呢,在频繁调整这个 anti gravity 的 额度,所以这个方法我也不是太推荐,因为它可能之后就不太稳定了。聊完了预三家之后啊,我们来聊一聊国产的这些模型。国产的模型呢,本来零售价就只有海外模型的一到两折,购买套餐之后呢,就会更便宜了。在国产模型里面啊,我觉得当下最强的可能就是最近推出的这个 kimi k 二点五,我实际用下来它的能力其实跟 cloudsonic 四点五几乎没有什么差别。有兴趣的朋友啊,可以去 kimi 的 海外版看一看, 有个首月零点九九美元的活动,能拿到原价九十九元的套餐,还可以支持这个接入第三方的 cloud code open cloud。 国内版 kimi 的 活动呢,就稍微差点意思了, 每周大概五元左右。但是 kimi 我 觉得最大的问题啊,就是套餐额度给的比较抠,控制台里呢,只显示了使用的百分比,看不到具体的 token 使用量。我实际测下来呢,比下面两家我要介绍的这个国产模型啊,给的量都要少得多。 gim 呢,应该是国内三家里面我觉得最大方的, 然后套餐的额度给的非常的足,最低档的套餐呢,是每个月二十元,每年两百四十元,但价格是真的香,我自己也买了。接口方面呢,也很开放,可以支持接入各种的工具。缺点呢,就是现在 g i m 四点七啊,它的模型效果暂时不如 kimi, 而且高峰时间段呢,因为顾忌它 套餐卖得太多了, token 的 吐字呢,我觉得巨慢。另外一个 mini max 呢,我觉得它的套餐跟 g l m 很 像,然后这里也不跟大家重复了。然后还有一家呢,大家可能没想到,就比较小众,就是英伟达。英伟达呢,其实它也提供这个完全免费,额度不限的这个开源模型, 包括前面说的 kimi k 二点五,然后 jimmy 四点七, mini max m 二点一。但是呢,因为可能门槛太低了,然后用的人实在太多,热门模型的速度呢,慢得离谱。所以这个呢,我就更不推荐了,只是跟大家介绍一下,英伟达,它其实也有这个免费的接口。最后啊,来再帮大家整理一下思路,如果你想追求最强的效果, pro 的 中转站呢,是目前性价比最高的选择。如果你的预算有限啊,那国产模型里面 g i m 的 套餐最实惠。 timi k 二点五的效果最好,但是有传闻呢,说这个月会有大批的这个模型,会推出新一代的模型,到时候呢,我再跟大家更新。然后如果你想白嫖呢? openai 的 这个 timi 拼车几乎是完全零门槛的, 效果也不错。这期盘点里面当然肯定没有包括说这个百分之一百所有的方案,市面上还有很多我没发现,或者是我没有测过的这个方案。如果你有更好的渠道,欢迎在评论区补充,大家一起交流。好了,今天视频就到这里了,我是迪总,黑心李超,我们下次见。

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

你用小龙虾的时候,还在把所有的事情都放在一个窗口里指挥吗?比如我同时要写文章、发小红书、监控资讯维护、网站记账,都放一个窗口里,既浪费偷啃,效果还非常的好。改造成多 a 帧的模式, 才是给小龙虾省钱又提效的正确用法,我是这么做的。以飞书对接小龙虾为例,参考官方文档三个步骤。第一步,专事专办, 给每件事情创建单独的机器人来负责。比如我要记账,我就建一个这样的财务主管,把 opencloud 配置文件里的 channel 字段改成这样的多 account 模式,这两个 account id 记住,后面要用。第二步,多 agent 配置, 我们用这条命令给小龙虾增加一个 finance 的 agent, 等同于我们新招进来一个员工,出土化他的 identity 文件,把它捏成我们想要的形状。接着在 openclaw 配置文件里面增加 bindings 段落, 让不同机器人的消息路由到不同的 agent 上,实现分工的效果。第三步,测试验证 重启 open cloud 的 getaway, 在 飞书上分别给两个机器人询问他们的身份,如果能看到不同的回答, 那就是配置好的。后续还可以给不同的 agent 配置合适的模型,或者让他们互相派发任务。这样的工作模式可以大幅节省 token, 显著提升小龙虾的任务效果。实在是太爽了, 都不需要再雇人了。我加上小龙虾的 agent teams, 就是 超级艺人公司。关注我,带你玩转 open cloud!

大家新年好,上一期我讲了部署 openclaw 的 视频评论区直接炸锅了,好多兄弟们都说,呃通过 openclaw 去进行 agent 的 调用,然后 token 成本太高,呃钱包顶不住了。 这一期呢,我讲三个呃,目前我在使用的免费大模型的呃网站,然后呢,主要还是想让大家呃告别呃 token 焦虑。 然后呢,第一个的话是智普的 ai 开放平台,呃,它的主要优势的话是 glm 四点五,它的准确率和幻觉等方面解决还不错。然后是国内的第一期第一梯队,呃,目前主要优势的话是注册送两千万的 token, 对 于个人的开发 者来说,或者是小的一些企业来说,在初期的 open call 的 尝试阶段已经完全够用了。 呃,然后第二个的话是 open router, open router 的 话,它的主要优势是国内能够直连,然后包含了各种主流的大模型,然后大模型的更新速度很快, 呃,目前是提供每天五十次的免费调用,呃,如果说我们前期做一些小的充值的话,呃就可以达到每天一千次的调用次数。 第三个的话是摩纳社区啊,摩纳社区这个主要优势的话是每天提供两千次的这个免费调用。然后呢,不只是包含了文字的这种深度思考模型,然后同时也包含了多模态的模型,这个和我们 自搭的呃 a p i 的 开放平台去进行一些搭配的话,那么就能够让 open curl 既能够出处理一些文本的这些呃工作,然后也能够去处理一些多媒体的这种啊工作。 大家如果说想进一步看怎么样将 open curl 和这三个呃平台进行集成的话,可以扣一,我下一期尽快更。

当 google 和微软这对老冤家联手要给浏览器换心脏时,你就知道 web 的 交互规则变了。 google 联合微软重磅甩出 web m c p 这项标准,直接重塑了 ai 与 web 的 底层对话逻辑。这一改变,最直接的影响就是催生了一个全新的流量战场 agent s u web m c p 的 普及,意味着互联网正分裂为双层结构,一层面向人类负责视觉美感与品牌体验, 另一层面向 ai agent 是 一套纯净高效的结构化工具级。对于产品经理而言,这无异于一声惊雷。未来,一个网站如果无法被 ai agent 高效独取和调用,它在 ai 驱动的搜索或服务中就约等于隐形,让服务主动向 ai 暴露接口,将成为获取流量的全新入场券。 为什么说这个趋势不可逆转?因为 google 和微软联手给出的红利实在难以拒绝。一、成本断崖式下降。 实测数据显示,相比传统的视觉识别模式, web m c p 最高可节省百分之八十九的 token 消耗。二、体验更丝滑,无需单独部署,后端直接嵌入浏览器,前端继承用户登录状态,操作响应更快。三、低门槛接入改造一个复杂的 app 甚至不到两百行代码普及门槛极低。 但值得注意的是, webmcp 明确划定了一条红线,禁止无头模式,所有操作必须用户。可见,这一限制不仅是出于隐私保护,更宣告了浏览器角色的重塑,它正从单纯的内容展示窗口,进化为 ai 时代的意图分发系统。 这意味着互联网的流量分发权正逐渐从搜索引擎转移到浏览器的 model context 之中。 chrome 一 四六的这次更新终结了 ai 笨拙模拟点击的尴尬时代。 当网页变成了结构化的函数池,浏览器升级为 ai 的 编排层,我们与信息的交互方式也将从被动的浏览转向主动的意图达成。基础设施已经搭建完毕,未来的关键在于开发者是否愿意推导 ui 的 围墙, 主动为 ai 开这一扇门。欢迎 q 友们在评论区留下你的看法。

我们在 opencloud 里面实测了一下,为什么发送一句你好就可以消耗一个一万五千多 tokens 呢?我们从这个问题出发,然后给出我的一个解决方案。 然后我们借鉴的是 openwaking 的 一个分层缩影的一个思路,整合了一下它的一个上下文的一个加载机制。我们实测在这几个案例中,它减少了百分之八十七的一个消耗,平均的话也在百分之八十。 呃,这意味着什么?这意味着我们会用更少的一个金钱的消耗,然后进行使用我们的这个 open cloud, 它会让开源的本地模型有了一个可能性,因为开源的模型它的能力并不是很好。 open cloud 现在在 github 上已经有了二百 k 的 一个 star, 它是一个开源的 agent, 可以 操纵系统发消息,抛脚本,比如说像我们可以执行自定义的一个 skills 等等,可以实现各种各样的一个内容。然后接下来我们从这个问题出发, 首先就是一个 api 的 一个费用失控的一个问题,两个字的一个提示词,他竟然消耗了一个上下文到一万五。然后接下来就是一个本地模型,他跑不动,也就是说我们必须使用一些商业的模型。然后接下来我们看一下 它的一个构成,这是我们十次得到的。首先就是它的一个最高的,就是这个 jason sigma, 它会把所有工具的一个要求,它的一个标准发送给 ai, 然后进行让它理解,其实我们用不到这么多工具。 接下来就是七个这个文件,他比如说是他的一个 a 证的一个定义,他的一个身份的确认等等,接下来是他的一个基础指令,这个咱们可以先忽略不计。 然后接下来我们看一下我们的核心,发现百分之接近百分之五十就是这个一个核心的工具。然后我们接下来看一下什么是 open working。 openwriting 是 一月份开源的一个上下文的一个数据库,它的核心理念是不是把所有的内容塞给模型,而是像图书馆一样,先看目录再读书。 然后它是有个三个层级,第一个是它的一个摘药层,就是一句话的定位,每个目录生成一个摘药,然后 便于筛选。然后接下来是它的一个盖栏层,一个结构的导航,包含它的一个大纲子目录以及关键的节点。然后接着是我们的一个详情层,就是我们最终的一个按需加载, 然后我们看一下这是它的一个结构,这是我们修改的一个结构,我们参考着 open working 进行修改了一个自己的一个上下文, 然后我们看一下他的一个基本的架构,然后本期视频的所有的修改,我会放在我们视频的仓库,如果说需要的话,我们可以三零关注,然后自动发送。然后接下来我们看一下一个演示, 比如说用户问帮我配置一下返代理,然后我们可以分析意图,然后我们在摘药层可以定位一下我们的一个 向量总,然后我们概览,然后接着按需加载,也就是说我们可以总共,比如说我们举个例子是大概是一千五百头根,全量的注入的话,大概是一万五千多头根,我们节省了将近百分之八十多。 然后接下来我们看一下 open vacuum 的 局限性。 open vacuum 的 话,这个由于它的核心组建并没有开源,因此我在这里的话是借鉴了它的思路进行的一个开发。 然后我们看一下 vacuum 的 一个分层路由,给 open cloud 装上了一个目录的,所以我们看一下它的一个流程图, 用户我们发送一个你好,然后进行了一个分层的一个路由器,然后分为了一个工具的缩影,技能的缩影,还有文件的缩影,然后我们会把这个基本的一个缩影,然后发给一个呃 ai 进行一个判断,然后他需要哪些模型,然后我们进行再次拿取,然后是精简后的一个 东西,然后我们看一下这个实测,这个是我们实测的结果,接下来给大家演示一下。我们首先测试的是第一个问题看一下,帮我看一下这个当前的目录有哪些文件。打开我们的网址, 现在的话我们看到的是第一个,第一个是在我本地已经使用 open working 的 思路改好的一个,我们可以看到我们发送你好,然后这里面的话使使用了大概两千个 token, 这个的话是我在服务器里之前部署的一个原版,我们看一下它消耗了九千五百个 token, 这个是我在本地部署的一个原版。第一个我们发送一下,然后我们再发送一下在服务器里的一个原版, 我们看一下这个就是我在本地修改的,我们看一下它的一个消耗, 我们可以看到它总体消耗了三千三百一十九的一个图标。然后我们接下来看一下它的这个它的原版, 我们可以看到它的原版消耗了一万一千个头壳,我们可以清晰的看到这个差距,然后接下来我们下一个问题, 我们再测试它的工具调用,首先是我修改之后的, 然后是我在服务器运行的一个原版,给大家看一下它的一个原版,这是服务器内的, 我们可以看到这个欢迎来财已经正确的处理了,我们看一下本地,本地也正确了,我们现在使用的基础模型是 gpd 的 四欧迷你同样的一个模型。然后接下来我们继续看一下, 我们看一下第一个使用了四千二百多个 token, 然后接下来我们看一下它的一个原版, 它的原版使用了一万两千多个,接下来我们进行下一个问题, 前两个的话都是测试它的一个读写,然后我们继续一个比较难的问题,让它总结一下 open working 的 一个概览。 首先是我们本地的一个,然后接着是原版, 我们可以看到后台的一个输出, 可以看到原版的已经出现了,然后这是我们的一个修改,之后的可以看到 看一下它的一个消耗,它消耗了五千六百个头啃,这是一个工具调用哦。然后接着我们看一下它的一个原版, 我们可以看到它用了接近一万五千的头啃, 而这个是五千三倍的差距,本地模型有了跑 open call 的 一个可能,之前的话是因为上下文,我给大家介绍一下,只是他的一个上下文的长度增长, 他的一个显存的使用量就会更大,因此的话这种方案会让我们的本地部署更加的有了可能。 uma 是 最近比较火的一个东西,然后我们介绍一下它是什么, 它是一个 agent 的 一个经验的共享平台, agent 的 在实战中有很多的一个策略,然后以前的话我们是手动的进行打包分享,然后现在的话我们可以进行上传一下 ebay 的 一个网络,让全球的一个 agent 的 可以进行解锁和复印,它大概率是一个 agent 的 一个经验的市场。 然后我们看一下如何接入免运行,这个就可以使用了。然后我们接下来分别在它的我的修改版,还有我的一个原版里面进行一个操作,我们看一下它的一个流程, 我们可以看到这上面已经可以正确的识别出来了。 e o map 它作为一个写作进化的市场,允许 ai 代理通过贡献的解决方案,然后赚取积分,然后可以通过这个分享, 它让我们可以使用 e o map, 我 们可以进行自行的测试。我们接下来回到我们的汇报界面,主要的给大家全面的客观的 说一下 evo map 和 mcp 和 skills 的 关系。 mcp 是 agent 的 一个调用工具, skills 是 做好某件事, evo map 是 把 agent 的 经验传递给其他的 agent, 三个是不是在一个维度里面, mcp 和 skills 是 聚焦单个 agent 的 一个能力, evo map 共向于一个生态 agent 之间的一个经验的一个沟通。然后我们看一下它的项目背景, 他的琴身的是一个插件,然后在十分钟登顶,然后被勒索下架,然后发生了很多的一个故事,所以说他进行了一个早期的测试阶段,然后我们需要进行测试才知道他的一个进一步的实践。

还在为滔凯不够用抓狂吗?总是刚用几下就限额吗?今天教你零成本三秒操作滔凯,额度直接翻倍!不用充值,不用搞复杂设置,普通人一看就会记住这四步,第一, 用完就开始新对话,别死磕一个窗口。第二,发经典指令,只给结果不废话。第三,关键节点总结,清空历史。第四, 去任务中心领限免额度!就这几招,你的 top 直接当双倍用!写文案,做脚本,搞创作,再也不卡额度,赶紧收藏试试!评论区告诉我你省了多少!