强烈推荐那些使用 opencode 但是 token 不 够用的伙伴们使用这个 c i proxy 这个工具,那它可以把厂商的模型反向代理为 api 的 形式供你的小龙虾去使用,也就是说你的龙虾从今以后可以不花一分钱。 for free for free 好 吧,赶紧用起来。
粉丝1098获赞7.7万

不懂代码的普通人怎么不熟 oppo clone 呢?根本不需要花几千块钱去买一个 mac mini, 今天看了我的这条教程呢,直接让你白嫖一百万。 talking, 咱们打开阿里云的官网,在这里点产品,然后选到清亮应用服务器, 然后呢,在这里可以选这个啊, open club 啊,然后一个月啊,一个月大概是这个二十多块钱,一年大概六十多块钱,咱们选个二十多的直接付款啊,付款之后呢,可以看到我们这个实力马上准备好了,咱们点我这个实力,点进去有个音乐详情啊, 因为详情一共有三个步骤啊,第一个步骤啊,就执行这个命令啊,可以放通这个端口啊,第一个已经成功了,第二个呢,就是配置这个 oppo 的 这个 mate 啊,咱们这里呢,直接使用这个百炼 callinplay 啊,确认开通就行了, 免费赠送一百万 token 推理额度啊,这个是阿里云旗下的一个百链平台。然后呢在左下角有个蜜柚管理,创建 a p o a p i k, 创建一个 a p i k, 然后呢勾选用户名称描述一下,随便填一把啊, opcode, 然后确定, 然后大家可以看到啊,这个庙已经生成了。然后呢,右上角有一个地区啊,我们现在是在华北啊,就在北京地区,然后复制这个,然后复制 api k, 然后在上一个页面,然后回到上一个页面,粘贴我们的 api k, 然后呢选北京。那就可以看到奥鹏哥老配置成功。 然后呢就是第三步了啊,就直接呃,可以给我们一个网站,让我们去访问我们的这个龙虾机器人, ok, 点开我们的龙虾机器人,直接问他用中文介绍你自己 啊,你看他已经回答了,下一期我会让 oppo cola 自动帮你干活,大家有遇到部署的问题可以随时问我。

兄弟们,你们以为安装了 open cloud, 从此就解放了双手,让 ai 替你打工是不是?那你们有没有发现每天烧掉了五百万的头,肯一个月账单就充到了五千块钱,这个呀,可不是你们的 ai 智能助手啊,这可是行走的续钞机, 烧钱的速度比我们赚钱的速度还要快十倍。那么大家今天有没有想过使用本地的大模型,要用本地大模型的话,基本上不花钱的,就消耗一点掏坑,消耗一点电费,他呢具有跟远程大模型同样的能力,同样的技能费用呢,但是天差地别。那么今天呢,我们的话 就讲一讲如何在本地来部署这个大模型,没错,就是要给大家介绍到欧拉玛这个一个本地部署,部署在本地的话,即使是网断了也可以用,它的成本的话很低,数据的话永远在本地。好,那我们开始部署吧, 我们打开浏览器,在浏览器的地图栏里面输入欧拉玛点 com, 然后呢我们就会就会进入到这个欧拉玛的这个主页,这里面的话向下拉,选择这个当闹的欧拉玛。然后呢我们进入下载页面,下载页面的话有三种, 呃,支持三个操作系统的一个欧拉玛的情况,我们选择 windows, windows 下载的方式有两种,第一种的话就是通过这个 power 里面的话,通过执行这个指令 i r m 去拉取这个下载这个欧拉玛。 第二种的话就通过这个 download for windows 下载这个 windows 版本的一个 alama, 我 们最简单的话就是直接下载这个 download for windows, 下载到本地之后呢,直接双击这个 alama setup, 点 exe 就 进行一个安装,安装过程的话是很简单的,像我们普通的这个安装 windows 程序一样的,点一次过之后的话就等待 alama 程序安装结束就可以了。 然后在电脑的右下角可以看到有一个羊驼的这么一个图标,这个就是拉莫在 nice。

最近很多人都在养龙虾,也就是安装 open core, 不 少人刚上手就被各种大模型的海量 token 消耗给整懵了,甚至有的人一天能用掉几百块钱。那么到底什么是 token 呢? 其实 token 一 点不悬,就是 ai 处理信息的最小计费单位,相当于给模型加油。 open core 本身是不收费的,它是 ai 代理框架,真正思考的是 gpt、 dips 等大模型。你发的指令对话、历史上传的文件,还有模型返回的内容,都会被拆成 token 计费。 粗略换算,一个 token 约等于一个汉字,一千个 token 约等于七百五十个英文单词。在 open 括号里, token 消耗尤其快,它每次交互都要加载一大堆的配置文件,再加上所有的对话历史上下文和工具返回动辄几十万, token 就 没了。 输入和输出分开算算,多轮对话,复杂任务很容易烧, token 烧的可快了。简单说, token 就是 你用 ai 的 油,钱,用的越猛,花的钱越多。要想少花钱,就得精简配置,控制上下文长度,选高性价比模型。 那么你养龙虾了吗?快来评论区聊聊吧!最后别忘记点个关注呀,你的喜欢才是我更新的动力!

当你不小心安装了个 open curl, 然后发现 token 消耗刹不住了,而且非常健忘。你直接给我去 guitar 输入 cloud man, 你 会发现这是一颗能给你的龙虾赋予持久化记忆的插件。以后你就能像看朋友圈一样,实时看到你的 open curl 到底记住了些什么,而且还能节省百分之九十的 token 消耗。之后你又不小心输入 open viking, 更牛的来了,这是一个专门为你的龙虾设计的开源上下文数据库,它能让你的多个智能体之间共享信息,直接结束那种无法协助的智障模式,而且还能让你的书 token 成本降低大概百分之九十六,任务完成率直线上升。有了它们,你的大龙虾会越来越聪明。这么好的东西,不给你的龙虾配一个吗?

别再瞎用 openclaw 了,别人用 ai 啊,一分钱不花,你却在疯狂地烧 talk。 今天一条视频告诉你, openclaw 到底能连哪些大模型, talk 又该怎么薅?哪几个模型便宜又好用? openclaw 能连的模型啊,就三类, 国际大厂 g b t cloud, 国产头部空一千万 g l m kimi, mini max, 还有本地的 alama 开源模型,零成本啊,随便跑,想省 talk 啊?记住三招, 第一,新用户免费额度全领一遍。 deepseek 百链智普注册呢,就能白拿几百万的 token, 每月还有赠送的额度。第二,简单任务,用低价模型,复杂任务呢,再上高端。 第三,本地跑开元模型,一分钱不花,如果追求性价比,日常清量啊,用 deepseek 加千万 flash 免费额度就够你用了。中等任务呢,选 mini max g o m 四点五,便宜又稳,复杂推理直接上 cloud, 索尼 g p 四 o 迷你效果顶价格还不心疼?逻辑通了,你一个人就是一家二十四小时无人公司,关注我带你用 ai 早点下班!

现随着 ai 应用的遍地开花, ai 的 talk 消耗量越来越大,甚至有人开玩笑,今天赚了多少个 talk, 还有一个应用场景,大家每天在使用 openclo 的 时候, 它的消耗量也是非常惊人,今天为大家分享一种方式,可以白嫖 talk, 而且它不是那种小模型,而是我们国内的 gim 五, 接下来我们看一下如何使用。哈喽,大家好,这里是二 pop openclock, 相信大家现在已经人手一只了吧,但是它的 talk 消耗量就非常大,今天我们分享一种可以免费获取 talk 的 办法,这就是互联网大善人英伟达免费开放的, 之前我也在公众号分享过,今天我们来手把手实操一下。我们打开英伟达官网的模型列表,大家可以看到这里有各种各样的模型,像千万三点五,还有智普五点零, 还有 kimi 二点五等等,这些都是可以免费试用的,使用方式也非常简单。我们先点击这里的注册,当然在这里注册的时候,我们要注意一点,我们要使用海外的邮箱,就比如 gmail 或者是微软的 outlook, 不要使用 qq 邮箱,这种是没法通过的,我已经给大家试验过了。 我这里粘贴我的谷歌邮箱,点击下一步,这里输入你觉得合适的密码,我们点击创建一个账户,这里他会给你的邮箱发送一个验证码,输入验证码,点击继续。这里是按选择是否接受通知,我们直接提交就可以, 没有任何影响。这里输入一个名字,这里也没有任何限制,直接输就行,这时候我们就注册完成了。回到了这个页面,大家可以看到最上边有一行,请验证你的获取 api, 我 们这里点击一下验证, 这里验证是需要输一个手机号的,这个手机号我们也试验过,输入国内的手机号,也就是加八六的,前面我们选择中国 china, 这里我们输入八六,这里我们选择中国。以后输入一个我个人的手机号,点击提交,这时候你的手机就会收到这样一条验证码, 是优速通发的,我们输入进去,点击验证,可以看到这里基本上是秒通过的,我们在这里随机选择一个模型,就比如智普的这个五点零, 然后点击这里的 welcome, 这里获取 api k, 可以 看到已经能拿到了,接下来我们验证这个 api k 到底可不可以用呢?在之前我分享过一个很好用的工具, cherry studio, 就是 这个樱桃的,它是一个开源项目,我们可以在 github 上直接下载到,然后在这里测试一下这个 api k 到底可不可用,我们点击左下角这个齿轮, 这里选择添加模型供应商,我就添英伟达下面供应商类型,我们选择 open ai, 点击确认,这里需要填密钥还有地址,我们粘贴 api k, 粘贴 url, 添加模型,这里要注意这是英伟达自定义的一个模型名称,就这个 z 杠 ai glm, 我 们拷贝过来,点击添加,这时我们打开对话试一下, 这里要注意模型切换,我们切换成刚才添加的,因为答的这个 z a i g m i 五,我们问它是什么模型,看一下它的反应,这里因为我的网络问题,可以看响应速度稍微有点慢,但是它是完全没问题的,可以看到它是由 z 点 ai 训练的大约模型,然后是 g a m, 这时我拿到这个模型大家就知道怎么用了吧,比如我们把它绑定到我们的小龙虾,或者是绑定到我们的 agent 上,这时候就可以无限的耗羊毛了, 而且我还没有碰到过说使用限流或者是 taco 被用完的情况。大家如果需要更多的账号,完全可以按照我这个方式注册几个谷歌账号,然后并且做一个手机绑定就可以了。更多 ai 和变现的方式我们一起来研究。

一分钟教会你部署最近大火的 open claw。 本期视频要说的方法是本地部署,可以直接把 open claw 部署到本地,并且可以使用千万的免费模型,无需担心出现 token 消耗过多的情况,可以说是最经济的部署方法了。话不多说,我们直接开始操作。 首先我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具,选择好安装路径和工作路径,然后直接进行一键部署即可。 接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型,点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问,点击右边的这个授权, 等待千问授权后登录自己的账号,授权成功后,点击开始对话,就可以和 openclaw 进行对话了。本期视频到此视频我们说说怎么给你的 openclaw 添加技能。

任何人只需二不加一句话,就能搭建 openclaw 私人 ai 助理和无限量 token。 今天咱们直接上干货,你在别的账号不可能看到的干货,很多人都买 openclaw 设备或这招人不熟 openclaw, 看到这个视频你有福了, 小白一看都会的方法,今天我免费分享给大家,看完记得点个赞。第一步,咱们先下载一个 ai 编辑器,安装到你的电脑,对普通用户比较推荐的是统一领码或者 free 网址,我打在了屏幕,务必手动输入网址去官网下载,不然普通用户容易中病毒, 切记。第二步,咱们下载一个开源大模型管理工具欧拉玛,网址我也打在屏幕和上面一样。到这里二步完成后,咱们再进行一句话的操作,这里以翠演示输入一句话,请帮我安装好最新版本的 open claw, 并将模型地址修改为我本地的欧拉玛管理的开源大模型,然后启动,并在我电脑桌面创建快捷启动按钮。整个过程请自己选择最优安装方式和配置,这样你就只需做一件事,等它安装完就可以丝滑的使用你的 open claw 了,你配置越高,使用越丝滑。

只需三分钟即可搞定。整体分为三步。第一步,在 kimi klo 构建云端 open klo。 为什么选择 kimi klo? 之前我是单独配置 open klo 加单独配置模型的方式,对信手来说步骤比较繁琐。现在可以通过 kimi klo 一 站式将模型和 open klo 配齐。 只需一分钟,在 kimiclock 的 控制台点击 create 按钮,一分钟就可以配置成功,无需额外的复杂设置,非常方便。第二步,现在你已经是个初级老板了,现在给你的 kimiclock 赋予牛马使命。在 linux 中,我们可以使用 cron 来设定, cron 就是 linux 中用来定时自动执行特定命令或脚本的工具,因此这个指令最基本的版本可以是,你可以基于这个命令进行衍生。这儿给大家一个小技巧,本质上 color 运行在一个 linux 环境中, 因此如果你不熟悉一些 skill, 你 完全可以直接让克拉模仿你平时的动作。因为四 q 本身也是工作流。例如分析任务,你就可以改成设定一个空,让任务每隔二次时间打开浏览器,输入网址, 查看网站上的数据,形成数据分析报告,看完之后关掉浏览器。当你知道这件事之后,你完全可以忘记原来对于电脑操作的理解,享受老板的工作方式。假设安装一个软件, 可以说使用并搜索 wps 并且安装。第三步,将你的工作流与 kimi quir 沟通并固化为 skill。 我 们直接跟 kimi quir 沟通,我们可以根据 kimi quir 的 回复选定一个方向,让它给我们整理出完整的交易工作流程。你看这段 pro 是不是 p u a l 拉满,如果你觉得没有位,可能你已经是老板了。 kimi kala 会返回一个任务列表,这时克洛还不知道这些任务其实是他要执行的。我们接着让 kimi kala 把这些内容做成固定的 skill, 这样可以稳定方便地嵌入到矿例行任务中。 你可以让 kimi kala 打印出来具体的 skill 内容进行检查并叠代,最终固化的 skill 如视频所展示。当然,你也可以直接使用 kimi kala 官方哈布里现成的四 skill。 自己封装 skill 是为了让大家更好地理解什么是 skill 以及如何创建。如果你会建立自己的 skill, 那 么使用别人的 skill 也就轻而易举了。现在我们就可以修改第二部中的 chrome 命令,让它定时执行我们刚创建的这个 skill。 整个能够自动钉盘分析的框就配置完成了修改。 chrome 的 执行时间可以定时给你提醒。

open curl 看个新闻直接消耗几十万头肯,很多人以为是模型贵,其实是搜索方式没用。对 open curl, 它默认的搜索链路是什么样的呢?它会启动浏览器,打开网页,输入搜索词,抓内容,再让模型解析网页的最后新闻页,跳转页,一层一层读,网页里头很多的导航栏,各种的标签,其实都是没用的东西,这些东西肯定又慢又费头。肯解决方法就是用 tabl, 它是专门给 ai agent 用的搜索 api, 返回的结果呀,非常干净,不需要把整个网页塞给模型。而且啊, tiffin 注册就有免费额度,每月一千,基本够用。 用法呀,非常简单,你直接对 open kerlo 说,我的 tiffin api key 是 叉叉叉。我想用啊 tiffin 做搜索,给我创建一个 skill 之后, open kerlo 就 能用走接口的方式去查新闻,更快更稳,而且还省 token。 如果你之前也被几十万 token 看一条新闻坑过啊,把搜索换成 title 点,立竿见效。

怎么样子节约?第一种就是说你在命令行加上 compact 就 压缩你的上下文,只要你在输入内容的时候加上斜杠,再加上这个 compact, 这样子系统它就会自动去把你的 历史的内容进行压缩,然后减少上下文的长度,那从而它是可以降低整个的 token 的 消耗。 第二就是说你需要把长的对话总结成短的栽秧,然后再进行对话,那这样子就可以把可能你让他去帮你做一件事情,你通过这样的方式 扔给他,那他最终就是消耗的托克到可能从原来的十几万压缩到只有几千这样的一个级别。 这是第三种就去用一些云平台,他们会推出比如像阿里云、腾讯云,还有像那个 mini max 云, 再还有 kimi 的 云,还有像华为云,意思就是说用这些云平台他们会推出这样的一个 呃综合的价格低的算力成本,因为它是综合采购商,它集中像 kimi, 还有像 mini max, 像 deepsea, 像 cloud 人,以及其他这些有想法的人,在数字世界中需要它来给你做助手的这些人的工具, 你在数世界可能有百分之二三十甚至六七十的事务性的工作,就那些重复性多,又是一些常规要去做的这些东西,你就可以扔给他,扔给他之后他会消耗很多的托管双利费,就像我过年前的时候,我在用这个的时候, 一天最高的时候就是说托管费,他高的时候有七八百甚至上千,后来调调调调调到现在 一天就几十块钱,就是二十块钱不到。我现在是三个在用,第一个是用的是富盛的 原质 ai, 我 原来买的是月费,我现在改成年费了,因为它后面用的是 cloud 的 四点六 oppo 四,它之前直播的时候,它讲的第二个我用的是乌班图, 我在改造过之后,我用原切 a r, 原来我是用 cloud, 酷狗就用 a r 编程,让他去帮我按照我的想法去改的,后来完全一托于原切 a r, 让他去给我改, 改完之后我扔上去就测,特别是安全问题,以及根据我的情况,我的诉求的问题,我有很多事务性的工作,我就扔给他做。第三个我是在测 mac, 我 也在看有没有更好的东西,其实这个本身来说是一样的,因为 mac 相对 windows 和步班图来说,它的安全性会更高,还有 windows, 所以我会很注重这个安全性。当然我这三个都是在我的统一的 windows 的 bm 虚拟机下面,并且我这三个上面都装了相应的安全。 windows 有 windows 的 三六零体式安全,也无端的 linux 下面的一个安全 mark, 它本身就已经也很安全了,我又装了一个对应的安全应用,这样子在,并且我的龙虾,我自己也也让 ai 以及参考了别人的帮我安全包了几层,这样子我就相对来说它要突破三四层, 用我的自己的 windows, 我 又用三六零加 windows 防火墙,就做了极致的安全,这样子我的安全基础的就已经有了 产我的 ai 时代下的产品专家已经上线了,它是包含三个部分,一部分就是说它通过一个又一个的技能,最终把这些技能形成一个体系,让这些体系内化成你的叫做手感。 第二个,你的你的产品如果是一个软件类或者是 ai 应用类,那么用教你用 ai 编程, ai coding 的 方式让它怎么样子完成,并且把你的这个产品上线可用。第三就说如果你在数字世界中需要有 就是这样多智能体,类似于你要去用 opencloud 或者是 nano cloud, 就 用龙虾这样的工具去做多智能体的去处理的,那么会教你用 ai 编程的方式去手搓这个东西,去按照你的意志,去你的想法去打造你的专有的龙虾。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

买了一堆 ai 工具,钱花了,时间耗了,循盘半毛没涨。哈喽,大家好,上周咱们讲了海外买家在用 ai 筛选供应商, 那这一周呢,我重点会帮大家避避坑。最近养龙虾炒的非常火,还有很多外贸老板买了 ai 工具没有效果,那今天我把 ai 工具这个坑拆透,直接上干货啊!最近养龙虾炒的非常火,就是 open clock, 呃,很多外贸老板跟风入局了,还有人买了一堆的类似的 ai 工具,钱花了,时间耗了,循环半毛钱没讲。今天就拆透这两个大坑,重点讲讲 openlock 养龙虾的收费陷阱。 核心痛点,你以为养龙虾误数便宜就划算了吗?大错特错,他的坑全在后续的收费里面,尤其是偷肯的消耗,很多老板根本没搞懂这个收费逻辑,最后亏的嘤嘤叫。先猜养龙虾的核心误区和收费逻辑,先听懂了再决定要不要跟风。 他确实呢,部署极便宜,本地部署呢,几乎零成本,那鱼服务器呢?每个月也是几块钱十几块钱,但这只是空壳成本,真正的大头在 took 的 收费里面。什么是 took 呢?简单说一下, took 就是 各位养龙虾运行的燃料 ai, 每执行一次操作,比如抓取信息、生成内容等等,都会消耗对应的 took, 按实际消耗进行计费,用的越多,花的越多,没有上限。就像你买一个免费的机器,每一次啊, 机器都要单独的买油,而且油还很贵。更坑的是,养龙虾作为智能代理,完成一个简单的获客任务,要经过多个步骤的推理,每一步都要偷啃,也要调用不同的 ai 工具也需要偷啃, 比普通 ai 工具费十倍都不止,一旦呢,自动化流程失控了,单日的 to 肯消耗就能超两百美金,月度成本呢,轻松破几千都可以。所以对于我们做 b to b 的 外贸人来说呢,呃,有点巨坑,而且他根本适配不了,例如我们做的阿里国际站,独立站和 ai 的 搜索规则,花了钱也拿不到循环。 再说说 ai 工具的误区,不是工具没有用啊,是你没有适配平台规则。阿里的 ai 采购 a 准呢,只认平台自带的诊断工具,独立站的爬虫只会认 seo 合规的内容, 那么接下来避坑的实战法照做,不亏啊。第一呢,如果你是阿里国际站的用户,不要用第三方的工具,直接用平台自带的 ai 诊断工具一键进行检测,关键词产品页面问题自动深层优化。建议, 这个是在呃,三月初的时候,我们跟阿里国际的 ceo 有 沟通过,呃得到了信息,他们会大力的去发展符合阿里规则的这一种 ai 工具, 他们不断的整合啊,当然我也给了很多的意见,各位可以留意最近的点供。第二呢,如果你是独立站的用户,用轻量的 ai 工具,正符合 seo 规则的薄壳内容,适配 ai 的 爬虫,不用复杂的部署。 第三,如果是外贸业务转化端的问题呢,用 ai 工具做买家的背景调研,特别是商业背调,然后深层定制化的邮件,当然不是邮件模板群发那种啊, 这样子买家才会有高概率愿意回复,这是老班的提醒。养龙虾部暑呢,现在是比较便宜的,但是 top 呢,巨贵,收费呢,比较坑,不是特别适合现在的 b to b 外贸。呃,还有我们做独立站跟国际站的同学。另外呢,千万别跟风去交学费, 我们先把基础的 ai 工具用好才是关键。评论区回复 ai 工具老班准备了外贸 ai 工具避坑的选型清单,线下课程呢,我会拆解更多的 ai 避坑技巧。好了,现在我要出发去意大利了,下个视频再见。

大家是不是都遇到过 open cloud, 跑起来特别爽,但 token 烧的是真快,我之前用硅基流动的 a p i, 随便聊几句,跑几个操作,几毛钱就没了,更别说 gbt cloud 这些多轮对话工具,调用费用蹭蹭往上涨,长期用真的扛不住。 今天给大家分享一个实战级省钱方案,直接把 openclub token 成本降到零。核心方法就是本地网页代理转发,我用 notejet 搭建一个轻量本地代理核心做一件事,接口协议转换与参数兼容。因为 openclub 默认走 openai 格式, 而网页版 ai 接口结构不一样,所以代理层要把 messages、 model stream 这些子段重新映设。把 opencloud 的 请求体转换成网页接口能识别的格式,再把返回结果逆向转成 opencloud 等解析的结构,全程不需要 a p i t, 不 消耗官 方 token, 完全兼容。 opencloud 也有格式,不用改原码直接就能用。使用步骤也超级简单,第一步,用 note g s 启动本地代理服务,做好请求与响应的参数转化。接 第二步,修改 opencall 的 配置文件,把 bashil 指向本地代理地址。第三步,保存重启,直接正常使用,控制电脑、跑酷动画、执行任务都不受影响。这个方案成本极低,部署简单,非常适合个人学习,日常轻量化使用,彻底告别透坑焦虑。 最后提醒一下,本方法仅用于技术学习和个人测试,高强度正式场景还是建议使用官方 a p i, 更稳定也更合规。学会这一招, openclos 随便玩,再也不用心疼 token 了。