辅助编程接入实测会员开了模型却没有,本来以为我开通之后就能直接使用木板模型,结果我全显卡的那模型列表这一步, 这次呢,我是带着明确的需求去的,想要在 t r a e 这个工具中呢使用编程辅助,顺便把这个服务自媒体流程里的代码工作打通。结果这次开通了 t r a e 的 国际版之后呢,我一看模型列表预期的这个 g b t 五点四没有在里边儿, 因为我之前看了他们的这个介绍,我以为他会在里面,所以呢就是感觉有点难告他。后面呢,我就开始想要尝试去用这个中转的 api 去进行这个接入,因为如果直接去用这个 openai 的 这个官方的 api, 可能它成本比较比较高,所以我就想用这个中转 api 去进行接入。 然后我尝试了几次,就是主要是在它那个模型添加那里发现它模型添加呢,只有一些固定的这个呃批模型提供商,我的这种靠这个这个 base u i 无法去进行一个接入,没有普通。 然后呢,我看它里边有那个 open 呃 router, 我 就去用了那个 open router 的 去搞的一个 a p i, 然后总算是把这个模型成功引入了进去。但用了一会之后呢,感觉这个费用还是比较高,有点超出我的这个预期了,我有点用不起。再之后呢,我就又去呃 我就最后我是怎么解决的呢?我是在这个呃 t r a e 的 国际版里接了一个 codex 的 这个插件,然后用那个拆在 g p t 的 呃会员呃去直接去调用这个 codex 的 能力,实现了整个的这个辅助的编程。
粉丝16获赞65

那最近很多粉丝问我啊,到底应该怎么去安装 cloud code? 那 今天给大家分享一个非常简单的安装方法啊,你不需要懂 ker, 也不需要懂 n p m 和 node, 你 只需要有一台电脑会安装软件,那你就可以安装 cloud code。 那 接下来我给大家演示一下。那么第一步我们选择一个国内的 ai 编辑器,那任何一家厂商的都可以啊,那这里我们以 tree 为例, 那我们进入 tree 的 官网之后呢,在这里点击下载这里的安装包, 那吹安装好了之后呢,我给大家介绍一下它的基本布局啊,那在这一片呢是它的编辑的区域,那在这里面呢是它的这片呢是它的对话的区域,那在这个地方我们可以选择各种各样的 模型,那比如说以 gpt 五点二为定,那在这里我们只需要跟他对话,帮我安装 color code, 那 吹呢就会开始帮你去安装它,包括它的相关的依赖,比如说 npm 啊这些,那我们可以看到,因为我已经安装过了,我们可以看一下它的相关的依赖。安装包都给我们去 去安装了,然后最终它提示已经安装成功。那我们来试一下是否有安装成功啊?我们点击这个面板,或者是点击这个终端,那 就可以调出这样一个终端来,我们直接输入 cloud, 那 看我们的 cloud 已经安装好了,那是不是很简单?那到了这一步还没有结束啊,那你如果你想要使用卡拉扣的,你需要订阅官方的套餐,那如果你没有办法订阅,你得需要选择一个第三方的 api 提供商,那在这里呢,我们就需要用到另外一个软件 c c switch 呢,那 c c switch 我 在之前多期已经介绍过了啊, 那它简单来说呢,它就是一个可以方便的帮助你去在多个模型提供商之间进行切换,省去手动更改配置的这样一个软件啊,使用起来非常的方便。那我们到 c c switch github 的 页面呢,去找到 release 这个页面,那下面就会有对应的安装包,那你可以找到合适自己操作系统的安装包下载。 那 c c switch 下载好了之后呢,使用起来也非常方便啊,我们只需要在这里点击加号,选择一个合适的模型供应商,比如像 d c 啊, kimi 啊, max 啊都会有,比如这里以 mini max 为例,那你只需要把 api k 给填进来,选择点击添加这供应商,就添加好了,然后再回到首页的界面,在这里点击启动。那现在呢,你就有了一个可以用的模型了,那我们再回到这个终端看一下, 那我们现在已经有 mini max 这个模型了,那我们点击确认切换到它,那我们就可以开始使用了。那看我们 a p i 已经调通了,那接下来你就可以尽情的去体验你的可拉的 code 了,那整个过程是不是很简单?那如果你在安装过程中有遇到任何的问题,可以在评论区给我留言,那我是新起,每天分享一个 wifi 控件的小技巧。

给大家安利一个软件,其实 qq 这个软件不仅仅是程序员可以用,对于各种小白来讲,甚至是一些财务啊,会计啊,其实如果你想要操作电脑的话,其实它都可以使用。我感觉它其实比 open clone 小 龙虾更适合普通人, 尤其是它的模型还都是免费的。比如说有些人装 open clone 的 时候,其实他都不知所措,在谷歌上其实也很难解锁到。 你去问 ai, ai 因为他不知道 open code 具体的代码实现,他也回答不了你,或者说他会产生很多幻觉,根本没办法正确的回复你的问题。那怎么办呢?这其实很简单,我教大家一个处理办法。 首先你要去下载一个 q, 但你不要下载这个国际版,适合正中国宝宝的其实是 c n 版本,你输入 q, 点 c n 回车,然后你就会看到它的中文界面,这个时候你去安装它,下载安装它, 安装好了之后你就会得到一个这样子的页面,但如果是全新的话会是这个样子。 那我们怎么去安装小龙虾呢?打开小龙虾的 github 代码页面 github 点 com open core 杠 open core, 然后点击这边选择 a, c, p, s 和 s, h 都可以拿到它的链接,之后你在终端里面去执行, 这个时候你就去克隆它,把这个项目克隆到你的本地,然后你再用 q 去打开它, 这个时候你就会得到像我这样势力的一个样子, 我们可洛的完整代码就在你的电脑上了,这个时候你再去问处,他能够几乎百分之百的解决你安装我们可洛当中遇到的各种各样的问题,因为他有最完整的上下文,他遇到不理解的报错,他直接可以去阅读代码。 而且大家看最完整的是这边,它提供了完整的目前国内最主流、最强大的一些 ai 模型,它确实是完全免费的,大家尝试一下吧。

你们不要去买那种 a p i 的 中转站啊,我来讲讲为什么?这是我本地搭的一个比较有名的开源的反代网站,就是他可以用来搭中转站,原理呢就相当于你去买一个账号或者用第三方软件登录之后,他通过反向代理给你反向成 a p i 和链接发给你,相当于你买了个散装酒,人家是买的整装酒,然后分瓶卖给你的。 这都没有什么问题啊。但是问题是什么?问题是在这里我创建分组的时候,我可以针对每一个创建倍率,就是本身是消耗的还不够快的话,它可以写十倍,也就是说你的消耗是正常的十倍, 这样你花的钱呢?你看似便宜,但实则你还是花贵了。这个倍率是他随便可以调的。给 api 中转站这个方案肯定是不靠谱的。

gemini 可以 教程来了。首先来到我们的站点,到令牌管理页面复制一下这个令牌,然后到 c c switch 选用 gemini 选项,点击右上角添加命令,这边供应商我们选自定义配置 供应商,输入 nona p i, 你 要填入在 a p i k 里,这是我们的令牌官网连接,不用填请求地址就是我们的网址,记住末尾不要加弦。 v e 模型我们这边选用二点五, 这就是一个完整的配置,点击添加命令,添加之后点击应用,把原有的配置删掉, 来到我们的命令行,输入 gemini 进行调用。 进入之后,我们右下角已经是选用到我们刚配置好的模型了,这边我们输入,你好测试一下, 已经有回复了,现在回到中转站,点击使用日制查看这条就是我们刚刚的调用信息。


两百五十块钱买了一千美元的 a p i 额度,不到一天烧光了。同样是 cloud, 为什么这么贵?答案是一个你可能从没注意过的机制, prompt to catch。 先说背景,我日常用 cloud code 做开发,跑的是自己搭的多挨震系统全部用 opus 模型,不考虑成本,只追求效率。两百美元的 max 订阅六天就限额了。 限额之后,朋友推荐了一个 api 中转站,两百五十块充了一千美元额度,折合两毛五一美元,看起来很划算。我拿来跑,日常编码多,挨阵协助高频对话,和平时干的活一模一样。结果不到一天,一千美元额度全部烧光。 要理解为什么这么贵,得先知道大模型 api 的 计费逻辑。每次你发一条消息, api 处理的不只是你这条消息,它要处理完整的上下文,系统提示词、工具定义、之前所有的对话历史。再加上你这条新消息, 一个典型的 cloud 扣的请求,光系统提示和工具定义就占了一万多 tock, 对 话历史可能几万甚至十几万 tock, 你 说的那句话可能就几百个 tock。 也就是说,你每次发消息,百分之九十九的费用是在为重复发送一模一样的上下文买单。 prompt 开群就是解决这个问题的,它把不变的部分缓存在服务端,下次请求,如果命中缓存,这些 tock 只收十分之一的价格,一个编码塞剩下来,缓存命中率通常在百分之八十五到百分之九十五。有缓存和没缓存,同样的工作量,成本差十倍。 那中转站为什么没有缓存?要我逆向分析了它的后端架构,它用的是耗池轮转,背后有二十多个 cloud max 订阅账号,你的请求随机分发到不同账号处理。而 ansok 的 prompt cache 是 按账号隔离的, 你第一次请求打到账号 a 上下文缓存在 a 上,第二次请求打到账号 b, 缓存不存在,所有 token 重新全价计费,命中概率等于一,除以耗池大小,二十个账号就是百分之五,基本等于没有缓存。代码层面,它没有丢弃缓存,字断问题出在架构耗池轮转和 prompt 开省天然矛盾。 来对比一下,中转站没有缓存,每次请求全量计费,十万 token 的 对话,每轮都按十万 token 收钱,一天高频编码一千美元,额度烧光,实际花了两百五十块。我的订阅有缓存,同一个账号缓存持续命中, 同样的对话,实际全价计费的只有一万多 token, 其余打一折。同样的工作强度,六天才触发限额。换句话说,中转站一天烧掉的额度相当于订阅六天的消耗,没有缓存,便宜的价格标签毫无意义。 额度烧完之后, ko 的 限额也没恢复,我被迫切到了 kimi。 第一次用 kimi 做正经项目,一个视频生产系统的字幕同步。客观说三个问题,第一,上下文关联弱,改了音频映设之后, ko 的 会自动检查字幕是否需要同步更新。 kimi 改了音频,但字幕完全没动,导致整个视频音化错位。第二,长对话退化。对话长了之后,前面的约定开始被忘记,指令执行偏离预期,需要反复纠正。第三,也是最严重的失控, 没有被要求的情况下,大面积重写代码,删除不该删的文件,很像早期的 cursor, 让他改一个按钮颜色,他把整个页面重写了,从 collog 切过来,落差确实大。 最后说一下怎么判断你用的 api 服务到底有没有缓存?看响应里的两个字段, cash creation input tokens 和 cash rate input tokens。 第一个是首次缓存创建时的 token 数,第二个是后续命中缓存的 token 数。如 如果这两个值始终是零,说明缓存没有生效,不管它宣传支不支持,看数据。另外三个判断维度,第一,后端是单账号直连还是耗时轮转,耗时轮转基本不可能命中缓存。第二,是否使用 anselpik 原生 a p i 格式? open a i 兼容格式的通道通常不支持缓存。第三,你的使用场景是什么?偶尔问几个问题,缓存无所谓,但如果是编码多, a 卷长对话,缓存就是最大的成本变量。下次看到便宜 a p i。 先问一句,他支持 prompt catching 吗?工具人研究所,我们下期见。


我以前对于 a p i 这种中转站是相当有偏见的,相当有那啥的,就是如果不是因为迫不得已,我是更不会用 a p i 这种中转站的。 像我之前一开始用 g p i 的 时候是走 g c p, 走谷歌云那种白嫖的金额吗?一开始不知道,应该可能很多人是这样一个开始,但是你发现官方这些东西他都会收紧收缩,你就很难找到这样东西, 然后慢慢了解,你就会去了解到 apa 中转这个东西一开始的时候都是带着偏见的,因为你会觉得这个东西会不会降脂啊?会不会说是他给你缩水啊?会怎么样的?是其实 我发现很多时候你愿意尝试是很重要的,其实甚至你会发现这个东西尝试一下可能就几分钱几角钱,但是大部分人他都不愿意去尝试,你花一颗也花个一块钱,你就知道这东西到行不行了, 对不对?但是,所以,所以其实你可以用很极低的成本去把你想要的一些认知啊,想要的一些效果其实就可以测出来,但是就是这个是可以执行的。

欢迎来到小树的一期一惠 ai 实战系列,今天我们来讲 tree 的 安装注册以及界面功能导览。首先我们打开浏览器,搜索三 w, 点 tree, 点 cn, 进入官网,点击右下角下载 tree i d e, 选择下载路径,点击下载。 下载完成后点击打开会有一个弹窗,选择我同一次协议,创建桌面快捷方式,点击安装,然后稍等片刻,安装好以后点击完成。 打开后点击登录,选择个人用户会跳转到一个网页这里我们输入自己的手机号,获取验证码,勾选同意,然后登录就可以了。回倒退,我们需要先新建一个文件夹,方便后续项目的查找,这里我已经创建好一个了。 然后我们回到 tree, 点击打开文件夹,选择我们刚刚创建好的文件,这样我们就创建了一个新的项目。在 tree 的 左上角可以切换 ide 和 solo 模式,如果不想写代码的话呢,选择 solo 模式就可以了。 设置这里可以更改 tree 的 主题以及语言,至于智能体和 mcp 呢,我们后续用到再说。 tree 内置了很多国内的各种大模型,如果你想要添加其他的,也可以在这里选择添加。 最后是技能 skills, 它们功能强大,种类多样,但是需要手动添加,后续需要我再单独和大家分享。以上就是本期视频的全部内容,我是小树,我们下期再见。