二十刀白嫖时代结束了, antropica 今天开始, cloud 订阅额度不再覆盖第三方工具,最大的受害者就是 opencloud, 一个让 cloud 变成全天候私人助手的开源框架,能回消息、跑命令,开浏览器全自动。以前花二十美金订阅 cloud pro 就 能拿这个额度驱动 opencloud, 相当于白送。现在不行了,订阅只覆盖官方自家产品 cloud code 和 cloud code work, 第三方工具可以继续用,但得按量付费, 另掏腰包。不过按算赔也不是完全不给活路,一次性补贴金额等于你一个月订阅费,但四月十七号过期不领就没了,还推出了预购包,折扣最高打七折。官方理由是第三方工具给系统带来了巨大压力, 必须优先保核心产品。说白了,这不只是涨价,而是在把能力往自家产品收。推文发出几小时,二十万浏览评论区直接炸锅。你觉得这是平台合理自保,还是在变相卡死第三方生态?
粉丝1772获赞1.6万

兄弟们,好消息,咱们用 clod code 再也不会被限制了。首先看我们官方的用 clod code 是 怎么用的,比如说我问他你是谁,他会说我是 clod code 的 astropik 的 一个官方的 c i 的 工具,然后我就问他,我说你现在用的是什么样的大模型呢?然后他就会告诉我,他现在用的是 clodsonet 四也最新的那个 sonet。 但是因为 clod 的 模型经常会被封啊,有可能你也调用不了,因为我们在国内环境网络环境不允许。 那我就问他,我说能不能用 deepsafe 呀?他就会告诉我,这里是 abstract 的 一个官方的 c r a 的 工具啊,我们这里的 ai 所有的都是用的 cloud 或者是 abstract 旗下的东西,你其他的一些单模型是不能用的啊。我就说我确实很想用 deepsafe, 那 有什么办法没有? 他的回复其实大概意思就是啊,你要用这个,你要是硬要用这个的话,那你就找别的家工具去吧,换了,如果是以前的话,咱也只能被动接受,要么就是更换其他的工具去用。但是现在不一样了,咱们有可尔克的原码了,虽然说这些原码并不是完整的,但是我们经过几天的奋战,已经把他所缺失的那部分给修复回来了, 也就是我们现在的可尔克是可以正常在本地部署运行的,那么我们自然有方法去让他支持我们去使用国内的这些大模型。 一共就两步,当我们部署好它的 code 之后,我们就打开这个点 excel 文件,然后进去之后把它的这个 api king 和 base url 这两个地方给更改一下就可以了。 比如说我现在用的是 kimi 的 k 二点五,那我就到 kimi 的 官网上去获取正确的 api king 以及它的 base url。 那 么以上所有的记录方法我都是已经做了整理和打包,改完之后我们就把它运行起来。 这可以看到我们现在用的这个大模型就是 kimi 的 k 二点二五,这样大大降低了我们使用 clark 的 成本。然后我们再输入斜杠 mcp 命令去检测一下 mcp 的 状态,我们可以看到我们这里的 mcp 的 服务器是已经成功接入了。

cloud 正式给所有订阅用户发布消息,彻底封杀 opencloud! 不知道大家今天有没有收到一封 cloud 官方发布的这样的一封邮件,然后 邮件里面明确的说明了 cloud 的 订阅将不再包含 opencloud 等第三方工具的使用额度,也就是说小龙虾这些用不了了。时间呢,是从太平洋的四月四号中午十二点,也就是 我们今天的十二点钟,您将无法再用 club 的 订阅额度在第三方工具包括小龙虾上使用。你仍然可以用你的 club 的 账户使用这些第三方工具,但是需要额外的用量,这部分费用将与订阅费分开,按实际使用量单独计费。这个是什么意思呢?也就是说 你以后 cloud 的 订阅额度只能够在 cloud 官方的产品上使用,包括 c c 啊,它的桌面端啊,网页端啊上面去使用了。如果你还想要你的 cloud 账户去使用一些其他的第三方工具, 你就必须只能够使用他们的 a b i。 我 们可以看一下 a 社是在上午七点钟发的这一条消息,然后就已经一百多万观看,然后将近一千条的评论了,现在时间是十点钟,也就在我录制这个视频的时间才十点钟,不知道一会你们看到的时候,那个时候又是多少了。 然后小龙虾的创始人在七点二十六,也就是过了十二分钟之后,他就发布了一个喷 a 社的帖子, 就是时间巧合的有趣,先是把一些热门功能搬进自家的封闭系统,接着就对官员关上大门,这是什么意思呢?我们都知道可乐最近更新了很多功能,包括但不限于小龙虾之前有的一些在 t t 上面使用的,或者说在手机端上面使用的一些功能。 为什么这一次大家对这个讨论的这么激烈啊?是因为有人之前在对可乐官方的一个订阅进行了抓包,我们可以从这个图里面看到啊, 官方订阅的五倍,他实际上能够使用的月限额是一千三百多刀,如果是二十倍的话,可以使用两千七百多刀,这也就是说你可以通过两百块钱的订阅,最终获得两千七的一个 美金的使用量,如果你开的是五倍,那么你可以通过一百到的订阅获得一千三百多美金的使用量。并且注意,这一个表格得出的前提还是完全没有缓存的,也就是说如果加上缓存,那么这个额度就会更多,也就是更高。 所以这就是为什么会有很多中转站去开官方的账号,然后反贷出来给你们去使用,就是因为他获得的收益是远远大于他订阅费用的收益的。 当官方的订阅不能够再用于其他的第三方工具之后,只能够通过 api 去调用的话,也就是说你之前使用两百刀跑出来的一个额度,你最终要付的账单是两千七, 你之前只花一百美刀跑出来的东西,你现在需要花一千三百美金,这个比例远远是不只是翻倍,这是相当于翻了十倍,所以大家才会对这一次的额外用量的一个讨论会这么的激烈。

直接说结论, cloud 在 昨天更新的 computer use 这个插件是没有办法投入生产的,现在还远远没有达到可以用的程度。 昨天推特上 cloud 更新了一个 computer use, 我 看到这个推送,我就迫不及待打开电脑尝试了一下,那具体的打开方式呢?就是在你桌面的这个 desktop 的版本里面,然后打开 cloud code 里面有一个设置,你把这个设置里面的 browser use 下面的 computer use 给它打开,打开之后你就可以使用了。然后我也尝试在 c u i 里面打开它, c u i 现在是不支持这个插件的,那我对于这个场景非常感兴趣的点,呃,就用这个个人微信回复去做了一个测试,这个就是你们看到的测试结果, 呃,我让他给我微信里的一个联系人发送一条消息,你中午吃了什么?我在这里给大家做一个这个详细的这个讲解。第一是他直接输入了消息,因为他这个时候打开了我的电脑, 那其实它后面识别到这个群聊不是我想要发送的联系人,它就再次切换到这个我想要的指定的联系人的对话框。但这里问题来了,我就发现了这个 computer use 它真正的这个操作逻辑,它是在不断的截图,然后截图识别图像上面的要素,然后判断这个控制点,然后通过键盘操作的方式 来进行选用。那键盘操作会有个什么问题呢?就是我最终其实这个进程没有跑完,我就给他放弃掉了,他会遇到一个非常严重的问题,他在搜索框里面搜索我想要联系的这个联系人,一旦这个联系人搜索的结果是多个,因为微信的搜索联系人一定会出现多个,只要你跟这个人有群聊, 那出现的第一个结果就是,呃,这个你,你的这个联系人第二个结果就是你跟这个联系人存在的一系列的群聊,那这个时候这个键盘的搜索就会一直出错,就导致我只是让他简单的在微信里面给我的这个联系人发送一条消息,这件事情都做不到。 所以 computer use 它真正要落地在你的电脑里面去操作你的软件,这一条路我觉得还有很长的路要走,但是我觉得 browser use 已经非常好用了,因为 browser use 明显它对于控件选举的精确度是要非常高的。

兄弟们,许可的扣的官方版以后可能彻底用不上了啊。这下这个刚退出来的许可身份验证要求你用这个身份证或者什么驾驶证之类的进行验证啊,然后不合规的地区,比如说像这个国内就直接就用不了了。这个能用一天是一天吧啊, 不行之后就只能想其他办法了,或者全面转型 codex。 codex 我 用了几天也还不错啊,像其他的 app 都是睁一只眼闭一只眼对吧?交钱了就给你用了。他们是真较真啊,也不知道是为了啥。

好不容易注册了各大 ai 服务的账号,想要付费,结果卡在了最后一步,国内的信用卡绑不上,海外的虚拟卡又太折腾怎么办? 大家好,我是二中城,今天给大家分享一个好用的神器 y o 的 ai, 它专门针对 chat、 gpt、 cloud 以及 x 的 订阅做了专门的优化,解决了四个让大家最头疼的问题。 第一,解决了支付门槛,使用支付宝就可以搞定。第二,他提供了独立订阅以及合租的方案,如果你只是想单纯的体验一下 ai 的 功能,可以在网站上去选择性价比更高的合租方案。第三,操作简单。 如果想要使用个人账号独立订阅,不需要担心自己的支付环境,在页面上选择你要订阅的服务, 跟着网站的提示操作, vr 的 ai 会帮你搞定剩下的事情。第四,资金安全。很多人最怕的就是平台跑路, vr 的 ai 不 需要预存资金,钱永远都在你自己的手里才叫安全。 通过视频下方我的邀请链接去注册,或者在订阅的时候输入我的邀请码,还可以享受优惠。效率第一,赶紧去试一下。

大家好,今天是视频记录一百天的第二十五天,今天聊两个事情吧。第一个事情就是今天收到了科尔的官方的一个邮件,当时瞄了一眼也没有太在意。下午的话有一个同事问有没有收到类似的邮件, 自己也去看了一下,结果发现是 club 的 官方给了一笔一次性的信用额度,大概是每个月按你自己订阅的费用给个九十天,大概就是三个月的一个时长的一个 extra 的 一个使用, 说白了基本上就是开通之后可以在你之前的额度用完之后可以用 extra 的 额度再接着再用一用。呃,如果要体验这个功能的话,就是先去 在那个邮件的基础上把那个开通一下,把那个一次性的领取一领,领完之后再重开一下自己的 cloud code 的 c l i 工具,完了下边就会有一个提示,你的 fast 模式可以用了。 今天自己去试了一下一个呃中上难度繁杂的一个任务吧,因为涉及四个小任务,在一个任务集里边让他执行了一下, 呃,消耗的额度还是挺夸张的,大家可以看一下我那四个小任务执行完之后基本上花了三十四刀。 完了又接着去研究了一下,发现其实按自己现在 max 的 额度的话,基本上是够用了,不需要开这个 fast, 完了自己回头就又去把这个 fast 给关掉了啊,就关的话基本上就是在 控制台里边输一个杠 fast off 基本上就可以把它关掉了。再聊一个第二个事情,就是之前推荐过用 cloud code 的 话,可以定期去用一下 insight, 去审视一下自己用 cloud 的 一些 情况,自己当前的一个基本情况就是整体就是这样的一个截图,小细跟大家聊一下吧。第一部分就是 大概的一个整体,已经用了大概有三周的一个时间了,总时长是七百九十六个小时,那七百九十六个小时其实建立在自己其实经常是同时会并行开启好几个 卡地扣的窗口,这样的话时间其实会叠加的,按现在自己的习惯基本上平时会保持至少两个到四五个之间的卡地扣的窗口并 并行的在工作吧。第二个就是设计的工作领域,基本上现在因为做的测试的工作比较多,所以的话测试和一些覆盖基本上就占了百分之三十。再就是一些 呃功能的覆盖和分析,大概占了有个百分之二十左右,后边就是一些工具调试之类的,大概有个百分之十六。后边就是基础设施和一些 bug 修复, 大概能占个百分之二十五左右的一个空间。其实他分析的比较有价值的一部分就是 中间这一部分主要的摩擦点就是包括昨天也有提到发现其实用 cloud wallet 没有那么的顺畅嘛,就是也会出现它自己把自己定的一些规则或 memory 的 机制没有真正的落地, 它也在这个 insight 的 结果里边会做了一个分析和一个改进, 完了当然了他也会衡量一下当前使用 cloudco 的 的一些好的点吧,大概就落了这三点吧。 其实整体的这个 insight 的 功能还是比较强大的,说白了就是让 cloudco 的 自己来准备一下个人的一些操作习惯、使用流程,或者说一些 可以在工作的写作过程中提升效率的一些机制和方法。当然基于他身上的这些反馈也可以让 cloud code 给一些改进意见,基于他的改进意见可以做后续的一些。 呃,不管说是操作还是使用的一些体验优化。好吧,今天就聊到这里,谢谢大家,再见。

兄弟们,紧急突发,如果你以为花两百美元就能无限制调用 cloud ai 算力,那我明确告诉你,今天凌晨两点,全球百万开发者刚被 sriabic 上了一堂价值五千美元的硬核商业课,没有预警,也没有协商,直接断供。 北京时间今天凌晨三点,也就是美国东部时间四月四日下午三点, ai 巨头 astromech 突然就发布官方公告,态度抢硬所有 cloud 的 订阅套餐,全面禁止 opencloud 等第三方工具。更狠的是,只给用户二十四小时的缓冲期, 要么接受天价的 api 费用,要么就是忍痛重构整个业务逻辑。无数中小团队的 ai 预算,一夜之间从暗月锁定变成了随时爆单,直接陷入了被动。 肯定有人可能要骂啊, s robert 也太小气了,真不是人家小气,咱算笔实打实的账。根据太媒体的深度调查,一个二百美元 cloud max 订阅,通过 open cloud 这种七乘二十小时 不间断高强度调用的工具,实际上它消耗的算力价值足足高的五千美元。这就好比你去住自助餐厅吃饭,结果有人推门进去,直接把你的锅端走了, 这换谁当老板,那都得着急啊。是不是核心原因其实很简单,现在全球的 gpu ai 算力其实极其紧张, sloan 允许用户以固定低价去无限制调用等额的高额算力,本质上就是在补贴对手的生态。而且 cloud 的 自身的 code 还有 dispatch 这些功能已经很成熟了,这笔战略投资其实早就没有继续的必要了。 更关键的是, openclo 在 用户和模型之间加了一个中间层,让 astrobic 彻底地失去用户入口的控制权。在 ai 智能体时代,入口就是命脉,巨头的话怎么可能拱手让人? 而且这也不是个例, google 二月份就已经封禁了 openclaw 的 访问, jimmy ultra mate 内部其实也早已禁用 openclaw。 不 过大家别慌,咱们开发者最擅长的就是解决问题。我总结了三条方法, 照着做至少能降低百分之六十的成本和风险。赶紧记好,一多模型混用,不要把鸡蛋放在一个篮子里。日常普通任务用 gpd 五点四,成本低还够用。专业内容处理用 jimmy pro, 免费,额度大,性价比拉满。 只有复杂场景再用 cloud, 百分之八十的日常任务不用顶级模型,成本直接降到百分之六十以下。 第二,咱们部署本地大模型去兜底,你可以用奥拉玛搭配零码的三点二七 b 的 参数,普通的电脑就能去调用。还有千万的二点五十四 b 的 参数。中英混合优化,特别适合中文场景 编程专用就选 deepsea 的 code, 文本分类,像格式整理,还有简单问答,这些轻量任务一分钱不花就能搞定。 第三,咱们可以参与开源生态,与其被动接受规则,不如主动共建。多给 oppo cola 设计提一手,提一 pr, 然后参与 mcb 的 标准化讨论,甚至可以开发自己的跨平台 a 境的抽象层,掌握主动权。 最后提醒大家, ai 技术的真正价值其实从来不是巨头的垄断工具,而是每个开发者手中的创造力杠杆。 记住这句话,在 ai 时代,要么掌握规则,要么被规则掌握。评论区聊聊你和你的团队有没有遇到类似的平台限制,后来是怎么解决的?分享下你们的经验,帮助更多的开发者避坑。我是可乐,咱们下期见。


万万没想到, anthropok 的 封杀令反而成了 openclaw 的 最强助攻。 anthropok 直接掐断了 openclaw 的 免费接口,结果封杀不到四十八小时,这只龙虾不仅没死,反而更进化了!这里是 ai 风向标,带你了解 ai 行业最新动向。为什么要封 openclaw? 因为 anthropic 亏麻了!就在前几天, anthropic 深夜翻脸,用户花两百美元买月套餐,挂着 open club 跑了一天的自动化任务,实际消耗算力折算高达两千美元。每张两百块的票,背着一千八百的亏损,这买卖没法做。于是一纸封杀令,第三方工具涨价最高五十倍。 本以为 open 靠凉了,结果四十八小时内,一百零三位开发者集体发力,龙虾进化了!他一口气接入 r、 n、 v、 mini、 max、 google 等十一家顶级,提供上不需要任何插件,说一句话就能出视频,这就够炸裂了。别急,还有更选的 新版本上线了一个叫梦境的功能,每天凌晨三点,他自动整理当天记忆,沉淀有价值的内容,越用越懂。你听起来很熟悉,因为这套逻辑几乎直接从 i d o p k。 泄露的原码里借来的。逻辑一模一样, i d o p k 封了人家,还顺手帮人家做了产品经理。 更实在的是,这次 open call 使用成本直接降到了地板价。底层缓存全面重构,系统提示图片历史全部标准化,命中率大幅提升, 你什么都不用做,成本就会自动下降,省下的全是真金白银。而且他不再是从英语独占,中文、日文、西班牙语十二国语言全覆盖。结局就是,现在的欧朋克已经长记性了, cloud gbt 五点四 deepsafe, 谁封我我就换谁。但现在最大的问题其实根本不是谁来封他,是他的赞助商已经变成了 openai 创始人也加入了 openai。 要知道这只龙虾当初最大的卖点之一就是它不属于任何一家大厂, 本地运行数据自己存,谁家模型便宜用谁家,但现在反而被巨头收扁,你觉得这是进化还是投降?

两百五十块钱买了一千美元的 a p i 额度,不到一天烧光了。同样是 cloud, 为什么这么贵?答案是一个你可能从没注意过的机制, prompt to catch。 先说背景,我日常用 cloud code 做开发,跑的是自己搭的多挨震系统全部用 opus 模型,不考虑成本,只追求效率。两百美元的 max 订阅六天就限额了。 限额之后,朋友推荐了一个 api 中转站,两百五十块充了一千美元额度,折合两毛五一美元,看起来很划算。我拿来跑,日常编码多,挨阵协助高频对话,和平时干的活一模一样。结果不到一天,一千美元额度全部烧光。 要理解为什么这么贵,得先知道大模型 api 的 计费逻辑。每次你发一条消息, api 处理的不只是你这条消息,它要处理完整的上下文,系统提示词、工具定义、之前所有的对话历史。再加上你这条新消息, 一个典型的 cloud 扣的请求,光系统提示和工具定义就占了一万多 tock, 对 话历史可能几万甚至十几万 tock, 你 说的那句话可能就几百个 tock。 也就是说,你每次发消息,百分之九十九的费用是在为重复发送一模一样的上下文买单。 prompt 开群就是解决这个问题的,它把不变的部分缓存在服务端,下次请求,如果命中缓存,这些 tock 只收十分之一的价格,一个编码塞剩下来,缓存命中率通常在百分之八十五到百分之九十五。有缓存和没缓存,同样的工作量,成本差十倍。 那中转站为什么没有缓存?要我逆向分析了它的后端架构,它用的是耗池轮转,背后有二十多个 cloud max 订阅账号,你的请求随机分发到不同账号处理。而 ansok 的 prompt cache 是 按账号隔离的, 你第一次请求打到账号 a 上下文缓存在 a 上,第二次请求打到账号 b, 缓存不存在,所有 token 重新全价计费,命中概率等于一,除以耗池大小,二十个账号就是百分之五,基本等于没有缓存。代码层面,它没有丢弃缓存,字断问题出在架构耗池轮转和 prompt 开省天然矛盾。 来对比一下,中转站没有缓存,每次请求全量计费,十万 token 的 对话,每轮都按十万 token 收钱,一天高频编码一千美元,额度烧光,实际花了两百五十块。我的订阅有缓存,同一个账号缓存持续命中, 同样的对话,实际全价计费的只有一万多 token, 其余打一折。同样的工作强度,六天才触发限额。换句话说,中转站一天烧掉的额度相当于订阅六天的消耗,没有缓存,便宜的价格标签毫无意义。 额度烧完之后, ko 的 限额也没恢复,我被迫切到了 kimi。 第一次用 kimi 做正经项目,一个视频生产系统的字幕同步。客观说三个问题,第一,上下文关联弱,改了音频映设之后, ko 的 会自动检查字幕是否需要同步更新。 kimi 改了音频,但字幕完全没动,导致整个视频音化错位。第二,长对话退化。对话长了之后,前面的约定开始被忘记,指令执行偏离预期,需要反复纠正。第三,也是最严重的失控, 没有被要求的情况下,大面积重写代码,删除不该删的文件,很像早期的 cursor, 让他改一个按钮颜色,他把整个页面重写了,从 collog 切过来,落差确实大。 最后说一下怎么判断你用的 api 服务到底有没有缓存?看响应里的两个字段, cash creation input tokens 和 cash rate input tokens。 第一个是首次缓存创建时的 token 数,第二个是后续命中缓存的 token 数。如 如果这两个值始终是零,说明缓存没有生效,不管它宣传支不支持,看数据。另外三个判断维度,第一,后端是单账号直连还是耗时轮转,耗时轮转基本不可能命中缓存。第二,是否使用 anselpik 原生 a p i 格式? open a i 兼容格式的通道通常不支持缓存。第三,你的使用场景是什么?偶尔问几个问题,缓存无所谓,但如果是编码多, a 卷长对话,缓存就是最大的成本变量。下次看到便宜 a p i。 先问一句,他支持 prompt catching 吗?工具人研究所,我们下期见。

你是不是每个月还在花钱订阅 cloud code 服务? github 上最近发布了一个开源项目,可以直接把月费降到零,而且它的速度甚至超过了云端付费版的 cloud opus 模型。最关键的是,这一切完全免费,并且你的数据永远不会离开你的电脑。 这个叫 cloud code local 的 开源项目短短两天就已经斩获了近八百颗星。这个项目的目标只有一个,让你在 apple silicon 芯片的 mac 上运行本地模型,彻底告别 api 费用和隐私泄露的担忧。 它提供了千问三点五一二二 b llama 三点三七零 b jama 四三一 b 三个模型。在 m 五 max 芯片上,它的深层速度能达到惊人的每秒六十五个 token, 这直接超过了云端 cloud opus 每秒四十个 token 的 速度。更重要的是,这个项目构建了一个百分之一百本地零网络调用的闭环, 你的代码,你的提问,生成的所有内容全部在你的 max 上处理,没有任何数据上传到云端,完全离线也能正常使用。 而且它的安装非常简单,只需要三个命令或者直接双击桌面生成的启动器就能开始使用。一句话总结,免费本地超大模型,全功能、零费用、零隐私风险!你会用这个本地免费版吗?评论区聊聊,关注科技区角,看见更全面的科技世界!

哈喽,大家好,如果你现在还在用免费的 call 或者是卡在订阅失败了这一步,这条视频你一定要看完,我会把注册到付款所有我踩过的坑跟你们说一遍,你跟着做,二十分钟就可以搞定。先来说说为什么要订阅 call 的 空。 很多人觉得免费版的就够用了,但你有没有遇到过,对话框里突然弹出达到使用上限,正在写的文案,档案代码直接会被断掉。 pro 每个月二十美元,换来的是优先访问权,更长的上下文窗口,还有最新模型的第一批体验资格。 对我来说,这是目前 ai 工具里性价比最高的订阅之一。但问题来了,它只支持境外的支付方式,很多国内的用户都卡在了这一步就放弃了。 今天我把三种方法全部给你讲清楚。第一种,也是最推荐的虚拟信用卡,目前用的比较多的是 day pad、 万度卡的这类平台,本质上是一张可以充值的 vise 虚拟卡。 流程是先注册账号,然后完成实名认证,控制 e、 r、 s、 d、 t 或者人民币,拿到卡号可以直接填到 call 的 付款页。整个流程我自己测下来大概就是三十分钟左右, 充值手续费在百分之一到百分之三之间还是可以接受的。值得注意的一点是,充值金额建议比订阅费稍微多一点点,有些平台会预扣体验金,就会导致你 在付款的时候显示余额不足。第二种,找朋友大夫。如果你身边有在美国、香港、新加坡的朋友,让他们用当地的银行卡订阅,你转到对应金额给他,这个方法零手续费,但是有一个前提, 账号绑的邮箱和 ip 地址最好稳定,在同一地区混用可能会触发风控,导致账号被限制。第 三种就是礼品卡或者第三方代充,某些平台支持用礼品卡余额抵扣,但靠的官方目前并不直接支持礼品卡,所以市面上的代充服务本质上还是有人帮你走虚拟卡或者境外卡的流程, 价格一般会溢价百分之十到百分之二十,适合懒得自己折腾,只想直接用的人。但我个人建议还是自己搞一张虚拟卡,一劳永逸, 后面订阅其他海外服务也用得上。我们来快速说几个高频踩坑的地方。第一就是网络的环境,付款的时候要确保你的节点干净,最好全程用同一地区的 ip, 中途进行切换,很容易被靠到的风控揽下来。第二是账号注册用的邮箱,推荐大家都去用谷歌的邮箱,国内的邮箱有时候会收不到验证码,或者配办定为高风险地区。第三个就是付款失败,不要反复尝试,连续多次支付失败,系统会临时锁卡, 建议换个时间段或者换一张虚拟卡来再重新试一下。好,三种方法我都给你说清楚了,虚拟卡你可以自己搞定,是你的首选。朋友代付的方式,只要你有资源就可以。 第三方代充是懒人最适合的方案,但是衣架会偏高。如果你想知道我用的是哪一张虚拟卡,具体注册步骤是什么,评论区打教程,我单独出一条详细操作流程, 觉得有用的话收藏这条视频,下次遇到海外订阅付款的问题翻出来可以直接用,我是跨境 paper, 我 们下期再见,拜拜。

谁说 cloud 封杀, open cloud 就 能垄断了?就在刚刚, cloud 被彻底偷加了,它的核心多智能体编排系统被完全提取,诞生了一个全概念模型无关的框架, open multi agent。 为什么这个项目能让硅谷颤抖?因为它的 type script 原声。以前想搞多 agent 的 协同,只能用 python, 现在它实现了真正进城内运行,不需要每开一个 a 镜的,就跑一个占内存的 c i i 银行 r t m 代码自动裁剪,任务自动调度。依赖最爽的一点,它彻底解构了模型,你不用再被卡尔的添加 api 绑定,左手 g b d, 右手 deepsafe, 中间跑本地模型。连最新的杰玛斯也支持 samsung dock, c i c d 全线支持。这才是开发者想要的自由。听老兵一劝,别在闭园的围墙里焦虑了,我把地址放评论区置顶了,把这个视频转给你的架构师,这就是咱们二零二零年的底座。

没用过龙虾,那你还没听说过一个叫 opencloud 的 开源小龙虾工具吗?它能让你拿各种 ai 大 模型的包月订阅,或者你购买 api 额度在后台跑各种 ai agent 的 任务。但是请注意,从四月五号开始, android 把这条路正式给封禁了。哎呀,其实呢, cloud 的 大模型依旧是可以继续调用的,你还可以继续花钱买 api 嘛。 只是原来那种交的月费在后台随便跑的好日子,他呢,一去不复返了,官方呢,就留下这一句话,叫这种用法他不可持续。可真正的问题是,为什么偏偏等到现在才封禁呢?因为这些工具消耗的根本不是你平时聊天那点流量啊, 他是让一群 ai agent 在 二十四小时在后台不断的干活,你自己用克劳德是一句一句问,这种用的效率是非常低的啊,但是呢,用机器帮你做任务是不停的问,一直的问,甚至好几个不同的 ai agent 不 断的去问他,所以他们老板肯定就扛不住了啊。 表面上面来看像是封了一个叫 open cloud 的 工具,但实际上面, asteroid 切掉的是一种用法,就是你拿一个包月账号去干本来应该按量付费的重活。 简单来说,包月入口用的是订阅账户的额度,但 api 入口用的是按量付费的额度,用多少付多少。 asteroid 真正砍掉的不是第三方工具本身,而是花包月钱干按量活这条路。那为什么开发者社区还是一夜之间从包月的感觉变成了走表的感觉, 而且不是普通的走标感,像是那种付电费啊付油费一样的感觉。是你一次调用之前呢,你就在想啊,这次又得烧多少的钱,又得烧多少 token。 更让人不爽的是, open 官方说这事不是从四月才开始的, 那个 anselpock 其实在一月九号就已经尝试拦过一次啊,很多人的情绪并不是简单说啊,你怎么故意的呢,而会觉得是不是你发现啊,生态,他们这个小龙虾生态还在继续增长,让这个用户变多了,这才是个最多人最不爽的地方。 而且吓人是,其实不是 openclo 会不会受重创,而是 ai 大 模型公司越来越不想只当一个模型供应商了,他想,要是模型我来做,入口我来定,计费方式我来定,你怎么用,最后也是我说了算。 所以以后大模型的竞争啊,可能不是真的比谁更聪明,而比谁更能规定你只能从我这个门进来,我只能割你的韭菜。我是口罩长发哥,在 ai 爆发的前夜,让我和你一起看透未来。

今天这条消息,你大概率已经刷到了二零二六年四月四日, and fropic 开始对 open core 动手。重点不是封代码,而是原来靠包月跑任务的路被切掉了。 先别理解错了,这次封的不是 open core 代码仓库,也不是把 cloud api 全关掉,真正被切断的是 cloud pro 和 max 这类订阅额度在 open core 这种第三方 agent 工具里的使用资格。 按目前流出的通知,这个政策二零二六年四月四日先在 open core 上执行,后面会推到更多第三方工具,你还能继续用 cloud, 但得改成 api key 或额外购买 usage bundle 补贴领取。到四月十七日, 先看最难受的是谁,不是大厂,而是那些原来用它压成本的人。以前一个订阅就能顶住一整天任务,现在同样的工作流,得直接面对暗量成本,这个冲击是立刻发生的, 为什么偏偏是现在?这里我明确说这是判断,不是官方表述。我的看法是,他想把核心收益重新收回第一方产品,也不想让第三方继续吃包月红利。 也就是说,屏幕上这三件事,本质都指向同一个目标,把价值风控和结算重新握回自己手里。 其实这件事真正值得看的不只是在 open call, 它给整个行业打了各样,以后 ai 的 订阅不一定还能被你自由搬到任何第三方工具里。对创业团队来说,接一个模型就把命门交出去,这条路会越来越危险。 一句话总结,这次 entropic 风的不是项目本身,而是第三方 agent 最关键的低成本入口。今天被点名的是 open 科奥,明天该警觉的是所有把上游订阅当基础设施的人关注我继续聊 ai agent 的 产品和生意模式。