cloud 正式给所有订阅用户发布消息,彻底封杀 opencloud! 不知道大家今天有没有收到一封 cloud 官方发布的这样的一封邮件,然后 邮件里面明确的说明了 cloud 的 订阅将不再包含 opencloud 等第三方工具的使用额度,也就是说小龙虾这些用不了了。时间呢,是从太平洋的四月四号中午十二点,也就是 我们今天的十二点钟,您将无法再用 club 的 订阅额度在第三方工具包括小龙虾上使用。你仍然可以用你的 club 的 账户使用这些第三方工具,但是需要额外的用量,这部分费用将与订阅费分开,按实际使用量单独计费。这个是什么意思呢?也就是说 你以后 cloud 的 订阅额度只能够在 cloud 官方的产品上使用,包括 c c 啊,它的桌面端啊,网页端啊上面去使用了。如果你还想要你的 cloud 账户去使用一些其他的第三方工具, 你就必须只能够使用他们的 a b i。 我 们可以看一下 a 社是在上午七点钟发的这一条消息,然后就已经一百多万观看,然后将近一千条的评论了,现在时间是十点钟,也就在我录制这个视频的时间才十点钟,不知道一会你们看到的时候,那个时候又是多少了。 然后小龙虾的创始人在七点二十六,也就是过了十二分钟之后,他就发布了一个喷 a 社的帖子, 就是时间巧合的有趣,先是把一些热门功能搬进自家的封闭系统,接着就对官员关上大门,这是什么意思呢?我们都知道可乐最近更新了很多功能,包括但不限于小龙虾之前有的一些在 t t 上面使用的,或者说在手机端上面使用的一些功能。 为什么这一次大家对这个讨论的这么激烈啊?是因为有人之前在对可乐官方的一个订阅进行了抓包,我们可以从这个图里面看到啊, 官方订阅的五倍,他实际上能够使用的月限额是一千三百多刀,如果是二十倍的话,可以使用两千七百多刀,这也就是说你可以通过两百块钱的订阅,最终获得两千七的一个 美金的使用量,如果你开的是五倍,那么你可以通过一百到的订阅获得一千三百多美金的使用量。并且注意,这一个表格得出的前提还是完全没有缓存的,也就是说如果加上缓存,那么这个额度就会更多,也就是更高。 所以这就是为什么会有很多中转站去开官方的账号,然后反贷出来给你们去使用,就是因为他获得的收益是远远大于他订阅费用的收益的。 当官方的订阅不能够再用于其他的第三方工具之后,只能够通过 api 去调用的话,也就是说你之前使用两百刀跑出来的一个额度,你最终要付的账单是两千七, 你之前只花一百美刀跑出来的东西,你现在需要花一千三百美金,这个比例远远是不只是翻倍,这是相当于翻了十倍,所以大家才会对这一次的额外用量的一个讨论会这么的激烈。
粉丝439获赞4780

哈喽,大家好,今天来更新一下 openflow 这个项目的一些进度吧。 openflow 这个项目的话,目前呢做了比较多的一些更新,第一个更新支持了三三个端,就是 macos、 linux 还有那个 windows。 这三个平台的话,像 macos 的 话,它是有一些界面的,并且是支持那个命令行的。 linux 和 windows 整体上来讲还是支持那个命令行的 c l i 这种形式。 这三个平台的话,因为我本身没有这两个,没有 linux 和那个 windows 平台,我没法做测试,我电脑的空间也不是特别大,所以大家如果有问题的可以提 pr, 我 到时候就给合并过去。 另外增加了一些功能,这个是有一个大神贡献的,它贡献了一个设置面板,在这个设置面板上确实非常方便的,就可以去实现这些公嗯按钮的切换配置。比如说你想把这个键改成 f n 或者是右键,你都可以在这配置。 并且它有两种模式,有这个 build 模式和这个正常的按住,再再一次这种模式可以自己去做切换。它还增加了一个 简化体转换的功能,我觉得可能是对于台湾的或者是香港的朋友是非常友好的。另外呢,还展示出了 mac os 的 这个权限的配置的一个实际情况。简单来说,因为我们没有开发者的签名,所以说你每次更新这个软件或者是重新下载的话,它其实都需要重新授权的。 而且这种授权呢,他可能给你一种假象,你以为他授权了,实际上呢,他还是没有授权的。所以说你必须把原来的这些权限的设置呢,你都要点那个简号给它删除掉,并且重新授权, 这里是体现出的是实际的授权情况,如果有问题的,你就可以去点到对应的设置当中呢,把他之前的那个 open flow 删掉,再重新添加这个地方只要都显示成绿色的,那么就代表这个产品是可以实际使用。有这么一个问题, 这个后面除非我充钱充苹果开发者会员,大家就不会有这种问题了,否则一直可能会有这个问题。 还增加了一个远程的模型,因为我没太用过这个远程的模型啊。这个模型的话你可以添加这个 k, 我 自己也注册了一下,也用了一下,是可以可以用的。如果是大家对远程远程服务的这种啊,语音转文本有需求的话,大家可以配置这个模型。本地呢,我自己是提供了, 又增加了一种精度稍微高一些的,比之前两百兆版本多一点的四百兆的版本,这个版本的话是我自己从原原始的非量化版本通过代码给它转换成的这个版本。不过目前看哈,我觉得这俩差效果没有差异特别大,所以我推荐大家还是用这两百兆的版本,我觉得也够用了。 后面的话我再考虑说如何用大模型把这个输出的结果或者是历史对话做一些关键词提取或者是修正,还得考虑,因为我觉得他这个会影响速度,主要是,所以我暂时可能还是想再看一看,比如说有的用户可能有这个需求,那我给他加上,如果要是一般的话,我觉得正常来讲也够用了。 你就看大家的这个需求吧,我感觉不算特别强烈,我自己用的时候其实我觉得还好,还有一个因为给大模型 a 扣顶啊,它其实你只要说了一堆东西之后,你只要是没有什么特别明显错误发给他,他都能理解啊, 不是那种严肃编辑场合的话,其实还是可以的。另外 model 的 这个模型的话,它是现在是有一个路径的显示,实际模型被放到哪个位置的话,这有个显示。 另外这有个测试热键的功能,还有些日制的记录,比如说你现在这个日制的情况,它会实时的显示在这里,这样的话大家有什么问题的话可以看这个日制。那非常感谢这位,这位这个贡献者开发者其实还是挺不错的给这个项目啊。第二个它还有一个比较大的一个贡献,它是有一个功能,我先按住 command 键之后呢,会显示一个 显示一个录音的状态啊,这个我觉得也挺好,比如说我现在松开它就会这个就会这样,比如说这样,我现在是显示这个状态,我觉得还不错,你看这样还挺好用的。 另外呢,我增加了一个自动更新的功能,你点击打开更新之后的话,会自动去找最新的 release 版本,会自动进行更新啊,就省着你每次去那个。但是还是存在那个问题啊,你每次更新完之后还是要把权限重新手动设置一下,确实是没啥办法, 这两个平台的确实是啊,我听说是 linux 这个平台的人还是提出了一些想法,说他们觉得是这个平台上其实现在目前特别缺类似的产品, 这个我在想怎么才能测试一下,或者说我把这个平台啊,怎么才能自己安一下,或者怎么样才在平台上能够充分的去把这个产品功能开发出来哈, 觉得这个可能对这个平台可能也是比较有帮助的。或者是啊,这种下面如果大家有在平台开发的,可以 tpr 把这个,咱们把这个功能给它建设起来啊,这也是挺好的。我觉得 这个产品其实相对来讲,对于我之前的 iq 顶来讲的话,这个是比较完整的。原来的那些产品的话,很多都是开发一些相对比较简单的一些功能,这个产品还是稍微复杂一点。对于我来讲啊,我觉得还是稍微复杂一点,涉及到模型,包括涉及到性能的问题,包括它是用 ras 的 语言去写,虽然我不懂这个语言, 但是的话它在调试的过程当中的话,它这个 bug 会相对多一些。另外它就多个端,多个端涉及到测试的问题, 以及这个怎么说它的综合性还是比较强,大家东西还是相对多一些。这个产品确实全部都是通过 ai 构建来完成的,我没有写一行代码 啊,能感受到现在 ai 的 这个能力确实很强啊。但是要提一下,目前这个产品之之前从零到一开发的时候,还是用 cloud 模型多一些啊,就 cursor 里面的 cloud, 因为我是用了买的 cursor 拷出来的会员, 所以说的话,其实用 cursor cursor 里面的这个 cloud 的 话,相对来讲成本还是好一些的,比便宜一些。如果直接去买的话,那个 key 我 看是特别贵的, 如果你用那个 codex 的 话可能也行,但是我我这我在 cursor 里面试了试,我觉得它的它的报错都特别多,还是 cloud 模型好用很多啊这么一个情况。行,先汇报这些吧,然后一会要上班去了, 大家有什么新的问题的话也欢迎给我提这个一说啊。然后或者那个再贡献点 p r 也可以, 因为我发现这个会代码的人还是还是厉害很多。这个写的东西确实是更稳定一些啊。我自己要是写的话,就是发现这个 bug 的 时间其实还是比较多的。行,今天先唠这些吧,拜拜。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

哈喽,各位做业务搞创作的朋友,最近好多人问我 opencloud 到底要不要养?养一个月到底得花多少?今天就结合 ai 内容创作的实际需求,两分钟把这笔账算的明明白白,避开所有坑。首先明确核心结论, opencloud 软件本身开源免费, 但养它的成本分三档,从几十到几千不等,完全看你的需求,别被网上乱七八糟的说法骗了,官方根本没强制收费,咱们按需选就行,不花冤枉钱。先算第一档,白嫖够用档,月成本三十到八十元, 适合咱们偶尔做文案处理,供应链数据的轻量需求,成本就两笔,第一笔是房子钱,租个轻量云服务器,六十块左右,一个月二十四小时在线,拖着它跑,比自己电脑稳多了。第二笔是口粮钱,用国内免费大模型层偷看,几乎不花钱,偶尔用用,完全够 适合谁?咱们做生鲜供应链日常备账,短视频简单文案扒取资料总结的这档直接够用,甚至能省一半成本。再看第二档,高效干活党,月成本两百到五百元,适合咱们做批量内容创作、供应链金融数据处理的中度需求, 多花的钱主要在口粮升级,用中档大模型 api, 结合咱们高频的短视频批量生成活动,梳理需求,每月 token 消耗大概一百到三百元, 服务器还是六十块不变,偶尔加个文档处理数据可化的付费插件,按需买,不强制适合谁?每天要更三条短视频,处理多份供应链单据的这档能让效率翻倍,比雇人划算多了。 最后是第三档,重度专业档,月成本两千元加,适合企业及部署规模化业务的需求, 这时候要上高并发服务器,多模型联动,还有七成二十四小时运维成本。咱们做算力服务器业务的, 要是想搞私柳化部署,批量对接客户账号,这档才用得上,毕竟成本不低,得看业务规模。重点来了,三个避坑点,一定要记死!第一,软件本身绝对免费,任何说基础版收费激活费的全是套路,直接从官方低塔下, 别信第三方溢价。第二,代安装别乱花钱,自己跟着教程装,实在不会花五十块,找靠谱的就行,别被宰成几百上千。第三,算力按需买,别囤太多 token, 咱们做业务的用多少算多少,新手先把免费额度用明白,再考虑升级。总结一下,咱们做供应链搞内容创作,月成本三十到八十元就能起步, 中度需求两百到五百元,足够重度才需要加预算。别盲目跟风买付费服务,先把免费功能吃透,觉得有用的点赞收藏。明天我出一篇 opencloud 新手快速上手教程,教咱们用它搞定供应链对账和短视频创作,咱们下期见!

有人设置了一个任务,让 open klo 每隔几分钟帮他查一下时间,一觉醒来,账单来了二十美金,就查了个时间,这不是个案啊。 open klo 本身是免费的,但它运行是需要调用 ai 模型的,而 ai 模型是按 talk 收费的。 说一句话,他思考一次等于几百个 talk, 他 执行一个复杂的任务,几万个 talk, 甚至几十万个 talk。 有人用了两天花了三百美金,有人一个月烧了一点八万块,有人让他帮忙整理邮件,一次对话消耗了十三点六万。 top 什么都没干完,钱先没了。所以,到底是谁在赚钱?全世界数百万人都在免费的养龙虾,但是 a 建成,每一次思考,每一次执行任务背后都有人在收钱。 entropyclot 啊,在搜, openai gpt 的 公司也在搜, google gemini 的 公司也在搜。黄润勋说了一个数字啊, openclot 执行任务消耗的 talkin 是 普通 ai 的 一千倍。那一层人话就是,这场养虾的热潮, 是 ai 公司有史以来最大的一次集体涨收入。那中国用户怎么破局呢?当然了,中国用户是最会省钱的。第一招就是换模型, tip six 成本是 clod opo pass 的 六十分之一,同样的任务便宜六十倍。第二招,本地部署一台 mac mini m, 四二十四小时运营,每个月电费不超过二十块钱,一次性买一段,永久免费。第三招,白嫖。 open clob 官方把 timi 二点五设为默认免费模型啊,有一定的额度,然后你就可以白嫖一点基础的额度。聪明的人已经把月消耗从三百美元降到了二十美元以内。所以养虾这件事情,本质上是一场滔天消耗的生意。 养虾的人是用户,喂食的人是 ai 公司,饲料是 talkin, 买单的是你啊。唯一的问题是你知不知道自己在买单,以及有没有办法让自己少买一点单。如果你再用 open call 或者打算用啊,第一件事情不是学怎么用,是先搞清楚 怎么不被它悄悄烧钱。这坑我踩过啊,想了解的评论区告诉我,我单独出一期怎么把 talkin 的 费用压到最低。

先投入三万六人民币,就能打到二十四小时印钞机。最近 opencloud 真的 太火了,火到有人花钱找人上门安装了。大家好,我是尚明君。 opencloud 不是 开云软件吗?怎么安装还要收费啊?打开购物软件,搜一下密麻麻的袋装服务,看的人目不暇接。随手往下一翻,发现 opencloud 袋装已经是一套成体系的服务了, 网上远程安装的费用从几块到几百块不等。比较神奇的是,对于选择这种袋装服务的客户群体来说,好像价格高一点比价格低一点更让人觉得靠谱。 像这家开价三百的远程安装服务,有超过两百人付款,而另一家要价八十,还花钱挂了广告,成交量却只有前者的一半, 平民玩家的部署费用如此。再往后翻到了所谓的企业级部署和炒股预测模型所需要的带装费用,轻则报价几千上万,夸张的有两百万的,不知道到时候是不是老黄亲自上门给我安装。 那你要说这安装费贵吧,现在的袋装服不仅给你安装 openclaw, 有 的还上门做饭,哎,这好像就有点香了,要是还肯往上加钱,还有更多特色服务。有些东西贵却是有它贵的道理。 其实 openclaw 这波不单单是让国内的用户疯狂,国外的韭菜涨势也挺喜人的。这个名叫 set up claw 的 服务商就是专门提供 openclaw 袋装服务的,包它从三千美元到六千美元不等。 在这个像模像样的官网上,详细介绍了 openclaw 是 什么,以及你为什么应该选择它们的服务,再加上不满意百分百退款,专业真诚,要不是余额不足,高低得下单,一个 三千美元着实有点贵。于是我再看看其他便宜的。一通搜索后,我找到了这个在一个叫 awesome openclaw 的 github 项目中,有个专门对比第三方袋装服务的列表,其中详细列出了市面上不同袋装服务的价格和服务内容,要价大概从十美元到两百美元不等,换算成人民币的话, 差不多刚好和国内的物价匹配的上购买力平价在这块发力了。便宜的只要九块九,贵的也能专门克制化。 open club 的 袋装服务可以说是老少咸宜,总有一款适合你。 但是只要咱们稍微在该项目中往上翻一翻,就会发现,它一开始就列出了 open club 详细的安装和使用步骤,甚至还有 open club 的 发展历史和对于硬件的最低要求。可以说你根本不需要花钱就能独立实现部署。 就算枯燥的文字看不下去,网上随手一搜也能够找到大量从零开始未泛级的详细教程。既然如此,为什么还有那么多人找代装服务呢?答案可能很简单,就是 open class 实在是太出圈了,火到一个完全不懂计算机技术的人也听过同时也想使用的程度 了。这就催生出了一个充满讽刺的韭菜悖论,越是对计算机一窍不通的人,越没有办法独立安装。越没有办法独立安装的人,越迷信这玩意是个电子摇钱树,也就越心甘情愿花钱找人 装在袋装卖家的嘴里。操作 open call 的 流程是这样的,安装睡觉醒来暴富,但真实客户体验到的流程却往往是,不会安装花钱袋装,装完不会用,花钱买教程, 操作完不赚反馈,花钱进高端群学习,到最后真正赚到钱的,是提供袋装服务和卖客的事情。如果只是外行被割韭菜,那顶多算个常规喜剧。但再往下挖一层,你会发现它背后可能还藏着一个赛博套娃的故事。 前几天我在 reddit 上看到个帖子,其中版主提到有人同时操控四百个机钱到处发 openclaw, 简直是印钞机 a g i 已经到来,再不用你就被时代淘汰了一类的帖子。 再回忆一下我自己经常刷到的用 openclaw 搞副业赚钱的视频,两厢结合,我一下误了,为什么袋装生意能这么火?因为这家伙有神态闭环啊!白天我发怎么用 openclaw 帮你赚钱吸引流量,晚上我就挂九十九块包安装用 openclaw 赢在终点线的单子来变现。更乐的是,我们都知道 openclaw 最擅长的事就是模仿人类完成重 的操作,也就是网络水军。所以搞半天我学 openclaw, 然后操作 openclaw, 不 停发铁,让更多人加入到学习 openclaw 的 过程中来,就能用后进者的钱来补贴先进入者。以前割韭菜的镰刀需要用手挥,现在这家伙也能全自动了。

开源项目 open c i i, 它能把网站变成一条终端命令,让 ai 一 阵特直接调用。我们实测对比它和两个工具 open k i s 和 bb browser, 看看谁最快、最稳、最好用。 先看结果,我们设计了三个测试任务,搜索 b 站热搜在什么值得买,平台搜内存条推荐,以及跨微博、知乎、新浪财经搜索政务信息。 速度方面, open kylie r s。 全面领先,必战热搜 open c i l。 用了二十三秒, open kylie r s。 只要十秒,什么值得买?六十七秒对二十九秒多平台汇总五十五秒对三十五秒, 基本都是两到三倍的差距,但 tiktok 消耗两者几乎一样,说明速度差异来自工具本身,不是因为调用了更多大模型能力。 稳定性上, open c l i 三次全部一遍成功。 open clear r s。 在 第三个任务里,知乎热搜失败了,触发了重试。 bb browser 因为和 openclo 的 参数不兼容,三个任务全部没跑通,这是一个已知 bug。 具体原因, b b browser site 传递了 timeout 参数, opencloud tabx 命令不支持这个选项。在 github 上已有用户提出了这个问题,目前还未修复。什么是 c l i 化工具?这类工具到底在做什么?一句话,把原本需要打开网页,手动点击才能拿到的数据 封装成一条终端命令,本质就是给没有 api 的 网站造一个 api, 再套上命令行的壳。它和传统爬虫最大的区别是,爬虫是给程序员用的一次性脚本。 c l i 画工具是给 ai 用的标准化工具箱, agent 执行一条 list 命令,就能发现所有可用工具输出格式统一一可以直接为给下游处理,而且它附用你浏览器的登录状态,不存密码,不管 gucci 过期 风控也低。原理分五步,第一步,找数据接口,你在浏览器里看必占热榜,背后浏览器一定发了某个请求, open c i i 在 后台拦截所有请求,分析哪个数据包装的是热榜内容,找到隐藏的接口地址。 第二步,搞定身份认证,它不自己登录,直接借用你科目里已有的登录状态,和你手动打开网页没有区别。第三步,写适配器,把整个流程写成一个三十行左右的配置文件,请求这个地址,取出列表,保留标题和播放量,截取前十条 以后,每次执行命令就自动走一遍。第四步,处理复杂情况。有些网站需要滚动加载,或者数据藏在页面代码深处,这时候就往网页里注入一段小程序,模拟操作,把数据掏出来。第五步,终端和浏览器怎么通信? 靠一个 chrome 插件当传话人,命令从中端传给插件,插件在浏览器里执行,拿到数据再传回来。底层架构分四层,第一层命令解析,第二层,适配器加载,第三层,浏览器通信。第三个工具的差异主要在中间两层, open c l i 启动时要扫描加载所有适配器文件,通信要经过守护进程和扩展两层中转。 open k l s 在 编译时就把适配器打包进了程序本体, 启动零开销,而且通过浏览器调试协议直连,少了中间层,所以快两到三倍。 b b browser 走了另一条路,它自启动一个专用的 chrome, 十六,完全隔离, 如何部署与使用?部署方式是四 q 技能包加浏览器插件的组合。我们找到 open cai 的 开源地址,使用官方命令通过 npm 安装,然后下载 playrite mcp bridge 扩展。 下载解压后,打开浏览器的插件管理页,开启右上角的开发者模式,点击本地文件,把解压后的文件上传。当前是 open c i i 一 点四点一版本, 运行 open clea doctor 命令,检查一遍,没有报错。克隆 open clea 技能包放到 skills 文件夹下,安装完成,就可以直接给 open clea 下达任务了。 open clea 二 s 部署步骤类似, 首先执行一键安装脚本,安装完成,然后去他给的网址下载对应系统的扩展文件。和 openkly 的 一样,解压并上传 openkly rs 的 技能包,只有一个 markdown 文档,告诉 agent 如何用这个 skills b bbrace 也是 n p m 一 型命令,它的 open 克拉集成模式无需安装扩展,但目前有兼容性问题。需要特别注意的是,工具的浏览器插件目前仅在 google com 上验证可用。最后总结, open c i i 功能最全最稳定, 六十一个站点,三百五十五条命令,三次测试零失败,适合大多数用户。 open cle 二 s 速度最快,最轻量,但稳定性稍弱。 bbbzy 的 open 跨集成存在已知 bug, 建议观望。希望本期视频对您有所帮助,我们下期视频再见。

很多人一听到 open 科奥小龙虾,都觉得是免费 ai 神器,能自动干活儿,自动写内容,自动处理工作,甚至有人说几百块就能跑起来。但真正上手的人都知道,小龙虾根本不是免费午餐, 它是一个看着不要钱,用起来处处花钱,还特别吃技术、吃算力、吃模型的东西。今天我就把普通人养虾的成本算透,从隐形开销到真实风险,看完你再决定要不要养。 先讲最关键的一点, opencloud 本身免费, github 直接下载,没有收费版,没有会员,没有授权费,但它就是一个空壳儿,没有大脑,没有算力,没有模型,不会思考,不会自动干活儿,你想让它动起来,必须给它配电脑,配算力,连模型,二十四小时供电,这才是成本的开始。 很多人被免费两个字骗了,以为下载就能用,结果一上手才发现到处都是花钱的地方。首先是硬件成本,这是普通人最容易踩的第一个坑。你家里的普通电脑、笔记本根本扛不住小龙虾, 它需要持续运行,多任务处理后台挂进程,普通电脑一跑就发烫、卡顿、死机、蓝屏,甚至直接把系统搞崩。想稳定养虾,必须专门配一台设备,最便宜的树莓派或者迷你小主机,大概八百到一千两百元只能跑最简单的任务,稍微复杂一点就卡死。 想正常用,必须上两千到三千元的主机,这是大多数人的入门门槛。如果你想二十四小时挂机,多任务并行,那要上更高配,价格直奔四千五千元。很多人舍不得花钱买硬件,用旧电脑硬撑, 最后电脑坏了,数据丢了,反而更贵。还有人选择云服务器,不用买机器,但每个月要付租金。入门配置五十到两百元,中档两百到四百元,高配更贵,属于长期支出。硬件这件事没有省钱的办法,要么一次性花几千,要么每个月交钱,逃不掉。 接下来是电费,很多人完全忽略,但长期下来非常吓人。小龙虾要二十四小时开机,不能关一关就停摆。 一台小主机二十四小时运行,一个月电费大概一百五十到三百元。如果你用高配机器,多开任务,挂很多插件,电费还会往上翻。别小看这一两百,一年下来就是两三千,比很多软件费用都高。 最坑的是,你不用它的时候也不能关一关,任务中断,记录丢失,环境崩溃,重新配置又要花半天时间,所以大多数人只能一直开着,电费默默烧。然后就是核心中的核心, 这是最近养虾圈最火,也最容易让人蒙的部分。 tonky 不是 open club 官方的,是给小龙虾提供算力支持的第三方服务。简单说,这是给小龙虾提供思考能力、运行速度、任务处理能力的后台算力。没有 tonky, 小 龙虾反应慢,任务卡自动化跑不起来,甚至连基础功能都用不了。 tunk 的 成本主要分两块,一块是算利租用费,一块是模型调用费,两者加起来就是你每个月最大的支出。先讲 tonks 算利租用,轻量算利,适合偶尔玩玩,每个月大概五十到一百五十元。标准算利,适合每天用几小时处理日常任务,每个月一百五十到三百元, 高配算利二十四小时挂机,批量任务多开自动化,每个月三百到八百元,算利越贵,小龙虾跑得越顺,处理速度越快,不容易崩。 普通人最常见的是中档,每月两百元左右,这是稳定运行的底线。再讲模型费用,这是 tonk 里最烧钱的部分。小龙虾自己不会思考,必须调用大模型,而模型是按次数收费的,行话叫 token。 你输入的文字,小龙虾输出的内容,思考过程,调用工具、循环任务,全部都要花钱。国产模型便宜,输入几分钱,输出几毛钱,轻度使用,一个月五十到一百五十元,足够国际模型贵。 gpt、 cloud 这些,输入几块,输出十几块,稍微用的多一点,一个月三百到八百元很正常。 最可怕的是,小龙虾是自动运行的,有时候会进入死循环,疯狂调用模型,有人一个月花掉几千块,就是这么来的。 我给你算一笔最真实的普通人养虾账,不夸张,不缩水,不忽悠,入门尝鲜。硬件八百元, tonk 算利一百元,模型五十元,电费一百五十元,首月大概一千一百元,之后每个月固定三百元左右。 这个档次只能简单玩玩,功能有限,稍微复杂一点就跑不动。正常使用。硬件两千元, tonk 算利两百元,模型两百元,电费一百五十元,首月两千五百五十元,之后每个月五百五十元。 这是大多数人能稳定用起来的成本,也是最真实的消费水平。如果你想二十四小时挂机,重度自动化,硬件三千到五千元, tonk 算力五百元,模型五百到一千元,电费两百到三百元,首月直接五六千,之后每个月一千到两千元,普通人根本扛不住。 比成本更可怕的是隐形消费和坑。首先,代装费,很多人不会装,网上找人装收费五十到一千元不等,其实官方教程完全免费,纯纯智商税。其次,插件费,有人卖各种付费插件,脚本模板几十到几百块,其实大部分功能免费版都能实现。 第三,调试费,遇到问题不会解决,找人远程调试,一次几百块,养下半年,调试费比硬件还贵。第四,损耗费,电脑二十四小时,高负荷寿命大幅缩短,硬盘、电源、主板更容易坏,坏了就要换,又是一笔钱。 这些钱看不见摸不着,但最后加起来比明面成本高得多,还有技术门槛和安全风险,这也是成本的一部分。 小龙虾不是一键安装,要懂命令行,网络设置、权限配置、 api 对 接、模型调试,小白跟着教程都容易装崩,装好了动不动掉线卡顿,报错任务失败,你不会修,就只能一直花钱找人弄。 更危险的是安全问题,小龙虾要最高系统权限,一旦装到盗版带后门的版本,你的电脑会被控制,账号、密码、照片、文件全部泄露,甚至被当成肉鸡用来做违法的事儿。 这种风险看不见,但一旦发生,损失无法估量。网上有太多普通人跟风养虾,最后后悔的例子。有人花两千买主机,每月花六百多,结果发现自己只是用来写点文案,免费 ai 完全够用。 有人以为 tonk 算力不要钱,用了半个月账单三百多,吓得直接卸载。有人不会配置模型,疯狂透费,一个月花掉一千八百,自己都不知道钱花在哪儿。 还有人电脑二十四小时开着,电费、硬件损耗、模型费用加起来一年花掉五六千。最后只用了最基础的功能,性价比低到离谱。讲到底, open cut 小 龙虾根本不是给普通人准备的工具, 它是给技术爱好者、程序员、搞自动化工作室、有专业需求的人用的。普通人的需求,无非是写文案、查资料、处理表格、简单办公。这些免费 ai 免费工具,完全能满足,不用花一分钱,不用懂技术,不用担风险,打开就能用。 而小龙虾的优势是深度自动化,批量处理复杂任务,多系统联动。这些功能,百分之九十九的人一辈子都用不到。为了用不上的功能,花几千块硬件,每个月几百块算力,承担安全风险,完全不值。最后给所有人一句最实在的忠告, 不要被免费、自动化、黑科技这些词忽悠。养虾的真实成本,普通人首月两千起步,之后每月三百到八百元,还要懂技术,会调试,能扛风险。如果你只是普通上班族、学生、宝妈、自媒体新手,别碰,真的别碰, 免费的工具足够你用,省钱省心、安全、不用折腾。只有当你真的有重度自动化需求,懂技术、能承担长期开销,再考虑养虾科技的本质是方便人,不是给人增加负担,花钱买麻烦。很多时候,最适合自己的不是最酷、最火、最黑科技的, 而是最简单、最便宜、最不用操心的 openclaw 小 龙虾很好,但它不属于大多数人。算清成本,认清需求,不跟风、不冲动、不被割韭菜才是最聪明的选择。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

我花了上万掏坑费用啊,总结出龙虾 open 给普通人使用的六个避坑指南, 请点赞收藏,有时间啊,慢慢看。避坑一,别花冤枉钱买安装服务,这啊是目前最大的坑咸鱼或者某些社群里啊,有人开价一百五到五百元帮你远程安装 open 壳。 真相啊, opencloud 本身就是开源免费的避坑指南,智普官方已经集成了 opencloud 的 一键安装脚本和文档,几乎啊是点点鼠标就能搞定。避坑二,警惕 api 账单滚雪球 opencloud 为了让 ai 记得你是谁啊,每次对话都会把之前的记忆打 包发给模型。真相啊,对话越久,单次发送的制服数就越多。避坑指南,设置额度上限在 cloud 或 deepsea 的 api 后台啊,务必设置每日和每月消费限额, 比如设为五美元。否则啊,如果程序出现 bug, 陷入死循环,一觉醒来可能几百美金就没了。日常闲聊或者是简单任务模型切到酷狗,酷狗或者是 deepsea, 价格啊,只有 opus 的 几十分之一。避坑三,拒绝垃圾记忆塞满大脑 很多人用了一周后发现啊, opencl 变笨了,甚至开始胡言乱语。真相啊, opencl 会自动记录你的话,如果你总是在调戏他,闲聊他的 memory, md 文件啊,就会冲刺着废话干扰他的判断。 闭坑指南,定期断舍离,把它当成你的电子笔记。每周打开内存文件夹,把那些没用的闲聊记录删掉。谈正事时啊,才开启记忆功能, 闲聊时可以手动关闭,防止他把垃圾当成经验。避坑四,别让你的笔记本二十四小时加班普通人习惯在自己常用的笔记本上运行 open class, 但这啊其实是很伤机器的。真相, 作为一个 ai 智能体, open class 需要时刻待命才能发挥作用,比如帮你自动收发邮件,如果笔记本盖子一关,它就断气了, 如果一直开着,电池和屏幕的寿命啊就会受损。避坑指南,做一个腾讯云、阿里云的入门级服务器,一个月啊也就三五十块钱。另外,家里有吃灰的旧电脑或 mac 迷你是最好的选择。避坑五,保护好你的钥匙 api k, 这啊是安全大忌, 很多新手啊会把带有 api k 的 配置文件发给别人。求助真相, api k 啊就是你的钱包,一旦泄露,别人可以用你的钱包,他们的大模型任务。 避坑指南,永不截图 k, 求助时截图代码一定要遮住那串长长的制服环境变量设置,学会把 k 啊存在系统环境变量里,而不是直接写在代码文件里。 避坑六,别在微信小红书里乱撕封号风险要警惕很多人安装完 opencloud, 想的第一件事就是接入微信或者是小红书,让他帮自己回消息、发帖子。 真相,微信和小红书对第三方自动化工具啊打击非常严,如果你用自己的主号去挂 open, 极大概率会被封号,甚至找不回来。避坑指南,首选飞书钉钉字节的火山引擎,配套用飞书机器人是最稳的。 智捷官方啊,对于这方面的接口开放度很高,配置简单且合法合规,完全不用担心封号。如果非要接微信,请去买一张流量卡,注册一个专用的微信小号和小红书小号,并且做好随时牺牲的心理准备。

openclaw 是 哪国生产的? openclaw 是 奥地利的开发者做的,两千零二十五年十一月启动项目,两千零二十六年一月正式定名, 是个火遍全球的开源 ai 智能体框架。 open call 到底能做什么?它可不是只会聊天的 ai, 能帮你自动整理文件,操控浏览器干活运维电脑系统管理邮件日历,还能记着你的偏好,跨绘画连贯做事 技能,还能自己扩展,超全能。用 open 扩要花钱吗?完全免费,它是 m i t 开源协议本体,一分钱不要,只有用第三方云端大模型要付 token 费或者找别人带装才花钱,官方不强制收费。 它工作速度快吗?速度算中等偏快,主要看配置和用的模型, 本地模型看设备,云端模型更快,而且它能并行处理任务,实测能帮你把工作效率提一到二倍。最擅长干哪些活?主打重复标准化能落地执行的工作, 比如文件整理、数据抓取,报表生成,定时任务代码辅助这些。它干起来比人还顺手。能完全代替人工作吗?绝对不能, 它是超好用的工具,能替代大量重复操作,但深度决策、情感互动,创意突破,突发情况处理还得靠人类主导,人机协调才是最优解。运行需要蜘蛛网吗?不用完全依赖蜘蛛网, 部署时要蜘蛛网下依赖和模型,之后装了本地模型,日常就能完全离线运行,数据都存本地磁盘。只有用公网技能或云端模型时才需要蜘蛛网。哥哥姐姐叔叔阿姨喜欢的可以点个爱心和关注吗?

关于 open klo 的 安装和部署,前两天呢,我给大家录制了一个非常详细的教程啊,跟着我的教程一步一步操作的话,其实你就可以无论你是 windows 电脑还是 mac 电脑,都可以把它安装进去, 但是呢,很多人拿到这个教程之后呢,还是不会安装啊,这个我完全能够理解,因为每个人的这个 这个水平啊,对于电脑这个水平可能还是不一样,因为 open klo 的 目前也不是一个产品化的东西,所以呢是有一定难度的, 所以我在想啊,是不是有需要给大家去呃,直接把它预置到一台电脑的主机里面,比如说一个小主机啊,比如说 windows 的 小主机,或者是 mac mini 的 小主机里面,这样的话呢,大家可以拿到就能使用啊,并且呢我们也给大家去开发一个小程序,那在手机上面 拿到之后简单的配置一下,嗯,然后呢就可以直接去进行使用,这种的话是不是更加方便呢?嗯,考虑到这种方案的还有一个想法是什么呢?因为 opencloud 现在它可以获取你的电脑全部权限,你如果直接在你的主力电脑上面去进行使用的话,它是存在一定的安全风险的,这个的话大家是需要注意的, 所以呢,我觉得我们如果想充分发挥它的作用,最好还是有一个专门的给他专门准备一个房子, 这个房子呢不需要多贵啊,可能现在我们看到的有方案可以做到,呃,整个硬件成本大概一千左右吧,一千以内甚至都都有可能啊。 然后就是我们完全给大家预制好,然后呢相应的教程,相应的课程,相应的这个服务都给大家准备好,大家可以直接拿来即用,并且在手机上非常方便的就可以去打通了。我不知道这个方案有没有人需要呀?那这里也做一个调研,如果你需要这个方案的话,大家可以在评论区留言 啊,我们到时候,嗯,在过年期间啊,我们就会做好测试,然后到时候如果你真的有需要的话,我们就可以给你去做好交付,这个感兴趣的话可以留意一下。

走吧,最近很火的 opencode 到底是什么?简单说一下。 opencode 是 二零二六年爆火的开源 ai 工具框架,曾又名 cloud botmat, 能让你用说人话的命令,比如整理邮件,安排行程,直接搞定任务。 工具本身免费成本主要看用哪款大模型,国内平替,每天成本能控制在五元内。不过它对终端操作权限要求高,容易误删文件,不建议在主力电脑上装。

最近发生了三件很反常的事情,深圳的腾讯楼下连夜排起了千人的长队,月薪八千的人在学业上竟然月挣二十八万,甚至连政府都紧急出台了专项的政策。原因就是一个叫做 opencloud ai, 大家给他取了个名字,叫做龙虾。从一虾难求到连夜卸载,只用了不到一周的时间,而 真正挣到钱的根本不是养虾的人,最稳的是那些收水电煤的人。 open collab 本身其实是免费的,但是他是要干活,一定是要消耗 talkin 的。 你可以理解为是 ai 时代的电费。一个重度的养虾户兼日消耗 talkin 可以 达到三千万到一个亿,这是什么概念? 普通的现在 gpd 的 用户天天聊天一个月也就是百万几。所以这就意味着每只龙虾的背后其实是一台永不停机的 talkin 翡翠机。那么谁是挣钱的呢?当然是卖电的。 mini max 的 单日头坑消耗量一个月竟然涨到了六倍以上。无问新琼的 calling plan, 二十天的消耗量竟然涨了百分之五百,百分之九十的用户其实都是在养龙虾。还有卖服务器的 优克德推出了 opencloud 的 镜像,六十天的交易日的股价竟然翻倍了。顺网科技推出了 ai 云电脑,两天暴涨百分之二十。阿里、腾讯字节全部都下场了,免费帮你安装,背后其实是清自己库存里的算力和源源不断的这种订阅费。那这些人从来是不养虾的, 但他们收的都是龙虾产业的水电煤,无论谁养,养的怎么样,和这笔钱都得交。二、最野的其实是挣焦虑钱的人, 当普通人还在纠结要不要养的时候,有人已经开始卖铲子了。安装服务,远程一两百上门五千到五百都 都有,有团队靠这几天的收入竟然能达到二十六万。更夸张的是,直接做预装硬件的,一台能够卖五千美元,累计收入一百八十万美元的都有,培训课程更是一本万利。三十九点九元,引流课,九九八元的进阶课,号称七天精通 overcloud 的 月收入竟然能达到十万。 这些都是从来不养虾的人,但他们把焦虑打包成产品之后,卖给了每一个害怕错过的人。三、现在轮到挣后悔的钱了,剧情反转的比想象中的都要快。安全漏洞的曝光,国家发风险提示,有人的 api 密钥被盗了,凌晨收到一点二万的账单, 那有的人他的 ai 理解错了指令,那么他几百封的邮件就被批量的删除了。于是新生的生意来了,卸载服务上门,彻底卸载二九九元一次,远程卸载十九点九元一次。 从手把手的教你如何养到,手把手的教你怎么去杀同一批人,完成了对用户从入场焦虑到退出恐慌的完美的闭环和收割。四、我们的三点思考 这场疯狂让我们重新理解了三个道理。第一,封口本身不挣钱,围绕封口服务才能挣钱淘金,这里最挣钱的从来不是挖金子的,而是卖铲子的。这个道理每隔几年都会换一个名字重新出现,但是它的本质从来没有变过。第二, 信息差的半衰期短到可以以周来记。第一批卖铲子的人已经开始撤退了,那些两周前花九九八元买课的人,现在可能连课还没听完呢,风向就已经变了。第三, 零乘以一千还是零?工具给你可以有一千倍的效率,但是如果你自己都不知道你要做什么的话,再厉害的工具也是没有用的。大部分人以为自己在开公司,其实只是用 ai 把自己变成了一个更高效的打工人。真正的财富自由不是追逐每一个风口, 而是在喧嚣中能够保持清醒,在自己看得懂的地方去下注。我是开心一个用二十年的经验陪你守住钱袋子的规划师。

大家好,我是根古,今天是 open cloud 系列课程的第四十三堂课,还在倾吐你的 token 消耗。 open cloud zero token 来了,无需密钥,主流模型随心用,本地部署智能体养虾的成本直接归零,大家跟着根古老师一起操作吧。 首先给大家介绍一下这个 open color zero token 这样一个这样一个项目吧,它就是一个 open color 一个分支,不需要 api token 的 这种消耗,那就能够驱动你的这个虾进行进行操作。他怎么做到的呢? 他目前支持这么多模型啊,你看到了吗? web, web, web 也,它核心原理就是你,你很多人会在网页上使用豆包,但是呢,我 a p i 是 要调用,是要付费的,他利用了你这个网页上的这种头肯的免费,所以说, 所以说他还是很厉害的。嗯,他用了你们这种呃免费的这个网站的这个流量来达到他免费养虾的这样一目目的吧。呃,这边是他的一个安装的指南,首先需要 get 克隆,这个我带着大家 走一遍,其实你把它全部复制下来就好了,我觉得也不需要什么那个技术了,也不需要技术,我新开一个命令行,对吧?然后你比如说我 cd desk 桌面, 然后 mk, d i r 我, 我新建一个吧,我新建一个物件,比如说 z e, r o, 是 吧? open curl, 然后把它全复制过来就好了,嗯,它就可以用了。

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

本期视频介绍一款自带免费无限偷看的小龙虾版本,这是由硕泽大佬开发的 openkala 中文分支版,该版本可无限免费使用 deepseek 和千万的 web 版模型, 其中包含联网、识图、编程、深度思考等多种模型,从此养虾再也不怕削偷啃了。同时该项目不但对官方版本进行了汉化,还对逻辑思考、认知能力、纠错能力进行了深度的升级。那么接下来就让我们尝试在 windows 系统内进行安装。 首先需要安装两个系统所需的依赖程序 node 和 get, 执行安装程序无脑,下一步即可。两个程序的安装包我已经放到了网盘里,大家可以去视频简介或者评论区找一找网盘链接 好的。那么基础的依赖安装好之后,我们可以去到一个空的文件夹内,点击鼠标右键,然后选择在终端中打开。 那我们来输入两个命令,验证 node 和 get 是 否安装成功了。如果命令行返回了版本号,那就说明安装成功。 但是如果跳出了一些红字,那么你就需要选中这些红字,再点击鼠标右键,然后去豆包直接粘贴错误信息,问问看怎么解决。正常情况下,我们都可以顺利走到这一步。网盘里我还会提供新版的命令行工具,以及我一直在用的科学上网工具。 那么接下来就到了正式安装小龙虾的时间了,为了方便大家使用,我已经提前下载好了硕泽大佬的项目文件包, 大家可以直接将压缩包解压到你的地盘跟目录,当然你想解压到其他位置也都可以。如果你懂得如何使用 get clone 命令拉取项目文件,那么你也可以考虑不用我提供的项目包,自己手动在命令行中拉取最新的项目文件也是可以的。 当然,在网盘中我也会持续更新一段时间。好了,解压完成后,我们可以删除压缩包,并对项目目录进行改名。 使用命令行操作的同学可以复制这段改名的命令。正常解压缩的同学可以直接手动修改文件夹名称。其实修改名称这一步不是必须的,我这么做纯粹是想文件夹名称简单点。 解压完成后,打开文件夹看看是不是看到了项目文件。接下来是很重要的一步,让我们在项目文件夹内的空白处点击鼠标右键,然后选择在终端内打开。此时你应该能看到命令行目录就是你的项目目录,然后复制这句命令,让电脑自动安装项目依赖。 我这里视频加个数。安装完成之后,只要没有吓人的大段红字错误信息,那我们就可以接着复制这句命令进行项目翻译。我这里视频继续加个数。 翻译好之后,我们就已经将小龙虾安装完成了,你可以试试输入这个命令,看有没有出现小龙虾的版本号。 目前项目版本是三点一版。 ok, 接下来需要对 openclaw 做出驶化配置,输入这段命令,你将会看到中文版的配置说明。 对于首个安全提示问题,我们点按键盘的左键选择 yes, 再按回车键确认选择。 第二个问题,我们直接按回车键选择快速启动。第三个问题需要我们选择小龙虾的核心模型,这里我们点按键盘的上键或者下键,选择 deepsea browser 并按回车键确认。 确认之后,小龙虾需要我们进行一次网页登录,这里我们直接按回车键,选择 ultimate login 之后,小龙虾会自动启动浏览器并打开 deep seek 首页,我们输入登录账号后,浏览器会自动关闭。接着你会看到小龙虾已经识别到了多个 deep seek 模型。我们可以按上下键选择一个小龙虾的主力模型,或者你也可以选择作者推荐的当前模型, 这里你看到的模型都是可以免费无限使用的。按回车键确认选择到了这一步是选择手机上接入的聊天工具,我们可以选择暂时跳过。 接着关于技能的配置,我们按右方向键选择 no, 再按回车键确认,因为暂时不用去管这些技能。 到了后口设置环节,我们可以按下方向键,再按空格键,依次的把这几项都勾选上,然后按回车键确认。到此,小龙虾的出场设置就结束了。我们选择瑞斯达,按回车键确认。 稍等片刻就可以看到小龙虾的页面了。如果你的页面显示失败,那你需要回到命令行窗口,输入这句命令启动小龙虾服务。要注意,当服务启动之后,这个命令行窗口就不可以关掉了,否则小龙虾的服务会停止。 如果你不小心还是关掉了这个窗口也没关系,只要打开新的命令行窗口,去到小龙虾的目录,然后执行这个服务,启动命令即可。服务启动后,我们再回到浏览器刷新页面 就可以看到小龙虾的对话窗口了,到这里我们就已经完成了小龙虾的安装,并且拥有了无线 token 的 deepsea 模型, 因为硕泽大佬除了 d p c 模型,还提供了千万模型。植入千万模型的方法也很简单,只要回到命令行窗口,按 ctrl 加 c 停止运行当前服务,然后再粘贴出使化命令,按回车重新走一遍出使化设置,在模型选择环节去选择千万模型即可。 后面的流程与选择 d p c k 模型的流程一样,小龙虾打开浏览器,你来登录,选择一堆设置项,然后再次去命令行启动服务,这时我们的小龙虾就同时拥有了 d p c 模型和千万模型。 接下来你就可以开始无压力的养虾了,那么本期视频也就到这里了,视频录制的比较仓促,如果对你有所帮助,还请一键三连,您的鼓励是我最大的动力,如果您有什么疑问,可以留言或者加入交流群讨论,好了,我们下期视频再见!