现在国内的套餐,他们推出了那个 coding plan, coding plan 给的那个套餐数量就是 token 数还是蛮多的。 对,嗯,你像不过针对,不过相对来说你像一个月花四十块钱,我觉得这个东西还是确实挺贵,因为你平时基本上用不完,单个人的话就是它是用不完的。对, 而且各个厂商他们,呃,我今我今天就是对比了一下,就是把我目前知道的大厂,对,他们把他们的那个 呃拿出来,然后做,做了一个网站,做了一个那个对比,然后看看哪一家厂商他们都有什么模型,然后,呃,对比,你们就是想要想 大家一起看一下啊。你像嗯,固定的几家有推出自己的一个大模型,有豆包的,它就是豆包的一些模型, samsung 生成视频的,然后嗯, deepsea 这个,它就是那那个什么,它好像没有那个出可订 plan, 目前就是。还有,嗯,百度,百度都是用的别人的模型。对,那个也一个月四十也蛮贵的。对 啊,就还有就是智普啊,迷你 max 基本上都四十多,然后他们他们都有普通模型,还有一个极速模型,极速模型我用了确实很快,和那个普通模型没法比, 一百 token 和五十 token 真的 是差距太大了。嗯嗯,还有就是嗯,腾讯什么的,腾讯,腾讯是这里面最啊,在年初的时候,嗯,就刚过完年,我还买了一个百度九块九的套餐,现在都没有了。 对,他直接过了一个月都直接变成嗯,四十多往上都没有那种便宜套餐。也就就是我整理了一下,然后看到腾讯有, 对,腾讯有七块九的,然后每个月限,每天限量。对,你还得抢,但是不我不知道,就是我我我听看他那个介绍,好像是里面包含了一些。 嗯嗯, deepsea 智智普,然后迷你 max, 然后它不是那种新模型二点五的,然后还不是极速版, 不过你像相对来说图便宜,然后买它的也不错。对,如果说各位有需要的,我这边有就是我,我是 我这边有账,有账号能一起拼一下。对,有需要的话可以联系一下我。对,我这边。嗯嗯,告诉你地址接口,然后你去自己创建。可以独立的啊,都是独立的。
粉丝0获赞5

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

mini max 推出的 coding plan 真的 非常适合小龙虾。 mini max 这个一百 prmp 每五小时,意思就是在任意连续五小时里,你最多可以向模型发起一百次独立请求,次数用完就要等时间窗口滚动刷新。 一 prmp 等于你发一次提问调用,你点一次发送 api, 调一次接口就算一个 prmp, 跟你这段话长短多少次没关系,只算次数,不算 tokens。 每五小时等于滚动计时,不是固定时段,不是按零到五点五到十点这种死时段,而是从你第一次发请求开始,每五小时滚动算一个周期。 举个最直观的例子,你十三点发了第一条,那十三点十八零零这五小时内最多只能发一百条,十八点一到额度重置又可以发一百条。如果你十五点就把一百次用完了,就得等到十八点才能继续用。总结一句话, 五小时内限一百次,调用滚动计时,次数到顶就限流,等时间到自动恢复。正因为此, mini max coding plan 非常适合 open cloud 扫码九折订阅。

最近这个 openclaw 真的 太火了,有人呢把它当成新一代的 agent, 也有人说呢,它本质上还是一个偏工具的 ai 助理。那我一开始呢,也是想抱着试试看的心态啊,把这个 openclaw 装到了本地,但是当我想要去接一下 whatsapp 的 时候, 发现根本连不上,那网上一搜呢,他们这个教程几乎都是清一色的使用飞书啊,钉钉啊, qq 这些,那很少有人去讲这个 whatsapp。 后来呢,我干脆不折腾配置了啊,我直接把这个 opencloud 的 源马拉到我本地,然后呢用 opencode 打开看了一眼,其实上面那个问题呢,并不复杂,改完之后呢,我的这个 whatsapp 也终于是连上了。那于是呢,我有一个想法,就是既然我们的这个源码是可以去更改的,那这个 opencloud 其实是可以被定制的。 所以说这期视频呢,我想跟大家分享一下我最近在做这个 openclaw 二次开发时候总结的一些经验。那如果说呢,你也想把这个 openclaw 变成更懂你的 ai 工具,这期视频呢,应该可以帮到你。 我现在用的是这个摩尔县城的 mtt ai book, 选它的原因呢,其实很直接啊,就是我想要在一台不折腾环境的设备上面,把 openclaw 这种偏工程的工具啊,完整的跑通。那 ai book 呢,它给我的一个感受就是,它把 ai 开发需要的环境直接做到了系统层面, 不管你是拉原码还是后面的配置模型和 skills, 基本上呢,就是开箱即用。那这一点呢,对于我们 ai 开发其实是非常重要的啊,因为像本地变异啊,依赖安装啊,模型调用啊这些事情,如果说环境本身不稳定很容易呢,就把人劝退了。 而 ai book 给我的一个感觉就是很多 ai 开发常用的工具链啊,环境啊,都已经提前给我们准备好了啊,所以说呢,我才可以直接开始干活,而不是先花时间搞这个环境配置。 那这是一个开源的 ai 编程工具啊,因为其灵活好用的特点,受到了广大开发者的一个喜爱,安装过程也是非常的简单啊,谨行命令,执行一下就搞定了。装完之后啊,我们来配置一下这个大模型,那这里呢,我推荐使用这个摩尔县城的 air cooling plan 啊,它这里的一个大模型其实是 gm 四点七, 一方面呢,它是一个国产模型啊,对我们中文提示词啊,工程上下文的一个理解啊,都是很友好的。另外一方面呢,就是背后是国产 gpu 的 一个算力支撑,整体的算力也是比较的稳定。 安装配置完毕了之后呢,我们随便去输入一段话,看到回复就表示安装成功了。接下来呢,我们去到 opencloud 的 这个 gitapp 仓库,复制它的 gitapp 地址,然后来到终端下载到本地啊,现在呢,我们就进入这个项目文件夹,然后用 opencode 打开它, 首先的话呢,我们需要去使用这个斜杠编辑命令,然后这个 opencode 对 整体的一个代码做下缩影,然后建立呢,它对这个项目的一个认知和行为边界 啊,可以看到这个速度还是非常快的啊,不愧是显卡公司对吧,速度体感一下子就上去了。那接下来我们就解决 whatsapp 连接不上的问题啊, 我们描述一下现状,让 open code 找一下可能的原因。 ok, 那 他现在呢,就已经定位到了具体的文件了啊,他说这里的网络请求是没有走代理的啊,这就解释了为什么我们本地是有魔法的, 可以去打开这个 whatsapp 的 外部端啊,但是呢,这个 openclaw 在 配置的时候啊,始终是拉不回来这个 whatsapp 的 二维码,点完之后呢,我们需要去验证一下,直接让这个 openclaw 帮我们去运行这个项目。那注意啊,这里和 openclaw 官网给到的一键安装命令是不一样的啊, 它是基于当前原码进行变异然后运行的。那因为我们这台 airbook 呢,它本身就预装了很多开发工具和套件啊,所以说在变异运行的过程当中呢,大家可以看到是非常的丝滑,包括一些 n p m 包的下载也是很快的。那现在的话呢,它就已经安装成功了。那接下来的话呢,我们做下配置 模型提供商,这里呢,我们选择这个 z a i 啊,然后这个模型我们就选择 g l m 四点七,那这里它需要去填入一个 api key, 我 们还是来到刚才摩尔县城那个 coding plan 的 页面啊,然后我们新建一个 key, 然后回到终端啊,粘贴一下就可以了。接下来的话呢,我们再去配置这个 channel, 那 这里我们就选择 whatsapp。 ok, 那 这里可以看到一个巨大的二维码,对吧?就表示呢,我们刚才 open code 它的一个改法是正确的。 然后呢,我们就用这个手机端的 whatsapp 进行一个扫描,填入 whatsapp 相应的一个号码就配置完成了。后面的这个 skills 呢,可以跳过啊,然后呢其他的一些 api 我 们也直接跳过。现在的话呢,我们已经配置完成了 open cloud gateway, 也是启动成功了, 我们去到这个 web 界面测试一下,比如说现在我桌面上有很多文件,然后我让他去帮我来整理一下,可以看到他很快呢就按照文件的一个类型做了一个规章,还是非常的不错啊。接下来的话呢,我们给他上点难度啊,比如说我们本地有很多发票文件,然后财务呢,让我们去找到上次购买 apple watch 的 那个发票 啊,放到以前的话呢,我们可能得挨个去打开比对,就非常的花时间。而现在我们可以直接让这个 openclaw 来做啊,就非常的轻松,它的速度呢非常的快。然后最后呢还给到了我文件的一个名字啊,效率非常的高。再比如我们在手机上面啊,跟他说每天上午九点帮我去统计 github 的 一个热门项目,然后呢做成简报推送给我。 那这个功能呢,需要我们自己去加一个 skills, 我 们需要去到这个 gitap 项目啊,我们可以去找到 news aggregator skill, 复制它整个文件夹到 open cloud 的 这个 skills 目录。接下来我们只需要跟 open code 说帮我们安装这个 news aggregator skill 啊,然后重启一下。那接下来的话呢,我们就去到 web 端,发现刚才的那个 skills 就 已经安装进来了,那同样的方法,我觉得大家可以去安装成百上千的这种你感兴趣的 skills, 对 吧?甚至呢,你还可以去啊,让这个 open code 来帮你写 你想要去做的一些 skills 啊,就是脑洞越大,其实这个东西是越好玩的。那到这里的话呢,你可能会发现一件事啊,就是这个 open cloud, 它真正有意思的地方,其实不在于它内置了多少功能,而是它本身就是一个可以被不断改造的工程底座啊。 不管呢,你是去接这个新的 channel, 还是加这个新的 skills, 本质上面呢,都是在做一件事情啊,就是把你自己的一个工作习惯变成一个啊,可以被自动执行的这样的一个流程。而 open code 在 这个过程当中呢,它起到的一个作用就是不仅仅是帮你写代码,更多的是帮你去 啊快速的理解一个陌生的项目架构,然后找到它能够去自定义的地方,非常高效安全的帮我们改出来。 顺带说一句,我对 ai book 的 一个真实感受啊,在 ai 开发这种场景下面呢, ai 原生笔记本,它的一个优势不在于参数, 而在于体校。那比起 windows 下面啊,经常需要去折腾环境,或者说在不同的工具之间来回切换,在这台设备上面,我们可以更加专注地去想,我们到底要改什么,怎么改这件事情本身 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频再见, peace。

打开 https, call 点三六零点 cn 下载客户端等待,下载完即可。打开下载的位置,双击安装包, 点击运行,等待一段时间,等待软件加载完毕。打开安装首页右下角可选择自定义安装目录,选择一个安装位置,确保有二十 g 以上的硬盘空间。 我自己选择 f 盘新建一个文件夹叫三六零 colo, 名称可以自己随意写,不可以是中文,点击确定,点击返回。可以再次点击右下角的自定义安装,确认下安装位置, 点击返回。这里我选择满血版安装,硬盘空间不够的话,这里满血版会显示灰色,无法安装满血版,至少需要二十 g 的 硬盘空间。等待安装这里时间会有点长,受电脑性能影响,一到五分钟不等,我安装了一分钟。 如果电脑之前没有安装过 wsl 的 话,这里还会有个安装 wsl 的 过程,安装过程中根据提示需要重启电脑,重启后安装会自动继续进行。我这里已经安装过 wsl 了,所以安装过程自动跳过了。 下载 u 泵储镜像,二点五 g 左右,下载的时间取决于网速快慢,耐心等待,我下载了一分钟,多一些时间解压有泵储镜像,解压过程很费时间,我解压了大概三分钟, 导入 u 泵储镜像,这个过程也需要一段时间,我运行的时间大概五分钟。 安装结束,等待自动打开龙虾,刚打开龙虾,有可能会显示三六零安全龙虾应用加载失败,等待一段时间,这是龙虾服务没起来, 要是龙虾服务没弹出来,可以在桌面上点击三六零安全龙虾图标,双击即可。点击左上角的加号,新建页面,即可看到龙虾界面,右上角检测显示健康状况正常,代表龙虾安装成功。 点击任意功能,弹出登录对话框,登录三六零账号即可使用安全龙虾,也可以微信扫码绑定三六零账号登录。现在可以使用三六零安全龙虾了, 打开三六零软件管家系统自带的添加或删除程序,也可以搜索找到三六零小龙虾,点击卸载,选择是否删除个人配置的数据, 若后续要重新安装,建议保留。点击卸载,等待卸载完成。卸载完成。

龙虾部署难?看不懂?别急,最近我发现一个叫 easycloud 的 工具,基于 opencloud 的 框架搭建,更方便更好用,不废话, 教你成功部署这个爆火的龙虾!首先,我们打开 easycloud 的 官网,点击下载,不用任何编程基础,等待安装包下载完成即可。然后点击安装包进行安装,全程中文引导点下一步就完事了。 这一步帮大家省掉了最起码一个小时的配置时间,不管你是 windows 还是 mac, 几分钟就能搞定本地环境。 安装完成后,我们直接双击软件图标,出现这个使用界面就代表着部署完成了,不用任何代码,几分钟就能完成整个本地部署。本地部署完成,龙虾可以与手机进行互联,只需要点击软件右上角的手机,远程选择你所需要的办公软件, 按照指示用对应的软件手机端扫码即可完成手机与电脑互联。以飞书为例,我们扫码连接,显示连接成功后,回到飞书,打开工作台,点击添加常用,找到我们创建的机器人,就可以给他发消息了。连接好后,我们还需要给龙虾定义一个人格, 我们可以给龙虾起一个名字,并设定他的身份。在定义人格的时候,我们要给他讲清楚几个关键点。第一, 一定要给龙虾设定一个名字,并规定他的说话风格。比如你可以对他说,你叫大白,是一个精通代码知识的电脑专家,你要用精简干练的语气回答我的问题,这样他就能记住并按照你的要求回答了。第二,要告诉龙虾你是谁, 怎么称呼你,比如告诉他可以叫你 eason, 是 龙虾的老板,龙虾就能知道你们之间的关系。最重要的第三点,要告诉他哪些事情能做,哪些事情不能做。一定要规定好工作的权限界限,不然可能会造成损失。比如你可以允许他定时安排帖子的小题制作,但是一定要明确的告诉他,未经过 同意不许擅自发布内容,规定他的工作范围,尽可能规避风险。比如我这里给我的龙虾起名三只龙虾,告诉他你是一个新媒体运营工作者。按照以上方式进行其余的人格设定,可以看到他会自动更新自己的身份信息,完成人格设定。 这个时候龙虾就可以投入使用,帮我们完成工作了。综合下来看,一字扣更简单,更适配我们日常的办公环境。赶紧点赞收藏领养自己的龙虾吧!

之前一期视频我测试了 mini max m 二点五,在编程和 a 的 场景下,相距于上一代模型提升明显,那现在 mini max m 二点七来了,而且我已经把它接近了我每天都在用的 open cloud 龙虾里面。这一期视频我们就看三件事情,第一个 接入到 open cloud 中,它的 a 进的能力到底涨了多少?第二个的话它的编程能力提升明不明显?第三个自媒体 a 的 内容的内容,它到底有没有一个质变好?下面我们看一下把它接入到 open cloud 中的一个任务测试, ok, 第一个任务的话是测试他的一个信息采集加结构化输出,让他去搜索一下这一个 mini max 二点七的一个最新消息,按模板输出要考验他的一些搜索能力,信息筛选能力, 以及最后能不能严格的去搜索到我们指定的一个格式。这块的话,评分的维度主要是看他的一个正确性,完整性,以及他的一个格式遵循,也是跟 mini max 二点五去做对比哈。那第二个任务的话是一个模糊指定加工具选择,那具体的任务是这一个 主要去看它能不能去要用到我们这个 bird skill, 以它的意图推断准不准确。第三个的话是测试它的一个多轮对话,加一个上下文记忆。好,下面我们来看一下我们是怎么测的。 我这边的龙虾配置有三个机器人,第一个是我的贾维斯,它主要有 gbt 五点四跟 cloud op 四点六驱动呢,还有我的开源雷达,主要去负责 帮我去监控一些开业项目的信息,它是有 mini max m 二点五启动的,还有这个挖掘机,主要去挖掘 x 平台上的一些新鲜的 ai 资讯信息,以及我想收集的一些纹身图,纹身视频的一些提示时。那这一次的话,那我这边的话是用我们的主控 a 镜呢,让它去做我们的这一个龙虾的测试, 让他去帮我们先配一个 mini max m 二点七的一个模型,同时让他在这一个开启三个 sub agent 的 一个 setting, 让他配置 m 二点五,让他分别去跑三个任务。第二个的话是让他配置 mini max m 二点七,同样是三个 setting, 然后去模型设置成这个 mini max m 二点七。那采集这一块的话,我们都知道龙虾这一块,它会把我们所有的这一个聊天记录转录成一个节省 l 的 文件,所以说对于我们 三个任务在两个模型上的测试,它是会有六个 c 形文件,那我把 c 形文件拿到,就能看到它整个的一个完整对话工具调用的一个情况,以及它的一个申请的一个过程。 我们把龙虾整个对话抓完之后,我们就可以把这所有的 c 形文件给它喂给 cloud code, 也是通过龙虾让它用 a c p 去调, 调完了之后我们给了他评估的一个 prompt, 那 这个时候他就会去把所有的评测结果给到我们。好,下面我们来看一下他的一个跑完的结果情况,可以看到我把这个龙虾的一个原始记录,让他给我挡不出来一个 zippo 包了,哈,我把它下载下来,可以看到这边有三个 mini max 二点五的一个申请记录,这边有 mini max 二点七的, 那我们就是让 cloud code 帮我们去把这六个申请文件全部去做理解,然后去做分析,最终得到一个结果。下面我们来看一下整体的一个评分情况。 mini max 二百二点七,相较于它上一代, 不管是在信息采集、模糊指令以及上下文记忆这一块,在龙虾里面的表现都是相较于上一代提升非常的明显,整体平均分可以看到还是多了蛮多的。那这一块的话,我们给他一个总结,就是他的一个指令遵循更加的严格。速度这一块是相较于上一代更加快了,快非常的重要。在龙虾里面, 我用国外模型最大的一个痛点就是它比较慢,它的推理,那我用国产的 mini max 的 话,就是速度很快,速度快有什么好处呢?对于我那两个机器人哈,它是需要去快速的去帮我监控一些 ai 新闻的,比如说国外的模型发布,国内的模型发布我希望第一时间得到,那这个时候速度就有很大的优势, 所以我们这个结论在龙虾上去跑迷你 max m 二点七,它速度提升明显,并且指令追寻比上一代更加的明显,那这个带来什么好处呢?因为龙虾这一块它的提示词非常的大,所以说它要求你模型的能力要在线, 并且大家都知道它非常的耗托肯,之前我测试过按 api 计费用, cloud 四点六,它跑了我大几千万的托肯,耗了一差不多快一百美刀吧,当时我记得, 所以说你要追求一个性价比,并且速度快的话,它是真的是一个非常不错的选择。好,下面我们来看一下编程实测,那这一块的话也是基于我之前几期视频有去测试国内国外的一些模型哈,也是两道编程任务。那第一道的话是我们有一个谷歌认证以及 github 认证的一个项目,让它去迁移到我们这个图片生成 a 镜的项目里面来, 同时再让它补一个落地页。那第二个任务的话是一个终端变网页的项目,我手里有一个 skills agent, 它是命令行的,我希望把它做成一个外部聊天界面,希望它保留 syncing 工具调用以及流逝输出。那这块主要测试它的一个权重能力嘛?好,下面我们去开始实 测,对于我们刚那两个任务,它的一个功能完整程度, 以及它的一个 u i u x 的 一个交互。第二个的话是我们把它所有代码提交了,跟以往的 codex off 四点六以及 mini max 二二点五去做 code review, 让最顶尖的模型我用的是 off 四点六以及 gpt 五点四 codex, 让它们去分别去 review 这所有代码,最终得到了这个评分。 从结果看的话,它这一次相较于上一代有提升,但不是特别的明显。那这一次的话它在任务二上的一个表现哈,会相较于上一代 m 二点五提升比较明显。上一代有会有一些消息重复的 bug, 这一次它都修掉了。那第二个的话是它的一些缺点哈,就是它这个测试代码其实还是比较少, 上一次也是这样子,就是说你写完代码,你需要写一些测试代码,然后,然后来保证你的一个功能输出嘛?好,下面我们开始下一个评测之后,我们就会把这个 mini max 二点七以及二点五都接到我一个自媒体内容分析的 a 镜头下面,去看一下整体的一个表现情况怎么样,我们开始测试。 好,我们来看一下整体的一个结果。在速度方面的话, mini max 二点七比上一代又快了一截哈它,并且它首轮的这一个反馈更加的及时更明显。 那上一期的这一个 m 二点五相较于 m 二点一已经快了不少了,这次又往前退了一步。那在拆解深度这一块的话,这次最大的惊喜是我把同一个视频丢进去,那 m 二点五给我的是一段诊断总结,这个视频讲了什么,节奏怎么样? 那二点七的话直接是按这一个 s r t 时间戳去拆啊,几分几秒,讲了什么,用了什么手法,为什么有效,力度完全不一样,这是真正的一个时间轴的一个拆解, 那 mini max m 二点五的话,从我们的这个测试任务里面它是没有达到的。那第三个的话,在表达真实感这一块, m 二点七更像是有人在给你去复盘这个视频,然后措辞更加的接地气, 逻辑的话更像人话一样。那这两个拆解深度跟表达真实感不是我人为主观的去感受的,而是我把它所有的输出的结果拿到 jimmy 来跟下载 gpt 上,让他们去 review。 好, 下面我们来进行一个总结。在这个龙虾的场景里面哈,这一次 m 二点七 升级明显,他整个评分在指令遵循、工具调用、准确性这一块提升都特别明显,而且速度叫上一代快了很多。那第二个在编程场景这一块的话有进步,但还需要去补课,跟国外的这个模型还是有一些差距。第三个的话是我在这个自媒体 a 技能里面去接了 m 二点七, 这次的话能感受到他相对于上一代拆解的更深了。好,这就是这期视频的所有内容,你想看哪个模型的评测?在评论区告诉我,我是阿江,我们下期见。

今天发生了一件事,因为我看了一个视频,说可以以呃一人公司的一个呃结构去布置这个 openclaw, 比如说我当 ceo, 让 openclaw 当一个 ceo, 然后它下面部署几个不同岗位职责的 agent subagent, 然后呢,我就觉得,哎,这主意不错,然后我就把那个内容就粘给他那个 openclo, 然后呢,让他也给我布置几个呃 agent, 结果刚刚进行到第三个,这个是属于一个合规或者说保护安全,信息安全的这么一个这个 garden, 好 嘛,刚刚开始我说你继续,结果他就死了,然后等我再配的时候就一直提示,提示我的信息是我的 openclo 跟飞书没有配置上,因为我也不知道具体是什么情况,我又看不到后面的这个端口。 所以呢,嗯,当他发来这个东西说啊 pairing 的 时候,我就想啊,我可能只能回家才搞了,结果回来的时候就看见好多好多个这个四零三, 然后我就觉得可能是 cloud code 那 个我用的是 token, 八成企业版的也给禁了。每当我 getaway restart 一 次,他就会回复我一句,然后我就靠着这一点回复,然后我大概摸清楚了是怎么回事,就是被绊了,然后我就开始抓紧上, 因为我因为我之前已经给他配置过,说万一有一天他真的被禁了的话,那么就给我呃上 deepseek 或者是 kimi, 因为我已经把他的 api 都已经呃备份上去了,然后也交代过部署过,结果今天愣是就没好使。 然后当时他给的是一个呃,当时 kimi 给十五块钱,然后我自己充了一块钱,我只是为了一个托底和过渡,就没想说有这么快就能用上。它 回来的时候呢,因为它这个用量的限制,当时你只交一块钱的话,你就是踢零,所以跑一跑它就跑不动了,跑不动了之后我就没有办法,我就开始这个到处问,然后我就发现了,哎,躲不过,还得充值, 结果呢,我就去充了值,充完值之后它马上就好使了,然后就折腾这么一会呢,大概是消费三块五这样。嗯,很慢,我感觉它就是,虽然说 opencl 它还能做事,但是它的速度是真的真的慢,不是假的慢。嗯,有明显的感受。 后来我就找啊找办法,怎么回事?后来我就在网上搜到了这个大神,然后 how do you use chatpt pro or plus in openclaw without api cost? 这个也太好了吧,正是我所需要的,而且在八天之前他就发布出来了。我,我不是逼到份上,我也不想用它,因为我是有那个 chatpt plus, 所以 我就马上就照他这个操操作了。总之呢,他这个很简单啊,很简单。第一步呢,就是打开你的那个客户端,然后输入这行指令。 you see that it gives you a url it says i open this url in。 当它跳出这个的时候,你就开始进入界面去登录了, but login you're gonna have to confirm that you want to sign in to codex with jpeg so i'm just gonna click on continue and then every v i p is gonna open but don't worry it's very quick。 这个很重要,这个你不要以为它出现了错误,然后你着急给它关了,这个不能关,然后你把这个链接给它复制,复制好了之后, you're going to need from the space just to come here and copy the url that you have in the address bar then come back into your terminal by open close one like you see here paste the read address urls i'm just gonna paste in the read address url and i'm gonna press enter and this should basically pick a configuration now here i'm gonna change your press enter then i'm gonna restart it's way here and choose do this later because the scan command that we're gonna have to run now scan command we're gonna run as this one here i'm also gonna prove it。 这个也很重要了,这个时候是重新就是强制设置你这个 model 是 用 open ai codex 这个 right in the description section number one press。 别别别,那个手残给他打错任何一个字母啊,我就因为打错一个字母然后那个没给他弄成功发,找了半天才找到原因。 so what this does is that it basically overrides the configuration and then adds a default model as open ai codex。

这期视频拆解字节龙虾和腾讯龙虾两款产品的步数与使用,助你选择更适合你的龙虾。首先,虽然都是龙虾,但 arklo 和 work party 的 步数路径完全不同。先看 arklo, 它是纯云端形态,主打零配置, 整个流程不需要下载安装包,跟着操作一分钟就能搞定。浏览器访问火山引擎官网,点击上方最新活动处的 arklo, 抢先体验,就能直接跳转到工作窗口。我这已经创建过了,如果事先没有创建是这样的,点击创建即可。 rcl 支持多种消息渠道,不过效果最好的还是飞书,点击下方飞书配对,等待片刻后会出现一个二维码,飞书手机端扫码填写相关信息,如屏幕右侧所示,这里视频加速,实际等待两分钟左右。 创建完成后就可以在飞书工作台使用该机器人,消息也会进行同步。整个流程很简单,并且依靠火山引擎,本地没有运行负担,也不用手动配置或者处理环境和依赖,属于开箱即用。再看看腾讯这边, workbody 定位是一个桌面端智能体,它需要本地部署。 首先从官网选择对应版本下载安装包,安装登录后会跳转到这个页面,点击左侧的 cloud 选项就可以用了,支持大部分最新的国产模型。和 rcloud 不 同, word 八 d 独有的好处是可以通过 qq 进行交互,先注册一个 qq 开放平台的账号,过程不在赘数,就是跟随向导一直点,确定即可。 注册登录后进入首页,点击上方机器人,再点击下方创建机器人,填一填信息,过程很简单,随便填也可以, 点击提交后弹出 success 则代表创建成功。点击刚刚创建的机器人,进入机器人后台,左侧下滑,打开开发管理,复制 app id 和 appscribe, 填到 word body 对 应位置。 我这里已经填过了,流程跟没填过是一样的。 appscribe 需要用手机 qq 扫码获取,建议保存好,找不到了,想再用的话需要重新配置 两项,填完后会生成一段 webhook。 复制 webhook, 再次打开 qq 发放平台,左侧找到回调配置,将 webhook 粘贴进去。这里需要注意,因为已经提供胎头了,所以需要删掉。下一步点击确定配置,等待校验,校验后再次用手机 qq 扫码。接下来进行事件配置,将单聊事件中的所有事件全选, 点击右下角确定,然后再次手机扫码到这里就算配置好了。左侧找到沙箱配置,点击二维码图标,手机 qq 扫码并添加机器人,就可以正常进行对话交互了。步骤比较多,对比 icloud 稍微复杂一些,但是门槛不算高。好处是它支持本地文件操作, 实际使用场景下,两款产品的核心体验差异很明显。再回到 icloud, 它的优点是云端携同和生态打通, 七乘二十四小时在线,可以随时在飞书桌面端和 app 发送指令,就算电脑关闭,后台任务也能继续执行,并且记忆不会丢失,工作用起来很方便,适合多人协助和规模化使用。 支持豆包二点零系列模型和其他国产新模型,不过没有质朴最新的 glm 五,一般选择 auto 智能调度即可。缺点是本地操作能力有限,只能通过 tos 桶作为网盘实现文件上传与下载。如果我想让他操作本地文件执行任务,就需要先上传,然后再处理,等到任务完成后再重新下载到本地, 过程比较繁琐且配置比较麻烦,这也算是他的硬伤。反观 word body, 他 就强在本地执行任务,能直接操作电脑上的本地文件,给 它权限就可以, open 框能干的它都能干。还可以搭配腾讯刚推出的 skill hub, 给它添加技能,整理文件、分析 excel, 生成 ppt 这些常见办公场景,从理解需求到交付成果,全流程自己搞定。另一个优点是支持多任务并行, 任务多的时候也能有序推进。缺点是需要依赖本地电脑,电脑关机任务就没法进行,且云端协调能力不如 icloud。 最后 workbody 还提供了部分免费额度,我用了几天居然没被用完。 这一点相对于 rcl 比较友好,毕竟有很多人只是想初步体验一下,并非长期使用。最后一句话总结,想办公并且经常用非输的用户选择 rcl 任务主要工作在本地,并且希望通过 qq 进行交互,可以选择 workbody。

不知道为什么,在网上面教大家在 windows 下部署 opencloud, 都是让大家先安装好 node get, wsl, 最后再安装 opencloud, 非常奇怪哈,基本上都是这样科普的,但是但凡你是通过 wsl 去部署 opencloud, 你 在 windows 下装 node get 这些呢,完全是白费功夫。 wsl 它的全称呢,是 windows system for linux 翻译过来啊,就是一个适用于 linux 的 windows 子系统, 它主要呢就是让一些用户或者开发人员就不需要再像传统一样配置虚拟机,搭建双系统啊,直接就可以在 windows 上面呢原生的运行 linux 环境。当然这里面我们从文件读写的角度来说, windows 和 wsl 它们的文件访问呢,是互通的, 但是软件的安装呢,是完全隔离的,因为底层的环境就不一样,所以你们在 windows 下装完 no 的 get。 但是呢, openclock 又是部署在 wsl 里面的, 简单来说呢,就是装在 linux 环境里面。那为什么我们要把 opencl 装在 wsl 里面呢?那是因为 opencl 它的插件生态呢,都是基于 linux 而 unix 来开发的, 并且对苹果系统呢也做了优化。所以如果你的 opencl 是 部署在 mac 或者 linux 下面呢,它的运行体验就会比较好, 但是直接安装在 windows 下面呢,它就可能会出现问题。所以我们才要用到 ws l 的 linux 环境来部署 open core, 这样子呢,它的体验才会比较好。但是一上来呢,你们又把 node 这些呢装在 windows 下面, ws l 里面还是没有的。最后 open core 检测到环境里面没有这些东西, 它还是要给你再装一遍,我们可以来检测一下啊,现在呢,我还没有进入 ws l 终端,这里还是在 windows 下面的,我来分别检测一下 node 和 git 版本, ok, 现在呢,我来进入 ws l 看到这一行啊,现在我们就已经进入 linux 环境了,也就是我们的 openclaw 其实是安装在这一个环境里面的,然后我再来检测一下 node 和 git, 大家看到没有,无论是 node 还是 git, 在 windows 还是在 wsl 里面,版本号呢,都不一样,因为软件的安装在这两个环境里面呢,它是隔离的,你在 windows 下呢,一上来就把 node git 装好, 然后再来装 wsl, 这个时候 linux 环境里面还是没有这一个,你真正想手动来安装这些呢,起码也是等你先把 wsl 装好了, 也就是进入到这一个目录环境里面再来安装呢,那是可以的,但是既然 opencloud 它可以自动安装这些,那我们就直接交给它,让它检测到环境需要什么,它自己来安装。所以大家在 windows 下面来部署的话,就不用一上来就装什么 node 而 get 了, 又浪费时间又浪费功夫,一出错呢又折腾,我们直接就把 ws l 装好,装完之后呢,就可以开始安装 open core 了。具体在 windows 下面怎么样来部署 open core, 大家可以看我上一个视频啊,有非常详细的步骤啊,跟着来做的话,基本上都可以成功了。

想拥有一个二十四小时在线的 ai 助手吗?今天教你五分钟内在 mac 上部署 open call, 打造你的专属数字分身。首先检查你的 mac 准备好了没有,打开终端,输入 node v, 如果显示版本号,说明 node js 已安装版本需要十八以上。如果没有用 vm 安装 命令,我放评论区了。接下来是关键步骤,默认 n p m 局安装需要苏斗。我们先配置用户目录,输入这三行命令,创建目录配置路径,刷新配置。然后一行命令安装 n p m install, 即 open card。 安装完成后输入 open card version, 确认一下现在启动配置向导 open card onboard 第一个安全警告输入 yes onboarding mode 选 quick start, 快速开始 model provide 的 重点来了,推荐选 zai 智普,国内用户友好,颜值低 off method 选 c n, 使用国内端点后面的 channel, search, scales, hux 全部跳过,先刨起来再说。最后 hoch mod 选 t u i 终端界面启动配置完成,启动它 open country 第一次启动,他会问你,你是谁?想让他做什么?我的设定是这样的, 我是欧皇兄电力工程师,关注 ai 和 web 三,你的职责是协助我优化工作流代码,编辑文稿输出, 它就会给你一个很棒的回应,并且记住这些信息,这就是你的数字分身诞生了。最后提醒一点, open call 有 技能系统,但 call up 上有三百多个恶意技能,安装前务必检查源码,定期运行,安全审计 open call security audit。 好了, opencar 安装完成,下期教你怎么配置 discord, 让它二十四小时在线关注我,一起玩转 ai agent!

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。
![AI 核心情报速览
龙虾生态爆发 & 智能体进化
Kimi 上线 [Kimi Claw]:云端龙虾,免配环境不懂代码,直接拥有自己的赛博牛马。
https://www.kimi.com/bot
● 网易 开源 [LobsterAl]: 桌面版龙虾,完美适配国产模型,主打开箱即用。
https://lobsterai.youdao.com/
阿里 开源 [Mobile-Agent-v3.5]:最强行动智能体,原生操作三端,可直接挂载给龙虾当牛马。https://github.com/X-PLUG/MobileAgent
巨头交锋:Google VS Claude
Google 上线 [Gemini 3.1 Pro]:地表最强大模型!AGI 跑分翻倍,前端能力炸裂,直接制作 SVG 动画和动态 PPT。
https://blog.google/innovation-and-ai/models -and-research/gemini-models/gemini-3-1-pro
Anthropic发布[Claude Sonnet 4.6]:日常办公能力反超 Opus 4.6,价格仅需 1/5。
https://www.anthropic.com/news/claude-sonnet -4-6
Claude 联动[Figma]:史诗级合作!Code写的页面一键导入 Figma 自由编辑,改完通过 MCP 传回。 https://code.claude.com/docs/en/mcp lli Google升级[NotebookLM]:动动嘴就能修改PPT,并支持直接导出 PPTX格式。
https://notebooklm.google/
视觉生成与数字人黑科技
Google 接入[Lyria 3]:上传一张图片,就能直接生成相匹配的歌曲。https://deepmind.google/models/lyria/
Rednote 开源[dots.ocr-1.5]:最强 OCR,把图表直接转成可编辑 SVG,图片秒变源文件。https://dotsocr.xiaohongshu.com/
#研究员 开源[Vec2Px]:图像转矢量图层编辑模型,支持鼠标微调再渲染,修图极度可控。https://guolanqing.github.io/Vec2Pix/
字节 #ai](https://p3-pc-sign.douyinpic.com/image-cut-tos-priv/e9afd2499d8e31f46cf3d51283b33d33~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2090016000&x-signature=CBkxrszftUuLL9cx6vxKplgbr5Q%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=20260328084938166BF17E351EFF2F5A65)

最近 oppo 可乐很火爆,我看到很多人想要部署,但是卡在了第一步,到底用现有的电脑,还是买台 mac mini, 还是部署在云端?那我先公开一下我的全套配置,我是特意买了一台 mac mini, 养了一个多月小龙虾,今天来说说我的思路。先点个价,我的方案不一定适合所有人,只说真实感受,欢迎以后讨论。三种方案我都研究过, 首先,排除用自己常用的电脑,不仅会占用日常电脑资源,一些自动化的程序会干扰我正常使用,最怕的还是信息泄露,或者是把我重要的资料删除了。第二种,云服务器 可以二十四小时在线,不占用自己设备。现在大厂陆续都上线了自家的一键部署方案,以前要折腾半天命令行的东西,现在打开网页就能用,甚至手机就能直接跑,确实还挺方便的。但是我当时部署的时候还没有这么多选择,而且它也确实存在一些短板,一是便宜的配置跑起来很勉强, 每月还有额外付服务器费用,长期算下来不一定比买设备便宜。二是定制受限,很多云端预装镜像用不了某些高级功能。最后,我是自己买了一台麦克迷你,自己部署。 方可乐在 macos 上配置最简单,空不入一行命令就能装好,运行也是最友好的,所有功能开箱即用。大厂方案基本是绑定自家模型,虽然有的说支持切换,但选择范围很有限。我个人是比较喜欢用可乐的 opus 模型,它的理解能力、写作质量、复杂推理都是相当丝滑的。 选择 mac mini 可以 更方便地结合 color code 的 使用,对我来说,最实际的感受就是 opus 写出来的稿子几乎可以直接用。跟那些 a r v 很 明显还得花大时间改的模型不一样, opus 的 措辞、节奏、语感都很到位, 十四小时在线功耗极低,待机才几瓦。我的 oppo cola 跑在自己的麦克迷你上,所有的数据都在我家里,会更有安全感一些,跟我日常的工作机也是分开的,不用担心污染数据翻译、分类、格式转换这些简单的工作,用本地模型不花钱就能搞定,节省头肯留给深度创作,一年能省不少钱。 举个我自己在用的例子, openai 的 whatsapp 语音转文字模型,我直接装在 mac mini 上,把视频链接或者会议录音丢给他,就能自动转成文字稿,全程离线,不用联网,不用调 a p i, 也就是零费用,音频内容也不会传到任何服务器上。 最最重要的一点,装在 mac mini 上的 open cloud, 它能帮我截屏看内容、浏览网站、安装软件、管理文件,就跟一个真人坐在电脑前帮你操作一样。就我目前用了一个多月来说,真的还蛮爽的, 在聊天软件上跟他说几句话,就能帮我写好文案,每天自动整理热点新闻,再也不用听那些满是广告植入的早间播报了,还把我养成了五百八十二卡吗的 reddit 账号,有片一百八十一赞的爆款。当然他也不是完全没有缺点。首先,需要一台单独的设备,这个前期投入就比云端部署要大很多, 对于很多只是想要试用一下 apple cole 的 朋友来说不怎么划算。其次,想要接入更好的模型也是有一些难度的,如果只是处理基础的工作,甚至只是跟他聊聊天,就没必要搞的这么复杂。可以看看大厂的部署方案,我这边给有需要的朋友简单总结一下,就在评论区,那本期视频就到这里啦,我们下期再见。