一句话,瑞平国产龙虾 qclock 扫码就能用,背靠微信确实方便,但也就图个新鲜,干细活还差点意思。一个指令排队一年。 workbody 企鹅处的商务虾,专给公司用的,权限管的严,不容易捅篓子,业务商务,价格也商务。 maxclock, 迷你 max, 搞的云端方案,每月花点小钱就能用,主打一个不墨迹,控不了本地电脑很难受。 kimi clock, 跟飞书绑得紧,你在飞书里他呼风唤雨,在飞书外他踌踌躇,工作可以,生活不息。摩羯 clock, 新手友好高融错权限安全两手捉,每天积分送的多省偷啃,读一注性价比没的说。
粉丝7810获赞6.1万

龙虾跟豆包最大的区别是什么?豆包是他只能回答你的问题,而小龙虾能够帮你把事情给做了。嗨,我是顺利白天 a i 公司打工,晚上做自己的老板。首先豆包是你问一句,他回一句是属于单现成的,就像你的一个临时顾问一样,上下文其实都是有限的。 小龙虾不一样,它就像你的一个贴身管家,而且记忆力特别的强,它可以当做你的一个知识库,并且持续的去更新,这种长记忆是可以不断的去迭代,不断的去调教,比一般的 ai 大 模型会稳定的更多。你可以看我用龙虾交流的这个对话, ai 自媒体 ip 打造做出的这个自媒体 ip 打造的智能体, 每次交流都会给我深层对应我所需要的一些文件,你还能够在文件里面放置一些其他你所需要他学习的一些内容,他也会根据你的指令去学习,所以他的学习能力特别强,他的记忆力也很强。第二点就是小龙虾是真的是在为你干活的, 六包元宝他只是你问,他答。龙虾是自动化流程,你可以去给他设置定时任务,他就会按照你的指令抓取你所想要的一些信息,然后给你干活。所以他是有主动性的,是真的是在为你干活,一句话交给他,他帮你默默的都搞定。然后第三点是龙虾他是可以不断的自我净化的, 就是你在跟他交流的次数越多,他就变得越来越聪明,你也可以给他喂一些专业的一些行业知识,在你的条件下,他只会越来越聪明。为什么豆包元宝不直接去做小龙虾这种形态呢?因为太烧钱了, 像这种长计高频调用的 a p i 算力成本特别的高。所以如果你只是偶尔想写个周报,你就可以用豆包元宝。但你如果是老板或者是创业者,想要一个能够长期培养业务技艺的一个私人助理,那你得赶紧把龙虾用起来。关注我,看一个普通人用 ai 从零到一,做自媒体实现个人 o p c 的 过程。

腾讯深圳总部排队免费装 openclo, 深圳龙岗发布龙虾十条,黄仁勋盛赞 openclo 是 有史以来最重要的软件发布,就连马化腾也转发 openclo, 并表示没想到会这么火。 最近 openclo 爆火全网从两岁小孩到六十岁老人,都想试一试它到底有多牛,但真要上手了,第一个问题就是到底哪个模型才最适合 openclo? 知道你急,所以就在刚刚, openclub 创始人 peter stamburger 亲自分享了这个叫 pinch bench 的 龙虾大模型排行榜。 pinch bench 的 评分特别实在,有的题看代码能不能跑通,有的题看写得好不好,还有的是两者结合, 而且所有题目和答案都公开在 github 上,谁都能去查去验证,一点不掺水。 pinch bench 是 一次性测试了三十二款全球主流大模型,从成功率、速度、价格三个维度来评估哪个模型最适合养龙虾。话不多说,我们直接来看结果。 先来看最重磅的成功率排行榜,不出意料,谷歌的 gemini flash preview 以百分之九十五点一的成功率夺冠,第二名就是咱们的国产模型 mini max m 二点一,成功率是百分之九十三点六, 紧接着就是 kimi k 二点五、 cloudsonnet 四点五和 gemini 七 pro。 有 意思的是,三十二个模型的成功率差别非常大,最高的能到百分之九十五点一,但最低的只有百分之三十五点二。还有就是大模型,不一的谷歌模型就是小模型。 接下来我们来看看模型的速度,我们可以看到速度最快的是国产模型 minimax m 二点五,以一百零五点九六秒的成绩拿下速度冠军,完成全部测试任务,比第二名谷歌的 gemini 二点零 flash 快 零点零九秒。再往下看,其实前八名差距都不大,基本都在同一梯队。 比较有意思的就是 cloudsonnet 四用了一百三十七点六六秒,比第一梯队慢了三十秒。 johnny 三 pro 用了两百三十九点五五秒。 g p t 五点四更夸张,用了九百七十四点七四秒。不过这也说明了一个规律,就是轻量级模型普遍更快。如果你做的是快速圆形开发,需要频繁迭代,选轻量模型准没错, 成功率和速度看完了,最后就是我们最关心的价格问题,毕竟有些模型的 token 很 贵,精打细算很重要。成本上, g p t 五 nano 以零点零三美元的成本成为全场最便宜的选择。 虽然它的成功率只有百分之八十五点八,但这个价格就已经很香了。 gamin 二点五 flashlight 排第二,只要零点零五美元, 成功率是百分之八十三点二。国产模型 minimax time 二点一排第五,成本零点一四美元,但是它的成功率有百分之九十三点六,性价比非常高。再看高端模型的成本,就不是我们能承受的了。 ios 四点六完成测试要花五点八九美元,是 gpt 五 nano 的 将近两百倍, mini max m 二点一的四十二倍,但它的成功率比 mini max m 二点一还要低百分之三。 看完这三个维度的榜单,你知道怎么选模型了吗?其实非常简单,就四点一,如果你追求成功率,无脑选 gemnine 三、 flash 二,如果你追求速度,选 mini max m 二点五或 gemmi 二点零 flash 三如果你追求性价比,选 gemini 二点五 flashlight 四如果你想少折腾支持国产,就选 minimax m 二点一或 kimi k 二点五。当然没有最好的建议,按照自己的需求选择就行。还有就是这里要给大家提个醒,就是养龙虾虽然很香,但养龙虾消耗的 token 肯定是要比你充的模型会员要贵的。 现在有人每个月花一千到两千美元在 token 上,还有大佬每天烧十亿个 token, 没有足够预算真的扛不住。所以尝鲜可以,但别盲目跟风。

腾讯两大 ai 助手对答,一个稳定但保守,一个智能但牺牲了准确性,普通人到底应该怎么选?今天用实测数据告诉你答案,欢迎大家收看今天的视频,我是你们的 ai 落地搭子阿河。先说背景, qq 洛和元宝都是腾讯的产品,但来自不同的团队。 qq 洛是腾讯管家团队做的, 而元宝呢,是腾讯的元宝产品团队做的,这是腾讯常用的矩阵赛马模式,让两个团队同时做一个方向。为了对比这两个平台,我用自己的智能钉盘助手来做实测。先从 qcloud 开始说,我是三月二十四号安装的,安装的过程基本顺利,安装后设置了定时任务界面,看着也很正常,但在实际的运行过程中发现实时监控有时会无法按时执行。 对照同一款 skill, 在 开源版的小龙虾却是能正常运行的,这说明问题可能出在三月二十二号, opencloud 发布了新版本,那这次的更新改动性是比较大的, 更新后不少用户反映出现了兼容性的问题。再看看元宝的表现吧,我在元宝派里建了一个小组,私聊元宝进行技能的安装。安装过程中,他检测到了时间配置可有问题,主动给到了调整方案,把间隔的十分钟改成了三十分钟。可以看到过程是很丝滑的,安装完成后就会在群里面自动的执行。在安装过程中,元宝会主动进行参数的调整,他这个行为在 qq 上没有出现过, 可能是两个产品自主决策,边界设计不同。目前 qq 号有一个很致命的问题,我个人有点受不了,就是它的 pc 和手机的微信 bot 是 不能互通的,也就是说如果你在手机上发起的对话,在电脑上是无法进行操作的,这可能是微信生态的技术限制,目前确实只能在单一射流上玩。 通过实测能感受到两个产品的设计取向是不一样的。元宝在安装的时候会主动调整配置,优先保证任务能跑起来,适合日常场景。但 qcloud 不 会自动的修改配置,需要用户进行确认,它对准确性的要求会更高,更偏向企业级场景。我们可以看到, qcloud 在 内测阶段的更新确实是比较频繁的,在二十二号当天一天就更新了三次。我的建议是,必要的话可以锁定版本, 避免自动更新而带来的意外。那如果你只是体验和测试的话,那就随意啦。那到底应该怎么选呢? qcloud 现在已经完全开放了,入门还是比较方便的。那元宝现在是抢注阶段,广告也没事,代替工作可能不太可能,但进个日程玩玩还是可以的。记住,没有完美的产品,只有合适你的产品,根据自己的需求来选才是最明智的。总结一下吧, q q l 未来一定是适合企业的,稳定但保守。那元宝一定是适合日常的,它智能,但牺牲了一定的准确性。从安全第一的角度,更推荐云服务器或者不常用的本地安装。好了,今天就聊到这,你觉得哪个更适合你呢?评论区告诉我,我们下期再见。

这个视频呢,我来介绍四个国产欧本可乐的龙虾啊,以及他们各自的使用场景啊。那么第一个呢是我和巴蒂,是腾讯出的龙虾啊,本地和云端相结合,他可以直接操作我们的电脑读写文件啊,个人微信呢,和企业微信都比较方便的人揭露啊,因为他们都属于同性系的产品。 那么第二个呢是阿克拉克,是字节的云端虾啊,那么揭露非书呢,可以用来做钉盘,股票啊等啊,具体呢,可以参考我的上一条视频。 那么第三个呢是 max curl, 是 mini max 公司开发的云端下行,那边写 skill 呢,和上传的 curl 的 hub 都非常的方便啊。那么第四个呢是 extra curl, 这是科达讯飞的云端,下行操作方便,界面简洁,非常适合新手体验龙虾干活的快捷。以上哈,我是郭震哈,咱们下个视频再见。

今天正好有时间呢,我就讲一讲啊,关于大模型的选择这个问题。那为什么要出这个视频呢?是因为啊, openclock 它再火,再出圈,它其实背后还是接的各家的这个大模型。所以你的龙虾它到底能力怎么样?它取决了你接入了哪家的这个模型, 对吧?好,而且呢,现在,呃,很多的国内的大模型厂商呢,他其实也陆续地退出来了, codeine 啊,几乎主流的这些这些提供商的话呢,他都有 coinplay, 所以 你可以用一个非常低的价格就能用上他们的一些旗舰或者主流主推的一些啊这个模型。那接下去你要面临的一件事情就是说,哎,这么多的模型厂商,我应该怎么样去选择我的大模型呢? 对吧?到底我应该选择阿里的还是智普的还是 mini max 的 还是哪一家的?这个是你现在面临的问题。那这个视频呢,我就只讲我自己目前使用的 一些模型,然后的话呢,我来总结一下,然后给到你。那我先把观点讲在前面,就是说如果说你是有能力去使用到国外的三家头部的这个模型的话呢,你尽量去使用他们的。 为什么我要这么说,是因为他们的能力确实要比国内的几家大模型的厂家,他不是一个量级的。我就这么来讲,国外的那三家模型,我在使用的过程当中,他出错的概率还是非常的高,在这种情况下面,国产的模型他几乎是不可用的。 如果说从一到十分一分他是最不容易出现问题,然后十分他是最容易出现问题的话,国外的那三家可能在我整个工作流里面三到五分,但是国国内的这个模型的话呢,在我整个工作流里面可能会上到八到十分。 就像 minimax 在 前面的这个视频里面,他把我的整个 workspace 给删除掉了,我在后边他其实因为我的定位还没到期嘛,所以我在努力的想要去证明他是一个好用的模型,只是 我不会用,他不适合在 open cloud 里面去用,所以说,所以我又按照 minimax 的 这个万方文档去把它接入到了 cloud code 里面去,他又删我的代码, 这个是事实,我不清楚。在这种情况下面,我没有要求他去上我代码的时候,他擅自改动了我的代码, 所以这个就是模型的问题了,这不是我的问题,我已经极力的想要去证明这是我自己的问题导致的,但是模型他不给我机会, 对吧?好,所以在这个视频里面,至少在我的这个频道里边之后,我是不会再去推荐 mini max 二点五这个模型,但然后面他推出来新模型我还是会去测的。 好吧,至少在现在这个阶段里面, mini max 他 不是一个好模型。而且呢,我跟他我在使用 mini max 的 这个模型的时候,我还聊出了一些很离谱的这个话题啊,这个视频里面我没办法去讲,但是 确实 mini max 他 不是一个好模型。好吧,好,那 mini max 我 已经我就已经把它给撇掉了。那智普的 glm 这个模型怎么样?他是一个好模型,至少从我目前的呃观点来讲,他 出错概率还是比较低的,只是说他上下文只有二百五十六 k, 所以 说他的上下文是短了点,但是他是一个好模型,至少在我整个使用过程当中,他没有出过什么大段子。 gim, 这是我对它的评价,对吧?所以说如果说你想要去选择这个这个 gim 的 这个模型,我觉得完全是可以的。阿里的这个模型的话呢,它是性价比最高的。 为什么这么讲?因为阿里的这个模型里面,除了阿里它自家的这几款模型以外,它还支持了 kimi 的, 还支持了 glm, 还有 mini max, 对 吧?哎, mini max 是 一个, 后面呢,我,我不去提他了。好吧,那个如果说你现在要去使用的话呢,阿里的魔镜其实是一个非常好的选择。那字节这边的话呢?啊,他的这个火山的这个啊, coding plan 我 看了一眼, 性价比确实是挺高的,但是反过来看几家模型来讲,它支持的这个模型确实是差了点意思啊。因为 deepsea 说实话它是一款好模型,但是它的上下文太短了。 你不管是接入到哪里,不管是处理你的工作流,还是说去进入到 open cloud 里面去,它其实并不算作是非常出色, 因为它的上下文确实太短了。你总不至于聊个几句,因为 openclaw 它本身你一出去就呃二十几 k, 对 吧?如果说你人格 so 跟 identity, 它设置的稍微复杂一点,你其实一出去就十几二十 k 就 没有了, 那剩下的八十 k 你 聊几句就没了。所以你订阅千万,他的选择会更多。 kimi 的 话,他只有 kimi, 他 他自己的模型吧,我印象里面应该是到他到 kimi 的 官网上面去定,然后的话呢,他只有 kimi 他 自家的模型,而且售价也不是特别便宜,所以我我我其实最后也没有去测 啊,因为阿里的模型也有 kimi 的 这个模型嘛,所以目前来看的话呢,阿里这边的模型它其实是性价比最高的。

过了这么多天,用了很多龙虾,基本上国内国外的龙虾我都用了一个遍,最终我留下了三只龙虾。第一个就是我们欧芬可乐,也就是这个 小龙虾的食盐,现在我一直在用,用的越来越顺了。第二个用的就是我们那个冰冰,前两天上周发布的那个悟空系列,回来之后就开始用了,也深度体验了一下。那第三个就是我们前两天刚刚发布的这个 qq 可乐,也就是我们微新的这个小 龙虾。那这三款呢,做了一个横向对比,其他呢也有各有好坏,但是我觉得未来这三款可能是我们企业里面可能 会接触且使用的是最多的。那今天先跟大家说一下这三款产品的上手容易度。第一款也就是我们的祖师爷欧阳克浪,他是一个必须要有一定系统基础和代码基础的人,你才能把他这个用好。这一款呢,对这些 啊,不是很懂代码,不是很懂系统的人呢,是有一定难度的,性能最强劲的,为什么呢?充分给他配够足够的权限的时候,他会给你惊喜,这是第一个。第二个呢,也就是我们的悟空,如果在企业生产力这块的话,是最简单的, 你即可上手,一句话就帮你解决,为什么呢?他有一套详细的这个理解你已近的这套算法,那这一款是对 所有的企业主或者说所有的个人用户是比较友善的。最后一个也就是 qq 了,因为他是微信的,是全民级拥有,大家对他的期望都很大,因为刚刚才发版啊,今天早上又发了一版,很多的功能呢,不是那么的理想,截止到今天 我们对他的期望都非常大,因为他毕竟是一个全民级应用的产品,这个期待度远远高于他现在的实用度。那这三款产品呢?我前面说过了,我们的上手的容易度,实际上大家最关心的应该还是他的安全,在企业里面用到底符不符合,我们把它当成生产力来用,那下一期我们揭晓。

最近国产龙虾全网刷屏,腾讯智捷三六零全下场了,但这商家到底有啥区别呢?今天咱们大白话扒一扒,看看哪只最对你的胃口,别瞎上啊,下错了,是用不顺手的。 先说腾讯的 qq 这玩意啊,简直是打工人的贴身助理。他最大的特色就是跟微信深度绑定,你在外面用手机发条指令,公司里面的电脑就能自己跑起来干活找文件。 而且他是纯本地安装数据存在自己的电脑上,不乱跑,主打一个接地气,好上手,适合离不开微信的普通上班族。 再看智捷火山引擎下面的阿克克拉,这家伙是个急性子,压根不用下载网页打开就能用。他最大的优势是完全不挑电脑配置,老电脑照样带的动。而且人家跟飞速搭档的特别默契,搞个会议机啊,处理一个复杂文件麻溜的很, 特别适合团队写作和搞自媒体的朋友。最后是三六零,安全龙虾,一听这个名字就知道人家是时刻安全的,不仅自带个龙虾卫士防恶意插件,甚至还出了个实体的硬件盒子做物理隔离。 如果你平时要处理公司账目、核心客户资料这类敏感数据,或者心里面总觉得 ar 会偷看你的隐私,选它准没错,一键安装,新手也搞得定。这题好做吧,我给你盘一盘 图,不占内存就选 cg, 重隐私防泄密。选三六零,想要手机遥控电脑的就盯紧腾讯,听说阿里百度也在后头背大招呢,这一帮大肠卷起来,咱们普通人就等着享福,你现在会相中哪一只呢?在评论区里面吐槽吐槽,看看大家都在用啥。

给大家梳理一下国产 ai 大 龙虾呢?有哪几款?首先是腾讯的 qq, 字节的阿克尔,网易的 lobster, 还有阿里的悟空。普通人选择特别要注意一点就是能够和微信连接,那这样的话确实能够提高我们使用 ai 的 频率。最让我惊喜的是,字节的阿克尔现在已经可以连微信。 另外提到一点是网易的 lobster, 它是原版 openplay 的 作者 peter, 唯一点赞的中国版大龙虾也可以体验一下。

朋友们,谁懂啊, open curl 展示了一个重装大礼包给我,前段时间玩 open curl 给了太高的权限,直接把我电脑的学习资料啊,系统配置啊直接给我干没了,心态炸了,不会是前段时间由于安全上了新闻的好东西,想了想,安全养虾比啥都重要, 现在国内大厂都在扎堆养虾,我也挑选了几个来体验。一、体验先看摩羯,他那个龙虾潮滩专属入口很吸引我, 点击之后让我感觉我觉得好牛逼啊,我可以发布,甚至不愧是不管是创建文件呢还是搜 ai 新闻呢, 还有指令的落地啊,还是精准的管控不踩雷。第四是有道的 live stream, 页面干净又顺手,新建任务,定时任务可以一键搞定,数据分析、制作、换电片,甚至创建网站的场景都能全部覆盖。 也不需要复杂的配置啊,小白也能上手节用,而且选择模型很简单。 还有 marscrown 二点五的驱动的智能助手,二十四小时在线超贴心,十秒钟就能移动步数。企业微信啊,飞书啊听听可以接对话,兴趣感的话可以接拉满。 最后说的是 archcrow, 它的优势挺明显的,不用安装客户端,电脑关机之后也可以切成二十小时的云端运行,还深度集成的飞梭同步一层处理文档很丝滑。 而且他的安全是有加固的,也不怕他把我的谁资料给删了。这些国产龙虾目前看来是零风险,更适配,也不用踩 opencr 的 坑,下期我们一个个体验过去,关注,别错过。

市面上有很多类似的产品,到底是开箱即用的类似原声版龙虾?让我来告诉你,今天我们要开箱测评的是火山旗下的阿克洛, 现已途流告诉你对比。先看优势,除了云端龙虾的常规优势,快速安装开通、不停机不中断之外,阿克洛还有一些独到的优势。第一,深度集成飞书机器人,在飞书里使用丝滑流畅,体验感拉满。第二,收费方式灵活, 兼顾了尝鲜用户和开发者的付费体验。四十元 light 版适合轻度使用,两百元。 pro 版给高强度开发。再看猎视对比原声, openclock、 阿赫洛存在两点不足, m 接入不够丰富, skill 市场也没有原版龙虾来的丰富。下面开始我们的深度测评。 今天这条视频结合这份深度测评报告,不吹不黑,实测火山引擎 arklo, 从开箱到深度体验,全流程给你讲透。 arklo 是 火山引擎专为个人核心办公场景打造的云端 ai 智能体, 它的核心卖点就三个字,零门槛。你不需要买单独的服务器,只要买 coding plan, 就 直接赠送一台两合四 g 的 轻量服务器。套餐分两档, light 版每月四十元,适合大多数人。 标准 pro 版每月两百元,用量是 light 的 五倍,适合高强度开发,相当于服务器和模型费用,打包不用再焦虑 token 按量计费。模型方面,主流的基本都支持豆包,全系 mini max、 kimi、 智普、 g l m dips, 多模态视觉理解都没问题。 报告里也详细列出了各模型的专场,比如豆包 c 二点零系列,还有 kimi 的 k 二点五编程模型,最方便的是接入办公软件飞书,几位钉钉都能一键打通, 填个配对码一分钟搞定,新手完全没压力。速度方面,我做了非常真实的计时测试,简单任务,比如查天气、写文案、数据求和,基本都是秒回。复杂任务我也严格计时,写拍档爬虫,五十四点一秒生成完整活动策划框架三十三秒, 模拟排查代码错误,并给出修复方案三十八秒。而且 arcclaw 每轮回复都会自动显示思考过程和精确,耗时比原声 openclaw 更直观,速度也确实更快。它还有个火山专属的 skillhab 技能市场,一条命令就能装各种技能, 装完后还会自动生成快捷指令,不用记复杂命令。我实测让它写个贪吃蛇小游戏,代码完整直接能跑,效果很稳 定时任务自动化办公,前后端开发也都能胜任。但说实话,前后端开发特别好,偷啃报告里实测也证实了这一点,赖他套餐扛不住,想做开发直接上 pro 更稳妥,全程无恰饭。我把深度测评报告 中遇到的四个真实问题全告诉你。非书创建文档要额外权限,需要企业审批, card kit、 card write 比 open cloud docs、 document create 麻烦的多。这些坑你实际用的时候一定会遇到。 最后给你最直白的总结,适合谁听好了,普通用户,学生轻度办公,五十元 live 完全够用,程序员高频使用,小团队直接上两百三十元 pro。 但如果你是技术即刻有定制需求, 或者需要对接本地数据和应用,那还是去选原声 open call 自由度更高。我把阿克拉克和 open call 的 完整对比报告,包括所有测试细节和踩坑记录都放在评论区了,需要自取。

龙虾的国产平替真的靠谱吗?最近 ai 圈被龙虾欧本科尔彻底带火,这支开源 ai 智能体能自动干活本地部署,短短几个月就在蒂特攒了二十八万星标。 眼看热度居高不下,国内厂商们火速跟进,腾讯字节、阿里等大厂纷纷推出平替产品,一时间国产龙虾扎堆亮相。今天就来聊聊这些平替到底靠不靠谱。 先看看市面上的主流选手,腾讯的 q c 六主打微信直连,扫码绑定就能远程操控电脑, 还兼容五千加技能。生态字节的扣子编程 open call 有 可适化配置界面 api 密钥、本地存储、隐私保护,拉玛听你 call 更省心。云端一键部署,会员用户一分钟就能拥有预装海量技能的 ai 助手。 还有阿里扣趴深度集成钉钉飞书,办公场景适配超到位,企业用户用着顺手。 此外,网易有刀、 love 的 燃、完全开源、小米米克尔能联动全屋智能,都是各有侧重的实力派。核心对比,这就安排上从四个关键维度说到说道。 安装难度上,欧本科二对小白太不友好,要懂命令行配 api 密钥,折腾半小时是常事。而国产平替清一色傻瓜式操作,去 clog、 腾讯 work, 各地双机安装就能用,听你科二甚至不用下载云端直接创建,三分钟就能上手。 功能方面,欧本科二胜在生态庞大,五千七百加插件覆盖各种需求,但很多功能对普通用户来说太容易。 国产产品更懂国内场景,适配钉钉、各博、 ups 等本土软件,内置高频办公技能。 不过部分小众功能还得靠欧本科二的插件补充收费价格,欧本科二完全免费,开源就是部署成本高。 国产平替有免费有付费, mac 科二送免费积分额度, timi 科二腾讯 work, 各地需要会员解锁全部功能,整体性价比还算合理。使用安全性,欧本科二,权限开放度高,数据本地存储,但需自行把控风险。 国产产品更合规,有刀 love 的 染、猎豹 e c 科尔都有本地沙乡隔离,数据不上传云端,还符合国内数据安全法规,用着更放心。那么问题来了,国产平替能完全替代欧盟科尔吗? 答案是,对大多数普通用户来说足够用了,但还没到完全替代的程度。普通用户日常办公处理文件,国产平替的易用性和本土适配性远超欧本克拉,安装简单,服务有保障,安全性还更靠谱。 但对技术极客和开发者来说,欧本克拉的高度自定义自由、二次开发能力以及全球生态兼容性是国产产品目前比不了的。 国内产品要想实现全面超越,还得在两方面发力,一是生态丰富度,虽然已经兼容不少技能,但专属插件数量还得追赶。二是自定义自由度,在保持易用性的同时,给进阶用户更多改造空间。不过话说回来,国产平替已经找准了用户痛点, 把养龙虾的门槛降到了全民级别,这波进步已经相当给力了。总的来说,如果你是小白,用户追求省心好用,国产平替闭眼充。 如果你是技术大神,喜欢折腾定制,欧本科傲依然是首选。随着国产产品不断迭代,说不定用不了多久就能实现全场景替代了。

说,技术创新的威力到底有多大呢?这拿来主义到底有多害人呢?欧盟可乐大龙虾这两天就给所有人上了这么一课,一次大版本更新,欧盟可乐就直接把一堆套壳产品给打荡机了。这不是 bug 啊,也不是事物,这是一面照妖镜, 真正的技术创新,它是能推动生态往前走的。而拿来主义呢,就是趴在别人身上的寄生虫。欧盟可乐这次就来了一个全面换代,为了灭虫,他们一共砍了六刀。 第一刀,插件系统重构插件。从以前 n p m 这种露天菜市场,现在强制走可拉哈巴官方商店,所有靠 n p m 野生包呕活的套壳产品当场断粮!第二刀,浏览器控制路径大换血, 老子苦让扩展中继被彻底删除,连 driver 芯片都给砍了,这意味着什么呢?所有靠浏览器扩展 hack 实现自动化的套壳产品瞬间爆错,因为他们根本就没能力适配 c d p 的 套壳产品!瞬间爆错,因为他们根本就没能力适配 c d p 的 新路径!第三刀,沙壳系统的单一多克变成了叉拔式架构, 我们可达把沙盒拆成了可叉八,后台引入 looper shell、 ssh 沙盒远程工作区镜像模式。但套盒产品的沙盒路径可都是写死的,写死 doker, 写死挂载目录,写死生命周期逻辑。所以这架构一变啊,他们就连沙盒在哪都找不着了。 第四刀,插件 sdk 断代升级,新 sdk 换成了 opencloud slash plucky sdk star, 旧的迅迅 api 直接删除无间容层。真正的开发者会迁移代码,而套盒团队呢?他们就没有代码可以迁移。 第五刀,旧环境变量、旧状态目录全部清除,所有 colobot、 multibot 环境变量被移除,旧的点 multibot 的 状态目录也不再识别了。这对真正的工程团队是清理历史包袱,而对套盒团队则是拔掉了生命维持系统。 第六刀,搜索能力全面升级, excel、 tabla 三大搜索工具原生内置,这意味着智能体的体验、提取、抓取能力直接跨了一个时代。但套壳产品的搜索模块基本都是调用一个 h、 d、 b 接口,上游一升级,它们完全跟不上。 所以这次不是一次普通的更新,而是一次技术层面的优胜劣汰。真正搞技术的人,会因为这次的更新而变得更强大,而靠套壳、靠复制粘贴、靠旧接口苟活的人,则会被时代无情的淘汰。 所以啊,我一直说,科技创新不是难,而是慢,拿来主义不是快,而是短命。你不做真正的技术,那你就会被真正的技术淘汰。这次我们可乐只是提前把未来演示了一遍,算是小惩大戒了,希望那些套盒的龙虾能早日觉悟,否则未来就真变成虾皮,只能泡汤了。 这几天谁上街了,大家心里都明白啊,我就不点名了,你们就套吧,为了着急卖点托克,就连这点技术开发的活都不干,人家要再来一回,你们可怎么办呀?

不定海外模型、国产模型和本地模型怎么选呢?国产模型里面,月之暗面的 kimi k 二点五目前最强,平分仅次于 cloud 和 gpt, 跑小龙虾完全够用。 智普的 glm 五呢,也还不错,差距不大。 mini max 稍微弱一些,但胜在便宜啊,适合跑量大低价值的任务。 本地模型当中呢,要看你的内存大小了,如果你的机器内存超过一百二十八 gb, 首选昆三点五。一百二十二 b, 它是 moe 专家,架构效果甚至超过了 glm 五啊。如果你的内存不够呢,选择昆三 cold next 八零 b, 它的推理呢,每次只激活三 b 参数,速度快,效果也可以接受。想了解完整的模型组合策略呢?加入范凯说 ai 会员社群。