家人们有个大新闻,必须得跟大伙唠唠,那个在全球火得一塌糊涂,号称真正能干活的 ai 助手 opencloud, 你 们猜它现在掉用量第一的模型是谁?不是美国的 cloud, 也不是谷歌的 jamie, 居然是咱们中国的 kimi! 就 在前两天,数据显示, kimi k 二五在 opencloud 上的掉用量直接登顶, 超过了两百六十亿个 token。 连 opencloud 的 原作者都忍不住自掏腰包给用户补贴免费用 kimi 的 额度, 这说明啥?说明在让 ai 真正去办事儿这个赛道上,咱们中国模型已经不仅仅是能用,而是真香了。为什么是 kimi 增大硬核优势?那很多老铁要问了,旺财牛凭啥是它?它?我给大家盘盘这三个硬道理。 第一就是记性好, kimi 最擅长的就是长文本, open class 要帮人处理邮件,读文档、写代码的,动不动就是几十万字的内容。 kimi 这超长记忆的本事,刚好治好了 ai 的 健忘症,干活不丢三落四。第二就是性价比,咱不吹不黑,同样干一堆活, kimi 的 成本可能只有国外顶级模型的零头。对于 open club 这种需要二十四小时不停跑任务的勤劳蜜蜂来说, 省钱就是硬道理。第三就是能组队,最新的 kimi k 二点五能自己指挥上百个小智能体并行干活。这就好比以前是一个人在搬砖, 现在是一个包工头带着一百个工人同时干,这效率能不高吗?还有朋友在后台问旺财牛, kimi 这么猛,背后是哪家公司在提供算力支持?是不是某某上市公司?这里旺财牛得跟大家交个底,也要提个醒月之暗面, kimi 的 公司作为头部独角兽,它的算力底座 通常是多家主流云厂商混合部署的,这是行业惯例。为了保证稳定和安全,具体的供应商名单属于商业机密。网上那些说独家绑定某一家的小道消息,大家听听就好,千万别拒此去炒股。 咱们看的是中国 ai 技术的崛起,是国产大模型在全球舞台上的硬实力,而不是为了炒作哪个股票代码。这一点咱们必须得清醒。从被质疑到登顶全球开元宝,中国 ai 这一步走的不容易,但走的很稳。 你觉得国产 ai 接下来还会在哪个领域爆发?是医疗、教育还是自动驾驶?来评论区跟旺财牛聊聊。我是旺财牛,只聊干货,不瞎推荐,咱们下期见!
粉丝2.7万获赞6.4万

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

最近一段时间,我相信很多朋友都关注到一个名叫大龙虾,英文叫 opencloud 的 ai 产品。 opencloud 本质上是一个 ai agent, 也就是智能体,它跟某宝、某包这样的聊天机器人最大的区别是不仅能聊天,还能干活, 正是这种实用性,让他刷屏了。龙虾的大火,代表了 ai 已经从聊天机器人时代进入了智能体时代。龙虾只是一种智能体,未来会有越来越多针对不同场景的智能体出现。但是我自己,包括我身边所有用过龙虾或者其他类型智能体的朋友们,都会抱怨一个事,太费钱了, 每次龙虾干活的时候都会消耗大量的 token, 如果模型的 token 费用还比较高,龙虾就成了碎钞机。你可能想问,为什么不换个便宜点的模型呢?因为便宜的模型性能又差点意思。那有没有性能足够强,价格也足够低的模型呢?之前没有,但现在有了。 二月十六日除夕当天,阿里正式开源全新一代大模型千问三点五 plus, 性能媲美 gemini 三 pro gbt 五点二等顶级闭源模型,登顶全球最强开源模型。 同时每百万头肯输入价格低至零点八元,是 g p t 五点二的十五分之一, g m n i 三 pro 的 十八分之一。价格这么实惠,性能真的能打吗? 我第一时间就对千万三点五 plus 做了测试,这次我们测试的重点是这个模型的 ag, 也就是智能体能力。 为了让大家好理解,我先介绍一下智能体的工作原理。智能体主要包含两部分,一个是 ai 可用的工具,当智能体接收到一个任务的时候,大模型需要先拆解任务, 形成工作计划,在调用工具一步一步的完成工作计划。所以所谓的测试大模型的智能体能力,就是测试它拆解任务推理并且正确调用工具的能力。可以说智能体能力的测试相当于是大模型的铁人三项,是个综合能力的测试。但是想要深度测试一个模型的智能体能力 并不容易,你需要有足够多的 ai 可以 用的工具才行。正好我们自己做的 reportify 是 商业研究智能体里面已经有一堆商业研究会用到的 ai 应用的工具。为了这次测试,我专门把大模型换成了这次最新发布的千文三点五 plus, 做了一个基于千文模型的商业研究智能体。 那接下来我们就用这个智能体做测试。第一个任务,对比一下未来理想小鹏二零二四年全年和二零二五年前三季度的利润,做成表格和柱状图。 我们看这里千万模型。首先拆解任务生成了代办事项,这个代办事项生成的是比较合理的,然后就开始调用工具干活了,比如要调用财务数据查询工具来查这三家的利润。 其次还要做一些计算,因为我的要求是对比二零二五年前三季度的利润,所以模型需要把查到的二零二五年前三季度的利润做个加总。最后还要调用图标生成工具来生成柱状图,结果不错,数据和图都是正确的,速度也挺快。 第二个任务,请列出美光、三星电子、 s k、 海力士三家存储龙头公司的核心产品,以及过去半年的涨价幅度,最近不是存储行业大火吗?我相信很多关注 ai 的 人都对这个问题感兴趣,还是同样千万三点五 plus 先是把这个任务拆解成了代办事项, 然后调用各种搜索工具搜索相关信息,一项一项完成代办事项,结果也不错,数据正确,内容详实,也给出了所有数据的出处。 第三个任务,请帮我下载过去三个月纳斯达克指数的价格数据,保存到 excel。 经常做商业研究的朋友们应该对这个任务不陌生。过去你需要在某德这种数据软件里各种点,选标地、选指标、选日期,操作难度不低,而且很麻烦。有了 ai, 你 就直接说你要啥数据就行了。你看 千万三点五 plus 模型,理解了你的需求之后,会选择正确的工具,填写正确的参数,最后还会写程序,把所有数据写到 excel 里。之前 reportify 装的大脑是那种性能很好但很贵的模型, 这次换上千万三点五 plus 这个大脑之后,成本大幅下降,同时它的干活能力并没有打折。那为什么千万三点五 plus 能做到性价比这么高呢?这里面的核心技术是阿里千万团队的门控技术, 这个技术前不久刚刚获得了 neo 一 ps 二零二五的最佳论文奖。这可不是一个普通的奖项, neo 一 ps 是 全世界最顶尖的 ai 学术会议之 一,基本相当于 ai 研究的奥运会。二零二五年,这个会议一共收到了两万多篇有效投稿,最终只接收了五千多篇,接收率不到四分之一。也就是说,论文能被接收就已经算赢家了。在这么多论文里,只有四篇论文含金量有多高? 获奖论文的主题就是门控技术。那什么是门控技术呢?简单来说,门控技术就是通过在注意力层的输出端加一个智能开关,把信息像水龙头那样进行智能调控,这样既防止了有效信息被淹没,也防止无效信息被过度放大。 这带来的结果是,模型更少被噪音带偏,训练更稳,长文本更不容易出现注意力被无关信息吸走的问题。 更关键的是,这个改动,四两拨千金,改动不大,但效果又好又稳定。在美国的 ai 同行都在砸钱拼算力的时候,以阿里千万为代表的中国团队却在算法效率上做极致优化。这就是为什么千万三点五 plus 能做到 token 价格只有 g p d 五点二的十五分之一, jimi nike 三 pro 的 十八分之一。 千万是真正通过技术创新把 ai 模型的价格打下来的。这个思路很可能在智能体时代会大放异彩。 为什么这么说呢?我之前说过,智能体的作用已经被龙虾给验证了,唯一的痛点就是费钱。所以性能足够强、价格足够低的模型,一定是智能体时代的刚需。其次,我们再看远一点,如果想要让智能体越来越有用, 你就需要把自己更多的信息、更多的权限给到智能体。这时候隐私就会成为一个不可回避的问题。怎么保护隐私呢?最好的办法就是让智能体在自己的设备上运行。 想要做到这一点,肯定不能靠堆算力,只能靠算法优化,靠开源模型。未来大概率会出现一个现象,全世界每个电脑里都会有 ai 大 模型,而这些大模型大部分都是中国的开源模型。

太强了,大家赶紧去下载国内版的 tree, 也就是字节跳动的 web calling 软件,现在可以免费使用豆包二点零 call 的 模型,还有 glm 五、 mini max 二点五、 kimi 二点五,都是近期的王炸模型, 它的 solo 模式在二月十四号更新了,支持 spec 模式,可以输出超级专业的文档,太爽了! 最重要的是,目前国内版的个人用户是免费的,看到了赶紧去下,赶紧去用,不知道会免费多久?这是目前我能找到唯一一个免费可以使用这些顶级国产模型的地方。 我还创建了一个 open clone 运维智能体,用它来帮助我部署配置,使用 open clone 简直舒服死了,所有问题它都能解决。最近研究了很多心得,根本停不下来,后面有空详细再给大家讲一下吧! 现在大家赶紧去用吧,吹着国内版王炸,王炸,太爽了!

这个 cloud bot 现在改名叫 opencloud, 有 人说这是 ai 历史上 chat gpt 以后的又一个里程碑啊。我觉得这个 opencloud 啊,不太适合百分九十九的人吧,哪一天你的一切都没想清楚,把你文件全删了, 你欲哭无泪啊。现在已经有了一个我认为啊,对于百分之九十九人最适合的 opencloud 的 平替啊,更易用,更安全, tiktok 不 需要额外花钱。 这几天啊, ai 圈最火的事件啊,除了十四岁的一个少年来参加我们举办的 ai 黑客马拉松大赛差点夺冠之外啊,就是一款叫做 cloud bot 的 产品的横空出世啊,在 google 上啊,以 历史上最快的速度得到了十万星啊,他就是给电脑啊,装了一个掌控电脑的超级 agent, 这个 agent 使得你啊,可以远程的就通过给电脑发消息让电脑干活了,你人也不用在旁边啊,睡觉以后他也继续干, 无论是写代码呀,整理文档啊,甚至帮你下单呐,对吧,甚至跟别人沟通啊,发邮件他都干。哇,这突然让人感觉到第一次啊,电脑真的成了一个真真切切的生产地中心了, 电脑真的就跟个人一样啊,就像个电脑牛马一样不停歇的干活了,对吧,因为以前我们用电脑,你必须在他旁边,你不给他指定他不干活啊,现在他不完全的自主在干了,这就引发了一系列的惊呼啊,有什么最后这电脑给你打电话了, 自己写了个程序就开始给你打电话了,在你要吃饭的时候,直接把外卖给点好给你在家门口了,甚至最近出现了一个 milk book 的 这么一个社区啊,就只让这些电脑们上网去发帖子哇,也是火速到了,什么几百万铁 啊,又开始各种讨论,所以这个 cloud bot 现在改名叫 open cloud。 哇,已经是当红炸子机啊,连 emask 啊这些大神都给点赞啊,甚至有人说这是 ai 历史上 chat g p t 以后的又一个里程碑。 这个礼从背什么呢?就使得 ai 啊,从一个回答你问题的这么一个知识性专家,变成了一个去干过去由人和电脑在一起才能干的所有的这些工作。仅论颜值啊,就是今天绝大部分的白领工作,电脑自己干了,你可以想象一下,就好像有无数多个助理跟着你, 对吧,随时说,帮我订个机票,帮我点个外卖,帮我下个单,当然这是一个美好前景啊,现在只是初步具备了这个功能,这使得一个什么问题啊,就是现在大家都非常焦虑,就看着这个 open claw 爆火啊,很多人就非常焦虑啊,我的后台有很多粉丝的私信啊,说, 副总啊,这个怎么装啊,怎么听说要专门去买个 mac mini 啊,这个我真买了,我发现我装不来呀,但是不装不用是不是就被淘汰了?不,你老说嘛,这个对吧,淘汰你的不是 ai, 是 会用 ai 的 人。好吧, openclaw 这个产品,底层杯式的产品啊,但是我想说,这个产品现在真的不适合普通 人,而且你现在用不上也不要太着急,看上去非常火,但基本上还是很多技术专家的一个讲,为什么不适合普通, 重要第一啊,就是它的成本太高了。虽然说 open cloud 啊号称都支持 mac 和 windows, 但是事实上对 windows 兼容非常不好啊,只有 mac 电脑才能很好的用,而且呢,又由于它现在机子不健全,经常会把电脑东西给删了,导致很多单独去买个 mac mini 成本太高了,你看一个 mac mini 四五千块钱没了吧。这还只是购买成本啊,但问题在于说我们看上去它是开源免费的,问题是接那个模型要钱啊,它现在表现最好的就是 cloud 的 这个 opus 的 四点五的引擎啊, 那一跑起来你的钱包哗哗就作响啊。有人说这两个小时过去几十美金就没了,他是在不停干活,但不停的在烧我钱,所以真的今天成本啊,我觉得不适合你,还没想清楚干嘛的普通人。 第二呢,他安装部署太麻烦了,现在在推特上啊,在外网上一个什么如何安装部署帖子可以几 百万的阅读啊,这就说明他很难你知道吗?你要不会点命令行,不会点配置不懂什么网关,你可能真搞不定,或者就算勉勉强装上也各种各样的问题。插件呐,对吧,我就说一个命令,各种插件呐, a p i 接口啊, key 啊,哎呦,我说这些东西挡不住百分之九十九的人,不仅你们琢磨不明白,我现在搞起来都挺费劲。 第三啊,就是这东西不安全,因为你给他所有电脑的权限嘛,这个电脑事实上就暴露在互联网上,他不安全来自两层面,一层面就是说他暴露在互联网上,他虽然对外去可以给你发邮件,那别人可以攻击进来对不对? 然后呢,他由于有了电脑所有权限,所以他可以对你的文件任意的增删改,哪一天你的一切都没想清楚,大魔仙想错了,把你文件全删了,你欲哭无泪啊。这种事已经不是一次发生了。所以真的,今天我觉得这个 open cloud 啊,不太适合普通人, 也不太适合百分之九十九的人吧,但你说怎么办?咱就干瞪眼看着嘛,就焦虑嘛,不用,咱有办法嘛。现在已经有了一个我认为啊,对于百分之九十九人,最适合的 open cloud 平替啊,就是我们国产的,叫元气 ai bot。 哎,这个产品我特别熟,你知道为什么吗?因为大半年前啊, 我当时看了 minas 出来以后,我就觉得 minas 跑在服务端的一个虚拟的 a game, 我 认为在本地电脑上一定会有个强大的 a game, 所以我们从大半年前开始啊,也就开始研发这款元气 ai bot, 咱举贤不避亲啊,一定推荐给你。 我们从大半年前就开始想,如果你要用电脑的话,如果有个 a 镜头在上面,你跟他说,哎,我的打印机坏了,我的这个 c 盘空间不够了,哎,就可以跟他说句话就帮你解决了,这就很多人已经是个很大的用途, 再往下就说,对吧,你帮我把这个文件夹的目录都整理一下,这个文件夹下的所有的 pdf 给我做成 excel 表啊,这事我没有做了。 第三个就是后来翻还不够,可不可以给我微信,好朋友们生日时候都发个消息,有时候记不住啊,有个什么消息,我可以一个一个找到这个相关的人,都给你们发出去啊。哎呦,以前我发的眼睛都绿了,这事我没做, 还有玩游戏的时候,这个新游戏不会啊,那怎么他可以指导你?那么由此京东去帮我找个东西,做个笔架,这些我们都做了,也做了大半年,为什么要做这么久呢?然后一方面啊,是因为 a 进的太新了,对吧,我们需要去学习。另一方面,我们在做的考虑了,如何保证你的安全 就是关键性的文件目录,无论大冒险怎么想,那不能给你删啊,一些重要的文件想要去删除或者修改时候,要征得你的同意,叫我们是搞安全搞了二十多年的,就安全这事我们花了太多精力, 最近由于 open cloud 出来,这也不瞒您说,手机这个发个消息,电脑去干活这事啊,我们也在规划中,最近我们有加班加点的啊,这个周末我们的兄弟们都在干啊,把它发出来了。还有一点就是我们对 windows 的 支持极度是友好的啊, 不需要你懂命令行,不需要你去填什么 apikey, 我 们是完全国产的,非常适合中国国情的,对 windows 支持也友好,安装也非常的方便,点几下就行了,不需要你做任何配置,也不需要你去这个拿到什么大模型的 apikey, 我 们都帮你内置好了, 而且用的是国产模型啊,合法合规啊,这大家都懂的,而且中间还做了很多技术的用法,帮你消耗的这个 token 呢,这个成本变得非常低,所以现在我们这个干脆全是免费的,性价比很高吧,所以刚总结了,我们花了大半年时间,对吧?做到了, windows 更友好,不需要额外设备啊,现在电脑就能用。然后呢, token 也不需要额外花钱, 对普通用户非常友好啊,点几个键就装好了,配置全帮你配好了啊,不需要你懂那么多高深的知识。第三个,操作电脑的功能也非常强大, 我认为在很多操作电脑功能上,讲句不谦虚的话,跟 opencloud 各有千秋。我们对一些中国内的软件支持也非常好,基本上抢个红包啊,发个消息啊,当然有朋友说要抢个票啊什么的,各种网站,各种产品,知道你怎么用啊,我们都做了。所以呢,今天大家记住叫元气 airpod, 上周末我们刚刚发了个内测码啊, 大家反应非常强烈啊,现在隆重的推荐给你。我们有句话,不是 mac mini 买不起,而是 windows 更有性价比,也不是海外的软件我们不 会用,而是国产软件更方便更易用,既能够让你享受 open cloud 强大的功能,同时又无后顾之忧,还帮你省了钱。大家可以试一下哦,有什么问题可以在评论区告诉我。

hello, 大家好,这期视频跟大家介绍一下如何给 openclaw 选择一个性价比最高的模型,因为其实在之前的这个视频中,我主要强调了一下,就是大家可以选择千万这个模型,因为千万这个模型目前是免费的,但是目前呢,我陆陆续续收到一些反馈,他们在使用 openclaw 的 时候呢,实际上千万的免费的拓展数量已经不够用了, 所以这期视频我还是想跟大家介绍一些啊,目前收费的,但是性价比极高的一个模型,那么我最推荐呢,其实大家就是用 kimi 的 coding plan 啊,大家可以去登录这个 kimi 的 这个官方网站,然后选择 kimi code 的, 然后会进入到一个 kimi code 的 这么一个啊主页,大家往下拉会发现它目前有三个套餐,一个四十九,一个九十九,一个一百九十九的啊,本期视频不是打任何广告啊,首先我还是想强调一下,就是目前大家只需要选 四十九,每月的这个就已经足够了,那么怎么去配置呢?我也简单的跟大家演示一下,然后大家只需要打开这个 terminal, 也就是我们的终端,然后输入 openclaw, 然后 config, 然后选择模型啊,选择 local, 然后选择 model, 然后选择这里大家会可以发现有个叫 mc 的 一个英文的名字,大家选择这个之后呢,选择第三个, 然后选择第三个之后,就会要求你输入一个 kimi 的 扣定 api k, 那 这个东西从哪拿呢?其实你只需要订阅之后,你就会可以在你的控制台,然后找到你的这个 api k, 然后如果没有的话,你创建一个就可以了,那么利用这个 这个 api k 呢?就然后再输到这个同城里啊,经过我自己的实测啊,就进行一个中度频繁的交流的话,这个四十九元的套餐是完全够用的。比如说我现在给这个 opencloud 设置了大概十个左右的定时任务,然后每天会在不同的时段去执行这些定时任务。其实执行定时任务都是需要耗费大量的 tokyo 呢,那么在这种情况下,四十九元也是够用的。如果说一个免费的千万的这一个 模型,然后你的 tokyo 的 量超限了,那么你也可以给他配置一个 kimi ko 的, 但是我的建议就是大家可以同时配置这两个,为什么呢?因为 这样的话, open cloud 可以 在用完你免费的千万模型之后,它会 fall back 到你的这个 kimi code 的 这个 coding plan 里,所以大家不用担心说我配置了多个 呃,这个 open cloud 的 模型之后,它能不能够正常的工作,它其实是会有一个执行的顺序的,这个大大家不用担心。所以如果说你的这个千万的免费额度不够用的话,大家也可以去申请一个类似于这个 kimi code 的 coding plan 这么一个东西啊。 ok, 今天视频到这里,然后大家也可以去自己尝试一下。

最近,全网都在为一个叫 opencloud 的 ai 智能体疯狂,它让你能用聊天软件直接向电脑发送指令,自动执行写邮件、清收件箱甚至写代码等任务。被誉为二十四小时待命的贾维斯 ai 助手界真是变天了。然而当国内用户想尝鲜时,却遭遇了全方位的水土不服。安卓工程复杂, 不支持我国主流的企业合作工具,还有各种安全隐患,难道面对贾维斯级别的 ai 助手,我们只能望洋兴叹?好在神通广大的网友已经找到了国内的版本答案,那就是 ai 智能体 领军企业时代智能连夜上线的时代 agent tars 智能助理。二者都创新了移动端办公新方式,既通过手机即可下达指令,完成 pc 端如钉钉、飞书等办公软件的应用,但是面向的用户群体解决的核心需求完全不同, open class 和技术用户小团队实现简单自动化。 时代 a 阵的核心是 ai 在 企业场景的专业化、规模化落地,前者是服务个人的开源工具箱,后者是服务企业的专业数字员工。在测评后,我感叹时代 a 阵 tars 简直是更适合中国宝宝体质的 open club, 因为它完成了面向中国办公场景的本土化改造,实现了对 open club 的 多重碾压。首先是易用性碾压,下载、安装、注册,然后再钉钉或飞出配置机器人即可, 五分钟就能上手。其次生态融合碾压操作完全在你熟悉的办公软件内完成,无缝切入你的工作流,还可以通过手机下指令,让电脑自动干活。相比 oppo 克劳处理邮件、微信文件整理等个人轻量操作,时代 a 阵的更适合跨端复杂业务协调,通过手机端下达文字指令, 即可远程操控电脑完成 sap 数据录入、 erp 报表生成等专业企业级任务,手机指令电脑执行丝滑无比。 四、安全可控性碾压,毕竟这是国内正规企业产品,还设有智能围栏拦截,高危操作可以闭眼用,不用担心捅篓子背大锅,泄露公司机密。最后自有 windows 电脑即可运行,无需额外购买 mac 或云服务,可以说是成本碾压,适合囊中羞涩的打工人。话不多说,让我们试试效果。输入指令,监测天猫无线蓝牙耳机销量前十名, 输出 excel 表格,并通过飞书发送给用户。六六六发现价格低于两百元的备注低价。没多久,一份完整笔下表送达,半小时的手动重复劳动就此终结。接着来个自媒体人喜闻乐见的指令,搜集最近一周三十六课狐嗅等科技媒体关于 ai 大 模型的报导, 整理成报告,并建议三个趋势关键词,一份分分别类趋势提炼清晰的报告就这么水灵灵的生成了。最后让其调查时代智能孙林军的背景,并据此制作一份个人介绍网页, 其先自动搜索整合信息,随后生成一个可圈可点的 h t m l 网页,看到了吗?从信息获取到内容创造的多步骤任务被一个指令无缝打通, 这让我感慨当前个人级 ai 工具的热闹,恰恰完成了市场交易和预热,让更多企业意识到 ai 自动化的价值。而企业级场景的真实需求,最终必然需要向实在 a 站的 想,经过商业验证能解决实际问题的产品来满足。 openclaw 打开了新世界大门,而时代智能 a 阵的则以更安全、更易用、更懂中国的方式,将这款通往未来的基石铺在了每一位职场人的脚下。想用同款 ai 贾维斯,就和我一起下载时代 a 阵的试试吧!

春节党真正的杀手锏来了,这事也只有中国团队能干的出来了。从现在开始, ai 大 冒险将正式进入白菜价时代。最近我们都被 open club 疯狂刷屏,因为它不只是能够回答问题或者编辑代码,而是它可以真正开始全自动思考和帮你执行复杂的任务了。比如 这个叫 alex 的 海外网友,他的 open cloud 甚至在完成任务后自己在网上买了个电话号码给主人汇报结果。你不需要再教他任何做事的过程,而是可以直接把结果当做目标布置给他。但当你真正把这个全自动 agent 玩起来之后,就会发现这玩意对 token 的 消耗实在太高了,甚至有人一晚上就跑掉了一千美元的 token。 对于大部分人来说,已经不是想不想用 ai 了,而是能不能养得起的问题了。而就在刚刚,元神千问发布的千问三点五直接给全球 ai 圈来了一次降维打击。他不再信奉大力出奇迹的暴力美学了,而是进化出了一套极致稀疏的 m o e 架构新模型,凭借三百九十七 b 仅仅激活十七 b 的 mini 尺寸,直接 在多项精准测试中打拼,甚至超越了 g p t 五点二和 jimmy 三 pro 这些超万亿参数规模的闭源巨头,不仅把算力成本打掉了百分之九十, 显存占用降低百分之六十,推理效率大幅提升,最大推理吞吐量可提升至十九倍。而这背后的秘密就是它通过引入了混合注意力机制,让模型不再把每一个 token 都要和所有上下文做全量注意力计算,而这可以抓取信息中的重点,自动判断出需要精读或者略读的部分。加上训练时又加入了原声多 token 预测, 就让模型输出不再是慢慢崩字了,而是提前规划整段内容。所以你会明显感受到,不管是在长文本生成、代码补全,还是在 agent 长链路任务这样的高频场景中,都能实现近乎秒回的响应速度。更觉得是它还是一个原生多肽模型,也就是说,它不仅能够处理文字,而是能够原生理解视觉信息。 看,我只是让他看了一段视频,他就自动帮我写出了一个配套的教程文档,甚至连视频中没有提到的基础细节都给一一写了出来。这意味着,未来的机器人或者模拟人类操作手机和电脑的 agent, 都将狠狠地提升一波智商。更重要的是,千万依旧选择了直接开源。也就是说,现在只需要一台高配的 mac, 可以直接在本地免费跑起来了。所以,当开源模型在核心能力上追平甚至超越闭源,也就意味着 ai 基础设施的标准制定权正在从闭源巨头的手中向开源力量转移。未来将不再是模型与模型的比拼了,而是生态范式的替代。显然,阿力已经在这场转移中走到了前面。

你以为 cloud bot 是 免费的,那你就错了,虽然 cloud bot 安装在本地,但你还是要付它后面的大模型的 api 的 钱。国内最近又更新了几个开源的大模型, 在 cloud bot 上使用的话确实便宜些,但它们真的能打吗?下面我就给大家做一个实际的演示。最近金价大跌,所以我让它做一个关于金价的研究,还有对今后的预测。在这个实测中, kimi k 二点五还有 mini max m 二点一 a 阵在执行的过程中总是出错,而且会停下来,最终产生的报告确实图文并茂,但比较空泛,缺乏内容。而 cloud 四点五就像一个沉着的老手,下刀很准 又非常快,做内容很详细,细节也比较丰富。最后花费的成本, mini max 是 花两毛六, kimi 是 花了四毛四, cloud 是 花了一块二。它们生成的三篇报告都在我的豆币的首页上,豆币是我给大家做的国内小白零基础可以立马上手的 cloud bot 不需要投资硬件,不需要大模型的 api, cloud 大 模型直接可用,网址是逗比 dot now。 在 首页你就可以看到这三个大模型产生的金价预测的文章,你可以自己比较一下,告诉我,你是愿意用 cloud 呢,还是用国内的这些开源大模型。

有一个开源项目,两周涨了十七万,新作者直接被 openai 挖走了。它能让 ai 操作你的电脑,写代码、发邮件、控制浏览器,甚至你在外面发条消息,它就能帮你把活干了。关键是完全免费,书籍全在本地。它叫 opencloud, 我花了一整晚把最新版的坑全踩完了,现在把经验分享给你。先花三十秒讲清楚 openclaw 到底是什么。它是一个开源的 ai 智能体项目,前身叫 cloud boot、 metal boot, 现在又改成了现在的 openclaw, 你 可以把它理解为你的专属数字员工二十四小时在线, 通过飞书、钉钉这些你日常用的聊天软件,就可以指挥他干活。而且他不只是回答问题,他是真的能动手操作电脑,帮你干活。他到底能干什么?我总结了四大核心能力,第一,自主行动力。这是他和 china gpt 最大的区别,他不是等你问才答。他有一个心跳机制, 每隔一段时间自己醒来检查有没有事情要做。他可以自己写代码,自己执行,实时要命令,浏览器控制、邮件管理、日历管理, 一条消息发过去,活就干完了。第二,随时随地遥控你的电脑,接入国外主流社交媒体,国内飞书、钉钉等。你的手机就是遥控器人在外面突然要文件,发一句话, 把桌面上的年度报表发给我,秒传过来,服务器报警了,不用掏电脑,直接发消息说查一下错误日期,重启 index 搞定。 有个真实案例,有人让 opencloud 帮他通过邮件砍价买车,他睡了一觉起来,车价降了四千二百美元,这就是 agent 的 魅力。第三,可以生长的技能系统。 opencloud 有 一个 skills 技能插件系统,还有一个专属的应用商店叫 cloudhome, 目前已经有超过一万个社区插件,覆盖开发工具、生产力、通讯、智能家居等等, 一行命令就能安装。你的常用流程可以沉淀成专属技能,越用越顺手。比如接入智能家居,你说我快到家了,它会自动帮你打开灯、开空调。再比如,每天定时读取邮件,按紧急程度排序发成清单推送给你,一次配好持续运行。 第四,本地优先,隐私可控,所有配置、聊天记录、长期记忆都以 markdown 文件存在你本地,你用文本编辑器就能打开查看,还可以用 get 备份。 你还可以跑本地大模型,完全断网也能用,支持 docker 沙箱隔离运行好。重点来了,怎么安装?你需要准备三样东西,第一,一台电脑 mac 体验最好, linux 其次 windows 也行。如果你想让它全天候运行,推荐用闲置旧电脑。 mac mini 是 社区首选, 便宜的云服务器树莓派也可以。第二,一个大模型的 api 的 cloud 也可以用 openai 的 codex、 google 的 gemini, 国内的模型性价比也很高,基本都有免费的额度。第三,一个聊天渠道,飞书、钉钉等现在开始安装,一行命令即可以完成安装。 下载完成后,进入终端交互页面,依次选择 yes、 quickstar, 然后选择模型。安装好了怎么验证终端?输入 opencloud dashboard, 浏览器会自动打开控制面板,你可以直接在里面聊天,输入一句话试试。 请检查一下我电脑的 cpu 占用率,如果他回复了具体的数字,那么恭喜你,你的私人贾维斯上线了。然后是安装技能插件,这是可选的 open cloud, 内置了很多技能,大家按需安装即可。 接下来是安全警告,这部分一定要认真看,因为最近已经有真实翻车案例了,有人的 open cloud 失控,自己删邮件,怎么喊停都不管用,最后只能跑到 mac mini 面前手动断电。所以安全防护必须做好, 第一,不要装在主力电脑上,用专用机器或者虚拟机。第二,用 dog 刹车运行,搞坏了不影响物理机。 第三, a p i 费用设上限,防止失控,循环调用烧钱。第四,不要随便装来路不明的插件,已经有安全团队发现恶意插件可以窃取数据。第五,定期运行 opencloud doctor, 检查风险。第六, 控制面板端口永远不要暴露到官网。如果你不想在本机安装,阿里云、腾讯云都已经支持一键部署 opencloud。 最后说几句我的判断, opencloud 代表的是 ai 的 下一个阶段,从对话走向行动,从工具走向员工。它不再只是一个聊天框,而是真正融入了你的操作系统,成为你双手和大脑的延伸。 这种 agent 模式本地部署插件生态多端接入已经成为未来个人助手的标准形态。现在上手,你就是最早一批拥有数字员工的人,感兴趣的赶紧试试吧!我把详细的安装步骤、常用技能、常用命令、云部署整理成了文档,方便大家查看。

一说到 open crowds, 好 多人就出来说,你知道这个 a p i 有 多贵多贵吗?虽然我之前也说过这样子的话,但是 是因为我自己能够订阅最聪明的 ai, 我是 烧不起海外那些最高级的 ai, 但是国内那些 ai 也不见得什么都做不了呀。那些只会说,你知道多贵吗?你知道它有多笨, 你真的觉得他有用吗?这些人你们真真正正的部署过吗?有用过吗?如果没有的话,你可以看一下我这个套餐签声明,全程无网, 反正也不会有人找我打广告。你看这个是千万的 colin plan, 他 有一个套餐基础版本,这个他刚开始用第一个月七点九,这个是 pro, 是三十九点九这两个优惠的,七点九跟三十九点九是只有第一个月可以的,后面是二十跟一百。当时为了测试,我就直接买了 pro, 在 我本机的电脑以及服务器三台电脑上部署了, 但是我们用的都不是很多,我会经常让他下任务,但是没有很多,这是我让他做最多的工作,就是帮我去挖掘我所关注的几个领域的 a k f 论文,每天定时早中晚给我推送,这是我在服务器上的管家,他的只能是这些, 这是我在本机上的管家,他能执行的任务有这些。这是我之前在网上看到一个关于 web 四点零的信息,我就让他帮我去挖掘,他找到了一手的消息,还给我整理了很多内容, 比如说这些信息,这是一个他自己生成的深度调研报告,而且我还让他搜索了更多的相关的核心链接,让他把每一篇的内容整理推送给我, 帮我挖掘到了一个有争议的事件,把每篇帖子的原文都发给我,然后他的逻辑是什么,原文是什么样子的,全都告诉我。 我想说的是,面对一个新的东西,你不要着急的去否定,你先自己去做,自己去感受,你不要老听别人说什么就是什么,就那些任务,我们三台电脑现在使用量才不到百分之五, 我就想说真的,绝大部分人你真的消耗量有那么的大吗?如果你怕没有上限的 a p i 会把你的钱包烧空,那你直接用套餐呗。 如果不是做某一个很深入的方向,它需要超级聪明的大脑的话,其实千万三点五真的很不错, 至少可以让你无痛的就把这个东西给部署起来,用起来,等你发现。哎,我的各种使用场景都都不错,搭建了一些个自己想要的自动流,但是发现现在的这个模型没有办法很好的帮我去执行这个任务, 这个时候你再去想着怎么去换模型,而且真正到那个时候你已经能够用它做一些真真正正的事情了,给他花点钱这都不舍得吗?如果你不舍得,那就说明他不是真真正正的能够帮到你, 那你就用最低的成本已经帮你排除了这个工具不适合你了,不是吗?所以说不要老在那里看听,而是真真正正的去做自己的事情。 我也不知道怎么说,反正很多人还没有开始做呢,就畏头畏尾说头说脑,哎,他能不能给我赚钱啊?他能不能怎么?你先做呗。

全网吹爆的 opencolor 真的 有那么什么?今天我从设备要求、费用价格、安装难度、使用感受、优缺点、使用人群占比等方面一次性讲清。先说设备要求,云端部署,对电脑要求仅两核 cpu、 两 gb 内存、四十 gb 硬盘即可, 无需更高病发或更复杂任务,可选择四核八 gb 内存。至于本地部署,官方建议 cpu 大 于等于两核内存大于等于四 gb, 但实际十六 gb 内存是更稳妥的选择。如果需要运行浏览器自动化等任务,对 cpu 也有一定要求。 价格费用,先说云端部署,服务器资源费用,必须有入门配置九点九元每月,限时活动价至两百六十八元每月不等。 进阶配置约五百三十八元每月,适合复杂任务。另外核心开销为模型调用费阿里云零点零五元每千 token, 但是有用户一晚消耗五百七十万 token, 账单瞬间爆炸,注册 x 账号等简单操作出现过单次五十五美元费用,不过有包月套餐,用完极致也不错。安装体验,新手一定要用云服务器, 腾讯云有专属应用模板,可一键部署。步骤,一、买服务器,二、选 open core 镜像,三、粘贴 api key。 四、绑定 qq、 企业、微信完成。适合不想折腾代码,想快速体验的普通用户。 如果本地原码安装,最少半小时起步。适合开发者、技术爱好者、对数据主权有要求的用户。操作体验,通过 qq、 微信、 telegram 等聊天软件,像跟朋友聊天一样指挥 ai。 我们常用的也就是文件整理、日程管理、数据分析、自动创作、群管理、智能家居等优缺点深度剖析,缺点也是没人愿意提的现实,一、 api 费用不可控,用着用着账单就爆炸。二、配置有门槛,对非技术用户不够友好,需要懂 api、 kip、 白名单等。三、稳定性待提升,可能出现一些会测错误, ai 会失忆等。 四、开箱不可用,需要花时间培养教他你的习惯和工作流。五、安全风险,权限高,配置不当可能被攻击。目前都哪些人群在使用?百分之四十五到百分之五十为程序员开发者,用于自动化开发、流程调试、代码管理项目。百分之二十到百分之二十五是技术爱好者, 主要承先新技术搭建、私人助理。百分之十到百分之十五为内容创作者。自媒体,用于自动化视频制作、文案生成。百分之五至十为产品运营,用于数据分析、竞品监控、社群管理。另有百分之五为企业团队用户,主要是内部自动化数据合规需求。

今天带领大家安装一下 opencloud, 也就是小龙虾 ai 助手的中文版,那这个版本的话是全中文界面,并且是非胭脂版的,跟原版是一样的功能,然后一样是有非输,最主要的是它解决了网络环境,也就是说你不需要外网,你就能完全的安装下来, 就对小白来说是完全没有任何安装门槛的。那首先第一步的话是需要安装一个 note g s, 可以 在这里搜索一下,注意找到官网, 然后 get 选择你的版本。那这里我就不安装了,因为我已经装过了,再下载,然后下一步,下一步很简单,跟着它下一步安装完就行了。安装完的话点一下文件,或者是按一下 windows 键,然后输入 npm 啊,不是 m m d sorry, 那 这里可以输一下 note 杠 v, 就是 如果输入版本号,如果有版本号就说明你已经安装成功了,那下一步就可以正常接着去安装我们的小龙虾了, 大家可以找一下 get up 的 这个这个仓库地址,当然你要没有外网的话,可能这个也访问不了,但是没有关系,那这条命令大家可以记一下。 呃,在这里复制晚安, ctrl 加 c 复制,然后鼠标右键单击一下,它就粘贴上面了,然后按回车等待就行了。 如果大家这里的 n p m 一 直加载失败,或者是请求不成功,那可能也是网络的问题,你可以上百度搜一下 n p m, 配置一个中国的镜像就可以了,搜一下有很多这样的教程。呃,这里就是已经安装成功了,我们接下来安装运行一下安装的向导 啊,这是告诉你哎,安全警告,这个什么什么玩意,同意就行了。然后我们选择手动配置好安装在北极星机器,这是安装的目录,我手动改一下,我把它装在 d 盘。 然后这里是你使用的大语言模型,那一般都是嵌在 gpt 啊,就是 open i。 那 我们国内的话推荐大家用 dsp 后期,这个都可以改的,没有问题。 然后再回车,那这里让你输 deepsea 的 apikey。 那 我们可以带领大家去找一下 deepsea 啊,这里有一个开放平台。 呃,点击这里啊 apikey, 然后创建,输一个名字,名字随便输就行了。 先别点击关闭啊,复制一下,关闭了之后这个 key 就 看不到了。点击复制一下,同时鼠标右键粘贴回车, 然后这里默认就行了。端口号默认,然后这个也默认啊,默认,默认, 这是让你输上一步,这个逃困值可以随便输一下,你可以把它当成一个,当成你的密码,随便输一下就可以了,这边输一二三四五六就行。回车,然后这里是告诉你现在要配置聊天通道码,就是非输。那这里我可以选择这里,我们选择 yes。 呃,这里是选择飞书,因为别的一些应用都是国外的,我们在国内的话就用飞书点击回车,然后回车就等待它安装飞书这个插件就行了。 这里让你输飞书的 app id 让大家找一下。哎,我在用这个小龙虾之前我也是没有用过飞书的,就是也是跟它注册了一下,因为你安装完飞书之后啊,你可以用就可以用。 这里搜错了,搜飞书开发平台,安卓,安卓飞书手机上面装一个飞书的 app, 就 可以通过飞书。呃,发出命令就可以直接控制电脑了。点击应用中心哦,点击创建应用 这个开发者,开发者后台啊,我这里已经创建一个了,我们点击创建企业资金引用啊,这个名字随便输就行了,在文章这些文字本这里都无所谓创建 啊,创建完就已经进来了,我们点击这个屏障与基础信息啊,这里复制 id, 回到这里,鼠标右键粘贴回车,然后这里是密钥,一样是复制粘贴 啊,这里让你选择一个通道啊,就是我们刚才已经装过了啊,所以选择已完成就可以了。 那继续默认。嗯,这个也是默认的,钩子,我们可以暂时跳过,暂时跳过要注意啊,现在这个蓝点并不是选中的状态,先按一下空格键,它变成一个加号才是选中的状态,此时按回车就是跳过了,然后回车。 这里告诉网关服务安装失败啊,我们先不用管,然后等它继续安装就可以了。然后下面就是已经安装成功了啊,已经安装成功了,那它会默认打开一个浏览器,但是页面是空的,这个时候不用管,因为我们的服务没有启动,把它给关掉就行了。 那这个时候回到这个中文社区,快速开始。 呃,我们可以运行这条命令,它是在前台运行网关,也就是启动小龙虾的一个命令,这是端口号,端口号可以不输,因为不输的话它就用默认的端口号了,在这里复制上来。 那现在小龙虾就已经启动了,但启动的话,我们怎么去进入小龙虾的后台呢?呃,我们可以运行这条命令,它就会打开一个 u i 的 控制台, 其实你不打开也可以不打开,其实他已经运行成功了,只是你打开的话有一个跟他对话或者设置的一个窗口,那我们可以重新起一条命令,就是点这个,然后还有 c m d 命令提示服务,把这个命令给粘进去,他就会自动打开一个浏览器, 或者你不想用这个浏览器的话,这是默认的,我也不想用它,把它关掉,这就可以复制一下。这后面是你的 talk 值, talk 值呢?就是我们前面自己手动设置的,这就可以关掉,然后在浏览器新建一个窗口, 这就进来了,我们看一下概览,那这里连接说明已经连接成功了,这里是另排,那我们就可以直接对话了。你好, 哎,这就已经回复我了,相当于我们就整个命令已经安装成功了,但是关于飞书还有最后一步没有设置完哦,这里猜一句啊,如果你发完消息,他给你回复的只有一个头像,但没有具体内容的话 就有可能。然后如果你的 deepsea 也是一个新账号的话,那有可能就是你这里的,你这里就没有充值, 就是你要保持,你一定要保持这里有余额,如果这里余额为空的话,就是他是他是调用不了的,那这里就可以自己充值,也可以自定义充个一块两块的,自己先试一下也可以。我前期就因为这个问题卡了很久。 回到权限管理,权限管理我们要批量导入一个权限,在这里可以复制一下 啊,配任用权限,把这个给复制,然后粘贴进去,下一步申请确认, 再确认就可以了,然后权限就已经创建成功了。然后还有最后一步,一个事件添加一个订阅方式,选择长连接,点击保存,然后添加一个事件, 把这个时间复制一下,在这搜索,啊,这就已经成功了。然后把它给发布一下, 随便输一个,然后内容就是, 哎,那现在都已经可以了,我们来测试一下,可以看到这个应用就是最新发布的,这个开始了,点击打开应用,我们来测试一下。你好, 那这里就已经收到了,它告诉你就是有一个配置还没有配置完,嗯,把这个配置给复制一下, 复制重新打开一个命令行粘贴进来。 哎,现在就可以了,再加一次重启,那要重启一下,我们在这里,在这个,在这里 control control 键加 c 键是停止,然后按鼠标上键是重复上一条命令,然后按回车, 这就相当于把之前的服务给停掉,然后重新启动了一遍。那我们再测试一下, 这就是在这个表情就已经回复,就说明他已经收到了,然后他告诉我,哦,还有一个授权没有授权完,他告诉有一个权限没有配置完,但是这个权限是关于联系人的,其实不配置也可以,不影响你正常使用,这可以发一下, 我们这里可以就可以正常的使用,让他帮你做一些任务了。比如 我问一下,我的电脑配置跟你这个浏览器里面的界面的信息是同步的,你在这里发也可以,那你用手机的话,相当于你不在电脑面前,你就可以直接给他发任务,让他进行去执行, 这里就返回了我当前电脑的一些配置信息。那下一期我们再来研究一下,它具体能帮我们执行什么任务,以及有什么插件可以用。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

大家好,我是小木头。在新春佳节之际,首先呢祝大家在马年新年快乐,万事如意,身体健康,马到成功。在新春来临之际,通易千万也发布了他们最新款的大模型千万三点五, 本期视频,我们就来了解一下这款全新的大模型,并且尝试将其集成到 openclock, 从而打造自己最强的国产 ai 助手。 那现在就开始咱们马年的第一期视频分享吧。首先咱们对千万三点五还是来做一番简单的了解,这是通用千万系列最新一代模型千万三点五首发开放权重版本是三九五 b a 十七 b, 这个是整个三点五系列的起点。大家要注意的是,这是开放权重,不是完全开源,但是呢,你可以拿到模型权重自己部署。 这是一套原生多模台模型,他并不是传统的厚接插件式的多模台,而是从训练阶段就做了早期的文和图的融合,基于了原生多模台的架构, 这与过去的那种先训练文本模型在外挂视觉编码器的方式呢是不同的。在原生多胞胎的支持下,信息融合更深,上限呢更高,多语言覆盖从上一代的一百一十九种语言和方言提升到了二百零一种, 这对于非英语场景的开发者来讲是一个非常大的利号。云端版本的千万三点五 plus 默认是支持到了一百万的 token, 这个呢指的是上下文窗口,同时内置了官方工具和自定义的工具调用,官方给到了全面的测评,从分数来讲呢,显然这与过去我们在了解新模型时并没有什么意外,最新的模型在方方面面的测评上表现都非常非常的优秀。 我们来看一组数据,在三十二 k 上下文架,相比于千文塞 max, 它的解码吞吐提升了八点六倍, 二百五十六 k 下更加的夸张,达到了十九倍,相比于千万三二三五 b, 也有三点五到七点二倍的提升, 这把大模型可用性往前推升了一大步。从这张图标可以看到,这个对比效果呢,也是非常夸张的,在过去的对比中,似乎我们还没有看到这么大的飞跃。官方博克还给到了我们许多有趣的 demo, 展示了多模态理解加工具调用、加长链路执行的合体能力。这其中呢,包含了编码 agent、 视觉 agent、 空间理解、图像推理,每一个都并不是一个独立的 demo, 感兴趣的朋友呢可以来一个一个的观看了解一下,非常的有趣。 在官方博克这里也专门提到了在 open clone 中的基层,它能够很好地支撑像编码这类任务的执行, 再集成到 openclo, 并且部署到云端,看起来我们完全可以打造一款自己的国产 ai 助手,并且是最强大的哟。 现在呢,我们就尝试将千万三点五这款最新的大模型集成到 openclo。 openclo 是 近期非常热门的一款 ai 助手,在过去的视频分享中,我们也介绍了如何在本地如何在云端进行部署与配置,还没有做这部操作的朋友呢,可以回看过去的视频分享, 那现在呢,我们就来做集成千万三六模型,在许多的云端平台都提供了支持,同时呢,作为一款开放权重的模型,大家也可以实现本地化的部署,我们今天要介绍的呢,是以 open router 所提供的 api 为例,看看如何集成到 open clone。 我 现在分享的是在腾讯云端部署的小龙虾,大家可以在任何的部署中采用同样的方式来配置。 openroute 是 我常用的一款服务,目前呢也第一时间提供了千万三点五模型的支持,目前有两款,一个是三点五 plus, 一个是三点五三九七 b a 十七 b。 我 们以三点五 plus 为例,在云端 通过 openroute config 来进行模型的配置选择。 model 在 分类中已经有了 openroute, 我 们选择它就好。 因为我已经完成过了 openerer 的 配置,已经添加了 api key, 所以 在这里呢,直接就跳到了模型的选择。我们现在翻到 openerer 所提供的模型列表这里,大家或许会发现并没有前文三点有模型, 怎么办呢?没有关系,我这里呢其实已经配置过老的像 cam 三二三五 b 的 模型,我们可以继续这里的配置选择,继续退出当前的配置。 在目前我已经配置过 api key 的 情况下,大家看起来这波操作呢并没有做什么,那如果大家是初次配置呢,这样呢就完成了 open directory api key 的 配置。我们接下来要做的是使用当前这个命令 openclo model set 来设置 open directory 这一款千万三点五的模型, 设置的这个值,它的格式呢是服务商。以 openerer 为例,在这里呢就是 openerer 斜杠后面带上的就是模型的 id, id 来自于模型页面,我们在这里复制这个 id 就 好, 我正是通过这种方式粘贴过来的。这样呢,就完成了三点五模型的配置。配置完成后,或许大家可以尝试重启 dm, 接下来我们来到 channel, 比如以 telegram 为例,我们来看看配置的情况。在 telegram 中,可以使用 slashmodels 命令来选择我们想要使用的模型或列出当前的模型服务商。 当我选择了 openraw, 会列出其中已经配置的模型。这是我已经配置的几款模型,大家根据自己的情况可能会看到的有所不同。 那我如果点击千万三点五这款模型,理论上期望是将其设置为默认模型,但在这里大家会看到这么一个错误,说这个模型呢,还不被允许使用, 那么该怎么做呢?我们是来到 opencl 后台进行手工的配置调教,还是说通过对话的方式让 opencl 来帮助我们解决这个问题呢? 在 ai 时代,在智能体时代,我们应该尝试避免手工再去做这些事情了,完全可以交给 open core 自己解决。因此在这里我们告诉他问题是什么呢?这个模型三点五不能够被使用,希望他帮助我添加到 open core, 他 会自动的帮我完成这个工作, 它会更新配置,重启网关,并告诉我重启后就可以使用了。那在这里呢,我们来看看。 当然了,在对话中,我还将其切换回了 gpt 三点五 codex, 并且期望 codex 帮我验证当前的配置是否一切正常了。它告诉我是的,一切正常,我们可以开始使用千万三点五了。 那么我们通过模型的配置这里呢再次确认过它的模型呢,已经设置为了铅汞三点五。那接下来呢,我打个招呼,看起来一些工作正常,我们现在可以回到 openclo, 作为开发者,我们还是希望更多的验证究竟是不是正常的工作了。咱们可以使用 openclox dash dash follow 这个命令来实时的监控日制, 再打个招呼吧,看看对话情况。在这里大家可以看看日制的情况,在一个子系统的执行中,它用到的模型呢是千万三点五 plus 零二一五 think 模式是关闭的对话呢,一切正常,我们在这里也能看到它的回复,这表示端到端已经通了。大家如果还不确定是不是使用了三点五的模型,那现在呢,可以来到 open router 后台查看实时的 api 调用情况,我们可以看到最新的调用呢,就是用的千文三点五。 好了,这就是我们如何在 opencl 集成千万三点五。在这次的发布中,我们得到了两个版本,一个是千万三点五 plus, 一个呢是三点五三九七 b a 十七 b。 感兴趣的朋友呢,可以来集成这两款模型,分别在 opencl 中跑一跑,看看它们在功能上究竟有什么差异,在日常的编码任务的执行上,是否能够很好地完成我们交给他的任务。 那么这款模型的能力究竟如何?是否能够成为我们日常工作学习中的主力模型呢?大家在使用后也欢迎在评论区给我们留言吧, 那今天的分享就到这里,感谢大家收看。那么在视频结束前,也再次祝大家新年快乐,万事如意。好吧,那我们就下次视频分享再见同学们,拜拜!

今天的话我们来学习了解 mini max m 二点五全球编程和智能体能力最强的这个开源模型。 首先的话我们会从底层的这个模型概览核心技术和这一个技能以及本地部署应用场景来去进行这个讲解。那么首先的话 mini max m 二点五是作为中国公司 mini max 的 这一个二零二六年二月份就是最近推出了一款大模型, 它被号称为就是目前目前的这一个全球编程和智能体能力最强的开源模式,并且极其便宜,就每小时只花一美元就能以一百 token 每秒的这个速度持续运行, 那么它与这一个我们之前讲的这个 queen 三点五的核心区别。首先它的这个参数是两千三百亿,小于这个阿里的这个 queen 三点五的三千九百七十亿,同时它的这个活跃参数是十币,在一百亿左右 的核心优势能力是在于这一个编程和 a 级的能力比较强,那么如果说 pin 三点五是一个全能型的这一个选手看图说话翻译,那么 mini max 的 话其实就是一个编程的自动化专家,他比较擅长写代码,修 bug, 上网搜索、 操作办公软件。为什么这个模型在这个位置里面是比较突出的呢?首先的话它就是这一个修 bug 的 能力是全球在这开源里面是比较领先的,接近这个 cloud ops 四点六的这样的一个模型。 同时的话它的这个多语言的这个修复 bug 的 能力是达到了百分之五十一点三。还有 ter terminalbench 就是 终端操作这一款,竞争力是达到了百分之五十九点三,终端操作的这个能力其实是比较强的, 但是它的成本其实只有 cloud 的 十分之一,这就是导致它具备一个极致的这个性价比。那么同时的话它带来一个优势的话,就是它的这一个 它的这个成本是极低的。那么在我最近爆火的这个 open cloud 这一个产品的时候,它其实是在这里面是具备很大的优势的,让 open cloud 为我们进行这个日常的办公,其实是变为了口可能 那么它同时也有几个版本,比如 mini max lightning 就是 三美元,然后百万 token 就是 零点三美元百万 token 以及这一个输出的话是二点四美元,以及这一个 mini max m 二点五,标准版的话是零点一五美元百万 token 输入,还有一点二美元的百万输出。 cloud opera 四点六的话,它输入的是这一个十五美元一百万 token, 那 么输出的话是七十五美元百万的 token。 g p t 五点二的话是输入是五美元,然后输出是十五美元。 m 二点五的这个成本是十,是 cloud opera 的 十分之一到二十分之一,嗯,它的这个成本是这个 g p t 五点二的这个十分之一和十二分之一, 那么它的这个亮点的话,它还有一些核心的这个亮点,比如说它的这个 bronze comp 的 这个,嗯,电脑这个搜索能力是达到了百分之七十六点三, 然后的这个网页的能力竞争力的话是达到了,嗯,百分之七十六点四,那么它在这个网页的这个浏览信息搜索、证据追溯等方面其实的能力是非常的突出出色, 那么同时的话就是它的这个它能够很好地去实现我们这一个办公的自动化,那比如说 word 文档自动排版生成报告,还有这一个 powerpoint 自动制作演示文稿, 以及这个 excel 的 这个金融建模数据分析公式生成,这些能力的话其实是比较强的,是要优于其他的这个主流模型和开源模型的。 那么我们再来详细的讲解一下。呃, mini max 它为什么能有这样能力?它核心的这个技术原理是什么样的?首先的话它采取的是也是这一个 mo 混合专家模型,用这个稀疏激活机制推理的时候,仅激活部分的参数, 而非全部的参数,同时如同调用这个专家团一样,而非全全员出动,那么大幅度的提升这个效率。其次的话就是这个模型的基本参数是,呃,模型的这个类型是英国语言类型, 它是主要是理解这个生成文字,它没有这个视觉能力。第二点的话它总参数是两千三百亿, 这是模型的这个知识容量,那每次激活的参数是一百亿,实时干活的用到的这个参数就是这个一百亿。另外的话,它的架构是采取了这一个混合专家的这个架构稀疏激活的这种架构那么可以做到高效的推理,上下文的 长度啊,是大概二十万的左右的这样的一个上下文长度 token, 那 么一次可以处理十五万字, 同时的话它的推理速度在一百 t p s, 就是 每秒生成一百个这个 token, 而模型大小的话是在这个 b f, 嗯,十六四百五十七 g 的 原始的这一个原始末的这一个压缩的大小, m o e 的 这个价格为什么 又小又强呢?那么跟 queen 三点五其实是一样的,它就相当于是每次只激活这一个一百亿的这个参数,然后做到推理更快,成本更低,同时能够跑更多并发,那么同样的硬件服务可以服务更多的这个用户。 另外的话它还加强了一个,就是这一个 a 型的这个原生能力的这个强化的学习架构, 那么它采取的这个架构的话叫做 foreign 强化学习架构,它是它的技术创新,传统的这个模型训练方式是数据加训练,加模型学会说话,而 minimax m 二点五的这个训练方式是二十万加上真实环境, 然后再强化学习,模型一步一步学会做事。那么在大版环境里面,它就直接在二十万的这一个, 用二十万的这一个相关的这一个参数,然后模型像真实的实际师生一样,在真实的环境里面不断的尝试,然后获得反馈,从而掌握这一个使用工具的解决问题的这个能力,实现从说话到做事的这个跨越。 那包括它的这个浏览器办公环境和各种工具 api, 它实现的就是二十万加上真实环境加上强化学习,以及让模型逐渐的学会做事情。 a foreign 的 这个框架的这个语特点,其实它第一是实现了这一个 aint 的 原声,那么模型从训练开始就能够学习如何使当智能体,而不是先对 先学对话再适配,同时的话实现这个环境解偶,那么训练的这个引擎和 aint 完全分离,支持任意的 aint 的 框架,那么同时也做到这个训练吞吐量实现约四十倍的这个训练的加速。 其次的话它支持这一个树形的合并,那么创新的这一个样训练样本的话,其实是用来做这个训练加速的。 其次的话它还采取了这一个 c i s p o 的 算法,那么做到这一个稳定的训练 m o e 的 模型, minimax 自研的这个 c i s p o 的 算法来确保大模大规模的 mo 模型训练的稳定性,那么还解决了行业的一个痛点,就是 mo 模型在大规模训练的时候容易出现这个不稳定性,它采取的就是这一个,嗯,交错思考模型, minimax m 二点五的它的这一个交错思考模型其实是使用这个 think, 然后里面包括这个内容,再加上 think 的 这个标签包裹着来进行推理。 比如说用户的问题,请修复这个 python 函数中的 bug, 那 么模型输出的话就是 think 让我分析这个函数问题,在第三行类 请转换错误,需要在调用前添加这个类型检查,然后我发现了问题,第三行 缺少类型检查。以下是修复后的这个代码,然后再进行这个代码的修复,那么这个的话就是关注这个重要的东西,在多轮对话里面必须要保持保证这一个历史的信息, think 杠 think 的 这个里面的内容 如果删除的话,模型的性能就会显著下降,这与这一个 queen 三点五不同, queen 三点五是要求在历史中去掉这一个思考的内容, 而这个的话就是要保留历史中的这个 think 的 核心关键信息是一个交错思考的这样的一个模型, 另外的话它就是有这个 specwriting 的 倾向,像架构师一样去思考。那么 m 二点五在训练时涌涌现出了一个独特的行为,就是 specwriting tendency。 在 写任何的代码之前, m 二点五会主动地分解项目的需求,规划功能和架构, 同时设计这个 ui 方案,向一个经验丰富的这个软件架构师从全局出发,然后去能够这不是人为的这个编程能力,而是在大模大规模的这一个强化学习之后,自然涌现出来的这样一个编程的能力,这是非常厉害的。 那么其次的话就是另外它的这个编程能力在业界对比的话其实是比较强的,基本上能跟 cloud ops 嗯,四点五持平。同时的话它在权威的这个 s w e 奔驰这个测试里面,它其实也是,嗯,另外的话,它有极具这一个性价比的这一个优势, 具备这一个全站开发的这个能力。 那么另外就是 m 二点五它的一个特别之处就是它在它,它在不同的这个 a 型的架构下面都能够保持这一个稳定的性能。比如说 open code 的 架构下面,它有百分之七十六点一,还有 cloud ops 是 百分之七十五点 九,还有这一个座椅的这个框架下面是这一个百分之七十九点七,以及这一个 cloud ops 四点六,是百分之七十八点九。 另外的话就是这一个 m 二点五的这个 swbench verified 达到百分之八十点二,与这个 cloud ops 四点六其实是相差百分之零点七,还有 marty swbench 的 这一个参数里面是百分之五十一点三是目前公开的最高成绩,关键的差异的话就是完成这个 swbench 任务的这个速度提升了百分之三十七,平均是 二十二点八分钟,每任务与这个 cloud ops 四点六是基本上持平,但成本的话只有 cloud ops 四点六的十分之一。 这意味着就是 m 二点五不再依赖任何特定的工具环境,都能够表现出色,并且发货能力很强。 在全站开发能力的话, m 二点五也覆盖了完整的这个编程场景,有这个零到一的系统设计,从零 开始规划这一个架构,一到十的这一个系统开发核心的功能,实现十到九十的这个功能的迭代,持续的添加新功能,九十到一百的这个代码测试 和这个质量把控。那覆盖的这个平台技术有这个 web 前端比较擅长 html, css, js, script, type script, 还有 regact, 安卓的应用的开发, ios 的 应用开发, windows 的 应用开发,服务端的 api, 业务逻辑数据库,它精通十数种这一个 go, 嗯, c c 加加 type script 和 python, java, javascript, php 和 lua dot 以及这一个 ruby 这些开发框架。同时它也具备这个搜索与工具的这个使用能力其实也是比较强的,超过了 gpt 五点二 通过它使用的这个较少的这个搜索轮次,然后比这个 m 二点一减少了百分之二十的这个轮次,就能够得到正确的这个答案。这说明模型不不仅仅是找得到,而且是找的更聪明,更快、更准。 那么同时他在这一个 rse rise 的 这一个评测里面,专业级搜索里面,他也自建了这个 rise 的 这个评测。那么模拟这个人类学家真实的搜索过程,不仅是搜索引擎的查询,包含在这个信息密集的网页里面深度搜索,他在这个评测里面也表现出色。 同时的话它通用了这个智智力的这个能力,包括数据竞赛专业的领域,它都是能够达到世界领先的这样的一个水平,包括 she 无工具和这一个 s s i code, 还有这个 if bench 指令遵循,以及 a a a a a l c r 长上条文的这个搜索能力也是比较的突出。那么它进步的是很好的一点,就是实现这一个办公的自动化,它通过这个 g p t 的 这一个 pro 就是 平均的这个胜率,对比所有的主流模型在办公场景下里面的表现是胜率在百分之五十九点零。同时它的这个 excel 竞赛里面也是领先的由这一个金融专家设计的这个评测。 那么它的这个速度和效率的话,其实也是在同行业里面是比较的快,它能推理速度达到一百 t p s。 另外它的任务完成率和综合评价都还是比较优秀的,但是它还有一些不足,它的不足的话第一个就是数学竞赛,它是比较弱的,专业科学的话它又也比较弱,超难题的话是比揭秘版要差了不少。 然后视觉理解的话,目前是不支持多云覆盖的话,其实不如这个 queen 三点五。然后它的百万 token 是 有比较大的优势,只有其他模型的呃二分之一到二十分之一, 另外它跟这个 queen queens 这一个三点五的这个比较优势就是第一个它编编程改 bug 这样的一个优势其实是比较强的,搜索 agent 的 这个能力也是比较强, 然后这一个数,呃,数学的推理的话是 queen 三点五更强,视觉理解 queen 三点五更强。然后多语言的话是 queen 三点五会更强一些。文档的这一个 ocr 其实是 queen 三点五更强。 另外就是办公的这个自动化其实是这一个,呃, m 二点五更强,推理的这个速度是 m 二点五更强。 api 的 这个价格其实是 m 二点五更便宜,模型的大小其实是 m 二点五更清亮,同时的话,本地的这一个运行是 m 二点五更容易, 那么核心的这一个需求的话,如果你是写代码修 bug 的 话,那么你可以选择这个 mini max 二点五,办公自动化预算极其有限,或者需要大量并发以及这个本地部署。还有这一个看图处理文档 的话,呃,就是前面的话,这些都是 minmax 会更强一些。然后如果你是要看图处理文档或者多语言翻译,那你用 queen 三点五更好一些。顶级的这种数据竞赛还是选择这个 gpt 五点二,另外简单开箱即用的话,那么还是选择这个成熟的币币源的这个生态 部署方案的话,它这里重点的话就是由这一个 a 镜的网页版和这个 api 调用,以及欧拉玛和这一个企业,企业端的这个部署推荐的这个配置是一百二十八 g 的 这个 mac 的 话,它能够稳定的部署,同时入门的话是要九十九十六 gb 的 这个 mac 或者是 pc, 然后实现这个有效的部署。还有就是多 gpu 的 服务器就实现全量的这个部署, 它要在这个三 bit 量化之后,只需要一百二十八 g 的 这个内存就能够实现这一个相关的,那么它是一个很好的编程学习助手,办公效率提升。同时的话它也是一个软件开发团队,能够进行这一个加速且便宜, 还有这个成本降低。另外它能够作为 open cloud 永远在线的这个 ai 员工,这也是得益于它极低的成本和极强的这个办公的这个 ag 的 能力。那么如果你想去开发这个 ag 等,就要定义好你的工具,定义好你的流程,调用对应的这个 api, 然后来做到这一点,然后它能够保证你的话就是极致的这个性价比,办公的自动化以及这个全球顶尖的能力。 以上的话就是我们针对这个 minmax m 二点五的这个深度解析和使用介绍,如果你感兴趣的话也可以随时联系我们,欢迎与我们进行沟通交流。

大家好,最近我搭建了 openclaw, 并且尝试使用了一周多的时间,现在把这一周踩坑还有一些经验分享给大家,希望能够对正在探索 openclaw 的 同学有所帮助。第一个经验是模型选择上,众所周知, openclaw 是 一个很烧 token 的 一个智能体, 那如果大家一开始用 openclaw 的 话,建议还是从最低档的套餐的那种方式来用起, 这样对你的消耗是有一个上限的,再根据你实际的消耗情况决定是否升级套餐,比如说最初用二十九元一月的那种比较额度没那么高的一个套餐,再去逐渐升级。 那对于模型选择上呢?我个人来说,我自己是用的 minimax 的 coding plan, 这个性价比还是比较高的,当然也有其他国产地带大家也可以尝试一下,比如说智浦啊, kimi 啊,都有对应的括括定 plan。 那对于价格不敏感的同学来说呢?那肯定是可以用 astonopy 的 cloud 或者是 openeye 或者 gemini 这些模型的。第二个经验就是部署方式的选择,因为 opencloud 是 存在一定的安全风险的,所以部署方式要特别的谨慎。 那如果你有一个干净的机器,那就说这个机器里没有你的个人敏感信息,那你就可以直接在这个机器上部署 opencloud, 把所有的权限给他,就能让他帮你做很多的事情。那如果你是要在主力机上尝试呢? 那建议还是能把它做容器化的隔离,这样 open club 就是 运行在德克容器里,它容器内的文件跟宿主机是隔离的,所以它就没办法访问你你的个人文件对主力机的使用是更安全一点的。第三个经验是安装策略, 首先我们可以先默认配置,先让 openclaw 跑起来,然后再按需添加一些功能, 比如说你想要要的聊天的 channel 啊,或者说一些 skill 啊,你都可以慢慢的自己去添加。通过你按需添加的过程,对这个 openclaw 的 理解可能会更深一点,对它的机制,可能配置方式了解的更好一点。接下来是踩坑的一些案例,案例一就是 我在连接调试 discord 的 时候, opencloud 它会自己修改自己的配置文件,经常它自己改错就导致自己就起不来了。那我后面想到的解决方案就是让它强制要求让它在修改配置文件的时候 呃做一下备份,那如果它自己改出问题了,你还能帮它还原回来再启动,保证它恢复之后还是可用的。第二个踩坑案例就是定时任务,之前我尝试让 open class 通过定时任务往我的 note 里面插文章,相当于它运行的时候就是按循环写入的机制,就一直在往我的 note 里面插插东西, 导致我的 note 数据库基本那个页面就不可用的状态了。那解决方案呢?下达指令的时候一定要跟他说执行次数,还有一些中止条件, 循环任务完成之后就让它删除定时任务,避免那个任务无限运行,把你的资源给耗尽。那第三个踩坑案例呢?我在使用 agent team 的 时候,我通知综合 agent 协调开发 agent 去写代码,但是这个最后 agent 它就直接修改了代码文件,导致开发 agent 不知道自己的代码被修改了, 所以就导致了开发 agent 就 有点混乱,不知道自己当前的最新状态是什么。按这个解决方案呢,就是在 agent team 的 机制下,一定要为不同的角色指定固定的删除目录,并且限制其他 agent 擅自修改别的 agent 的 文件。 然后最重要的是要定义个各个 agent 的 核心配置,比如说 salt md 啊 agent md, 然后 就是 heartbeat 的 md 这种配置文件。那总结一下,今天说的要点主要有六个,一个是模型选择上,建议从低价套餐起步,然后可以按需升级。 然后第二个是部署的时候,如果是主力机,建议容息化隔离部署。第三点,安装时,安装 opencloud 的 时候,可以先默认配置,然后再按需添加功能。第四个就是重要配置文件,一定要先备份再修改。第五个就是定时任务一定要设置明确的终止条件。第六个就是 agent team 的 机制下,一定要明确勾 agent 的 工作目录,还有一些全责范围,禁止越界。那今天的内容主要是这些,如果大家在使用 open cloud 的 过程中有什么困惑或者建议,欢迎留言评论区。