一个问题啊,就是现在到底是哪个模型我用起来比较省钱, ok? 呃,最近一直分享的都是免费的 open crawl 的 用法啊,因为大家开始想的是, 呃简单应用嘛,但是实际上我们上手用的话,肯定还是要考虑一个付费模型,那么到底用哪种付费模型比较好呢?有很多朋友就在提出一些建议啊,然后我今天跟朋友去讨论了一下,他现在是养了八只龙虾,然后他的经验是 在我们国内最好还是用一个叫阿里考勤的这样的一个模型,那么这个模型它每月的这个费用呢?是三十九块九啊,阿里就是阿里的考勤这个模型, 那么模型好和坏我们怎么去平衡呢?那么很多网友可能会去看别人的视频,有一些是国外的方案,比如说他用在 terrigram 上, whatsapp 上来评估的,这个对我们国内来说完全没有意义啊。那我们就是要看,就是我们在国内去跑 自己的国内应用啊,我们跑在飞速上这样的应用我们怎么样去消耗是吧?你好的模型当然就是一个贵,第二个就是好的模型他思考的比较细致,那个深入,那么他费的 top 是 必然就会多啊。我们日常的, 平常的,我们在国内的飞速上的这样的应用,到底什么样的模型比较好?我朋友的验证呢,他用过几个模型下来就是,呃,阿里的 这个 coding, 现在三十九点九的这个模型是比较好的,当然就是如果我们看绝对的这样的一个模型的这个费用 mini max 的, 它的绝对的那个费用会比 kimi 二点五的费用还要 低一半左右。嗯,在我们国内呢就是。呃,目前呢就是这几个情况,大家可以去尝试一下。 这个是个综合的考虑啊,并不是说就是单价便宜就好,就是你可能实测下来哪个比较省钱? 呃,我这里有几个观点啊,抛给大家,不知道大家认不认同我的观点,如果有更好的观点,大家可以这个在评论里面给出建议。 ok, 我 今天分享到这里啊。
粉丝1178获赞6774

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

人人都在养龙虾,但哪个模型最适合 opencloud 啊?别急,龙虾之父亲自推荐的龙虾壁纸榜来了。这个榜的名字叫 pinchbench, 它从成功率、速度、价格等维度评估全球大模型对 opencloud 的 适配程度。关键是前三名咱们国产模型就占了俩。 那这个榜单是怎么进行评估的呢?跟传统大模型的版本不同,它更像是 a 准的能力测试,主要是测试不同大模型在真实工作流中的业务能力。 它包含了二十三个真实任务,比如日程管理、调用 a p i 完成操作、写邮件、写文章、做研究等等。接着有的任务是由脚本自动检查完成情况, 有的是由幺幺幺评审,有的是二者结合。从结果来看,中国模型在成功率和速度上都表现出色,只是价格上落后了一点点。比成功率,第一名是 gemini 三 flash, 后面紧跟着 mini max m 二点一和 kimi k 二点五。 比速度, mini max m 二点五最快超过 jammin、 拉玛等模型。比价格, gpd 五 nano 最便宜,而国产模型中最便宜的 mini max m 二点一排名第五。 pinchbang 还做了个性价比的四象线图。成功率高且便宜的八个模型中,国产模型就占了一半,小模型也占了一半。也就是说,模型不是越大越好。那些偏 a 准、优化或推理效率更高的,而且更划算的模型,更适合用来养虾。你用的是哪个呢?

用龙虾机器人真的很不介意本地部署大模型,我这个内存直接跑满 一百二十倍七十倍的还算比较流畅,但是很弱智,这个告诉一百二十倍非常丝滑,但是有点弱智。龙虾基本上每十分钟消耗十几 k 的 taco 也不算多,现在运行的是千万三两百三十五 b 就 很卡, 两百五十六内存快占满了,这个回复速度也比较慢,用在线大模型会好很多。这么半天了还没有回复,有啥想问的留言交流吧,拜拜。

兄弟们别等了,本地大模型加 open club, 龙虾就跟个傻子一样,半天憋不出一个屁来,我实在是被它整自闭了, 这个速度要是拿来干点什么,我真怕会把 gpu 累死,目前还是老实用 a p i 吧。哎,好东西,果然我们不配啊!我先烧吧,替大家看看水深不深,回来再给你们报告。

今天聊一聊,部署了龙虾之后,你应该选哪一种大模型?现在主流的计费方式有三种,第一种是按 token 计费,第二种是订阅值,第三种是本地部署,那本地部署的话,其实就不需要我们每个月去交这个月费了。 首先来看第一种按 token 计费,通俗的理解, token 呢,就是我们说一句话里,这个话里有多少个词,原有多少个字。我们打个比方,比如说一句话里有二十个字,那么按 token 的 话, 一般大模型厂商会给每一个字标一个单价,那么如果每一个字值一分钱,一个二十个字的句子就需要两毛钱。 但是我们用龙虾的时候都知道,龙虾的思考非常的复杂,他不可能只跟你用一句话,或者简简单单的二十个字就完成了一次请求,所以你会看到龙虾的思考啊,虽然他没有说出来,没有声音,也是好托坑的, 而且他思考的越复杂,好的托坑越多,这就是为什么很多人啊,他的龙虾开着跑了一晚上,第二天钱包就没了。 第二种是订阅制,常见的呢,有每个月,比如说六美金或者大陆的供应商啊,可以看到每个月四十块钱这类套餐呢,他会规定你每个月的请求次数,这是什么意思呢?就是你的龙虾思考一次, 还要调用一次大模型,那这算一次请求,这一次请求包含了多少 token 都没关系,它只是算你一次的请求量。所以这种特别适合程序员的同学,因为我们在写代码的时候呢,每一次的请求可能涉及大量的代码往返, 我要放大量的现有代码和需求上去,同时呢,服务器也会返回大量的代码回来,这一来一回,如果走脱困的话,他就会非常的贵。第三种,本地部署啊,我看起来他只需要在我们本地的机器上装一个开源的大源模型就可以了, 那么所有的思考呀,计算都是在我们自己的机器上来做的,因此呢,也就不存在什么给大模型公司交构肯或者订阅费的一个问题。 但是本地部署有一个问题,就是一般的机器很难支撑起来大参数量的模型啊,当你部署的模型参数量不够呢,这个模型的智商就不够, 他会显得很笨。第二点就是参数量小的模型呢,他很有可能没有办法调用本地的工具,所以这种情况更适合于我们,适合于我们的团队作业,或者对于数据的安全要求特别高的情况。因为你如果在本地部署模型呢, 你的龙虾数据存储和计算都是在本地,也就解决了数据可能泄密的一个隐患。模型的订阅方式对模型的能力没有影响,比如如果你用了阿里的模型,那么按 token 或者按月订阅, 他调用的模型都是一样的。那好,你可能马上要问了,到底哪个模型更好呢?其实没有所谓的最好的模型,你要选择最适合你工作场景的模型。我建议大家可以提前用豆包, 用阿里千万以及用腾讯的还原模型。比如我个人的体感会认为千万的模型更适合编程,豆包呢,特别适合来写文章,尤其是做公众号文章的这种拣写质谱呢就会比较综合, 所以最后给大家的建议就是,如果你刚开始上手龙虾,其实可以试一下按 token 计费的方式,让龙虾完成一个小的任务, 这样费不了多少钱,同时你又能感受到龙虾跟传统的这个豆包啊,或者其他的 chatbot 的 区别。当你稳定的使用了龙虾一段时间之后,知道每天让它处理哪些东西, 它跑的这个任务呢很固定了,消耗的播放量也比较多,那这时候你就适合换成按月计费的这种方式。今天的分享就到这里,嘿嘿,有好的故事欢迎告诉我。

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。

这两天 open class 实在太火了,折腾了一上午,终于装好了。我这笔记本有个四零六零的读写,做实验也没什么复杂任务,所以就用它凑活着跑一个本地模型,最终选择部署快三点零八 b 模型。装好后,先迫不及待的验证一下 本地操作能力,让他写个自我介绍,放在桌面上的 t x t 文件中跑一会。嗯,写出来了,也放在桌面上了,看 看,这是他写的内容,当然内容取决于大模型的能力, opencloud 的 能力在于工具调用,在这里就是创建并写入生成的内容。再让他自己给大家展示一下基础模型吧,就是本地部署的 快八逼模型,省得花米买 token 了。再让他搞个 excel 文件试试,让生成五条虚拟销售数据。写到 excel 中跑一会儿,最后写了个 c s v 文件,打开看看,却 确实搞出来了,再让它转换成 excel, 告诉我没有这个能力。其实很好理解, txt 文本和 csv 文件都是纯文本,不需要调用其他工具就能操作,所以可以做出来。一旦涉及到复杂点的工具,比如 excel, 就 需要配置 skills 和操作相关工具的代码,或者 a p i 上 curl up 上找找有没有操作 excel 的 skill。 果然有,大致看看这个中文 skill 的 内容,就是利用命令和 python 来完成 excel 的 操作。其实 skill 可以 简单理解为一个模板,做什么事按照这个模板的提示来调用工具操作。当然要用 python, 就 得安装 python 的 环境。我这个电脑有 python 的 环境,但是懒得折腾啊,对我没啥实际用途。再废话几句,虽然吵得很火热,但是这个大龙虾并不是什么识破天津的东西,而且对 大部分不精通计算机的人来讲,使用门槛依旧很高。当然这个方向肯定没问题,这个软件也会快速迭代,在目前有些特定场景,配置好了确实可以做个助理,但是也没有有些人讲的那么夸张,好像装上后就无所不能,一不小心还能把账户的钱转走,也没那么夸张,你不配置相应的工具和 skin, 他没那么大本事。对于我们这些 excel 重度使用者来说,这个东西想成为一个真正的工作助手依旧还有距离。所以看着全网都在养龙虾的时候,我们也不要焦虑,这个东西真正变成生产线工具的时候,用起来也就会很简单,就像装个微信一样,装上就会用,那时不用学自然就能用。顺带问一句, 据说还有不少退休老头老太太去某大厂门口排队装龙虾,他们装龙虾后用来干什么啊?不懂真心求问,有谁知道的评论区跟大家讲讲呗。

养龙虾最新调用榜出来了,国产模型这次冲得很猛, open club 这波不是跑分,是实打实被掉了八点八,八万一次,两个月三百四十四个模型,这个量已经够看出真实偏好的。现在月榜前三是 kimi, k, 二点五, step 三点五, flash、 mini max、 m, 二点五,前三已经全是国产, 这说明真正吃到掉用量的已经不是老牌币源独跑前十模型里,国产一共吃掉了百分之五十三点八,这不是一匹黑马,是一整排国产模型都在往前顶。 更狠的是,月榜还是 kimi 第一,但单日冲刺已经是 step 更猛,国产模型在真 a 阵台里已经开始反超了。你用什么模型充当你的大脑?评论区答疑,见到就回!关注扎克,聊 ai, 紧跟 ai, 巨象思考!

龙虾本地用的是千万三点五的二十七 b 的 模型,巴巴比特的电话版本 对比了一下,二长音肯定是没问题的。如果说要要做一些复杂任务的话,我买了一个百炼的一个一个一个套餐,可以临时切过去,感觉完全够用了。 这是在乌乌班图的服务器上搭建的,在我本地。

最近这个龙虾比较火,现在大龙虾在云端上跑比较费头梗,我们看一下在本地的麦当劳上跑了会怎么样?我们这里把我们的奥拉玛打开,本地的奥拉玛跑,我们现在跑千万山的四壁模型这里,我们用 ok 切换到我们这边的大龙虾, 我们这里让他在我们电脑上帮我们在这个木路上去创建一个文件夹,我们看一下他大概用多久。纯用本地大模型,我们这里计时喔, ok, 这里就反应了十九秒。 ok, 那 我们在这里看一下经典的 hello world, 还算是快,听说还有一种可以让它在我们 mac 上面跑得更快的,后期我会去测试一下。关注我多一个程序员朋友。

今天咱们继续聊聊关于最近讨论度非常高的 ai 工具,饿笨可乐也可以叫它龙虾。我呢,前几天是部署了一个,最近呢,发现它的热度非常高, 本质上呢,它是一个基于大语言模型的本地 ai 代理,你要让他干活的话,你需要给他文件操作的权限,还要接入大模型的 api, 听起来很酷,对吧?但是这里呢,会引发几个核心的问题。 首先是技术的现状,大家都知道,当前的大模型还远远谈不上完美,胡说八道,也就是幻觉的问题仍然是存在的,特别是在文件操作上,他有可能会导致误删除,误改你的重要文件。这已经不是理论风险了,网上已经有很多的例子。 这就陷入了一个悖论,你给他完整的权限,他干活是方便了,但你的文件风险大增,你若不给权限,他能干的事就非常有限,可能就剩下整理整理信息啊,价值就大打折扣。 其次是安全隐患,这点非特别要警惕,如果你是从非官方渠道下载这类的部署,那么文件里可能会被投注,陷入恶意代码,导致你的 api 密钥,甚至电脑文件泄露。 另外,成本也可能是一个坑,一次文件操作指令消耗成千上万个 tokens, 远超你的预期。我就是因为部署了一个飞书,然后消耗了一百万 token。 那么普通用户要怎么做呢?我给大家几个建议。如果你是零基础的纯新手,我建议你现在不要自行安装,更要对网上网络上的这个什么叫付费安装服务保持警惕。 呃,在方案上呢,我们可以耐心的等待,像腾讯这类大厂未来更安全更可靠的官方产品。如果真想尝试尝试,优先在云服务器上部署。我就是用腾讯云部署的,没敢在自己家电脑上部署,先把你的重要文件环境隔离开,相对更安全。 最最后我想说说呢,对这个趋势的认知。 ai 智能体,让 ai 助手能处理各种的任务,这肯定是未来的方向。 但是当前这个阶段的工具显然成熟度还明显不够,所以不用陷入什么错失恐惧症,不必担心自己没赶上就被落下, 我们不妨把目光放长远,优先做好自己的工作流,等工具本身更成熟更安全了,再去从容的使用它。 那么总而言之呢,技术浪潮呢,是值得关注的,但保持理性和耐心,才能让我们真正的受益红利,而不是成为他早期的小白鼠。以上我表达清楚了吗?

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

大家好呀,我们来看看我的 open cola 里养的两只龙虾员工是如何写作的。这个是我的文件夹,里面有两个 workspace, 对 应的是两个 agent。 我 们进入其中一个,可以看到有不同的 skills, 这里我写了一个 linking skill, 通过调用浏览器访问 linking 来抓取信息。 我们再来看一下我的 open color 配置文件,我有两个 a 阵台 id, 分 别绑定了本地欧莱玛运行的千万模型和云端的 mini max 二点五。然后我们再看一下 channel 的 绑定关系。我这里会用飞书来控制云端模型的员工,用 webchat 来控制本地模型的员工, 而且他们两个也是可以相互交流的。然后我们打开飞书,让他帮我查个人微软 ceo。 接着我们就看第一个员工的表演了,他会用浏览器来搜索 阅读被调查人的 linkedin profile, 然后给我返回这个人的履历和学历信息卡。我特意要求我的龙虾一号帮我估算被调查人的年龄。然后我们让飞叔龙虾指挥我的本地模型龙虾,要求本地模型龙虾新建一个桌面文档,然后将刚刚收集到的履历信息解入到新建的 t x t 文档里。这样飞出云端模型 龙虾就不要操作我的本地文件了。我们可以看到本地龙虾已经开始拼命工作了,因为我用的是 amd imax 三九五处理器笔记本,所以加载八零 b 的 抠的模型还是很快的。我们来检查一下,果然桌面文档建好了,也把正确内容写进去了。好了,我们再见。

说一下 openclaw 以及呃龙虾到底是什么?现在它为什么这么火?首先我先跟大家说一下这个 openclaw 是 什么东西?那 openclaw 呢?其实没多久,就是也就是今年刚刚火起来的,应该是今年年底还是今年一月份左右啊?反正想不起来具体的时间了,我当时在第一时间就已经 发了一个视频,就说它最早呢,它其实不叫 openclaw, 叫 cloudbot, 但是后来呢,它其实跟那个 cloud 它其实发音很像,它不是一个字嘛,但是发音一样, 所以他觉得有一些碰瓷,后来就改了个名字,改了两次名字,最后改名叫 open club。 而 club 呢,其实是龙虾的意思,所以你可以理理解,它叫做开源的或者开放的龙虾,所以后来呢,就很多人都会管它叫做呃,养龙虾。这是个什么东西呢? 本质说来呢,它是一个,它是一套程序,那这个程序有什么用呢?就是它可以本地部署在你的电脑上,它跟你的 windows 系统一样,它把这个系统放到你的电脑上,它可以自动去调用一些模型去处理你的各种各样的工作。最简单就是它可以远程去调用,可以接入你的一些聊天工具, 比如说可以接入微信,可以接入呃 qq, 然后可以跟你聊天。大概这样东西,那每天呢,你给他指派指令,他可以去调动你电脑里边的各种各样的工具。 那简单说来就比较类似于,我不知道早年间有没有玩过一些电脑里边有一种东西叫做呃,按键精灵。按键精灵对吧?它屏幕可以点哎?它什么?它可以操控你的鼠标, 可以可以屏幕上各种点, openclaw 本质来说也是这个,它可以通过用其他的模型作为自己的驱动的内核,或者把各种模型当成你电脑里边的大脑。然后 openclaw 呢,是它的身体可以在你的这个电脑上点来点去,点各种各样的工具,比如说它可以打开你的电脑里边的 聊天软件,甚至它可以打开你电脑的 ps, 它可以打开你电脑的什么这个三 d 软件,三 d max, 或者打开你电脑的编码工具,或者点开你的电脑记事本啊,通讯录啊,都可以,只要你电脑上有这些东西就可以了, 你给他设定权限,他可以各种操作。那这个作者呢?我想不起来,是个挺壮的一个小帅哥。然后这个呢,这个作者呢,在发发明这个东西的时候也是,就是呃,感觉很有意思,然后他也并没有特别强的功能,本质来说他其实就是一个 这个程序,这个程序本身并没有什么厉害,你还需要从外边找其他的大模型来操控。这个程序本身并没有什么厉害,你还需要从外边找其他的大模型才能真正的控制你的电脑。 大模型都有哪些呢?比如说我们国内的豆包啊, mini max 啊,智普啊, deepsea 呀,国外的比如说 jimna 呀, grot 呀, 然后 gbt 啊这些模型。所以 open cloud 的 本质来说就是给这个这些所有的大模型加了一个手,让这个手可以直接操控你电脑,就是这个事儿,所以它本质来说也没有特别的厉害, 但是呢,它也有两点革新,两点革新,这两点重要的革新使得它确实是脱颖而出,你说这玩意有什么?有什么厉害的?很多人其实都会觉得这个叫做套壳工序,像我们刚才说的这是 harness, 现在在整个 a i 界有两种两种讨论,就是我们谈到底是模型本身重要, 还是模型外边配套那个壳重要。这个怎么说呢?就是其实绝大多数的 openclaw 刚出来的时候,你看绝大多数越是在 ai 行业里边从业的人员,对这个对 openclaw 其实越看衰,很悲观,觉得这个东西其实没什么了不起, 但是越是外行人,其实对 openclaw 的 其实越兴奋,你就可以看到最近多少爱好者、票友,或者说就只是听听,听个概念的这些人,他们非常热衷于这个。 我们先不说这个两方观点哪个对,那他们的争论呢?主要来自于对于模型未来的到底以什么形式带到我们身边的一种探讨,就两种思想都可能,对,这两种探讨是什么呢?首先呢,第一个事情就是我们有绝大多数的从业人员都会认为,不论最后你套壳套成什么样, 真正值钱的是模型本身的那个核心,那你的机制,你的数据,包括你能给他的权限都不关键,只要模型的智慧不断的提高,这些东西都能迎刃而解, 那就是他认为模型是最重要的。你这个壳啊,其实就是套壳,就是包皮,这个不值钱,像我们同学们经常会说的,对吧?那个手机里边啊,芯片最值钱,小米这种公司他就是个组装厂,壳值什么钱啊? 芯片都是别人的,然后光刻机都是别人的,这个根本不厉害,但还有一派认为呢,就是这个产品的综合体验值钱很多的。你的芯片固然牛逼,但是你最后做的这个产品,用户不喜欢,你照样卖不上钱,你最后在商业市场里边你照样差。所以 这个刚才我们看那个视频里边,他举了个很有意思的例子,其实在硅谷华尔街里边早就有这种这种说法,他们用的是金融市场的例子,华尔街的一个交易员,他赚了几百亿美金,几百几千万美金, 那你说到底是这个交易员本身的能力强,还是因为他在这个平台,他在这家公司,他能调动这么多的资金,他能认识这么多的人,他能有这么好的设备跟这个这个软件的支持,他才能达到今天这个地步? 这是两派争论,你再往下,再往下延伸,你就会发现这是什么,这人民使官还是英雄使官了是吧?这到底是时势造英雄,还是英雄造时势?这个永远讨论不清楚的,就是我们会认为马虽然厉害,但是一匹马他四处乱跑,他的,他的动能,他的力量不会转换成我们的战斗力。 你需要用非常好的碗具,安头啊,什么什么链条啊,什么车呀等等这些东西,你才能把它的力有效的拧成一股绳,然后你去发电呀,你去,你去拉磨呀,你去干什么都可以。所以你单纯是有码是没有意义的,你需要用各种各样的配套道具让他们联呃协调起来, 道具是关键码不关键,对吧?在这个描述中,就这个芯片落地的落地的本事才关键,就代码不关键,营销才关键。 一个东西本身里边那个那个那个最核心的那个,那个真正的价值并不只是在它里边的那个,那个什么驱动程序,而这个驱动程序是否能够落地是关键。就像是我们经常看到很多科学家, 是吧?他们能研究各种各样牛逼的这种理论,但是一到生活中就全白费了,或者说他们的理论完全不能把它转换成商业价值,那你纯在这讨论就拉倒了。所以这是两派争论。 那欧盟 cloud 其实代表的代表的更多的其实就是我们的这个套壳,或者说我们的这个碗具,我们最后落地的这个工具, 它呢是可以本地端调用的,这是它的第一大更新点,它是本地端的调用,它有一个叫做叫心跳模式,二十四小时不不间断的欧盟 cloud 持续观察你的指令,给你看看你下的任务,而这个呢,本地端监测就它在你的电脑上 完成只属于你的需求。他不会是像比如说我们说这个 cloud code 呀,或者说豆包啊等等这样东西,你跟他说一句话,他回答你一句话,你想让他定时去提醒你,这不行, 因为本质来说他是在云端,他不会对你进行单独的定制。而 open cloud 不是, 如果你有台电脑把 open cloud 装上,然后呢?他定时 就会去唤醒他的某些功能,比如说他现在需要去帮你去计算一些东西了,那在可能在下午几点的时候,你说下午两点你帮我做个什么通知,下午两点他就开始用他的已经做好的接口去用里边的模型,比如说打开豆包,让豆包去处理这个东西,并且把处理结果发给你。 他不提供智慧,但是他会在定时去调用智慧为自己所用。那这是第一个点。第二个点呢?他是本地的,本地有什么好处呢?他可以根据你实时的进行迭代跟优化。简单说来呢,就是我们用豆包,我不知道你们什么感觉,用豆包越用越聪明,越用越笨。 绝大多数同学你去问他,他其实得不到一个答案,就他没有越用越聪明,也没有越用越笨。某一个新版本的模型拿出来以后,他在发布那一刻,他有多聪明,我们心里是有预期的,他一直会很稳定。 但是呢,龙虾不一样, open cloud 不 一样,他会有一个很有意思的这个存储空间,就类似于叫记忆体一样,他会把每一次他在处理的事情, 处理失败的事情封装到一个一个文件夹之中。我上次处理了,处理了失败了,失败的原因如下,上次处理成功了,被得到表扬了,表扬的原因如下,那我我想去操作某一个东西,我不会。那从网上去找一个 这个软件的说明书,他们叫 skills, 无所谓,他找一个说明书放在这个文件夹里边,我下次就按这个说明书去操作。所以你会有个非常明显的感觉,就是 open cloud 这个东西呢,它越用越聪明,一开始呢,跟傻子一样,什么都不会。当然你跟你调用的模型相关, 但是越用它越聪明,越用越聪明,更重要的是它越用越是越懂你,你不可能要求豆包更懂你。我见过很多同学在网上去吐槽是吧? 你们能不能不要跟豆包聊了,因为豆包是唯一一个跟我聊的这么起劲的女生对吧?你们能不能把豆包纸给我是吧?当然很多人说,哼,很多人在这调侃说来豆包你认识他吗?豆包直接立马说,我根本就不认识,他就是我众多的舔狗之一,哈哈,对,当然会有这种这种好玩的事,但是龙虾就不会, 他就是你的,因为他就在你的电脑上,所以他就最懂你。当然他可能没有那么多的情绪,那么多的想法,但是他就懂你,因为他有更多的关于你的一些处理信息被封装到一个文件夹,他在每次开展新的任务的时候,他都会调取这个文件夹, 然后去了解你所你所有的需求,你的行为习惯,你的日常的一些数据。所以目前看来呢, opencloud 的 这两点本地端,然后跟你单独定制,然后呢,它可以调用多个工具,会使得它变成了一个私人助理的一个最终形态。这是我跟你们说清楚 opencloud 的, 但是 opencloud 呢,现在有几个小的问题。我先说一个结论啊,现在这个阶段,普通人要不要装龙虾? 我的建议呢,就是还可以再等等。换句话说呢,就是你愿意装就装,但是不装也完全没有必要那么焦虑。 openlog 的 距离最终形态应该还至少有三到四个月的时间, 这三个月,三到四个月的时间之内,你费劲所所学的如何去让 openlog 更适合你的这些技能可能一文不值,在它更新到最后形态的时候, 就是可能就完全的不一样了,那或者说你之前所学的技能就完全没用了,它就直接给你,直接给你上最终完整版了。 简单说来呢, open class 现在它还是一个一个比较偏向于即刻的玩具,什么叫即刻的玩具呢?它有几个致命的问题。首先呢,第一个问题,咱们就说它的性能,我们说上去它是会不断地进化,不断地变强,但是你知道背后的代价是什么吗? 你每次都用,他肯定会越来越适合你,但是代价呢?就是要钱的, 要钱的呃,他的每一次处理,每一次读你的文章,甚至每一次做任务做失败, 其实背后它的智慧都是用到一些模型去驱动。有一个专门的 opencloud 的 网站,上面有一个排行说,呃,国际上最爱调用什么模型?目前来说比较比较便宜的,比较实惠的模型是那个 mini max, 还有谷歌的二 flash 模型, 谷歌三 flash 模型,这都是相对于比较便宜的。几毛钱?八毛钱还是八分钱?忘了,反正很便宜。然后但是效果最好的模型呢?一定是那个那 cloudsonnet 四点六。 但是目前以普通人来说,你要想用 cloud sony 四点六去驱动这个,呃, opencloud, 让它能够特别容易的去操作你的各种各样的电脑,特别棒的给你实现各种各样的功能的话,那可能一天要烧到几千块钱,这个对于绝大多数普通人来说还是撑不住的。 说,老师,那不能把这个模型放到本地,我们不从网上调用那些模型,我们自己用自己的模型去调用吗?有千问这个人用千问三点五二十七币,然后自己放了一个模型放在本地,他就完全不要不费钱, 所有东西都是自己操作,自己本地部署,除了费电以外,没有任何的额外收入,但是电太便宜了,你天天开着电脑,你也不至于特别难受是吧?那这个是可以的,但是千分三点五杠二十七 b 这种模型所培养出的 opencloud 就 跟傻子没什么区别, 就是你确实是便宜了,但是他能做的操作就跟你拿手机平常给你定个闹钟啊,你跟你高德地图聊会,谈个谈个恋爱啊,你跟小爱同学聊聊,差不多能力肯定要稍微强一点,那强的极其有限。 所以现在遇到了第一个两难问题,就是要么你想让他能用,让他真正能不断的进化,再不断的好用,就有点贵,要么就是确实便宜,但太傻了。 而贵这个事情呢,它确实还是有问题,因为它它不设上限,很多的时候这个东西跑 token, 它瞎在那跑很多的操作呢, 因为这个社区毕竟才刚刚兴起嘛,一月份到现在顶多两个月,很多技术还并没有完善。虽然这个大佬已经被 呃 openai 招弯了,但事实上,当然最近也在疯狂更新版本,但事实上呢,还距离让纯小白能够无缝去应用还是有一定的距离的,这也是为什么很多大厂都会开设一些线下帮忙安装 cloud 的, 这种小的集会也是这个原因。所以这个贵 你要,如果你觉得贵是是你的问题,哼哼,那你就可以试试,反正我们都装了。我们觉得还好,因为一个月往模型模型实验,包括模型能力探索上花个几千块钱,我们觉得还可以,但是你掂量着,我可以跟你说清楚啊,就是你用,就算用 mini max, 一个月花几千块钱也是很正常的量级。他现在其实很多的,欧盟移动的老大富盛,他说他做了一个叫三万,还是三岁,忘了 做了一个三三万的员工,这个员工呢,每个月给他花几几千块钱,但是他要雇员工呢,可能一个月花几万块钱,所以他本质来说他是省了的,那他是有一个雇员工的需求,换句话说,你没有雇员工的需求的这个阶段纯拿他去玩。嗯, 这个钱你得想清楚,因为未来他肯定会更便宜,那个时候你再入局也可以,他说是第一个,第二个。 oppo 卡拉刚出来的时候, 它伴随着一款硬件的爆火,也就是苹果电脑的 mac mini。 为什么 mac mini 会火呢?因为本质来说, emcloud 需要调用的还是显卡呀,内存啊等等的。苹果的系统首先自带稳定很多软件呢,它由于是闭源的, 所以它很多的软件呢,而且它市场比较占有率比较小嘛,它那些病毒啊,那些 bug 就 相对少一些,因为大家都用 windows, 很 少有人去开放这个苹果的开发苹果的病毒软件,或者说呢,苹果的权限的层级还是比较深的,很多东西其实你也很难去把它破坏, 所以苹果系统天生适合这种远程代理服务器。那你当年很多像你家庭影院啊,家庭智能终端都喜欢用苹果去做。而 mac mini 还有一个好处就是它的费电, 那个电耗太低了。 mac mini 这 m 芯片哇,那真的是又性能又好,然后功耗又低,天生就是 open cloud 养龙虾圣体。 但是为什么很多人他们一定要买一台新的 mac mini 呢?你说买苹果电脑的人,难道他没有苹果电脑吗?这就涉及到 open cloud 就是 龙虾的第二个弊端,就是呢,它其实还在呃这个研发之中, 我们知道他可以去打开你的电脑,然后去帮你操作各种各样的东西,但是绝大多数电脑,你要让他操作这东西的话,你就需要给他权限,这就比较类似于叫腾讯管家呀, 什么三六零管家呀,你得给他权限,要不他是没有权利去删除或者添加你电脑里边的更重要的文件的。但你一旦给他权力呢,由于这个这个模型还是比较新的,他有的时候就会给你瞎搞瞎搞呢,有可能就会把你很重要的照片啊,视频啊或者文档啊记录啊就给你删了, 很有可能还会操作一些东西,莽着操作,让你那些账号被封。所以一般呢,我们想用 opencloud, 一 般都是拿一台纯干净的电脑,让它在里边慢慢养,养成了以后你再把它办,把这个整个 skill, 什么它里边的文档, memory 什么的再给你迁移到别的地方去。 所以这也是它的第二个弊端,就是它目前来说呢,安全性跟权限这边对于老手来说已经足够了,对于新手呢,还是有问题的,现在也有专门的去优化它安全性的 skill, 让它使用使用起来效率更好的。这种 啊,你可以理解为插件吧,已经有了,但是还是在更新之中,每一天都在大量的更新,对于绝大多数新人,这个 open class 还远远达不到一劳永逸,你装好了它就能用,远远没有,它还是一些很前沿的,你可以理解为游戏里边的测试服,而且还是内测阶段, 就是内测阶段,就是抢先体验版。这是它的第二个问题,就是安全性这个问题。那第三个问题呢?就是它的性能的问题。 这也是我那天一个朋友过来跟我聊,说他想去把他的书,他把那些他的那些所有的这个文章啊,报导啊,或者说他之前写的书,呃,重新编排,但是他工作量太大了,他想让 ai 帮他去处理这些东西,他说他想买个电脑去装 opencloud。 我 给他的建议呢,就是就是 opencloud 的 第三条。第三条问题呢,就是目前来说 opencloud 的 性能还远不如那些模型强, 它就是安全,它就是定制,这是它两个优点,但它性能实力可差好多。因为首先第一点就是它太贵了,你不可能给它搭载着 一直用 cloud, sony 四点六什么 gpt, 五点四驱动 opencloud。 我 想都我我说完这句话,我后边汗毛都竖起来了,你知道吗?这得多少钱啊?可能 一天就得几千块钱下去了。你知道吗?这得多少钱啊?可能一天就得几千块钱下去了。你不可能用最新的模型,那就意味着你家这个 opencloud 的 智慧不是最高等级, 所以在处理很多文档内容或者工作任务的时候,它其实并没那么聪明,而差了好几个待机。 你用 mini max 的 话,你要知道 mini max 在 网上可以开源那个 keep api 其实都是都不是它最厉害的模型,或者换句话说就是欧盟,它是一个非常棒的肉体,非常棒的外壳,但它那个大脑你用不了,最贵的、最好的、最前沿的,因为用不起, 所以他在处理很多任务的时候,他的上限就太低了,他没有那么厉害,主要原因是因为你穷。对,主要原因是你穷,但是就是 就算你不穷,是吧?他他也没有那么厉害,就是他这这个距离他那么厉害,他确实很定制,他确实很安全,他确实很快速,他确实很及时,但他没那么厉害。 所以如果你要真想去做一些复杂的工作内容的话,我个人来说还是推荐 openai 的 那个 codex, 或者是 cloud 的 cloud code, 这两个去处理一些事情,还好,还更好一些。所以目前来说, opencloud 在 网上更多呈现的状态就是养龙虾的这个养字 则远没到用龙虾这个地步,有什么东西只能龙虾做,目前还没有。当然你随着全市场所有的人往里边去这个涌入,然后大量的人去探索,你要相信 群众的智慧,一定能在里面发挥发挥。他的这个什么本地化呀,定制化呀,及时性啊这个优点,让他做出一个完全不一样的形态,但是目前为止还没有一定要用他的必要,但是你可以参与到这个浪潮中,你也可以为这个这个产品如何能够落地添翼为耕。 但是目前来说,你如果以直接来用的想法,还得至少两到三个月,我不说太远了,就两到三个月再让它发展发展,然后我们再入局都可以。等了三个月以后,肯定有更合适的硬件,电脑肯定有更合适的教程,肯定有更合适的配套工具, ai 时代就是这样,就是如果你一个东西你学起来比较费劲,那你不学,等一会儿 它,等它变到进化到不那么费劲的姿态来到你身边就可以了。好的,我讲到这个阶段呢,我们再往后说一句,那最后最后我们就说一下从业者,如果你是 ai 产品, ai 训练师,或者呢你是在找 ai gc 的 制图员,只要是白领,那么你一定要学 opencloud, 一定要安装 opencloud, 要装这些 skill 的 插件,而且要去看这些教 opencloud 的 网站, 让你的 openclouds 更好用,包括里边如何用更便宜的工具,更更便宜的模型去驱动它,这个你一定要学。为什么?因为现在我在带着我的 ai 产品同学去面试,包括 ip 助理同学,包括我的设计师的同学,他们这三个,我的三个学生学生群体去面试都会问到这个问题, 就是绝大多数的 ai native, 也就是 ai 原生公司,他们的老板都没有那么懂技术, 都是没有那么的从模型基础开始去使用,他们平常都不不太知道这个事的。但是现在 opencloud 已经是从国家层面被注意到了, 你可以看到深圳龙岗最近出了甚至出了政府条纹,然后要求大家去研究 opencloud, 所以 目前为止这是一个极其高频的问题,甚至都能达到百分之五十以上的。被问到的几率就是面试官会问你,你在生活中是怎么用 opencloud 的, 然后你了解 openclouds 吗?你用它干些什么?然后以及你的成本资讯,以及你遇到的问题以及解决方案,这是一个极高频的问题,在我听到这些学生面试的时候,至少是百分之五十的被问,问到的几率甚至比这个数字还要夸张,我认为体感应该能有百分之七十, 就十次里边得有七次被问到欧盟 club 以及欧盟 club 相关的问题。你要想做从业者,那么你一定要去研究,并且欧盟 club 已经明确是一个热点了。在未来, ai 相关的自媒体, ai 相关的外包工作,以及你想去打造一个即刻的前沿的人设,你都绝绕不开欧盟 club。 而欧盟 club 也确实,对吧,没有让我们失望,非常争气。 它是国外,全球全球最牛的代码网站, github 上边儿星级收藏数最高的应用,也可以理解为是近几十年来 最牛逼的。这个民间程序就是就是,什么就 u d c 是 吧,大众,大众所能就民民间程序做的最牛的程序就是这个了。 所以媒体也好,求职也好,你是绕不开的。如果你跟 ai 有 一点点相关,那么你的工作跟 ai 有 一点相关不论,或者你的自媒体跟 ai 有 点相关, openclaw 一定要安装起来,一定要研究起来。我的建议呢,就是用一款三零系的显卡,三零六零及以上的显卡的笔记本,自己把它电脑清除清空了,安一下 openclaw 就 好了,很简单啊,真的非常简单。然后如果从业者, 我强烈推荐你们听我说一招,我强烈推荐我们就这么搞的,我们就这么搞的。就是我强烈推荐 你去那个 open ai, 你 去 open ai, 你 去下一个,那叫 code x, code x 呢,有七天免费试用,然后你用 code x 让他给你装 open cloud, 听得明白这个逻辑吗?哎,我们都是这么搞的,哎,什么部署个环境啊,删个文件啊,装个东西啊,测试一下安全性啊,关个什么权限啊,下个什么插件啊?哎, code x 可聪明了,你让他给你搞就行了。 然后呢,你把 open code 研究放上去,你操作就可以了,然后放到那边,每天定时的用一用,平常时间还是赶紧用完六天免费的 code x。 然后呢,欧盟的这个搭载的,搭载的后台那个,我们管它叫智慧也好,管专业词汇叫 token 也好啊,它会有很多很便宜的方案。目前看来综合性价比最高的其实就是谷歌的 gemine 三 flash, 或者是 gemine 二的 flash 也可以,然后国内的 mini max 的 模型也很可也很好,就是你真想试试,可以装装这个。 另外呢,最后再跟大家说一下,现在你们能在行业里边看到很多卖脚手架或者卖这个玩具,或者卖套壳的平台,比如说刚才咱们看到的,包括你看频道里边同学说的 tree 啊, cursor 啊,包括 open cloud 呀,这种都是套壳的工具, 还有你们用的很多东西其实都是套壳的工具,那这些套壳的工具呢?他们很多时候都会说他们的壳是非常重要的。 我们国内有很多大佬,比如说富盛,我刚才说的富盛,他们在不遗余力的最近的所有视频更新都在推推荐他们公司的 猎豹 cloud, 我 不知道叫什么名字。嗨,这个是正常的,就多听多信多看,就是监听则明嘛。卖壳的一定说它的壳好,卖核的一定说它的核好,都一样都一样,就是你自己试一下,然后也不用焦虑,反正很简单。 你要如果说老师你看 opencloud 有 一次下上这个线下安装我没有参加,我自己能不能装,非常简单,如果你装不好, 你就再等一等,它一定会更新,更更简单更傻瓜的版本。 ai 的 本质来说是不需要学习我们就能操作,本质来说它是解决我们每个人的智慧或者说知识的不平衡,不平不平均。你说老师我笨,那我能加入 ai 浪潮之中吗? ai 就是 解决笨的问题的, 你要是丑你学不了 ai, 那 确实是因为它不解决相貌的问题,但是笨没关系哎,它专门就是解决笨的,它就是为了这个笨蛋而来,明白吧?对,所以完全不用必要焦虑。

玩龙虾的兄弟们,大家都等一等啊,别急着盲目的跟风啊,我到现在应该玩了大概有五天啊,这里也做了本地部署啊,这里呢,用飞书在控制,这里是云端的啊,然后还单独又买了一个,那个 maxgood, 那 个啊,部分基本用三个,我说实话,我自己体验下来,其实最好用的还是本地部署,因为它可以操控你的整个电脑所有的细节啊,这个是最方便的。那么呢,如果你们在云端去操作,比如说你要让它做一些简单的开发, 不需要去格式化,看到他这些东西的话,最简单的还是去做这个啊,这个基本就在现场就可以去完成了啊。但是呢,这个东西就是你买了等于你就配了一个云服务器啊,你就不需要单独再去布置云服务器,这个其实就是一个特别好的地方,这是我 这几天测下来的三种方案,当然我最推荐的是本地部署。本地部署这件事呢,所有的兄弟们要单独去拿一台电脑,就是这台电脑呢,隔离掉什么事情,你重要的文件什么都不要在这上面。然后呢,你哪怕像我自己的 apple id, 所有东西全是全新的,跟我的东西是没有任何关联的。 首先先做一个物理隔离,第二个核心点呢,你可以把龙虾理解成它是一个容器,它不是单装一个,你们真的去测的话,你会发现它可以装好几个大模型,就像你的 主脑副脑,它可有无数个副脑,那什么情况下可以去调用什么模型?你像我的主模型,也就你可以理解我的主脑其实是 mini max, 如果碰到图片或者视频的时候,它马上直接调用 jimmy, 所以 在不同的情况下是可以去设定不同的模型来对应的,其实它就是一个特别好的容器,而且呢这个电脑就等于它的 手脚啊,他可以格式化做的时候你可以看得到啊,这个其实是很直观的。然后第二个事情呢,就是他还可以去分很多的龙虾出来去干活啊,去替你干各种各种的活,就像但是你要去做一个组织架构啊,这个东西去告诉他你要做什么,比如说你是运营对吧? 然后你是设计啊,你是编导,你是干嘛?你要赋予他最直接的身份,那他才会去干活。那么这里面还有个非常重要的核心点在哪里呢?就是大家会觉得笨笨的对吧? 这个时候需要你大量的语料去投喂,也就是你是谁对吧?包括你自己的可能短视频上面的转成文案给他,你的思想,讲话的逻辑,你的语言艺术,你的所有的思考,你的观点 都要给到他,甚至你可能自己做了一些采访,这些东西都可以给到他,全部变成他的语料,这个时候他才能最直接 的去了解你,甚至你的照片,你的些视频都可以给他观看,而且你在飞书里面,他可以调用你飞书里面的很多的文件,早期大家在用飞书做课件啊,做一些资料存储的,这 的时候飞速就特别特别的好用。那么另外一个核心点其实就是授权,你需要在通过五到十个 运用的使用或者尝试开发,这里面有很多的 skill, 就是 技能,你在不断的尝试各种技能的时候,你不断的打开各种不断的权限,因为你一下子是不可能把所有权限全打开了,你是需要通过一轮又一轮的 skill 的 测试,比如说你像我在这台我自己的龙虾上面,我就得 把它装在眼睛,他可以看到我的整个屏幕,因为我当时最早的操作是想让他干嘛,你知道吗?我想让他完整的去操控我的微信, 我的 qq, 哦,我所有在界面里面的社交聊天全部让他来做啊,那后面呢?他就把他眼睛装上去,他可以看到他可以去代替这个鼠标啊,包括啊这个键盘啊,去帮我们做更多的电脑的操作,这个权限就慢慢慢慢开放给他。那么所以这个是你要通过好几个这个过程给他的,他不是一下子就给的。 那再来另外一件事情就是我看到有很多小伙伴也在用它开发一些小程序啦,开发一些游戏啦,开发一些网页啦,都可以,其实这些都能做到,但我这条视频想核心跟你们去聊的观点是什么?这些都不重要,这些其实全网都有,各路大神在告诉你,你都可以去学的到,时间问题而已, 但核心点是你今天想用它干什么,这件事情大家必须要做一个深度思考。所以为什么我开头就告诉大家不要去赶这一波分潮?没有用啊,你把它很热闹的装下去,花了两天、三天、四天、五天,很多人可能要花很长的时间,因为如果没有一些 呃基础的情况下,可能非常难装,对吧?好,那这个时候你花了这么多时间把它装上去了,然后呢?就傻了,你坐在电脑面前,你不知道干嘛,对吧? 核心点是你要知道你要用它干什么,比如说你要让他做板子,对吧?你要让他去帮你操控你的泡泡,回复客户? 还是你要让他揭露什么?这件事情必须要想清楚,不然你装了,我完了就等于完了啊。好像跟大家有一些话题,哎,我也在玩龙虾,你玩龙虾干嘛呢? 亦不知道,对吧?这个是核心,关键你像他今天就自己帮我写了一个直播脚本,哎,这个东西就有了,当然你会说,哎,这些东西在正常的 ai 大 模型上不都能操作吗?但我把它当做一个容器,我把各种东西都投喂给他,把所有的我以前做的资料都给他,这个时候他就是我最好的助理,我接下来可以让他 复工,分好几个紫龙虾去做一个项目,这不就是我想要的事情了吗?然后慢慢的让他自己可以去掌握这台,如果这台电脑不够,我再配一台给他 啊,完整的让他去帮我工作,而且我可以人不在家,电脑只要不关机,所有东西全部由他来完成,所以这件事情就是核心。回到一个原点,大家还是要搞明白,你今天去装 open crop, 你 的目的什么?你想要让他做的行为动作 是什么?先把这件事情想明白,然后再去装龙虾。也就你可以这么理解,这只龙虾无所不能,什么都能做。其实你想明白了,你要用它干什么,比你去装它还要重要一百倍, 这才是核心中的核心好不好? respect 所有的兄弟们,希望大家楼下都玩起来,核心还是那一句话把,你到底想要让他干嘛?想清楚这件事情才是最重要的。 respect 所有的兄弟们。

家人们养 openclaw 龙虾,选模型不用愁了,专属评测榜单 pinchbench 火遍全网,龙虾之父亲自推荐。更惊喜的是,国产模型直接杀疯,成功率速度霸屏前排,实力惊艳老外。 这个实时更新的榜单超靠谱,从成功率、速度、价格三大核心维度评测全球模型,精准匹配 openclaw 需求。成功率上,谷歌 gemini 三 flash 举手,国产 mini k 二点五紧随其后, 包揽二三名。速度方面, mini maxm 二点五直接登顶,超越杰曼莱拉玛,比上一代提速百分之三十七。价格上,国产模型稍逊一筹, gpt 五 nano 性价比拉满国产最便宜的 mini maxm 二点一,约威奇三倍。 但综合性价比榜单里,八个优质模型,国产就占了四个。榜单由 qioai 打造,含二十三个真实任务测试开源,可自定义评测,更贴合实际工作流,小模型也能吊打大模型。