粉丝4983获赞1.7万

很多人买了 mac mini 想装 openclo, 却发现步骤有点多,教程也比较零散。所以这期视频我带你从零开始,完整演示一遍 openclo 的 安装和配置流程。整个过程我会拆分成四个步骤,一步一步讲清楚。 ok, 我 们正式开始。 第一步,安装基础环境,如果都能正常显示版本号,说明我们的基础环境已经准备好了。这里简单说一下, homebrew 是 mac 上的软件管理工具, python 是 open curl 运行所需要的环境, git 是 用来管理代码和项目的。只要这三个工具正常,我们就可以进行下一步了。这一步就是基础环境的确认。 第二步,下载并安装 openclo。 接下来我们正式开始安装 openclo。 首先打开浏览器,进入 openclo 的 官网,在官网首页往下滑,你会看到官网提供的一键安装命令, 复制这段安装命令,然后打开终端,直接粘贴执行。执行之后他会开始自动下载安装。整个过程需要一点时间,我们稍微等待一下,你会看到他正在下载相关的安装包,以及一些依赖组建。 等安装完成之后,系统会提示我们进行一些配置。首先会问你是否了解相关风险,我们直接输入 yes 就 可以。接下来会让我们选择启动方式,我们选择 quickstep, 用最快的方式启动。 然后系统会让我们选择模型,比如这里我选择了 kim, 输入对应的 api key 后选择 keep current。 接下来会让我们选择接入渠道,比如 whatsapp, 飞书等。这里我们先跳过, 因为第三步我会专门教大家如何配置飞书。接下来是技能的配置,为了快速启动,我们先选择 no, 后续有需要的可以再单独添加,然后它会开始安装网关, 安装完成了之后,我们会选择 open the web ui 浏览器,会自动打开一个聊天界面, 这里我们可以测试输入一下,比如说查看电脑状态,如果它正常返回结果,就说明 open curl 已经安装成功,并且可以正常运行了。到这里 open curl 的 下载安装和启动就完成了。 第三步,我们来看一下如何配置飞书。首先打开飞书开放平台,创建一个企业自建应用, 点击创建应用,应用名称可以自定义,由这里我直接命名为 word。 openclove 创建完成之后,我们进入应用后台。第一步,添加应用能力,选择机器人,添加完成后进入权限管理页面,这里我们可以选择批量导入权限, 直接复制我已经写好的权限 js, 确认之后点击申请开通,然后按照提示完成下一步操作即可。 这里飞书册的基础应用就创建完成了。接下来我们回到 openclove, 在 最新版本中其实已经内置了飞书的插件,但是默认是未启动状态。 我们先进入插件管理页面,查看飞书插件当前状态,可以看到飞书插件是未用状态,现在我们执行应用命令, 将飞书插件启动,启动之后再次确认状态,可以看到飞书已经处于遗弃用的状态。我们重启一下 open call 服务,重启完成后,进入 channels 页面,可以看到飞书插件已经出现在渠道列表中, 现在我们开始进行飞书的配置,首先填写飞书应用的 app id 和密钥, 这两个信息可以在飞书开放平台的应用凭证页面获取。连线完成之后,下面的选择连接方式,选择长连接模式,相关选项全部起用,然后点击保存,保存之后系统会自动重启网关服务, 网关重启完成之后,退出渠道就已经接入完成。在建立好长连接之后,我们需要配置事件,这里的事件类型选择长连接,然后点击添加事件,我们添加的事件类型是发送消息, 然后再回调配置,里面同样选择长连接方式,配置完成后记得点击保存。 接下来我们创建一个新版本并提交审批。最后我们回到飞书客户端,还是查看电脑信息状态,可以看到它现在已经成功回复,说明我们的飞书已经配置成功了。 在玩 openclo 的 过程当中,我们可能会碰到很多问题,这里我告诉大家一个邪修的方法。举个例子,我之前在配色非书应用的事件与回调的时候, 使用长链接接收事件,会显示应用未建立长链接,这时候可以直接让 open curl 帮我们处理,这是我邀请他做的,他现在需要我们提供飞书的 app id 和密钥,我们找到飞书应用的 app id 和密钥发给他, 等他一会,现在他已经更新好配置文件了,我们来看一下网页中飞书的配置, 目前来看已经是配置完成了,所以当我们有一些问题需要处理的时候,我们可以直接让 openclock 帮我们来处理,当然也不止这一个场景,你要是碰到了其他的问题,也可以直接告诉他,让他帮忙处理, 毕竟我们花这么大的精力来配置他,是要让他好好干活的。 ok, 这是 mac 配置 openclock 的 全部教程,大家赶紧去试一下吧!

关于 openclaw, 这段时间我用下来有很多的体验和感受,非常的细节,这里边有很多采看的地方,也有觉得这个产品很棒的地方,所以今天我会花比较长的时间跟你仔细的去讲一讲我一些相对来说比较突出的感受。 首先就是 mac mini, 到底 mac mini 是 不是一个必备的选项?先说结论,如果你是一个纯纯的代班小白,而且对于自己的电脑操作能力没有那么的自信,又希望整个使用能够足够的稳定省心,并且把 oppo color 的 能力尽量发挥出来。那我最推荐的方案就是买一台 mac mini, 而且用 api 的 方式去跑 openclaw, 当然还有很多其他选择,从我目前的整个体验来看,也只有这套方法是最省心,最稳定,也最有效率的。那我一开始的设想其实还比较复杂,本地模型加上 api 的 三层结构, 比如用一台能跑本地模型的 mac mini, 同时配合 api 去完成我的一些日常任务。那当时我 web coding 开发了一个模型路由 skill, 相当于用一个模型调度员,按照任务的性质把模型的调度分成了三层。第一层就是使用 open cloud 开发者也最推荐的 cloud opus, 四点六,那效果最好,质量最稳,美中不足就是价格偏贵。 第二层就是国内的一线模型,比如说像 m 二点一啊, kimi 二点五啊等等。这第三层就是本地模型,当时我的选择是前文三三十二 b 的 q 四量化版本。 那真正跑起来之后,我发现其实坑还是挺多的,而且都是那种很小但是很让人挠头的问题。比如一开始做调研的时候,我跟 ai 聊了很多轮,最后得出了一个结论是,我只需要去购买一台 m 四 pro, 六十四 g 内存的 mac mini, 就 能够把千分三三十二 v 跑通。 当时我还算了一笔账,如果我每天大概消耗一百万的 token, 按照这个成本和产出来看的话,可能七到八个月我购买硬件的成本就能回本了。但是实际跑下来发现,最理想的速度在终端当中是十一个 token 每秒,导致回复还是偏慢的。 如果只是在终端里跑,那速度还算能接受,但一旦接上了 openclock, 这里边有各种 skill 规则、历史记录等等,速度就会明显变慢, 平均下来一个回复的响应时长经常要去到一分半甚至两分半。所以这个速度的体验用我的话来说就是真的非常的拉垮。 所以我后面还排查了一轮,想要搞清楚到底问题出在哪。结果发现其实真正的瓶颈不只是内存,而是在于内存待宽。比如一台 mac mini m 四 pro, 它的内存待宽是两百多 g 每秒, 如果我希望 token 输出的速度更高,比如要跑到二十 token 以上,就得上到 max studio, 但是这样一套下来,成本就往两万块走了。 所以你再去对比一下入门的版本,如果还能通过别的方式拿到更优惠的价格,这个使用 opencloud 的 成本就是四五倍甚至更多的差价。所以与其花一万五六千块钱去升级硬件,还是把这部分钱用在 token 上, 那我更倾向于后者。而且对于我个人而言,使用第三方模型也并没有特别强的隐私焦虑,所以我更能接受纯 api 的 方案。那么问题来了,既然本地模型这么吃硬件,为什么不直接上 vps 或者其他云部署方案呢? 我自己也对比过整个不同方案之间的一个区别,我觉得目前 mac mini 方案最值得推荐的原因有三点,第一点就是它还是能够用到很多 macos 本地系统的能力的,很多东西你再去调用 opencloud 的 时候需要的一些能力, macos 本身就很顺手,而且直接用了系统级的功能去做事。 第二点就是你基本上不需要做太多的额外的配置,就能够第一时间去上手 opencloud, 那 整体使用的路径更短,不容易在环境依赖权限上反复折腾。第三点就是它可以低功耗的二十四小时稳定运行, 那如果你本来就有一台 mac mini, 或者说能够以更加便宜的价格拿到,那整个这个成本和使用体验就会更好。接下来我想讲一讲一些具体的使用细节。 opencloud 跟我们平时使用的正常的 ai 聊天软件到底有什么不一样?首先第一点就是 界面体验,你会发现它的整个界面非常的朴素,甚至是有点原始。如果你用 webchat, 也就是本地网页去聊天,你会明显感觉到它不像 chat gpt、 cloud gemini 或者是豆包那样的简洁清晰。 核心的原因是它会把很多后台规则以及本地执行的命令信息直接展示在前端,所以整体看起来会更加的工程化,不那么小白,用户友好。 第二点就是整个思考的展示方式,大家现在主流用的模型,像我们上面提到的那些产品,通常会把它的思考过程展示给你看。但是在 openclaw 里,它通常只会显示一个 thinking 的 气泡,不像其他模型那样让你看到整个过程,而且它的速度也算不上多快。 当然,这个取决于你具体使用的模型,尤其是当你使用了飞书跟他的沟通后,你会发现他可能会在 thinking 这个状态上停留很久,页面没有任何文字的流逝输出,也就是说你看不出来他到底在做什么,进行到哪一步了。第三点就是文件和截图这类的能力相对来说偏弱。 比如你希望他自动发截图给你,其实需要提前去做一些固定的设计,或者是预埋留一些习惯让他知道你的偏好。否则在默认情况下,他更倾向于把文档和图片保存在本地,然后你得自己去打开对应的 md 文档或者是图片进行查看。 综合上面所有的尝试和对比,我最终的选择是用了一台配置更加入门的 mac 模型,而不是原来的本地模型加上 api 的 组合。 再往下一个更加现实的问题是, open club 到底适不适合普通人去使用呢?那我的结论是,他更适合那些有探索精神,也能接受相当程度风险的人, 因为他出风险的概率实在是不小。你会在网上看到各种成功的案例,但是很少会有人把自己遇到的风险和翻车的经历一五一十的讲出来。而且这种风险不止存在于 open club 这种独立开发者开发的开源项目, 就连前一段时间 cloud 推出的 cowalk 也有类似的系统级风险。我印象最深刻的是看到的一个帖子,有人用 cowalk 的 时候,直接把电脑里一百多 g 的 文件全删了,而且找不回来。 所以如果你不希望发生这类的事情,最稳妥的方案就是做真正的物理隔离,用一台专门的 mac 或者是主机单独去跑 opencloud。 而且在真正决定使用这个产品之前,还要做一个二选一的决定,要么你给他系统提供权限,让他可以调度整个电脑操作系统的很多底层能力,要么你就干脆不要用它, 因为一旦你限制了他的权限,不让他做事,你拿到的就是一个很基础很受限制的积累,整件事情就真的没有必要浪费时间了。那么 open cloud 的 价值到底在哪呢?我觉得本质上他是 ai 圈里的先行者,是那种用来探索上线的产品, 他的很多技术能力在行业的从业者来看,其实并不算前沿,甚至可能在一年前两年前,其中大部分的技术能力就已经有人做出来了。 但是这个开发者真正厉害的地方在于两点,第一是他把这些能力整合成了一个完整的产品,可以让你在一个地方跑起来。第二就是在很多细节体验上做了大量的调教,最终把功能上限和实际体验做到了一个相对极致的平衡。 不过如果你是完全的小白,没有任何代码基础,也没有很多 ai 使用的经验,那我的建议是先等等。因为现在很多国产替代已经在路上,而且很多产品已经很好用,也更适合普通人直接上手。 那最后说说我自己的后续,对于我个人来说,我还是会继续去探索 open 这种玩法,因为如果把它当做一个探索自主化智能体的项目,它确实非常有意思, 而且我觉得它有很大的利用空间,能够帮助我去做咨询、抓取内容选题和生产,甚至半自动化的工作流,去迭代我目前正在使用的这套 ai 内容生产工作流。那最终我的目标是获得一个有眼力见,懂我的需求的合格的数字员工。所以后面 我还有很多的东西会分享出来,包括很多具体的 open class 的 使用方法。不止会包含 ai 自媒体方面呢,也会有很多适合普通上班族的用法。所以如果你感兴趣,欢迎关注我,这里是实业,正在与你分享 ai 一 人公司的成长过程,我们下期再见。

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

最终还是没忍住买了 m 四版本的 mac mini, 我 现在在用的主力电脑是 m 二版本的 mac mini, 这个是二三年买的,到现在已经用了三年的时间了,其实它完全还够用,现在买它纯粹是怕它涨价。 我这个是在拼多多买的三零九八,看价格还没有涨多少,因为去年我是看到过两千九左右的 mac mini, 不 过这个价格也是可以接受的,毕竟这个 m 二我当初买的还三千五呢。它们两个都是盖板,这个是八加二五六,这个是加量不加价,最低配就是十六加二五六。 二五六的内存版本说实话是真的不够用,但是经过这三年的验证,我觉得外挂和雪豹也是没啥问题的。 这个是我之前买的三星的 t 七一 t 的, 当时买的价格只需要四百四十五块钱,现在我看了同款已经卖到了一千三百五了,所以说我决定 m 四版本依旧走这个外挂的路线。但是这个视频的话,也看一看拼多多能不能安全下车,虽说拍个开箱视频万一有问题后期可以扯皮, 里面是还有一个 mac mini 的 盒子。 m 四其实对我诱惑最大的一点就是它的尺寸了,这个要比之前的 m 二版本的小太多了,依然是有这样的贴纸,我们直接撕掉, 然后我们打开,没有任何的阻尼可言,大家看一下这个尺寸,我给他俩摆到一起,大家可以看一下这个对比,不足他的二分之一,但是他会稍微厚一些继续拆掉。 依然是苹果这个经典的铝合金的机身质感,精致感这块拿的还是非常到位的,不过边角的话依然是比较挂手的,设计语言跟之前是一样的,这个是之前的 m 二版本,而这个是最新的 m 四版本,占桌面的面积要小太多。再来看一下都有什么配件, 下面的话就是有一个电源线,然后是一堆不用读系列,来看一下这个电源线相较于上代的进步是变成了这种编织的线材,但是依旧是比较硬一些的,然后跟之前的接口是一样的,即使是这么小的机身尺寸,依然是采用了内置的电源,这个是平时携带出去的一个体积。 来简单看一下它的接口方面,这次他终于把接口有移到正面啊,正面有一个三点五毫米的耳机接口,然后是有两个 c 口, 这个是 usb 三的一个接口,是支持最高实际的一个速度的。然后背面我们看一下这个是它的电源接口,这个是一个网线接口, 网线接口的话是一个千兆的网啊,当然可以花钱升级到万兆。然后这个是一个 hdmi 的 二点一的接口,是最高支持到了八 k, 然后还有三个雷电四的 c 口,这次它是彻底把 usb a 口给放弃了。我们再来对比一下上代的接口,其实这代的接口相较于上代还变多了,上代是电源口,网线口,两个雷电口, 然后 hdmi 口,还有两个 a 口,一个耳机口,对比下来数量上是多了一个雷电四的接口,然后这次的分布的话,我觉得会更合理一些,当然没有 a 口的话倒没有那么的方便,但是这些接口对我来说肯定还是不够用的,所以说肯定是要外接一个拓展屋的,对了,很多小伙伴吐槽这个电源键,它是在这里 是没有那么的顺手,但是我的 mac mini 基本上是没有关过机的,所以说对我倒没有什么太大的影响。相较于外挂各种这种扩展窝,我觉得这种还是来的会更简洁一些。然后这个东西大家尽量买质量好一点的,有质量保障的,因为这个出问题的可能性还挺大的。 我这个是之前的伞塌起的,我觉得还行,然后它扩展出来这么多接口,尤其是这两个接口是非常重要的,所以说这个的话,我之后应该是会给他配一个这样的一个扩展底座,所以说我觉得这个配件是挺重要的。 然后另外一个配件就是这种外挂的固态硬盘了,这两个我个人是非常推荐的 mac mini 的 配件。好了,对于这个 mac mini 有 什么其他想要了解的,可以评论区交流。没有关注小伙伴呢,记得点关注,我是大星,我们下个视频再见。

最近 cloudy bot 带火了这个 mac mini 啊,就为什么大家都选这款设备,我来告诉大家,我这台设备的话是一二款的 mac mini, 它还是能用的,平时可能当个备用机,办个办个工还是可以的, 你看一下它一二年到现在还是这样子。用过这款机器的都知道啊,一二款的话它这个内存是可以,就是可以那个那个什么的可以拓展的,现在的机器都是不行的。打开给大家看一下, 一二年了,到现在依然能打,看它做工,所以很多人买这个设备, 他真的是很安静,质量很好,你看当时的和现在的我的这个没有太大的差别。

你竟然还在想着买 mac mini 部署 openclaw? 今天我就给你算的明明白白,这笔账到底有多冤?先算成本账,能稳定跑本地大模型的 mac mini 入门款 m 四十六 gb 加两百五十六 gb 要四千多,稍微能看的二十四 gb 款要六千出头。 顶配 m 四 pro 四十八 gb 款直接冲到八千多。很多人买之前以为花这笔钱就能拥有一个无所不能的私人 ai, 结果买完才发现,硬件的天花板从你付款的那一刻就已经焊死了! 给你实打实的无水分参数。直接戳破幻想,哪怕是八千多的顶配 mac mini, 最高也就四十八 gb。 统一内存。注意,苹果的统一内存是系统、 cpu、 gpu、 ai 算力共享的,没有独立显存。跑大模型,必须把整个模型全装进内存里, 扣掉 macos 系统 open core 运行环境工具调用必须预留的十 gb 以上空间,你实际能用来装模型的内存最多也就三十八 gb。 按照行业通用的斯比特无损量化标准,它只能稳定运行三四 gb 参数以内的开源模型。 这个模型是什么水平?直白点说,它的逻辑推理、复杂任务拆解、代码生成能力也就勉强接近多年前的 gpt 三点五,和你现在免费就能用的豆包、 kimi 质朴清颜差了一大截,更 别说对标商用的 gpt 四 o cloud 三 opus 这些顶级模型。你想跑能真正处理复杂任务接近 gpt 四水平的七零 b 参数模型,哪怕是四比特量化完整加载加正常运行,也至少需要六十 gb 以上内存。顶配 mac mini 连装都装不下, 勉强启动也会疯狂读写 ssd 做虚拟内存,交换速度直接暴跌百分之九十,卡到你怀疑人生。更扎心的是,商用顶级大模型背后,用的是 h 一 零零、 h 二零零这种级别的 ai 芯片, 单张 h 一 百的显存带宽是三点三 tb 每秒,是顶配 mac mini 内存带宽的三十倍还多,一张卡就能无压力流畅跑七零 b 模型。而商用 api 背后,是成千上万张 h 一 零零组成的算力集群, 你花八千多买的顶配 mac mini, 在 人家面前连入门级都算不上。也就是说,哪怕你在本地部署了最新最先进的大模型,它的实际运行效果和算力表现依然会受到设备性能、芯片、算力等硬件条件的限制。 想要解锁满血的 open collab, 还是要用顶尖大模型的 api, 但前提是你要搞清楚你自己的需求。最后说句大实话, open collab 不是 不好,只是它的目标用户从来都不是只想做个定时提醒、简单自动回复的普通人,而是有明确自动化需求、有技术背景、有特定业务场景的从业者。 对百分之九十九的普通人来说,你日常能用到的所有 ai 功能,免费的商用大模型,早就给你做到了极致,不用折腾部署,不用花大价钱买硬件,打开就能用,体验还能甩本地部署八条街。别再为了虚无的黑科技敢跟风瞎折腾,本质上是陷入了一个为努力的陷阱。 你本来是想用工具帮自己省时间、提效率,结果到头来把所有的时间、精力、钱全花在了折腾工具本身上,彻底本末倒置。

你买 mac mini 干什么呀?买 macbook 呀,得多花一千块钱。如果你现在正在考虑是不是要买一台 mac mini 用来玩 open cloud, 先说一下结论啊,非常不建议买 mac mini, 有 那钱你直接上 macbook, 因为你的第一台苹果设备必须得是 macbook。 现在 mac mini 的 价格被炒得有点高了,在京东上国不完以后 你也得三千八百多。但是吧,你多加一千多块钱,你能买一个 macbook air 总共才五千出头,多花这一千块钱可治老鼻子了。 你买一个 mac mini, 你 不得配键盘,不得配鼠标,不得配显示器啊。而且如果你配的不是苹果的, 那跟 mac mini 一 起用起来非常的蹩手,根本没有办法跟苹果的全家总 pk。 而且你买了 macbook, 它不就是相当于一个 mac mini 呢?你把它合上,它就是一个 mac mini。 但是你 mac mini, 你 打开它不是一个 macbook 呀。你想想,你跟你的朋友坐在咖啡馆里边喝着新冰乐,前边摆着一个 macbook, 多牛逼呀,多装十三呢,对吧?但是如果你买一个 mac mini, 你 试试,你用一个车圈人的话术就是说, mac mini 有 的我都有啊, 我有的 mac mini 不 一定有啊。那么总有人问了,那什么情况下买 mac mini 呢?除非你已经有了一个 macbook。

运行 openclock 到底需不需要使用 mac mini 主机?今天我用吃灰了大半年的 mini m 四的十六 gb 盖板进行了测试。 操作系统我已经升级到了二十六点三最新版,可以看到在刚刚登录系统且未运行任何其他软件的情况下,系统内存就已经被占用了大约十 gb, 这意味着留给大模型的运行空间仅有区区六 gb 资源,非常紧张。 大模型的运行软件我依旧使用了喜闻乐见的羊驼欧拉玛模型,使用的是千问三点五的九币和四币两个参数版本,可以比较好的适配目前的硬件资源。为了了解 mac mini 对 新版千问模型的支持情况,我运行了两个模型的性能对比测试。首先测试的是九币模型, 运行速度是十三 token 每秒,而四 b 模型的运行速度则是大约十九 token 每秒,区别并不大,不过应该可以满足基本的对话需求。下面开始测试。 openclaw 是 全新安装的 macos 版本,版本号是二零二六年三月二日。 在后台把模型设置为千问三点五的九币模型之后,我开始了第一次对话。首先要求龙虾机器人上网搜索今天全球最新的股市新闻。由于是全新安装的环境在思考,大约等待五分钟后,对话框提示需要配置 web search 的 api。 我 按照提示信息将提前准备好的 api key 输入了对话框,并要求他帮我写入后台配置文件。又是长达数分钟的等待, 机器人回复 a p i 的 配置信息已经更新好了,需要重启网关,但是很不幸,网关在重启时提示失败,提示无效的配置文件。很显然,由于模型的能力问题,配置文件的设置有误。好在新版龙虾提供了一个修复命令,我在运行后,网关终于再次成功启动了, 于是我要求龙虾机器人继续帮我搜集全球股市信息。对话框随即陷入了长时间的等待。期间我还关注到 mac mini 的 cpu 温度已经上升到了七十多度,说明后台在进行非常忙碌的数据计算。 不过好在大约十五分钟后,机器人给出了答案,虽然信息很简略,但是非常有条理,并没有明显错误。 于是我再次提出了下一个问题,要求机器人对中国 a 股进行点评分析。不幸的是,在长时间的等待后,页面弹出大模型无响应的错误, 说明后台硬件资源已经完全耗尽,于是我尝试将模型改为了四 b 的 版本,降低资源消耗。但是在我继续等待一段时间后,模型超时的错误再次出现,于是我只能彻底放弃下一步的其他测试。至此,经过我大约三个小时的深度测试,基本可以确认 使用盖板。 mac mini 运行龙虾机器人毫无必要,其有限的硬件性能无法满足基本的对话要求,特别是在单个对话动辄就有可能调用几十万 token 的 情况下。所以推荐的正确做法是选择旧版本更廉价的 mac mini 主机,比如 mac mini m 二, 或是我已经闲置吃灰很久的软路,由主机再配合外部大模型一起工作,才是迷你小主机的正确龙虾使用方法。如果你也有类似的使用经验,欢迎在评论区分享您的心得。

万万没想到,二零二六第一波真香定律竟然是苹果给的!随着 peter samboka 正式开源 ai 助手 open call, 原本就性价比爆棚的 mac mini 直接卖疯掉了。 原声支持无缝适配,四千多的双面小钢炮瞬间变成 ai 工作站,结果就是全网断货,一机难求。但好消息是,苹果这波操作依然很苹果,原价四千多的,国补之后只要三千八左右, 十六 g 加二五六起步性能够用,颜值能打更狠的还在后面。如果你家一不小心有个在读的学生,苹果的教育优惠价格能直接干到三千一左右,这个价格买 m 四芯片的 mac, 说句老实话,比很多组装机还要强, 还没完。如果你在一不小心在谷歌的 channel 里面申请到十二个月的免费套餐,那恭喜你等于是用一台终端手机的钱,直接拿下一整套本地加云端双 ai 开发环节, mac mini 加 open call, 本地部署加杰米尼 a p i 免费调用二零二六最离谱的性价比组合权。所以问题来了,你家那个再多的学生还缺朋友吗?

openk 到底要装在哪台设备上?要不要为了它买 mac? 结论一句话,当你想让它变成你的第二个生产力父老,你才需要 mac。 如果你只是跑编排,定时抓资料调用于模型发消息,其实不用高配一台能稳定跑 note 号浏览器的机器就行, r o m 软路由闲置迷你主机 note 都可以,甚至你的是以新建虚拟机,或者直接用刀刻容器跑 openklo gate 位也行。但如果你要二十四小时常开, 每天自动跑任务,那我建议买一台低功耗低噪音的,比如二手或者国服优惠。 mac mini 放角落常驻 open 号很适合分布式 get 位放在 mini 上,常开你的主力电脑或手机,远程连接它来指挥。注意,本地大模型主要看显存,显存值不是单纯内存越大越难跑。 open 号这边内存最容易被打爆的通常是两件事,刀客常驻服务, 还有无头浏览器忘记关标签页,以及部署了优化了关了的一大堆服务。一旦扩容进程堆起来,内存需求会突然激增,所以内存要留长期运行的余量,不然你在运行的扩容计划任务,甚至在后台常做的任务,都可能会被意外关闭。什么时候你必须买 markos? 当你要它做真正的第二生产力,比如帮你写脚本旁命令,批量处理文件,或者做长期工作流,自动规章,自动生成内容深图焊整理素材, 抓十次新闻作对比分析,翻译海外客户邮件,读取附件提炼要点,并生成专业回复。尤其是你要截图录屏,点击输入控制应用这种 ui 自动化。 macos 端需要 companion app 的 系统能力, 这些很多能力明确,卡麦购 s 十五以上,麦购 s 十四可能直接因为最低版本限制启动不了,所以你不需要为了单纯能跑 oppo pro 买麦,你需要为了让它成为你的富脑而买麦。评论区告诉我,你要富脑做内容生产还是做电商客户沟通自动化运为我给你一套最省钱的部署方案。

可以看到它是在 mac mini 上运行的,然后这时候的话它有权限去查看那个加目录,但是呢它没有呃权限去查看这个呃里面的文件内容, 然后让它查看文件内容,然后查看文件的问题。