粉丝40获赞739

你买 mac mini 干什么呀?买 macbook 呀,得多花一千块钱。如果你现在正在考虑是不是要买一台 mac mini 用来玩 open cloud, 先说一下结论啊,非常不建议买 mac mini, 有 那钱你直接上 macbook, 因为你的第一台苹果设备必须得是 macbook。 现在 mac mini 的 价格被炒得有点高了,在京东上国不完以后 你也得三千八百多。但是吧,你多加一千多块钱,你能买一个 macbook air 总共才五千出头,多花这一千块钱可治老鼻子了。 你买一个 mac mini, 你 不得配键盘,不得配鼠标,不得配显示器啊。而且如果你配的不是苹果的, 那跟 mac mini 一 起用起来非常的蹩手,根本没有办法跟苹果的全家总 pk。 而且你买了 macbook, 它不就是相当于一个 mac mini 呢?你把它合上,它就是一个 mac mini。 但是你 mac mini, 你 打开它不是一个 macbook 呀。你想想,你跟你的朋友坐在咖啡馆里边喝着新冰乐,前边摆着一个 macbook, 多牛逼呀,多装十三呢,对吧?但是如果你买一个 mac mini, 你 试试,你用一个车圈人的话术就是说, mac mini 有 的我都有啊, 我有的 mac mini 不 一定有啊。那么总有人问了,那什么情况下买 mac mini 呢?除非你已经有了一个 macbook。

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

这个是在腾讯云上面做的一个 open club, 怎么说呢,就是不太稳定吧。然后呢?然后它在内容抓取上面做的也不是很好,一直都很难抓到一些我要的一些资源,这时候我就想要不要去搞一台 mac mini, 把它装在 mac mini 里面,但是我觉得 mac mini 的 话,它的性能是有点溢出的,用的话又有点舍不得。你要说 mac mini 的 话,我倒也有,但是这个机器它用来跑大模型的,还有卤空投,如果是就给 oppo 那 个用的话,确实是有点浪费的, 不过还好,我这边还有两台平板,这个比较老的平板吧,一台用来看状态,一台呢用来做这玩意儿。 从配置上来看的话,这台电脑搭载一个这玩意是足够的,而且它 cpu 是 这个 cpu, 非常省电,就算你天天开着它也不心疼啊。今天晚上我就把它给卸载掉,然后换成黑苹果试一下,大家拭目以待吧。

运行 openclock 到底需不需要使用 mac mini 主机?今天我用吃灰了大半年的 mini m 四的十六 gb 盖板进行了测试。 操作系统我已经升级到了二十六点三最新版,可以看到在刚刚登录系统且未运行任何其他软件的情况下,系统内存就已经被占用了大约十 gb, 这意味着留给大模型的运行空间仅有区区六 gb 资源,非常紧张。 大模型的运行软件我依旧使用了喜闻乐见的羊驼欧拉玛模型,使用的是千问三点五的九币和四币两个参数版本,可以比较好的适配目前的硬件资源。为了了解 mac mini 对 新版千问模型的支持情况,我运行了两个模型的性能对比测试。首先测试的是九币模型, 运行速度是十三 token 每秒,而四 b 模型的运行速度则是大约十九 token 每秒,区别并不大,不过应该可以满足基本的对话需求。下面开始测试。 openclaw 是 全新安装的 macos 版本,版本号是二零二六年三月二日。 在后台把模型设置为千问三点五的九币模型之后,我开始了第一次对话。首先要求龙虾机器人上网搜索今天全球最新的股市新闻。由于是全新安装的环境在思考,大约等待五分钟后,对话框提示需要配置 web search 的 api。 我 按照提示信息将提前准备好的 api key 输入了对话框,并要求他帮我写入后台配置文件。又是长达数分钟的等待, 机器人回复 a p i 的 配置信息已经更新好了,需要重启网关,但是很不幸,网关在重启时提示失败,提示无效的配置文件。很显然,由于模型的能力问题,配置文件的设置有误。好在新版龙虾提供了一个修复命令,我在运行后,网关终于再次成功启动了, 于是我要求龙虾机器人继续帮我搜集全球股市信息。对话框随即陷入了长时间的等待。期间我还关注到 mac mini 的 cpu 温度已经上升到了七十多度,说明后台在进行非常忙碌的数据计算。 不过好在大约十五分钟后,机器人给出了答案,虽然信息很简略,但是非常有条理,并没有明显错误。 于是我再次提出了下一个问题,要求机器人对中国 a 股进行点评分析。不幸的是,在长时间的等待后,页面弹出大模型无响应的错误, 说明后台硬件资源已经完全耗尽,于是我尝试将模型改为了四 b 的 版本,降低资源消耗。但是在我继续等待一段时间后,模型超时的错误再次出现,于是我只能彻底放弃下一步的其他测试。至此,经过我大约三个小时的深度测试,基本可以确认 使用盖板。 mac mini 运行龙虾机器人毫无必要,其有限的硬件性能无法满足基本的对话要求,特别是在单个对话动辄就有可能调用几十万 token 的 情况下。所以推荐的正确做法是选择旧版本更廉价的 mac mini 主机,比如 mac mini m 二, 或是我已经闲置吃灰很久的软路,由主机再配合外部大模型一起工作,才是迷你小主机的正确龙虾使用方法。如果你也有类似的使用经验,欢迎在评论区分享您的心得。

最近 oppo 可乐很火爆,我看到很多人想要部署,但是卡在了第一步,到底用现有的电脑,还是买台 mac mini, 还是部署在云端?那我先公开一下我的全套配置,我是特意买了一台 mac mini, 养了一个多月小龙虾,今天来说说我的思路。先点个价,我的方案不一定适合所有人,只说真实感受,欢迎以后讨论。三种方案我都研究过, 首先,排除用自己常用的电脑,不仅会占用日常电脑资源,一些自动化的程序会干扰我正常使用,最怕的还是信息泄露,或者是把我重要的资料删除了。第二种,云服务器 可以二十四小时在线,不占用自己设备。现在大厂陆续都上线了自家的一键部署方案,以前要折腾半天命令行的东西,现在打开网页就能用,甚至手机就能直接跑,确实还挺方便的。但是我当时部署的时候还没有这么多选择,而且它也确实存在一些短板,一是便宜的配置跑起来很勉强, 每月还有额外付服务器费用,长期算下来不一定比买设备便宜。二是定制受限,很多云端预装镜像用不了某些高级功能。最后,我是自己买了一台麦克迷你,自己部署。 方可乐在 macos 上配置最简单,空不入一行命令就能装好,运行也是最友好的,所有功能开箱即用。大厂方案基本是绑定自家模型,虽然有的说支持切换,但选择范围很有限。我个人是比较喜欢用可乐的 opus 模型,它的理解能力、写作质量、复杂推理都是相当丝滑的。 选择 mac mini 可以 更方便地结合 color code 的 使用,对我来说,最实际的感受就是 opus 写出来的稿子几乎可以直接用。跟那些 a r v 很 明显还得花大时间改的模型不一样, opus 的 措辞、节奏、语感都很到位, 十四小时在线功耗极低,待机才几瓦。我的 oppo cola 跑在自己的麦克迷你上,所有的数据都在我家里,会更有安全感一些,跟我日常的工作机也是分开的,不用担心污染数据翻译、分类、格式转换这些简单的工作,用本地模型不花钱就能搞定,节省头肯留给深度创作,一年能省不少钱。 举个我自己在用的例子, openai 的 whatsapp 语音转文字模型,我直接装在 mac mini 上,把视频链接或者会议录音丢给他,就能自动转成文字稿,全程离线,不用联网,不用调 a p i, 也就是零费用,音频内容也不会传到任何服务器上。 最最重要的一点,装在 mac mini 上的 open cloud, 它能帮我截屏看内容、浏览网站、安装软件、管理文件,就跟一个真人坐在电脑前帮你操作一样。就我目前用了一个多月来说,真的还蛮爽的, 在聊天软件上跟他说几句话,就能帮我写好文案,每天自动整理热点新闻,再也不用听那些满是广告植入的早间播报了,还把我养成了五百八十二卡吗的 reddit 账号,有片一百八十一赞的爆款。当然他也不是完全没有缺点。首先,需要一台单独的设备,这个前期投入就比云端部署要大很多, 对于很多只是想要试用一下 apple cole 的 朋友来说不怎么划算。其次,想要接入更好的模型也是有一些难度的,如果只是处理基础的工作,甚至只是跟他聊聊天,就没必要搞的这么复杂。可以看看大厂的部署方案,我这边给有需要的朋友简单总结一下,就在评论区,那本期视频就到这里啦,我们下期再见。

最近很多想玩 open call 的 朋友问我是不是得先买个 mac mini 或者搞台高配电脑才跑得动?今天专门给大家避个坑,新手小白完全没必要为了养龙虾专门去买新电脑,为什么这么说?主要有三点,第一, 龙虾不挑电脑,无论你是 windows 还是 mac, 其实都能装。很多人推荐 mac mini, 主要是因为它功耗低,像个省电的小盒子,而且配置不错,适合当二十四小时在线的 ai 助手。但这不代表普通电脑不能装,只是大家偏好不同而已。第二,算笔电费的账,高配台式机确实功耗高,常年开机费电,笔记本一直插电跑, 对电池也不太好。如果你只是刚开始尝试,真没必要为了省这点电费先去花几千上万块买新电脑,那电费得省多少年才能回本?第三,给新手的实在建议租云服务器, 安装在自己电脑上可能会有安全问题,但是可以安装在云端租一年云服务器,相当于给龙虾涨了个二十四小时 在线的房子,不仅省电安全,还不用担心自己电脑死机断网,更不用愁数据安全的问题。真正玩明白了,再考虑要不要添置硬件也不迟。还有什么有关 openclaw 的 疑问,大家发在评论区,我会给大家一一解答。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

其实你现在去部署这个 openclock, 没有必要一定要去买这个麦克迷你啊,麦克迷你的话可能就是部署的时候简单一点,然后他就是省电一点啊,你像这种 呃小的笔记本电脑,只要内存大过八 g 的 都可以去部署。你看我现在就是用这种普通的电脑主机啊,只要内存大过八 g 的, 不管是 windows 或者说是苹果的 os 或者 linux 都是可以的。基本上我现在能用的我家里面那些废弃的电脑,平时以前不用的那电脑啊,都是拿来装好这个 open color 了, 每一个 open color 呢,就相当于我的一个员工。我建议你们就去买这种几百块的电脑啊,去部署一下,去学一下这这些 ai 的 东西啊,真的非常有用。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

噔噔噔噔,这个就是我给家里部署的麦克斯六六本地大模型服务器,用来跑 open klo 是 一个什么样的效果呢?我这几天研究的很疯狂,然后把我的结论告诉。首先我大概介绍一下这两台机器, 下面的这台机器是我的老机器三十二 gb 的 m 一 max, 上面的这台机器是这个最新的 m 三要求的二百五十六 gb, 因为我觉得二百五十 gb 跑绝大多数大模型完全没问题。我给你看一下我大概跑了一些什么模型,可以看到我有各种容量的,各种大小的, 各种版本的大模型,其实我目前用的最多的就是这个 mini max 的。 然后如果追求速度的话,那这个千万的这个最新的三点五是非常不错的, 同时扣的模型也是非常不错的。那实际它真正运用这个本地大模型和我们线上模型在体验上有什么区别的啊?现在模型大家都体验过,我就不用多说了,那本地模型它非常的安全,你完全你所有的内容都不会处在, 完全在你本地跑,那很多人就会担心了,那我本地这个模型去跑的话,速度会不会非常慢?然后说一句话,大概要个几分钟?并不是的,我给大家演示一下,我们可以分三个问题来测试,比如说第一个问他可以做什么, 看一下啊他的反应,你看他开始思考了,已经开始输出了,看到他可以做很多很多很多事情,但我现在是用电脑操作,方便大家看未来使用的话,其实都是用手机 imessage 信息或者是微信直接让他回复,这样的话你不用盯着这样的屏幕,我现在只是为了给大家去展示, 你看他可以做很多事情,反应基本上跟线上是一样的。那比如说我让他推荐一下二零二五年的高分韩剧,因为这个问题就比较复杂了,他不能基于他的知识库了,他必须联网去搜索看一下这边模型已经开始在思考了。他去 网上去搜索的二零二五年的高分韩剧,然后是在豆瓣上去搜索的,说明哪怕我们这个是用的本地服务器,他依然具有网络的功能,同时你的这些内容只包含你。 呃,这个问的问题,但是实际你的真实数据是不会被传到网上的,比如说相对比较安全。如果你用网上的线上 a p s。 用 open club, 我 觉得毫无价值,因为你在出卖你的隐私。既然我们用到了 open club, 你 就必须要保证你的内容绝对的安全。现在是四点零六分, 可以看到是四点零六分,我这个问题是四点零五分问的,一分钟就可以得到一个被他优化过的一个啊,回复可以看到非常的细, 他也不是简单的随便给你说一下,那比如说这个片子啊,你看我后一个问题,比如说下载第一个到我的迅雷,其实这个就涉及到一个工具调用,就不是简单的一个大模型的一个对话,他是真正操作我的电脑啊,而且我的迅雷之前告诉他是在我的纳斯里面的, 因为这个操作就相当于复杂了,他要在我的 nas 里面去找迅雷,同时帮我找刚刚的第一个 这个电影的内容种子资源找了之后还得迅雷去下载,大家可以记录一下时间啊,我发过去是四点零六分,看一下他大概要多久处理完这个任务, 目前他已经找到了这个资源的名字。 ok, 可以 看到他这个片子他现在已经添加成功了,而且进度是百分之百的。问题是因为我之前可能测试已经下过啊, 现在的时间大概是你看过去的两到三分钟,他通过这个需求帮我去找电影,同时帮我下载成功,然后帮我监测进度,帮我查现在的进度, 整个流程大概三分钟可以搞定,线上我测试了大概是两分钟可以搞定,这个数据差距其实并不大,你要知道线上像这样的一个操作,你可能呃一个人民币就没有了,但是如果是本地,你可以无纸巾的使用,他上十年都没有任何问题, 而且他可以一直在后台给你做这么多事情。所以说我觉得如果你在乎隐私,又喜欢 open 这种没有纸巾的偷看的使用,那本地部署大模型就是最终的解决方案。 刚刚给大家分享完的就是我这个顶配机器的使用体验,那下面的这台机器就是我三十二 gb 的 体验,下一期给大家分享。如果我没有三十二 gb 的 跑小模型,速度又怎么样了?

最近这个 open core 真的 是非常的火,也就是我们最近常说的这个小龙虾,然后我也是第一时间就搞了一台 mac mini 回来了啊,用它来作为这个小龙虾的 房子吧,就叫它龙虾房。但是呢,这个 mac mini 我 们都知道性价比最高的这款是 m 四的十六 g 内存,二百五十六 g 的 这个硬盘啊,它只要三千出头就可以拿下。 但是有个问题啊,十六 g 的 内存相对来说还是挺够用的,但是这个二百五十六 g 的 硬盘啊,真的是不够看。然后呢,我手头刚刚好有闲置的这个 m r 的 固态硬盘,我们要怎样子给它利用起来呢?这个时候呢,呃,我们就需要一款 啊外置的硬盘盒,因为 mac mini 它的背后的这个接口都是雷电式的,所以说如果你接一个普通的硬盘盒的话,是有点浪费它的这个性能的。 然后他外置的这个硬盘盒的话,最高的这个速度可以跑到啊三千到每秒,所以说可以可他内置的这个硬盘来掰一掰手腕了。比如说我最近是经常在做这个直播,每次直播完之后,我会整理一下这个直播的这个录像,然后复盘复盘,然后呢可能会把一些 直播的这些录屏给它剪成切片,所以这个时候呢,我是想让龙虾来试着帮我来接管这个问题,但是这个录像啊非常多啊,非常大,所以呢,这个二百五十六 g 的 龙虾的这个内存很快就会不够用,这个时候呢,就我们就需要外接一块 ssd 了,然后这一块尤达大师的啊,雷电四的硬盘盒的整体的这个使用 体验怎么样呢啊?我来给大家介绍一下,我觉得它这个外观还真的是挺漂亮的,因为它是一个透明的亚克力的设计嘛,然后你是可以直接看到里面的这块固态 ssd, 然后它是还有一个带风扇的设计 啊。我们知道这种雷电式的硬盘盒,由于这个 m 二,特别是 pci 四点零的这个硬盘,它发热量还挺大的啊,但是啊它整体的这个盒子的体积是会稍微大一圈,这样子的话,我们啊使用起来的话就 不需要太担心他这个散热问题啊,毕竟里面塞了一块风扇。然后我主要比较担心的就是他塞了一个风扇以后,他的这个噪音水平控制的怎么样?总体来说这个噪音还是比较能够接受的,因为他可以控制在四十分贝左右, 因为我之前也用过很多啊,雷电式的硬盘盒就是因为这个噪音的问题被劝退了,我之前退了好几个,还有的话我是在后面给他贴了一块这种引磁铁,像是这种这种铁的地方,我就可以直接给他吸上去了,像我们 啊这样对吧?我可以在 macbook 上面贴一个磁吸环,这样子的话我们就可以给它固定在上面了,然后安装的话还是比较简单的,这边 啊往下一滑啊,就可以给他滑出来了。整体的这个安装还是比较简单的,对吧?然后它自带的这个散热片的是黑色的,然后我是感觉银色的比较有科技感,我是自己给他换了一块,他这个也是快拆的设计的,像这一块的话 直接可以拧下来,然后就拆上去了,然后它也是全协议的,包括 usb 四,然后 usb 三点零三点一这些都是可以兼容的。然后为了这个验证这个散热的情况下,我也是啊,拿了一个测温枪测试了一下,就像现在这个温度差不多十五六度的左右的话 啊,没有出现什么过热的情况。还有的话就是我们用这种外置的硬盘的这种好处,就是比如说我这个啊,很多的这些录像啊,视频啊之类的存到了这个硬盘盒里面啊,我是是给它放在 m 四的 mac mini 上面的,但但我的主力剪辑的设设备还是 后面的那台啊, m 一 pro 的 macbook 啊。再比如说我可以让小龙虾先帮我在 m 四的 mac mini 上啊挑几个切片出来,对吧?然后放在这块固态的 ssd 里面,我直接从上面拔下来,然后就转移到我的 啊这个笔记本上面就可以直接开始剪辑了,这一点也是外置的这个 ssd 的 这个好处啊,总的来说我对啊这块硬盘盒的使用体验还算是满意的啊啊,满分一百分的话可以打给他打个 啊八十分吧,扣分的点呢,就是它整体的这个体积稍微大了一点,然后没有自带的这个隐私环,像我自己是自带了一块啊,要自己贴。然后的话啊,他这个噪音还是有一点点的 不能做到说完全听不到,他这个噪音还是有那么一点点的啊,如果你仔细听的话,你可能也希望他们可以再接再厉啊,能不能下一个产品可以优化到一百分,那差不多这就是本期视频的所有内容了,我是马良啊,一个喜欢这个各种细古玩出产产品,我们下期再见。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

大家都说用麦克去咬小龙虾,其实我觉得 windows 才是小龙虾最终的归宿。我昨天在我的 windows server 上面装了腾讯的 qq 一下,打开了一个新的大门,因为 windows 上的 gpu 加 python, 你 就可以做出来很多特别有意思的场景。 那么作为腾讯的 t v p 我 也很荣幸的成为 q q l 的 第一批的内测人员,那特别是在 windows 上装 q q l 非常方便,我现在直接远程登录一下我的 windows 的 机器,看看 q q l 当时是怎么来去装的。 你会发现这 q q l 其实安装起来非常简单,它只要在我们这个下载起来之后,我把我的 q q l l 直接 跟安装正常软件一样,你下一步它就直接进入到安装之后,直接进入到我 qq 这个界面,然后你扫个二维码,输入你的验证码之后,它就直接成为了我 qq 的 这个场景。 真正想把小龙虾拾起来,其实我觉得在 windows 上有几个很重要的一个设备你要有,首先我是强烈建议你是自己看我这边的设备,这边有一个我的飞牛的一个 nars 的 服务器, 里面配备的 nvme 的 硬盘,以及二点五 g 家用的网速,这样的话它可以让你的 windows server 几乎没有延迟了来去进行相关的交互,也和你的 mac 电脑中间通过 wifi 期能很快的没有延迟的进行相关的数据的拷贝。 那你的 windows server 里面最重要的就是有一个 gpu, 那 无论是三零九零还是四零六零,只要有个 gpu, 其实你就可以在里面能够去运行很多你可使用的这个有意思的 python 的 程序。那我看看我们在装了 qq 之后,这是它的一个 windows 的 一个界面,但是我们真正使用它的时候,其实不是在 windows 里使的,我们是直接在微信里面给他下命令就可以了。回到这里面看一看我们的这个 windows, 这个我跟他去聊了哪些事情?首先我是把它直接转完之后进行了扫码, 他让我去做这些简单的事情,我觉得都没有意思啊。这些事情其实对我来讲,我可以在 mac 上或者在我的云端服务器上去做,他其实在我的这个 windows server 上面要做一个非常有意思的事情,因为我有很多的直播,我现在要把我这些直播的内容做一个总结。过去我是要把这个东西传到 云端呢,通过一些云端的 a p i 来去做识别的,那换句话讲,我要花很多的钱要做这个事情,而且传到云端是要很耗力的这个事情的,那我可以在本地来做这个事情,那做这个事怎么办呢?我就想让他说我要去看看怎么把本地的一些视频能够把它识别出来, 那我其实让他给我做了一些推荐,我找这个开源项目来怎么来做?那最后我去选择了一个开源项目 fast whisper 来去安装,因为像我们这种的好奇宝宝不能叫好奇宝宝,叫好奇老登来讲,其实我们喜欢装各种各样的新的东西,但是对于我们来讲 最难的是什么?最难的就是我得装完这个东西,各种的调去哈根痱子去下模型,模型可能还不兼容,中间要做这种复杂的调试,这些对我来讲我没有那么多的时间, 那 qcloud 和 opencloud 其实正好解决了我这个问题,如果它在 mac 电脑上,它因为没有 gpu, 我 可以用 cloud code 来去做这个事情,但是没有 gpu, 所以 它没有办法去真的把底下的实现识别的逻辑做出来, 那我的 windows server 其实就可以干这个事,非常的方便,我就直接让它去本机下载这个东西,当然了,你发现它第一步就卡住了,它 python 环境装不上去,因为我这是一个 玩游戏的一个 windows server, 所以 它里面没有 python, 那 怎么办呢?它告诉我用这个东西安装包,那等了我大概等了它有接近半个多小时,它还是搞不定,那最后停止的时候,我自己去装,把 python 给它装上去。这个 python 装大家很容易就下载的一个安装包,根据它这个说法直接去安装就可以了, 安装完之后我再让他去安装这个东西,那么他还是不会,那这个时候我去看一看是不是 python 环境装的不对,是不是 python 跟他没有办法去连上去,那他其实最后连上去发现 python 是 ok 的, 那我重新再让他去下载安装这个事情,其实最后发现他这还说不行,那我拿语音去指导他,他还不对,那最后呢,其实我还是人工的去在他的我们的 windows server 上面 去帮他去处理了这个事情,我没有做任何的操作,还是在 qq 页面里面来去做,只不过让他去不同的换了一个 mini, 不是 通过微信给他的,那他解决了这个事情,那同时我让他因为要做转化,我就让他去列出来我 nars 上的这些东西,那也发现他有一个 bug, 它列出了一个目录里面的这个文件名其实不对,它是有幻觉的,所以那怎么办?我给他提了一个 bug, 那 这里面其实我的建议还通过飞牛远程就能看到你飞牛上的有哪些东西,你可以通过共享盘来去共享到你的 windows server 上面, 那我就让它直接通过 fast whisper 来去把视频变文字这个内容也存下去了。那这个东西我还看一下处理状态,然后最后呢 处理完成之后呢,还会去总结一下,那其实处理中间他就能总结一些相关的内容和观点,那我让他帮我提炼一些金句出来,他也很快能提炼一些金句。这样其实我就对于我们大概一个半小时的这样一个 讨论,我其实大概就能想象当时说了哪些比较有意思的话。那其实我也可以用 vspacex, 可能效果更好,它能够分出来不同人说的不同话。那同时呢我要把这些金句,因为我这些金句希望它将来能整理这些文章给大家分享出来,那我就让它金句来做一个文章的一个提纲,它也能够做出来。 那这个提纲做完之后,我让他基于提纲再去写一个文字,那这个文字因为涉及到他整个交货的两千字的问题,他显示不出来。那最后我让他给我存在我的这个自己盘上面,我通过飞牛来再去看。所以这样其实解决了我的第一个场景,你会发现他真的是可以把我一个视频就转化成一个文字, 它还可以带时间戳,直接把它里面再去这个处理就可以了。那其实这样的场景呢?我觉得是非常的方便的。那后面还有很多有意思的通过 windows 养虾的一些场景,欢迎关注我的养虾日记,我们看看 windows 加小龙虾还能做出来哪些和 mac 不 同的一些场景。

你竟然还在想着买 mac mini 部署 openclaw? 今天我就给你算的明明白白,这笔账到底有多冤?先算成本账,能稳定跑本地大模型的 mac mini 入门款 m 四十六 gb 加两百五十六 gb 要四千多,稍微能看的二十四 gb 款要六千出头。 顶配 m 四 pro 四十八 gb 款直接冲到八千多。很多人买之前以为花这笔钱就能拥有一个无所不能的私人 ai, 结果买完才发现,硬件的天花板从你付款的那一刻就已经焊死了! 给你实打实的无水分参数。直接戳破幻想,哪怕是八千多的顶配 mac mini, 最高也就四十八 gb。 统一内存。注意,苹果的统一内存是系统、 cpu、 gpu、 ai 算力共享的,没有独立显存。跑大模型,必须把整个模型全装进内存里, 扣掉 macos 系统 open core 运行环境工具调用必须预留的十 gb 以上空间,你实际能用来装模型的内存最多也就三十八 gb。 按照行业通用的斯比特无损量化标准,它只能稳定运行三四 gb 参数以内的开源模型。 这个模型是什么水平?直白点说,它的逻辑推理、复杂任务拆解、代码生成能力也就勉强接近多年前的 gpt 三点五,和你现在免费就能用的豆包、 kimi 质朴清颜差了一大截,更 别说对标商用的 gpt 四 o cloud 三 opus 这些顶级模型。你想跑能真正处理复杂任务接近 gpt 四水平的七零 b 参数模型,哪怕是四比特量化完整加载加正常运行,也至少需要六十 gb 以上内存。顶配 mac mini 连装都装不下, 勉强启动也会疯狂读写 ssd 做虚拟内存,交换速度直接暴跌百分之九十,卡到你怀疑人生。更扎心的是,商用顶级大模型背后,用的是 h 一 零零、 h 二零零这种级别的 ai 芯片, 单张 h 一 百的显存带宽是三点三 tb 每秒,是顶配 mac mini 内存带宽的三十倍还多,一张卡就能无压力流畅跑七零 b 模型。而商用 api 背后,是成千上万张 h 一 零零组成的算力集群, 你花八千多买的顶配 mac mini, 在 人家面前连入门级都算不上。也就是说,哪怕你在本地部署了最新最先进的大模型,它的实际运行效果和算力表现依然会受到设备性能、芯片、算力等硬件条件的限制。 想要解锁满血的 open collab, 还是要用顶尖大模型的 api, 但前提是你要搞清楚你自己的需求。最后说句大实话, open collab 不是 不好,只是它的目标用户从来都不是只想做个定时提醒、简单自动回复的普通人,而是有明确自动化需求、有技术背景、有特定业务场景的从业者。 对百分之九十九的普通人来说,你日常能用到的所有 ai 功能,免费的商用大模型,早就给你做到了极致,不用折腾部署,不用花大价钱买硬件,打开就能用,体验还能甩本地部署八条街。别再为了虚无的黑科技敢跟风瞎折腾,本质上是陷入了一个为努力的陷阱。 你本来是想用工具帮自己省时间、提效率,结果到头来把所有的时间、精力、钱全花在了折腾工具本身上,彻底本末倒置。

现在一堆人推荐云版的 open curl, 那 你用过就知道,一到真实场景实在拉胯,两分钟帮你把现在所有的 open curl 形态从哼到拉排清楚。第一种叫本机的 mac mini 部署,这是目前最能打的方案,因为它生态最完整,工具最丰富,而且不会被风控。 现在随着迭代,安全性能也逐渐补上了,可以给到哼。第二种就是像 auto qq 啊这种, 它们都能一键接飞书或者微信,能自动配置 ui 也很友好,一上来就可以给你一大堆的 skills。 但问题是你就模型被绑定,而且能力上限也会被限制,但是仍然可以给到人上人。 第三种就是像 nano curl, zero curl, coco 这种,这种开源的工具是工程玩家最喜欢的,比如说 nano curl 极简可控, zero curl 安全而且是极致性能, coco 多 agent 可以 给到顶级,但是仅限高端玩家。 最后说说各种云部署,其实又分两种,第一种就像 kimi cloud、 max cloud 这种厂商深度集成的。 第二种就是像阿里云镜像,腾讯云镜像的 lighthouse, 还有火山的镜像等等。这两种都有一个非常棘手的问题,就是它容易被封控,它登录很困难,而且非常容易被拣出,云 ip 被限制, 很多高价值的信息都需要浏览器登录才能拿到。要解决这个风控问题,你需要搞代理啊,指纹啊,环境等等,费的劲直接能把我半条命都搭进去。但是看在一键接入方面上,我还是给 kimi cloud 和 max cloud 给到 npc, 最后各种云的镜像直接给它拉就完了。核心结论, opencloud 的 能力上限不只是模型,还取决于两件事,一是能用什么工具,二你在什么环境里运行。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。