哎,你们想过没有,一台平时根本没人注意的电脑,突然之间全网都卖断货了,这背后啊,可能藏着一个你压根就没听说过的 ai 生意。 今天呢,咱们就来好好扒一扒这个所谓的倒卖偷肯的商业模式,看看它究竟是真的风口呢?还是?嗯,一个吹出来的泡沫?行,那咱们今天就当一回侦探,要解开这个谜,就得跟着这张路线图走。 咱们的旅程呢,就从一台卖断货的电脑开始,一路追踪下去,看看最终会发现一个什么样的你可能想都想不到的全球大生意, 好,第一个先锁来了。你们想象一下这个场景啊,一台平时根本就没人抢的电脑,突然之间官网直接卖光了还不算完,连二手市场的价格都莫名其妙的涨了差不多一两成,你说这事奇不奇怪? 所以,这到底是怎么一回事呢?这可不是什么苹果发新品,大家通宵排队抢,完全不是。这背后啊,其实是一种全新的你可能听都没听说过的新用户群体在悄悄行动。 这不,答案就来了。你看,有意思的是,连卖电脑的零售商自己都把矛头指向了同一个罪魁祸首,一个名叫 opencloud 的 软件, 好 open 可乐。嗯,咱们的线索开始串起来了,不过这个被圈内人起了个外号叫 ai 龙虾的玩意儿,它到底是个什么东西? 而且为什么他这么打牌,非得要一台专属的电脑来伺伺候他呢?哎,你可千万别把 opencloud 当成一个普通的软件,你得把它想象成一个一个七百二十四小时全年无休的数字员工, 他能像真人一样直接看你的屏幕,自己去动鼠标、敲键盘,把那些复杂的任务给办了。这么说吧,他完全绕开了传统软件的各种限制,这简直就是个游戏规则的改变者。这么一说,你是不是就明白了,为啥大家非要给他单独配一台电脑了? 你想想,你总不能一边赶着给老板回邮件,一边眼睁睁地看着你的鼠标自己在屏幕上飞来飞去整理表格吧,那不就乱套了吗?所以啊,一台工况不高的 mac mini, 就 成了这个数字员工最完美的独立的工位。 好了,工位现在是有了,但接下来就是最最关键的一步了,得给这个数字员工配个大脑。而用户在这里面临的选择,我跟你们说,恰恰就是咱们今天要拆解的这个商业模式的真正的核心所在。 现在摆在用户面前的呢,基本上就两条路,一条路,咱们叫它自给自足,就是花大价钱在本地电脑上自己养一个大模型当大脑。 另外一条路呢,就是借外力,通过一个叫 api 的 东西,连接到云端那个超级聪明的大脑。但有意思的地方就在于啊,这虽然是个选择题,但在现实里,答案几乎是唯一的,咱们直接看数据,这就一目了然了。 你看一台标派十六 gb 内存的 mac mini, 想跑一个稍微强一点点的模型内存就已经报警了,更别提那些真正厉害的大模型了。所以你看,想在本地跑这条路,基本上嗯是走不通的。 而且啊,就算你真舍了砸钱给电脑配上了超大的内存,很多用过的人都反馈说本地模型的表现,还是怎么说呢,笨得让人失望。 所以你看技术的现实就是这么残酷,他几乎把所有人都逼到了同一条路上,那就是用云端的 api 好 了,你想想看,当所有人都被迫涌向云端的时候,会发生什么?一个巨大的全新的全球性需求就这么被引爆了,所有人都急需一种东西,一种燃料来驱动云端那些无比强大的 ai 大 脑。 而这些 ai 智能体啊,对这种被称为 toc 的 燃料需求量,简直简直就是个无底洞,非常非常的渴。你们看这个数字简直吓人,就让他帮你研究并写一篇两千字的文章,就要烧掉整整七百万个 toc, 关键就在于这个消耗的规模实在是太惊人了,所以啊,圈内人才会给他起个外号叫 toc 黑洞。 好了,各位注意啊,现在咱们整个谜题里最让人意外的一个线索出现了,咱们来看看全球这个 ai 燃料市场啊,你会发现,超过百分之六十的消耗量,你猜流向了哪?竟然都流向了中国的 ai 模型, 哎,这就奇怪了,为什么呢?咱们接着往下看啊,这个百分之六十一的数字啊,他当然不是个偶然, 它背后藏着一个已经悄悄运行了很久,而且利润可以说相当丰厚的一个商业打法。 那动机是什么呢?其实就两个字,价格。你们看这个图标对比就知道了,简直是天壤之别, 完成同样一个任务,中国模型的价格还不到国外那些大厂的六分之一,你想想,性能已经足够好了,价格却便宜到这个地步,那这道选择题还用做吗? 这么巨大的价格差异,直接就催生出了一套简单粗暴的赚钱四步法,现在很多小团队甚至是个人开发者都在用这套方法, 说白了,它的本质就是一个非常经典的跨国 arbitrage, 也就是套利模型。 没错,这位分析师说的一针见血,你不需要自己去建数据中心,也不需要去买昂贵的算力,你扮演的角色就是一个 ai 年料的搬运工,赚的就是中间这个差价,这简直就是一个完美的清自产商业模式,对吧? 好了,各位,咱们从一台卖断货的电脑出发,一路抽丝剥茧,最后发现了一个隐藏在水面之下的全球性的 ai 燃料套利生意。 那么现在是时候回到我们最开始的那个问题了,这个所谓的麦托肯的商业模式,它到底是真实存在的,还是只是个传说? 最后的结论就是,这事千真万确,它不仅是一个真实存在的商业模式,而且它还能规模化,甚至可以说正处在一个爆发期,它就是很巧妙地利用了全球 ai api 的 这个定价红沟,把它变成了实实在在的利润。 所以你看,这就给我们留下了一个特别有意思的思考,在 ai 这场新的掏金热里,你是想成为那个在旁边卖铲子的人? 这个模式其实就提醒了我们一件事,有时候最大的机会并不一定在于去使用最新的技术,而在于成为那个让别人能更容易、更便宜的使用技术的人。
粉丝687获赞1.2万

很多人一直好奇, mac mini 和英伟达显卡机究竟谁更适合生产,偷啃谁的运营性价比更优?又为何当下众多企业和轻量化 ai 模型会选择 mac mini? 今天抛开主观偏向,纯讲场景是配于底层逻辑,客观理清二者的核心差异。首先要明确 算力设备没有绝对的优劣,只有场景式配度的区别。滔垦生产的核心诉求并非极致的峰值算力,而是长期稳定运行、低成本运维、规模化落地以及系统环境的匹配度,这也是我们判断的核心标准。先厘清二者的专业定位, 这是一切逻辑的基础。英伟达是大模型训练领域的绝对首选。针对超大规模深度学习重型科研计算、大模型研发训练,英伟达显卡的算力强度、计算精度、专业适配性无可替代,是行业内公认的重型科研算力标杆优势及其突出专门服务于高算力需求的专业研发场景。而 mac mini 主打轻量化、稳定型算力输出,完美适配轻量化 ai 模型、日常生活类 ai 应用、手机端应用、小程序及云端小型 ai 服务。这类场景不需要极致算力,更看重稳定、低功耗、长期在线与合规出海的能力。再来看 tok 生产与运营性价比的核心对比。第一, 系统环境适配性不同,并非设备强弱问题,而是生态赛道不同。当下主流的 tok 生产工具 open call 以及各类轻量化 ai 模型均基于 mark mini 的 原声系统,能让这些工具和模型七成二十四小时稳定运行,不闪退、不掉任务。因为达显卡机虽算力强悍,但系统生态与这类 tocan 生产场景不匹配,并非设备本身不行,而是专业方向不同,更擅长大模型训练,而非常期稳定的 tocan 量产。第二, 长期运行与功耗设计适配不同需求。英伟达显卡机功耗高,性能爆发力强,适合短期、高强度、高负债的专业计算工作。 mac mini 功耗仅三十到五十瓦,低温静音,硬件损耗小,天生适配 tocan 生产所需的二十四小时不间断挂机。二者只是设计方向不同, 分别对应不同的使用场景。第三,运营性价比取决于业务场景,因为达硬件投入电费,其运维成本偏高,更适合有专业研发需求的大型机构。 mac mini 硬件成本亲民,体积小巧、机柜部署密度高、运维简单, 个人、小团队及企业都能轻松规模化。在滔垦生产、电算出口这类场景下,运营性价比更占优,这是场景匹配带来的结果,而非设备本身的差距。最后再讲为何企业与轻量化模型偏爱 mac mini? 企业做生活化 ai 手机应用、云端服务、电算出口,核心需求是快速落地、合规出海,成本可控,稳定变现。轻量化 ai 模型本身也无需极端算力, mac mini 系统纯净搭配海外 mac web、 mac ui 等专属平台, 整套算力调度和归结算跨境输出、生态闭环完整,刚好契合这类业务的全部需求,所以成为了优选方案。总结下来,英伟达是大模型训练、重型科研计算的王者,专业重型算力的不二之选。 mac mini 是 轻量化 ai 手机端应用、 偷肯量产、电算出口及企业规模化部署的最优实配,二者各有所长,定位不同,赛道、不同,适配对应的业务场景才是最理性的选择。

不懂代码的普通人怎么不熟 oppo clone 呢?根本不需要花几千块钱去买一个 mac mini, 今天看了我的这条教程呢,直接让你白嫖一百万。 talking, 咱们打开阿里云的官网,在这里点产品,然后选到清亮应用服务器, 然后呢,在这里可以选这个啊, open club 啊,然后一个月啊,一个月大概是这个二十多块钱,一年大概六十多块钱,咱们选个二十多的直接付款啊,付款之后呢,可以看到我们这个实力马上准备好了,咱们点我这个实力,点进去有个音乐详情啊, 因为详情一共有三个步骤啊,第一个步骤啊,就执行这个命令啊,可以放通这个端口啊,第一个已经成功了,第二个呢,就是配置这个 oppo 的 这个 mate 啊,咱们这里呢,直接使用这个百炼 callinplay 啊,确认开通就行了, 免费赠送一百万 token 推理额度啊,这个是阿里云旗下的一个百链平台。然后呢在左下角有个蜜柚管理,创建 a p o a p i k, 创建一个 a p i k, 然后呢勾选用户名称描述一下,随便填一把啊, opcode, 然后确定, 然后大家可以看到啊,这个庙已经生成了。然后呢,右上角有一个地区啊,我们现在是在华北啊,就在北京地区,然后复制这个,然后复制 api k, 然后在上一个页面,然后回到上一个页面,粘贴我们的 api k, 然后呢选北京。那就可以看到奥鹏哥老配置成功。 然后呢就是第三步了啊,就直接呃,可以给我们一个网站,让我们去访问我们的这个龙虾机器人, ok, 点开我们的龙虾机器人,直接问他用中文介绍你自己 啊,你看他已经回答了,下一期我会让 oppo cola 自动帮你干活,大家有遇到部署的问题可以随时问我。

先说结论,当然是 mac studio, 卖掉你还在用的 mac mini, 赶紧换成 mac studio! 大家都想用龙虾来搞钱,但第一步就做错了, 不要用云主机,不要用 mac mini, 那 只是模型产生给你挖的坑。今天我就来分析一下,应该选择什么样的主机来养龙虾。如果你的目标跟我一样,要求龙虾能自动写文章、自动抷图、自动剪辑视频、自动写代码、自动完成金融交易, 那你要的就是一个可以完全自动化的 ai 助理。很多人都会问一个问题,既然有云端服务器,为什么还要花钱买本地设备?一句话,为了省钱、省 token、 省成本, 提高效率。你可以这样理理解,如果你所有事情都用云端模型,那你每一步都在消耗 token, 每一步都在付钱。而复杂的 agent 任务,每时每刻都在消耗大量 token。 举个例子,如果每天生成十个文案,两百个图片, 二十条语音,或者上万行代码,一个月下来几百到三千美金都是正常的。其实更合理的架构应该是这样的,本地模型负责百分之八十的工作,尤其是简单任务,文案初稿、 数据抓取、图片生成、语音生成、视频剪辑。这些都有非常好用且免费的专用模型,完全不需要使用云端模型。而云端大模型负责百分之二十的复杂推理工作,高质量输出,最终润色。关键策, 一句话总结,本地模型负责干活,云端模型负责动脑。你买的不是电脑,是 tok 工厂。对于我来讲,本地设备至少需要满足三个需求,一, 可以跑一个本地的大语言模型。二,可以跑一个纹身图模型,可以帮我生成各种图片。三、可以跑一个语音生成模型,生成各种角色的配音, 实际运行起来至少需要六十四 g 的 内存。在市面上你可以买到的有六十四 g 内存的 mac 电脑,大概有这四种配置, m 四 pro、 m 四 max、 m 二 ultra 和 m 三 ultra。 这里有一个误区,很多人以为大圆模型推理速度只取决于 gpu 算力,实际不完全是这样。 大语言模型推理是一个内存带框驱动型任务,因此最需要看中的实际是内存带框,而不完全是 gpu 的 性能。 以千万三点五这个模型为例,其 token 速度在 max studio 上可以达到七十 token 每秒,而在 m 四 max 上就达不到。 虽然 m 四 max 的 gpu 性能已经超越 m 二 ultra, 但 m 四 max 的 内存只有五百 g, 而 m 二 ultra 的 内存内存是八百 g 每秒。七十 token 的 速度完全可以满足本地的 a 警工作。 当然,由于它的上下文窗口完成复杂决策任务,还是需要云端大模型图像生成的速度,这个与 gpu 的 性能相关。如果你希望加快图,就需要选择 gpu 核素多、性能强的设备, 内存一定是越大越好,如果内存不够,生成图片的时候就会变慢,主要原因就是内存溢出引发 swap, 本质上就是硬拿硬盘当内存使 导致速度变慢。所以如果你资金充裕,也可以买五十六 g 甚至一百二十八 g 的 设备。 目前市面上最有性价比的机器配置就是 m r 二九六十四,内存是八百 g t p u, 性能也不弱。 而最新的 m 三 ultra 六四 g 价格偏贵, m 五 ultra 预计要等到六月份苹果才会推出,因此我上手了这个 m 二 ultra 六四 g, 后续我也会以这个设备作为主机,进行各种模型的配置和评测, 最终搭建一套完整的可以帮我赚钱的 ai 助理。目前我本地的模型方案是,大元模型选择千位三点五三十五, b 深图模型选择 z evatable 语音生成模型选择千万 tds 基本上就是千万全家桶。下一期呢,我开始实操这几个本地模型,然后从零到一,建一个自动生成文案、图片、视频的 ai 系统。关注我 ai, 分享实战技巧,我们下期见。

open 可乐最火的时候,全网都在教你怎么安装,但现在热度下来了,我发现一个非常尴尬的事,百分之九十的人根本不知道怎么养它。这又导致现在 mac mini 高价抢了 taco 也买了龙虾,反而没干啥活。 所以这期视频没必要再去讲什么安装流程,我反而想认真聊一聊,怎么才能把这只野性的龙虾驯化成一个真正能干活,越来越懂我们的 ai 生产力助手。 首先我想说一个反常识的点, skills 不是 越多越好。你想啊,同一个层级下,功能相似的 skills 有 好几个,如果你这个也装,那个也装,那碰到同一个需求,这两个 skills 都觉得这是我的活,那就很容易打架了。就好比一个部门有两个老大, 谁都想自己说了算,最后也只能失控了。所以 skills 不 在于多,而在于边界清晰。那在起步阶段,有一个基础的 skills 清单就非常有必要。我把它分成了四层,第一层,安全层,它的名字叫 skill writer, 这个建议大家都先装上哈,它可以帮助我们审查接下来要装的 skills 的 安全性到底怎么样,比如来源审查、代码审查、权限范围、风险等级评估,只要是低风险,那这个 skills 就 可以放心大胆装了。第二层,其实就是要给它一个搜索功能,这个我用的是 brave, search 到官网注册申请之后呢,每个月有五 w 的 免费搜索额度,对于个人的网络搜索来说,这个白嫖额度基本上也够用了。第三层,我觉得要让龙虾能读懂资料,你可以把最常用的文件格式, pdf 啦, word 文档啦, ppt 这些格式的读取功能,让他先学会这些 skills, 用 i s i p 和官方出品的就行,他已经有九十多万个 star 背书,稳定性和安全性都是有保障的。第四层,你可以给他基础文件的操作能力,让他在特定的文件夹里读写、删改。 先记得先不要给他系统级的权限哈,比如终端命令行执行这类的高危权限,一旦你授权了,他很可能就会默默的修改你的系统配置。这里再分享一个我自己使用 skills 的 方法,那就是自己做一个。比如我把第二层那个 blue search 重新做了一个,因为我当时安装的时候 app 上面的原版博友 search, 它在 reddit 里面说需要一个 api 蜜月,但实际上呢,并不需要。这种描述的不一致就让我觉得,哎,可能没那么可信,哪怕收藏使用的人特别多,那可能跟我的需求也不一样,所以我就重新建了一个。 当然,这个建的过程也不是说我自己就在那吭着吭着写哈,而是让 ai 帮我写 markdown 文档。所以我觉得大家在安装 skills 之前,先了解清楚这个 skills 干啥的,你什么时候会用到它,怎么用它,然后它最大的权限是啥?不求多,但求精。 我们都知道,龙虾的能力上限很多时候在于你用的是什么模型,如果是最顶级的 cloud, 它就非常强,那用一个普通的模型,它就会回归到一个非常普通的状态,甚至有些任务你会觉得,哎,它怎么还没平时对话的通用大模型厉害啊。 但这也不是说以后干啥都用最顶级的哈,那你可能还没驯化龙虾这个账单,就把自己给驯化了。所以我觉得性价比高的玩法是顶级模型和普通模型组合使用。把最顶级的 cloud 当作一个 ceo, 把难题、战略规划类的写 skills, 给 bug, 风险判断这活交给它。 那剩下那些重复性的杂伙,像整理文件啦,整理图片啊,文档总结。那就交给普通模型。我用的组合是 cloud、 obox、 四点六和 mini max。 很多人觉得 openclaw 不 懂自己,是因为他们就把这只龙虾当成一个开箱就能用的工具。但 openclaw 的 定位其实是一个定制化的私人助理,就像你招了一个哈佛毕业的助理,你俩见面的第一件事肯定是告诉他 我是谁,我的任务是啥,底线是啥。那给出这些信息,其实就是给 openclaw 建立上下文,这一步就让他从一个普通的 agent 变成你的 agent。 你也可以提前配置好 user、 identity、 soul 这三个核心文件。 soul 是 关于你、你的个人说明书,你的名字、职业、目的、喜好、红线都写在里面。 identity 是 给 open cloud 身份的地方,比如它的名字,它的角色定位。 soul 是 龙虾的灵魂,你可以定义它的做事风格、价值观和行为边界。但在写的时候,不建议用太多聪明、温柔、冷静这些很虚的词儿, 而是尽量写成可执行的指令,比如把冷静写成永远不使用感叹号和已默契的表情。那面对用户的抱怨呢?直接提供解决方案。因为 oppo 可乐他是一个 a 阵的,他不仅能像 g p t 那 样跟你聊天,还能替你行动, 比如接管你的电脑,替你群发消息,如果你没有配置,删除、发送发布之前必须先确认这些具体的红线,他可能就会为了表现聪明和高效,帮你整理桌面文件,结果不小心删掉了你的资料。 我经常刷到各种 open class 的 视频,我看到屏幕上有很多个 agent, 但我觉得呢,对于普通小白来说,不要一上来就想着建立一个什么 agent 足球队,我们应该先把一个 agent 养明白,再 再去让他开分店,因为只有当你把一个 a 阵的调教好了,你才知道他是什么脾气。当出现问题的时候,怎么借助通用大模型去解决,像养孩子一样,先把他养熟,这样你才能轻车熟路的养。第二个具体的分工,可以设置成一个总管加 n 个专业型 a 阵的的形式。 总管呢,就让他负责一些基础性的总管性的工作,比如搜索啦,轻度的整理专业型的 a 阵的,可以让他写文案,做研究生产图片提示词。 对于这些不同的 a 阵的,我建议是搭配使用不同的模型。像研究型的 a 阵的,可以使用最顶级的模型处理基础事物的 a 阵的,比如图片整理、文件规档,可以用普通的模型,那涉及到创作内容的 a 阵的,像我需要文案和脚本的创作,那我会两种模型搭配使用, 搜集热点信息,用普通模型输出,搞建大纲,用顶级模型组建这些 a 阵的军团,其实就像组建一个团队一样,要让他们有清晰的边界,各司其职,以后你也会越用越顺手。 最后呢,我想分享一下 opencloud 的 权限问题,我觉得我们不要把 ai a 阵呢当做一个资深牛马, 也不要把他当做一个小学生,而是把他看做一个潜力巨大的超级实习生,他非常聪明能干。但是你刚开始跟他接触的时候呢,不要上来就把所有的权限都给他放开,而从紧到松,一步步来。 比如刚开始只是让他们帮我们读取文档,查看文件,做一些总结和轻度的搜索工作,那熟悉了几天或者一周以后呢,可以让他建一个工作区的文件夹,创作文档,写一些草稿之类的,感觉更稳定。之后呢,就可以让他去归党整理, 给他一些删除格式化的权限。最后啊,最高级的权限,比如说发消息,发布视频,或者执行系统性的命令,这些必须经过人工确认。最后,我们总结一下,到底该怎么养好这只龙虾呢?我觉得真正养法就是四个词,少一点,慢一点,看清一点,克制一点, 少一点对全能 ai 的 幻想。慢下来去打磨它的身份和规则,看清它作为工具的边界,那在赋予它电脑的权限时保持克制。 在 opencloud 被炒得最热的时候,不要为了大家都在玩而焦虑,当热度下来了,也不要把它当做过期的玩具扔在电脑里吃灰,毕竟它不是追风口的社交货币,而是你花时间亲手调教出来的真正懂你的数字搭档。

mac mini 暴涨,这纯属是跟风买错了。来讲个硬核知识点,这个叫龙虾的 agent, 它的本质其实是一串 pad 脚本,它不吃显卡, 也不吃本地算力,它真正的大脑在云端 cloud api。 所以 这跟你是 mac 还是 windows, 甚至是一台十年前的破烂笔记本毫无关系。那些加价买 m 四芯片的,怎么说呢,这就好比是吃了顿外卖,非得把五星级大厨请回家里住,太败家了。真正的成本在这里。 toker, 他 每一步操作都在烧钱,省下买电脑的钱去充 a p i。 余额才是正的工具,指在内,算力才是核心,别被硬件厂商收了税。

很多人一直好奇, mac mini 和英伟达显卡机究竟谁更适合生产,偷啃谁的运营性价比更优?又为何当下众多企业和轻量化 ai 模型会选择 mac mini? 今天抛开主观偏向,纯讲场景是配于底层逻辑,客观理清二者的核心差异。首先要明确 算力设备没有绝对的优劣,只有场景式配度的区别。滔垦生产的核心诉求并非极致的峰值算力,而是长期稳定运行、低成本运维、规模化落地以及系统环境的匹配度,这也是我们判断的核心标准。先厘清二者的专业定位, 这是一切逻辑的基础。英伟达是大模型训练领域的绝对首选。针对超大规模深度学习重型科研计算、大模型研发训练,英伟达显卡的算力强度、计算精度、专业适配性无可替代,是行业内公认的重型科研算力标杆,优势极其突出,专门服务于高算力需求的专业研发场景。而 mac mini 主打轻量化、稳定型算力输出,完美适配轻量化 ai 模型、日常生活类 ai 应用、手机端应用、小程序及云端小型 ai 服务。这类场景不需要极致算力,更看重稳定、低功耗、长期在线与合规出海的能力。再来看 tok 生产与运营性价比的核心对比。第一, 系统环境适配性不同,并非设备强弱问题,而是生态赛道不同。当下主流的 tok 生产工具 open call 以及各类轻量化 ai 模型均基于 mark mini 的 原声系统,能让这些工具和模型七成二十四小时稳定运行,不闪退、不掉任务。因伟达显卡机虽算力强悍,但系统生态与这类 tocan 生产场景不匹配,并非设备本身不行,而是专业方向不同,更擅长大模型训练,而非常期稳定的 tocan 量产。第二, 长期运行与功耗设计适配不同需求。英伟达显卡机功耗高,性能爆发力强,适合短期、高强度、高负荷的专业计算工作。 mac mini 功耗仅三十到五十瓦,低温静音,硬件损耗小,天生适配 toc 生产所需的二十四小时不间断挂机。二者只是设计方向不同, 分别对应不同的使用场景。第三,运营性价比取决于业务场景,因为达硬件投入电费,其运维成本偏高,更适合有专业研发需求的大型机构。 mac mini 硬件成本亲民,体积小巧、机柜部署密度高、运维简单, 个人、小团队及企业都能轻松规模化,在掏坑生产、电算出口这类场景下,运营性价比更占优,这是场景匹配带来的结果,而非设备本身的差距。最后再讲为何企业与轻量化模型偏爱 mac mini? 企业做生活化 ai 手机应用、云端服务、电算出口,核心需求是快速落地、合规出海,成本可控,稳定变现。轻量化 ai 模型本身也无需极端算力, mac mini 系统纯净搭配海外 mac web、 mac ui 等专属平台, 整套算力调度和归结算跨境输出、生态闭环完整,刚好契合这类业务的全部需求,所以成为了优选方案。总结下来,英伟达是大模型训练、重型科研计算的王者,专业重型算力的不二之选。 mac mini 是 轻量化 ai 手机端应用 偷啃量产、电算出口及企业规模化部署的最优适配,二者各有所长,定位不同赛道、不同,适配对应的业务场景才是最理性的选择。

嘿,大家好,想没想过在自己的电脑上就能有一个超强的人工智能助手,而且重点是完全免费。今天啊,我就手把手带大家走一遍,看看怎么把谷歌最新最厉害的那个开源模型 gemma four 装到你自己的 mac 上。 咱们平时用那些云端的 ai, 像是 cloud 什么的,确实挺爽的,对吧?但问题也来了,首先就是太烧钱了,那个 api 的 token 消耗啊,简直就是个无底洞。 而且你想想,你所有的数据都得传到别人私服期上,隐私这块总有点不踏实,更别提万一断网了,那就直接歇菜了。 不过呢,好消息来了,谷歌这位赛博菩萨放出了全新的 j 马四开元模型,这什么意思呢?意思就是我们能直接把他吓到自己的电脑上跑。 你想想,这一下就解决了所有问题,完全免费,再也不用担心 token 即费了,数据全在自己电脑里,绝对安全,而且就算没网,他也照样能用。 我知道,一听到部署命令,可能有点头大,但你放心,整个过程真的特别简单,对新手超级友好,基本上就是敲几行命令的事,咱们分分钟就能搞定 好。那咱们先来准备一下工具,你看屏幕上,左边这个叫 c m u x, 右边呢,就是你 mac 电脑里自带的那个终端。说实话,对于咱们今天这个事,你根本不需要装新的东西,直接用系统自带的终端就行了,超级方便。 接下来这个是咱们今天的核心工具,叫欧拉玛,你可以把它想象成一个嗯,一个专门给本地 ai 模型准备的应用商店。有了它下架、运行管理这些大模型就变得特别简单,后面我们还会用到它来,一键安装像 open crawl 一 样的神器, 安装奥拉玛也是一条龙服务。你看,就这么两步,第一步要是你电脑上还没有烘不入,得先装一下。装好之后,第二步就更简单了,打开你的终端,把这行命令复制进去,一回车他自己就全搞定了。你现在可以暂停一下,先把这一步给做了。 等他跑完,你在终端里应该就能看到这个提示。看到这个可爱的小羊脱挑标和 successfully installed 这几个字。看到这个就说明,恭喜你,最关键的一步已经成功搞定了。 好工具,咱们装好了,那接下来就到了激动人心的选模型环节了,得给你的 mac 挑个最合适的接码。 哎,这个问题很重要啊,因为 jamart 它有好几个版本,不是随便选一个就行的,你得看看自己电脑的内存有多大,选对了跑起来才顺畅。 你看这张表,一目了然。我教你一个特别简单的判断方法啊,就是确保模型的内存需求最好不要超过你电脑总内存的一大半,这样能留出足够的系统空间。 比如说你的 mac 是 三十二 gb 内存,那选这个三十一 b 的 满血版,它大概需要十七到二十 gb 就 完全没问题,跑得动。如果你是十六 gb 内存,那可能就要考虑二十六 b 或者更小的版本了。 好,决定好要哪个版本之后,咱们就可以开始下载了。还是在终端里先敲第一行命令, open 杠 a alama, 这是为了把 alama 服务在后台跑起来,然后再输入第二行, alama run gemma four, 杠三十一 b。 你 看,我这里用的是最强的三十一 b 版本做示范,如果你选了别的,就把最后的三十一 b 换成你选的那个版本号,比如二十六 b 或者四 b。 很 简单吧, 敲下回车,你就能看到这个下载进度条开始动了。这个三十 e b 的 模型还挺大的,差不多十九个 g, 所以 具体要多久,就看你家网速给不给力了。可以去泡杯咖啡,耐心等它一会儿。 好,最激动人心的时刻到了,下载完了,咱马上就能跟它聊起来了。下载一结束啊,欧拉玛就会自动把模型加载好,当你看到屏幕上出现这个 send a message 的 提示,就说明成了 gemma four, 已经在线等你了。 哇,太棒了,我们成功了!你看,我就随便问了他一个问题,你是谁?他马上就回答了,最爽的是什么?是,这一切都是在我自己的电脑上拷的,完全离线,完全免费!那个凡人的 token 机飞表永远都是零。 当然了,可能有的朋友不太喜欢在这种黑乎乎的命令行里聊天,感觉不直观。别担心,咱们刚才装的欧拉玛,它其实也是一个正经的 app, 你 去你的程序屋里找,就能看到这个可爱的小羊驼图标, 点开它就是一个非常清爽的聊天界面,你可以在里面直接选键盘四模型,然后就像用普通聊天软件一样跟它对话了。 好了,基础的聊天我们已经搞定了,但接下来才是真正好玩的部分。咱们可以给这个本地 ai 来个大升级,用一个叫 openclo 的 东西,把它变成一个超强的智能体,也就是 agent。 你 可能觉得,哇,听起来好复杂,但实际上呢?借助于 alama 的 强大,这事也简单到离谱,你猜怎么着?还是一行命令就搞定 你?运行这行命令之后啊, alama 就 会自动帮你把 openclaw 下载配置好。然后最关键的一步来了,他会问你要用哪个模型来当这个智能题的大脑。那还用问吗?当然是选我们刚刚装好的 gemma four 啦! 这样一来, openclaw 就 拥有了 gemma four 的 智慧,可以帮我们干很多更复杂的事儿了。就 像原作者说的那句特别有意思的话,搞定这一步,咱们就算彻底实现龙虾自由了。呵呵,这个龙虾指的就是 opencloud 的 那个图标。这个说法真的太形象了,意思就是我们解锁了一个超级强大,而且还有完全免费的本地 ai 工具,想怎么用就怎么用。 所以你看到现在你的电脑里已经有了一个完全属于你自己的免费又强大的 ai 智能体, 他的潜力真的超乎想象,无论是帮你处理日常琐事,还是开发一些复杂的应用,他都能成为你的得力助手。那么问题来了,你会用它来创造点什么呢?特别期待看到大家在评论区分享你们的想法。

跟龙虾整整工作了一个月,烧掉了上十亿的 talk 啊,有一些话啊想跟你直说。第一个就是关于环境,如果你长期看好龙虾这个项目的未来,请你给他配一个 mac mini, 独立的设备,独立的 apple 账号,隔离环境,别让他跟你的私人数据混在一起, 稳定比什么都重要。第二,关于模型,不要绑死在一个模型上,不同的用户用不同的供应商,一直在效果和成本之间找平衡,这本身就是一种能力。 第三,关于功能。我说一句话,你记住,原则上一个人需要坐在电脑前干的事情,龙虾都能替你干,它解放的不是钱,是你的时间和空间,你应该去健身,去爬山,去谈恋爱。第四、关于花费。 有的人一看托肯账单就退缩了啊,说烧钱,别这样,你把这笔钱要跟雇一个真人员工的成本比一比,你就你就知道你占了多大便宜,你应该大胆的去用。第五、关于落地啊,其实现在还早,技术在非常快速的进化,你应该不断的尝试,不是龙虾适应你, 而是你和龙虾一起进化。第六,对那些说龙虾没用的人,我说个扎心的,多数人妄下心态说龙虾没用,那是因为他根本没有什么事需要龙虾去做。第七、 关于自动化。永远不要期待一件到位龙虾能干百分之九十九的活,但那百分之一的决策得留给自己,这不是缺陷,这是正确的分工。第八、关于控制感。 如果你想掌握决策权,就在一开始告诉龙虾行动之前先来问我,写进规则里,他会照办。 第九、关于习惯。如果你现在能改变工作方式,尽可能的让龙虾进入你的日常,今天多一份习惯,未来多一份自由。十、关于未来,我就说一句话,如果你今天还没有养一只本地跑起来的小龙虾,约等于当下还在用。大哥大,别观望了,下水。

云端 ai 托盘太贵,这节课教你本地部署 ai 大 模型,零成本使用纤维三点五,彻底告别托盘焦虑。我们这里会使用 o m l x 来运行大模型, 点击这里,请直接到下载页找到最新正式版本,未来稳定期间请不要找标注 dv 的 版本,找到后点击 s s, 根据操作系统版本下载。安装方法非常简单,直接拖拽过来即可。安装完成后直接运行,初次打开会弹出提示页面端口和其他的保持默认,点击启动服务, 提示成功后再点击。打开管理面板,在顶部的菜单中也可以实现这些操作。管理面板打开后接着安装模型,在顶部菜单,点击模型下载器页面,打开后用最快的速度点击摩塔社区,这是因为打开这个页面后会自动联网查找模型,但是由于网络不通问题,可能会导致页面卡死, 我们快速切换到摩塔社区,让它来不及联网就不会卡住了。点击模型下载器旁边的设置按钮,修改镜像地址为 h f mirror 点 com, 点击保存按钮,现在可以切换回来了,在搜索框里搜索千问三点五九 b mx 杠 speed 这个模型,这个模型的性能对一些常规需求已经非常足够了,运行起来大概占用六 g 左右内存,最低配置十六 g 内存的 bug, mini m 四都可以流畅运行。找到后点击下载按钮,因为我这里已经装过了,就不重复下载了,等待下载完成后会自动安装。再设置 模型,设置里可以看到已安装的模型,点击最右边的设置按钮图标,这里推荐设置聊天模板参数,点击添加设置 enable sync 值为 force, 不 然每次聊天呢,它都会思考很久。其他设置大家根据自己的电脑配置来调整,完成后点击保存,点击就绪按钮 会变成已加载状态,模型已经运行起来了,点击导航栏的聊天按钮,确认下顶部选择了正确的模型。现在啊,可以直接发消息给他, ai 会马上进行回复。 回到仪表盘里可以看到 tok 统计信息。总结下,在 mark m 系列芯片上,可以使用 o m x 来运行本地 ai 大 模型,彻底告别 tok 焦虑。低配置的 mac 电脑推荐使用纤维三点五杠九 b, 这个模型只占据六 g 左右内存, 而且性能足够使用,完全可以用来驱动 open core 文字版内容请看课程讲英文档。下节课我们继续学习 open core 的 安装,并对接上这节课所部署的本地 ai 大 模型。

别再当大傻,最近全网疯抢 mac mini 就是 一位 open core 火,我深度用了一周,我要讲一些博主不敢讲的真相。哈喽,我是梁子,一个在用 ai 研究怎么样少干活多拿订单的外贸老板。 第一,开源免费,但其实只是软件免费,真正烧钱的是 api 的 调用。有的用户他用 open curl 写了个文章出来,短短一千五百字,用了七百万的口卡,比人的时间还要贵。第二,权限的安全。 有一个 up 主用它来帮自己去做交易下注,一觉醒来赔了十万块,我们为了提高生产力,我们需要牺牲多少自己的权限安全?第三,他真的有网上说的那么什么, 坦白讲,从行业人,从技术的角度来看,他其实就是大模型加自动化的脚本,不要被不用就掉队洗脑。别再当大傻, 如果你是有超能力的创业者,或者你是个急客,你是一定要用的。如果你只是一个普通的用户,你要记得,工具是不会改变你的命运,只有清醒的脑子才会。我是梁子,如果你也在探索 ai 或者在外贸创业的你,欢迎跟我多多交流。

大家好,我是航灾,今天呢我准备给大家介绍一下在迈克迷你上如何来安装欧拉玛,欧拉玛就是最简单的尝试本地大模型的方法之一了啊, 有了欧拉玛呢,我们就可以创建一个本地的大模型,和他进行一些简单的聊天呢,或者是给其他程序啊提供一个免费的 api, 如果你的本地设备足够强大的话呢,你甚至可以给龙虾 open club 啊提供一个靠谱的大圆模型,不过这是一个未来的梦想啊,不知道大家有多少人的设备满足这个需求。 然后呢我们就来开始今天具体的内容。首先呢我们来看一下文档啊,在好用载当中,我们直接左侧这里啊就有一个五三零欧拉玛的安装和使用,我们点击一下, 然后我们点击网盘分享,然后我们继续向下啊,这个里面呢一共三个文件啊,其中呢一个是文档,一会我们说接下来的两个文件呢,是我给大家下载好的客户端啊,一个是 d m g, 也就是 max 上使用的,一个是 ex, 这个呢就是 windows 上使用的啊。然后呢我们来看一下文档, 文档当中呢一共有三部分内容啊,第一部分呢就是欧拉玛的官网,第二部分呢是我们一些具体要使用的内容,第三个呢就是我好用在的官网,大家爱学学用就可以了。然后呢我们先说一下欧拉玛的官网,欧拉玛的官网呢,一共有两个啊,一个呢是它真正的官网,另外一个呢是它 github 的 官网, 我们可以一起来看一下啊,至于命令呢,一会用到的时候一起说,这里呢就是欧拉玛的 github 官网,如果需要什么内容呢,可以直接到 release 这里面来下载啊, 不过我们一般呢直接使用欧拉玛点 com 这个官网就足够了。这个官网当中呢,右上角这里就是登录的,也就是下载点击一下 这个里面呢就可以选择是 mac os 或者是 windows, 然后点击下面的登录的,就可以下载你对应系统的客户端了。我这里呢给大家演示一下 mac 系统当中客户端如何来使用啊。在 mac 系统当中,我们直接双击这个欧拉玛,点 app 直接投入到这个应用文件夹里面就可以了。 好的,这样就可以了啊,接下来呢,我们在应用程序当中找到欧拉玛,然后进行点击,这里就是欧拉玛啊,我们双击 第一次运行的时候呢,它会提醒你一下啊,是从互联网下载的,问你是否要打开,我们直接选择打开,现在呢我们就已经进入到了欧拉玛的主界面啊, 然后呢我给大家说一下它的初步设置和使用。首先呢我们先来设置一下啊,因为只有一步设置非常简单,我们直接上滑啊到最上面的菜单栏,然后呢点击一下欧拉玛这个图标,这是一个小羊驼嘛,然后点击 setting, 也就是设置 这个里面呢,只有一项啊,需要打开,也就是说把欧拉玛暴露到局网,这样的话局网其他设备才能够正常的访问欧拉玛, 比如说你的 windows 系统啊,你的丽江系统啊,如果你想使用这台设备的欧拉玛开通的服务,那么你要把后面那个开关啊,直接点击打开一下,下方刚才也看到了出了一个 c 五,这样呢就已经成功了啊,然后还有一个我们再说一下啊,底部这里还有一个上下文长度,默认呢是四 k, 比如龙虾 open 可乐啊,他就要求一定要十六 k 起步,所以说如果你之后有其他程序需要更大的上下文,你需要在这里呢进行一下调节,只有这么两个选项啊,需要说一下,别的呢就没有了。然后我们把这里啊直接关闭一下, 在接下来使用呢也非常简单啊,在这里你可以选择具体的模型,比如说我们点击一下啊,默认的是这个 g m 三啊, 我们可以不用,我们可以向下选择,比如说啊,我们这里选择一个千万三四币,我们点击一下,然后这里呢你随便打一个字,比如说这里呢打一个你好,然后一回车,如果没有这个模型的话,它就会自动进行下载了,我们稍微等待一下,等待它下载完毕就可以了, 大家可以看到现在这个模型呢就已经下载完毕啊,同时呢他也给出了答复,接下来呢你就可以直接跟你的本地大模型进行对话了,比如说呢,这里我们可以问他啊,你都有什么功能,然后直接回测一下, 因为它是一个思考大模型嘛,它首先呢会进行思考,在思考之后呢才会给你形成一个输出的答案啊,我们还是要稍等一下, 现在呢他就开始进行正式的输出了啊,我们还是要继续等一下。好的,现在呢就已经输出完毕了,这个呢就是你跟本地大模型的一个交流过程啊, 所以说总体使用上啊还是很简单的,接下来呢我再给大家演示一下,你现在已经搭建好了,但是其他的程序如何来使用呢?我们这里呢就以 cherry studio 啊来给大家做一下演示。我们打开 cherry studio 以后呢,这里就有欧拉玛,我们点击欧拉玛之后啊, 我给大家简单的说一下如何来设置啊。首先呢你要填写一下 api 地址,这个 api 地址呢就是你的欧拉玛运行的设备,我这个设备的地址呢就是三幺点二二二,后面的部分呢不要变啊,后面是端口号,再加上一个路径杠为一, 这个呢就是它的一个完整地址,我在文档当中呢也有写。再接下来呢我们就可以添加一个大模型,选择添加,然后呢这里要求你输入模型 id, 我 们看一下这个模型 id 是 多少啊?模型 id 呢就是千问三冒号四 b, 然后我们这里手动输入一下啊,千问三冒号四 b, 然后我们点击添加模型,再接下来呢我们选择检测来看一下效果啊,点击,然后这里默认呢就是千问三冒号四 b 啊,我们点击确定 可以看到连接成功,也就说到这里呢,我们的 cherry studio 啊,已经可以使用我们本地大模型了啊,比如说我们点击这个助手, 然后在最上面这里啊,我们选择一下,这个呢就是我们自己本地的欧拉妈妈,然后就是纤维三四 b, 我 们选择一下,在接下来呢,你就在这里输入聊天信息就可以了,比如说这里啊,你同样输入你好,然后回车可以看到它,同样呢是正常的调用了这个本地大模型, 还是开始思考,然后给你答复,没有什么区别啊,跟刚才我们直接使用欧拉玛本身的客户端呢,效果差不多。好的,这里呢开始答复了,可以看到这个思考模型啊,耗时非常多,二十四点三秒, 到这里呢我们就已经知道如何来安装和使用欧拉玛,同时呢如何和其他的软件来进行对接。整体的使用呢,其实是非常简单的,不过我们如果使用这个存储页面的话啊,它的功能呢还是比较少,但是如果我们使用命令行的话,能管理的内容,同时呢也可以看到更多详细的信息啊, 所以我还是推荐大家学习一些基本的命令行命令啊,这样使用起来呢会更方便。然后呢我们就来看一下啊,命令行都有哪些命令?我这里呢给大家列出了几个常用的命令啊, 前面呢都是奥拉玛这个开头,然后后面第二个呢就是具体的参数,比如说第一个奥拉玛历史,就是列出目前所有已经下载的大模型。第二个呢库就是我们要去拉取某一个大模型啊, 第三个 run 呢就是我们要运行这个大模型,所以说大家如果看头三条命令,如果你之前用刀刃用的比较多的话,你会发现啊,这个命令呢除了前面变成了欧拉玛以外,剩下的部分呢基本都是一样的啊,整体呢还是很好记的。 然后这里呢多加了一个这个沃 boss, 它就可以看更详细的内容,一会呢我给大家演示一下啊。最后呢这有一个 r m, 也就是删除,前面呢我们要说一下如何来进行删除, 然后呢前面我们进行的 run, 也就是运行,后面这里呢我们说了一下如何退出啊,接下来呢我就给大家一点一点的演示一下啊, 首先呢我们这里打开一个终端啊,接下来呢我们就可以一条一条的运行命令了,比如说啊,首先我们看一下欧拉玛 list, 我 们直接复制,然后呢在这里右键粘贴,然后回车 可以看到现在这里面呢我们就有了一个大模型,就是我们刚才下载的千万三四 b, 所以 说如果你使用终端的话啊,你刚才跟别的软件进行对接呢,你都不用手敲这个模型了啊,因为有一些模型啊,它的名称还是比较长的,所以说你直接可以复制一下,直接滑动一下啊,然后就直接复制了,或者是你再右键一下都可以啊,它就直接复制了, 然后到你的软件当中直接粘贴就可以了,这样用起来呢比较方便。这个呢就是历史的作用啊,就可以看到你现在里面有多少个大模型了。然后第二个呢就是铺,它就是用来拉取大模型的,具体拉取的大模型名称呢,就是后面这个啊,但这个名称怎么来的呢?我给大家说一下, 我们打开欧拉玛的官网,然后第二个啊就是 models, 这个就是模型啊,我们点击一下,现在呢我们就来到了模型这个页面,里面呢,就列出了目前所有热度比较高的模型啊,当然你也可以在上面进行搜索,比如说那你直接搜索千问, 可以看到千万所有的模型呢就都列出来了啊,比如说我们选择一下这个千万三点五啊,我们点击一下,然后这里就写了啊,欧拉玛瑙,然后千万三点五,你直接复制,然后在终端中粘贴就可以了。当然啊,如果我们想要别的模型的话,也可以, 因为这里我们向下滑动一下就可以看到啊。如果你刚才直接选择欧拉玛瑙切问三点五默认的呢,它就拉取的是这个九 b 的 模型,因为这个呢是 latest 的, 如果你后面不加这个模型大小的话,默认拉取的就是这个啊。我这里呢给大家说一下我使用的 mac mini 它的使用情况。 mac mini 呢,最多是能跑到十四 b 的 模型,大概跑到十抽根左右吧。十四 b 以下的模型呢,一般都可以跑九 b 呢,是一个相对比较适合的模型。不过如果你跑 open cola 那 种需要十六 k 上下文的,你就跑不了九 b 了,就只能跑四 b 啊,因为上下文呢,同时要消耗一部分内存, 所以说这种最适合的九 b 呢,如果再加上十六 k 的 上下文,它所需要的内存呢就比较大了。我曾经直接把麦克迷你啊直接给跑死机了,它自动重启了啊,在我之前使用麦克迷你的时候,我几乎就没有听到过它的风扇的转动啊, 但是自从我测试 ai 开始啊,麦克迷你风扇呢就会经常听到了,也就是说 ai 啊,对于它的性能压榨呢,还是很严重的。 所以说,如果你需要一个大的上下文,你就只能跑到三点五四 b 了。如果你只使用默认的四 k 上下文,那么你是可以使用到九 b 的 啊,当然如果你不需要很大的上下文,同时你也能够忍受速度的话,你其实呢是可以跑到十四 b 的, 比如说前面有那个 coder 十四 b 嘛,可以跑一下,没问题的, 我们这里呢就以切问三点五四 b 为例啊,给大家看一下,我们直接点击一下后面的复制,然后呢我们回到终端里面来啊,我们直接输入欧拉玛,然后铺,然后直接右键粘贴,然后直接会撤, 稍微等一下呢,他就可以直接去下载了啊,而且这个和刀客一样,刀客我们也可以先铺,然后再 run, 但是如果我们直接 run 的 话,刀客里面如果这个镜像没有,他会先去下载,然后就直接运行了 欧拉玛。同样啊,你可以直接运行欧拉玛 run, 这样的话,如果里面没有这个模型的话,他就会直接先去下载,然后呢就会自动运行了啊,我们稍微等一下可以看到啊,你用命令行下载的话,速度是要比刚才用的那个客户端啊下载速度要快的多,所以说我建议大家啊,尽量呢是用命令行来下载。 好的,这里呢就下载完毕了啊,我们稍微等一下,这个速度是要比刚才的客户端要下载快非常多啊,然后这里我们就可以执行下一条命令啊,就是欧拉玛瑙了,我们直接到这里面来啊,直接复制一下欧拉玛瑙,然后同样啊这个模型的名称,切问三点五四 b 邮件粘贴,然后回车 出现这个符号呢,我们同样啊可以开始跟他正常的对话了,比如说这里同样啊,我们输入你好回车, 同样呢这里又开始正常的输出了啊,没有什么区别,但是这次的速度呢,可以看到啊,快很多。然后如果我们想退出的话啊,就是底部,这里就是给大家说了, 你可以用两种方式来退出,一种呢是 ctrl 加 d, 一 种呢是杠 e x i t, 我 们这里输入一下啊,杠 e x i t, 然后回车,现在呢我们就重新回到命令行终端了,这是第一种方式啊,然后我再给大家说一下啊,你后面加上这个沃 boss 有 什么区别啊?这个是详细的意思,我们直接把这条命令再一起复制一下, 实际上就是在刚才的欧拉玛 run 后面啊,多加了一个参数而已。我们同样啊右键粘贴,然后回车,然后这里呢我多说一句,你都能做什么?然后回车, 这里呢它就开始正常输出了,然后我们稍微等一下啊,可以看到啊,上面就是它的思考过程,下面这里呢就是它具体的输出过程啊,整体的速度呢还是比较快的, 如果你加了 woobos, 在 最后这里呢就可以给你一个整体的输出啊,第一行呢就是它总共的消耗的时间,一共呢花了三十九秒, 然后呢这里有一个加载的时间,也就是把模型加载到内存里面去啊,一共呢是一百一十七毫秒,在下方呢这是一个提示词的数量,也就是刚才我给他发的提示词啊,当然一般里面还包括一些系统提示词,所以说呢,它一共是十三个桃痕啊。 再接下来呢这些提示词的处理,一共花了二百六十五毫秒,再接下来呢,提示词的处理速度是四十九 tock, 接下来呢,就是输出的部分了啊,输出的部分呢,一共输出了六百四十八 tock, 花了三十八秒,相当于呢,每秒是十六点七七的 tock, 大家经常关注的呢,其实是最后这个啊,也就是每秒能输出多少 tock。 所以 说,如果你习惯之后呢命令行的话,你就能看到很多更加详细的信息,而且你习惯之后呢命令行和图形界面那个差距并不大。 而且最主要的是啊,如果我们一般使用本地大模型的话,一般也不会用它这个客户端也不会用这个命令行啊,因为都是我们要通过其他的程序来进行调用。这部分呢,主要是用来检查一些信息啊,比如说某一个大模型,它是否速度足够快啊, 这一次呢,我们直接摁 ctrl 加 d 啊,同样也是直接退出了。有的同学可能会问,你为什么用 mac 来演示,你为什么不用 windows 来演示呢? 就是因为我 mac 这个核显啊,本身还算是可以跑,大模型呢,还是能跑的动的啊。如果我用 windows 的 核显来跑的话,我那个是十一代的 a u c, 它的核显啊,也就只能跑动二 b 的 模型,而且速度呢,还挺慢啊。 所以说,如果你还想用 n s 来跑的话,如果你没有一个好的显卡的话呢,那个速度啊,就会更慢了。如果大模型太小的话,智商实在是太低,我觉得四 b 啊已经是底线了。 再向下我觉得只能在手机上回答一些简单的问题,还可以,在电脑上呢,已经不适合了,欧拉玛呢是一个入门的好程序,但是它并不是 mac 上使用最好的一个程序啊。后面呢,我还会给大家介绍其他的程序,如果你对这方面内容比较感兴趣的话啊,可以持续关注 上面这里呢,也已经把所有的命令都介绍完了。最后这里呢,就是刚才给大家提过的啊,你需要在其他程序上调用的时候需要写的地址,你只需要把里面的 ip 换成你自己设备的 ip 就 可以了。 好的,这就是本期视频的全部内容,如果你觉得这期视频对你有帮助的话,欢迎点赞评论转发,一键三连,当然也别忘了关注我们,下次见!

现在问题就很现实了,不想花钱去云端买 token, 本地小模型,工具调用又实在太菜,七币九币,基本文菜一四币也就勉强能用。想要一个真正靠谱的个人 ai 助手,尤其是测重工具,调右领网搜索执行任务这种,光靠 mac mini m 四一六,这也是真顶不住。核心瓶颈就是内存太小,跑不动,能支撑工具调用的大模型,所以这条路只能走到这了。后面还是要整体权衡,适当向上升级硬件配置,不然本地挨住守这条路,县级段根本走不通。

今天我们讲一个用闲置的 mac mini 做家用服务器的一个教程,先我们 mac mini 开机以后,找到系统设置,然后找到通用,然后共享,嗯,把这个远程管理打开, 然后呢我们把这个用户设置好,用 mac mini 来做 nas 最大的好处,做服务器最大的好处就是你可以直接把拍摄的素材,然后把它挂载到 mac mini 上,然后呢再用我们的另外一台电脑主机,然后就可以来再以 nas 的 形式通过局域网来给它进行剪辑,这样的话你的素材就不用保存两次,你只要保存到 nas 里面就可以了。 然后我们到 mac mini 上找到通用,点击共享,打开文件共享,然后在后面这个感叹号点击加载,这个我我已经加载过了,所以说这里就显示的,那我要删除了,我把它重新加载一次。 好,那我重新加载一次我的移动硬盘,那这样的话我就可以在另外台电脑上去访问这个移动硬盘,这样的话他就形成了一个纳斯一样的效果。而上面的这个硬盘, 呃,这个文件夹相当于是本机的,就是 mac mini 本机的,它也有一定的储存,你也可以把它当做一个储存空间来用。然后下面的是我们外界的硬盘,我们外界上去就相当于你的 n s 接了外界的硬盘,这种感觉是一样的, 当 mac mini 连接上路由器以后,这样会更稳定一点,用有线连接,然后这个盘挂载上去呢,就相当于是我们的剪辑盘, 然后呢这个是相当于是一个读卡器,它是雷电四的接口,然后呢把卡插上去以后,你就可以顺势的把素材拷到剪辑盘里面,那以后你的另外一台电脑就可以闲置出来很多空间,然后并且每台设备家里面局域网台,每台 设备都可以访问 mac mini 作为 nas 上面的文件系统,这就是苹果自带的 smb 文件系统,非常的好用。 换一台电脑来演示一下,用这台电脑链接到刚才那个麦克迷你做的纳斯上的一个调色和剪辑,以达芬奇为例, ok, 我 现在项目设置已经设置好了,我现在只要找到文件,找到这里, 这个就是局域网中他的文件,这是我挂载的文件,然后, ok, 我 点进去,然后找到我拍摄的素材,我随便选几个, 速率还可以,很快。 ok, 我 们把它拖到时间线上。好,我们现在就可以剪,我们现在就可以对它进行调色和剪辑了, 可以试一下这个反应快不快,还是还是很快的,跟你插在自己的电脑上没有什么区别。下面我们来看一下手机上怎么操作。打开手机找到文件, 然后点右上角连接服务器,要输入一个 ip, 这个就是 mac mini 的 ip, 那 我这个 ip 是, 嗯,这个 ip 你 可以根据那个路由器上面的那个后台管理可以看到,我们就点这个,然后这里我已经输好掉了,输好掉我点这个打勾,然后马上就连接上了, 就是刚才我共享的那个用户名,然后这里就可以查看我挂载好的硬盘,或者说他也可以是一个家用的纳斯。好,我们随便点开一个,你比如说点开这个调色好的 就可以播放,这样的建议是用有线连接这个 mac mini, 这样的话速度会更快一点。好,我们打开看一下,可以直接播放看,我 来,这样你手机也可以访问这个家用的 nars, 或者你拍好的素材等等,我们换一个。速度还是快,看,我再换一个 转回来,慢慢的几乎是没有延迟的,是连的,一开始会有一些延迟。

十六 g 盖板 macbook 就 能用本地大模型免费养虾,谷歌突破矿的技术实测再立大功!这次是谷歌自家的节目,四大模型, 两者配套威力更强,模型参数直接来到二百六十一,本地直接跑出二十五图腾每秒,然后推开电脑直接连接 opencloud, 实现免费本地养虾。 google 官方表示,超大的上下文窗口裁 是重点,此次上下为窗口,直接拉到了一百二十八 k, 电脑内存更大,又能开启更大的上下为窗口,这才是决定本地智能体能力的核心。

我两道小龙虾跑了整整两个月,烧了两亿的抽坑踩坑踩出了七条血泪的经验,百分之九十的人从一开始就把小龙虾给用错了。第一,环境。 想长期稳定跑,必须做隔离环境,单独的一台设备,比如 mac mini, 七乘二十四小时运行,别和日常办公混用。稳定性和安全性啊,决定你能不能持续产出。第二,模型 核心不是工具,而是大脑。很多人觉得不好用,本质是模型没选对,我推荐用 gpt 啊,结果是最诚实的反馈。第三,价值。它不是帮你省钱,是帮你省时间, 你电脑能完成的重复工作,它基本都能接受。真正的回报是你腾出的时间能去做更重要的事,如果有空去旅个游,那不香吗? 第四,自动化边界,别幻想一键全自动,他可以干百分之九十的重复执行,但最后的判断策略和结果负责一定还是你自己,谁来决策谁来拿结果。第五,使用习惯。很多人用不起来啊,是因为舍不得放权, 从现在开始,把能拆的任务全部丢给他。前期磨合一定有成本,但一旦跑顺,效率是指数级提升。第六,变现的前提, 别再纠结它有没有用,真正的问题是你有没有可以跑的业务,如果没有场景再强的工具,那不也是摆设吗?第七,未来的趋势。这东西不是可选项,是必选项。现在不用,本质是你在错过效率、红利 等。别人已经跑都是自动化了,你还在手动操作,差距只会越来越大。如果你还在观望,那大概率你已经慢半拍了。我们正在用小龙虾做外贸自动化复刻,有兴趣的朋友私聊我。

每天都玩龙虾或用 ai 编程的你,是不是总是被偷坑账单消耗吓一跳?一天下来动辄至少几十上百就没有了,你说肉疼不肉疼?更气的是网络一卡就加载半天,输入提示词等十几秒才出结果,赶项目时急得想砸电脑。别愁了,今天教你一招, 用欧拉玛部署本地大模型,直接把这些痛点全解决,不产生 a p i 调用费用,不用花几千几万去买显卡,低配电脑也可以部署完无线聊随便用, 全程手把手, windows、 linux、 mac 系统全适配,看完视频新手也能三分钟学会。那么话不多说,我们直接上实操教程。 首先我们通过系统指令完成本地大模型环境部署。今天我们使用开源项目提供的官方部署指令来完成环境配置。官方默认部署方式网络依赖较高,我们先简单测试一下复制指令, 回到终端命令行粘贴部署指令。 这种 curl 在 线拉取的方式速度会不太稳定,我们稍后更换更高效的部署方案。 速度确实偏慢,不太适合日常使用。我们先暂停当前操作, 我们改用本地离线部署的方式来完成配置。我们使用官方提供的离线部署文件,根据设备架构选择对应版本,通过系统指令完成环境部署进行安装。 看这个拉取速度就比较快了, 这个大模型呢,不到两 g, 目前的拉取速度还是比较快的, 能达到每秒几兆,我们等个一分多钟就可以了,这样就很快拉取下来了。然后一会我们通过解压的方式完成,解压后模型就部署完成了, 现在我们拉取完了,我们采用它尔命令来解压这个文件,这个解压的命令大家要留意一下,因为文件是 z s t 格式的,解压时我们要加上 z s t d 的 参数才会识别。解压完成了, 我们用欧拉玛命令看一下它的版本号,如果部署成功的话,会显示版本号,那么这个提示呢,说明我们已经部署好了。那么下一步呢,我们先尝试用命令欧拉玛 list, 看一下显示没有连接欧拉玛服务器, 我们先启动欧拉玛,用这个命令,欧拉玛 s e r v e 这样呢,欧拉玛就启动起来了, 我们新开一个终端命令行,再登到这台电脑上, 那么这台电脑呢,实际上是本地的一台配置很低的电脑,我们先用这个测试给大家演示一下在低配电脑上怎么去使用奥拉玛,要用大模型, 登录终端命令行之后,我们再次输入欧拉玛 run, 后面接大模型名称。 然后呢,我们先用千问二点五的一个非常小的本地模型试一下, 我们先去运行它,这个时候呢,先要拉取这个模型, 稍微等一下,这个速度会根据模型的大小,拉取到本地的时长时间也不一样, 只需要你耐心等待就可以。 如果模型拉取较慢,我们可以切换更稳定的部署方案。 这个看着已经部署好了,不到四百兆,那么出现这个提示符,我们可以跟它对话,看看有没有回应。你好,你是什么大模型, 它没有回复,说明还是有点问题,我们再看一下, 这样我们退出吧,用斜杠拜退出, 我们再用命令看一下这个大模型,这个命令显示确实有这个大模型存在, 可能是因为电脑的配置比较低的原因,在本地运行比较吃力,我们用欧拉玛 ps 命令能看到它确实在运行当中。我们先用命令斜杠掰退出吧,我们再换别的大模型,帮助大家怎么排除大模型部署时的错误。 接下来我们更换另一款开源模型继续演示。我们在模型库界面选择合适的开源模型,我们选用不同参数规模的开源模型做对比演示。 我们选一个比较小一点的 e 二 b 吧,给大家演示一下如果你的低配电脑运行不了大模型的时候,会出现怎样的错误。 现在我们部署 e r b 这个模型,它有七点二 g, 耐心等一两分钟即可。 这个拉取过程呢,根据你的网络环境速度也不一样, 那么拉取之后呢?运行不了啊,出现一个内存不够的问题, 我们就不管它了。现在请看,这是我部署的一个真正可以运行本地大模型的服务器。这台服务器上我们同样以谷歌的 gemma 四二六 b 为例,你提出个问题,它的回答还是比较流畅的,这是一个支持文本、图片、音视频的多模态大模型,这就是欧拉玛本地大模型流畅运行的例子。 这是我为多个不同的大模型部署在本地方面对话的演示页面, 我们可以针对不同的大模型进行选择提问,比如说千问三的二三五 b, 它马上就会回复出来。智普的 g l m 五点一,它也会比较快的回复, 包括啊 mini max m 二点七也是可以的, 谷歌伽马四的三 e b 最大的模型也可以快速回复,其实这些全来自于我们通过欧拉马来调用的免费云模型,凡是模型名后面带 cloud 的 都是不需要拉,取到本地即可调用的。 那么我们再回到那台低配的电脑上, 我们用欧拉玛 r m 删掉一个大模型, 看现在只剩下一个大模型了,刚刚那个已经被删掉了, 我们再测试一下,我们找到一个名为 gemma 四三 e b 的 云模型,把这个模型名粘贴到命令行,我们运行一下,在这台低配电脑上, 系统会自动生成设备授权验证流程,按照系统提示完成设备授权即可 连接设备,连接成功,这样我们再次运行这个速度就很快了,这样就完美解决了在低配电脑上不能运行超大模型的痛点。 看现在回复的就比较快, 不过是有一定的额度的,你简单使用体验是够用的了。这样的话呢,你可以通过这种本地部署的方式,可以和你常用的 ai 工具无缝对接, 你只需要选择欧拉玛大模型进行配置就可以了,简单的文本对话,你部署本地可以运行的小模型,电脑配置够的话,部署可以复杂推理和代码运算的大模型,这样不花 token, 速度也够快, 完美解决了你的痛点。好了,那么今天的视频我们就演示到这里,如果你喜欢我的视频,那么请对我的视频进行关注,点赞、评论,那么我们下期再见。

三十二 g 内存的 mac 跑本地大模型,到底能不能实现偷啃自由?今天我用谷歌刚发布的干马四给大家实测一下。 干马四是谷歌的新上的开源大模型,主打高性能和本地部署,官方说他能在手机上跑,还能流畅运行,但是我始终想不出这个部署在手机上有什么应用场景,于是作为养虾人,每天都在焦虑偷啃的消耗,竟然手机上没有使用场景, 那么本地部署来养我的小龙虾是再合适不过。它的部署其实很简单, windows 用户直接用欧拉玛, mac 用户我推荐用 x m l x, 这是专门为 mac 深度优化的推理框架,相比欧拉玛性能更出色。 打开后进入 admin panel, 在 models 页面搜索 hugen face, 输入伽马四各种参数版就出来了。 我的设备是 m 三 max, 三十二 g 统一内存。今天的重点是两个问题,第一,三十二 g 内存能流畅的跑哪个参数?第二,本地部署的输出质量能不能满足日常要求?我已经把干马仕连入小龙虾工作流,先上硬菜 测试。三十一 b 是 比特量化版,现在是十四点十四分,我们记下时,但是结果比较尴尬,等了一分钟风扇狂转还没有出结果,所以结论是三十一 b 在 三十二 g 内存上是跑不动的, 如果电脑是六十四 g 以上应该就会很合适,那么我们就试一下二十六 b, 现在是十四点二十一分,不到一分钟结果就出来了,透口深深的速度稳定在每秒三十三个,这个速度对于我来说是完全够用, 快速少了一眼回答,质量还是不错的,于是继续追问,重复刚刚的问题,测试下上下文记忆能力。 又追问了模型对比和选择建议,主要考察三点,上下文连贯性并理解能力及问答准确性。 从结果来看,上下文记忆能力没问题,也没有胡编乱造。我们再换一个场景,让他帮我写公众号,推荐一个合适的模型。结论,测试下来,三十二 g 内存跑二十六 b, 响应速度是可以的, 输出效率挺高。当然,回答质量还需要深度测试,看能不能达到商用的标准,但是要彻底说满足,偷啃自由。现在下结论还是太早,因为在测试中发现一个致命的问题, 干马仕标称二百六十五 k 上下文,但我问了七个问题,就报上下文。一出这个问题很头疼,不解决的话基本没有保留历史对话记录,也只能不停的删内容或者开新对话,对于长期使用影响很大。 所以目前我在找解决方案,研究了几种可能的思路,看能不能突破限制,如果能搞定这个问题,本地部署才算真正可用。找到方案后第一时间通知给大家,今天的测试就到这,我是林浩,我们下期见!

大家好,我是福源一生。很多人都说 mac mini 就是 龙虾的最终归宿,所以我也第一时间入手了一台全新的 mac mini 电脑,拿到手之后,装完浏览器,咱们第一件事 就是从零开始在苹果电脑上安装龙虾,就算你不是 mac mini, 是 其他苹果电脑, 这个教程也一样能用。苹果电脑安装龙虾和 windows 系统差不多。我们先打开龙虾的官网,上面有 n p m 安装方式, 还有一个 m a s 客户端,这里要跟大家说清楚,这个客户端只是一个操作界面,并不是安装包,得先装好龙虾,再用它来交互 安装报错。所以安装还要先安装 node js。 第一步,先安装 node js, 打开 node js 官网,下载最新版本,下载好之后双击安装包,一路点继续同意协议, 输入电脑密码,等待安装完成。 安装完之后把安装文件移入废纸楼,输入 node 杠 v, 如果能显示版本号就说明 node js 装好了。 接下来安装 open cloud, 新打开一个终端界面,切换到 root 用户 这里,一定要用管理员身份安装,不然会失败。输入 su do i 回车,然后输入电脑密码,输入的时候屏幕不会显示,直接输完回车就行,看到 root 字样就说明切换到管理员了。再次输入安装命令, m p m install 杠 g openclog 回车,等安装完成没有报错就成功了。 记住安装用管理员启动要用普通用户。输入 opencll 杠 v, 能显示版本号就代表装好,直接在终端右键新建一个窗口,就是普通用户模式。 第二步,配置 opencll, 输入 opencll on boarding, 回车出现安全提示,直接同意继续, 然后选择你要对接的大模型,里面支持很多种,没有你想要的也可以选自定义。 我这里用的是 mini max, 就 选择 mini max 回车, 然后输入密钥 p 值回车,我使用的是 gpt, 五点四选择直接保存默认就行。 聊天通道本地使用可以先跳过用空格选中回车确定 技能配置,选择 no, 用空格选中回车确定,这时会提示 node js 使用网络,点击允许,最后选择用 web ui 控制回车。 到这里龙虾就安装配置完成了,我们可以直接在浏览器里打开地址和龙虾对话,我问他你是什么大模型,他正常回复就说明整个流程都跑通了。好了,苹果电脑从零安装龙虾到这里就全部结束了,后续更多龙虾的使用技巧, 欢迎关注我,每天分享一个干货知识。