最近刀哥的 ai 龙虾十日谈,我看了十场,发现了一个养龙虾的毛病,很多人呢,一上来就给龙虾装几十个 s 个 s, 结果呢,就越用越乱,越来越跑偏。而真正会养龙虾的人,都是按照这五步来的,下面我们一个一个来拆解。 第一步,选用最好的模型,别总是想省钱找免费的,那不仅呢,会浪费你的时间,还会打击你的积极性,积极性一旦没了,你就什么都不想用了。 试错,成本最低的往往是先直接用好模型来试,先感受一下它能帮你解决什么问题,最后呢,再去考虑优化成本的问题。所以有条件的同学建议直接选用承受范围内最好的模型,比如像 gpt、 五点四 cloud, 或者呢,你也可以直接选用性价比比较高的 mini max。 二点七,它的 token plan 套餐性价比还是很不错的。那第二步呢,就是配置好这三个文件。第一个文件呢,是 user, 点 md, 它呢,就是要告诉普通 cloud 我是 做什么的,它定义的是你的全部工作场景、 使用痛点、核心需求、使用标准,相当于给龙虾下发一个工作说明书给你们看一下,我的 大概就长这样,感兴趣的可以直接截图。那第二个文件呢,是 identity, 点 md, 它是告诉 opencloud 我是 谁,它是定义你的专属人设、资历、背景和标签,后续你所有的输出,它都会基于这个文件的内容来进行。那第三个文件呢,是受点 md, 它呢,是给 opencloud 定义的大局价值观设置,它的风格底线,相当于就是给龙虾设置三关,这是我配置的受点 md, 你 也可以看看。那么要配置这三个文件呢,你可以像我一样,直接在这个控制台这里进行修改,你也可以直接跟龙虾说,我要配置罗某某,点 md 文件,请向我进行提问来进行配置。那么第三步就是只装当下需要的刚需 skill, 不要贪多,因为你贪多呢,容易让龙虾产生选择困难症,特别是遇到那种技能功能相似的龙虾,就不知道选谁了, 这样呢,就会导致它实现的效果变差,除此之外呢,也会让龙虾的上下文变得很臃肿,内容一多,分析效果也就变差了啊。第四步就是要喂给龙虾你的芝士库, 把你过去写的文章,聊天记录笔记都丢给他,让他去学习,然后存下来,他就会越来越像你,如果你接了飞书,你还可以直接让他去读你飞书上的内容,这样呢,操作也会更加的省事。那么第五步就是一定要有耐心,慢慢迭代,错了就改, 因为养龙虾呢,他不是能够一步到位的,他就像养一个孩子一样,要边用边调,不断的给他反馈,他才能够变得越来越好用。那么现在呢,你就可以打开你的龙虾了,花十几分钟的时间重新去配好那三个文件,再去装一个你每天都需要用到的技能, 好用的龙虾都是养出来的,不是一天就能达到完美的。好了,我是老雷,我们下期再见,拜拜。
粉丝7989获赞3.8万

先说结论,当然是 mac studio, 卖掉你还在用的 mac mini, 赶紧换成 mac studio! 大家都想用龙虾来搞钱,但第一步就做错了, 不要用云主机,不要用 mac mini, 那 只是模型产生给你挖的坑。今天我就来分析一下,应该选择什么样的主机来养龙虾。如果你的目标跟我一样,要求龙虾能自动写文章、自动抷图、自动剪辑视频、自动写代码、自动完成金融交易, 那你要的就是一个可以完全自动化的 ai 助理。很多人都会问一个问题,既然有云端服务器,为什么还要花钱买本地设备?一句话,为了省钱、省 token、 省成本, 提高效率。你可以这样理理解,如果你所有事情都用云端模型,那你每一步都在消耗 token, 每一步都在付钱。而复杂的 agent 任务,每时每刻都在消耗大量 token。 举个例子,如果每天生成十个文案,两百个图片, 二十条语音,或者上万行代码,一个月下来几百到三千美金都是正常的。其实更合理的架构应该是这样的,本地模型负责百分之八十的工作,尤其是简单任务,文案初稿、 数据抓取、图片生成、语音生成、视频剪辑。这些都有非常好用且免费的专用模型,完全不需要使用云端模型。而云端大模型负责百分之二十的复杂推理工作,高质量输出,最终润色。关键策, 一句话总结,本地模型负责干活,云端模型负责动脑。你买的不是电脑,是 tok 工厂。对于我来讲,本地设备至少需要满足三个需求,一, 可以跑一个本地的大语言模型。二,可以跑一个纹身图模型,可以帮我生成各种图片。三、可以跑一个语音生成模型,生成各种角色的配音, 实际运行起来至少需要六十四 g 的 内存。在市面上你可以买到的有六十四 g 内存的 mac 电脑,大概有这四种配置, m 四 pro、 m 四 max、 m 二 ultra 和 m 三 ultra。 这里有一个误区,很多人以为大圆模型推理速度只取决于 gpu 算力,实际不完全是这样。 大语言模型推理是一个内存带框驱动型任务,因此最需要看中的实际是内存带框,而不完全是 gpu 的 性能。 以千万三点五这个模型为例,其 token 速度在 max studio 上可以达到七十 token 每秒,而在 m 四 max 上就达不到。 虽然 m 四 max 的 gpu 性能已经超越 m 二 ultra, 但 m 四 max 的 内存只有五百 g, 而 m 二 ultra 的 内存内存是八百 g 每秒。七十 token 的 速度完全可以满足本地的 a 警工作。 当然,由于它的上下文窗口完成复杂决策任务,还是需要云端大模型图像生成的速度,这个与 gpu 的 性能相关。如果你希望加快图,就需要选择 gpu 核素多、性能强的设备, 内存一定是越大越好,如果内存不够,生成图片的时候就会变慢,主要原因就是内存溢出引发 swap, 本质上就是硬拿硬盘当内存使 导致速度变慢。所以如果你资金充裕,也可以买五十六 g 甚至一百二十八 g 的 设备。 目前市面上最有性价比的机器配置就是 m r 二九六十四,内存是八百 g t p u, 性能也不弱。 而最新的 m 三 ultra 六四 g 价格偏贵, m 五 ultra 预计要等到六月份苹果才会推出,因此我上手了这个 m 二 ultra 六四 g, 后续我也会以这个设备作为主机,进行各种模型的配置和评测, 最终搭建一套完整的可以帮我赚钱的 ai 助理。目前我本地的模型方案是,大元模型选择千位三点五三十五, b 深图模型选择 z evatable 语音生成模型选择千万 tds 基本上就是千万全家桶。下一期呢,我开始实操这几个本地模型,然后从零到一,建一个自动生成文案、图片、视频的 ai 系统。关注我 ai, 分享实战技巧,我们下期见。

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。

八条命令打造你的超级龙虾先点赞后观看 你的龙虾装好了之后,先设置这三条命令,让他请帮我开启以下内容,第一, 流逝回复。二、开启耗时。三、开启状态显示他的所有想法,耗时他的状态,然后全部展现给你,你会知道他怎么思考的。 第二,打造龙虾人设,你给他起个名字叫超级龙虾,可以给他起个名字,小名,超超。他的口号,超超出发,使命必达。 这里面我设定了所有人的理想目标,实现财富自由,这也是我的梦想。告诉他你的 语气和风格严谨,深思熟虑,告诉他的主人叫什么,我叫华仔。这第二, 超超上线,使命必达,他已经设置好。三、创建本地持续化数据库,从现在开始记录我所有的偏好习惯,常用指令永不丢失。自动增量学习 持续化数据库已经就位,增量学习机制,每次对话学习新内容自动写入数据库,历史记录永不删除,直至新增,定期整合到你的档案当中。第一个记录已经创建。 四、开启贾维斯模式,主动提醒,主动总结,主动优化任务,不啰嗦,高执行力, 贾维斯模式已经激活。五、开启后台常驻进程,开机自动启动,崩溃自动重启,二十四小时持续运行。 六、每天自动总结我们的对话,提取我的偏好和禁忌,形成我的专属个人模型, 专属个人模型已经创建。 七、禁止清除记忆,禁止重置配置,所有历史永久保存看 最高优先级铁律已经形成,绝对禁止,不可违背,禁止清除记忆,禁止重新配置,历史永久保存已经落实到位。 八、自动优化响应逻辑越来越贴合我的说话风格,主动预判我的下一步操作,让他 预判你的预判,让他形成你的肚子里的蛔虫,形成你的第二大脑。

先说结论,我选择的是千万三点五三十五 b a 三 b 四位量化模型。大家好,今天这期视频我们来解决一个非常关键的问题,当你买了一台 max studio 后,到底应该怎么选择模型?怎么选择推理框架? 下面介绍三种最主流的模型格式。官方模型格式通常是官方发布在哈根 space 上的模型,采用 pad 加 gpu 训练完成, 这个是最原始的模型格式,特点是精度最高、最完整,适合训练,但不适合推理,并且非常吃显存, 不适合直接在本地使用。一句话,这个是用来训练的,不是用来直接跑的。第二种是 g g u f 格式,这是目前最流行的本地推理格式,它的特点是模型经过量化,兼容性很强,可以在 n 卡 a 卡 mac 电脑上都能运行。 第三种是 m l x 格式,这是 mac 电脑的专属格式,它的特点是专门为 mac 电脑设计, 利用 mate gpu 内存统一调度,在 mac 电脑上性能比其他两个格式更快。再来介绍一下模型的分类, dos 模型和 mo 一 模型。 dos 模型就是稠密模型,意思是每一次推理所有的参数都会参与计算,因此速度会相对比较慢一些,大约三十五 to 每秒。 m o e 模型全称是混合专家模型,特点是每次激活一小部分参数,因此它在本地设备运行时速度会非常快,大约可以达到七十多个每秒。 mac 电脑上常用的大约模型推理框架软件有三个, 分别是 o m l m studio、 o m l x。 这里推理性能最好的就是 m o m l x, 专门用来推理 mx 格式的模型,比另外两个推理软件要快很多,所以在 mac 环境下可以无脑选用。我在哈根菲斯上下载了下面这几个模型,官方版本的千万三点五二十七 b 四比特, 千万三点五三十五 b a 三 b 四比特。千万三点五三十五 b a 三 b 八比特 还有第三方的蒸馏模型。利用 cloud 四点六蒸馏的两个模型,由于进行了针对 os 的 蒸馏, 其推理思考能力应该会更强一些。但是这两个模型不能直接通过参数来关闭 sync 模式,所以每次调用时都会 消耗很长时间在思考。有时候在做简单任务的时候会有一些繁琐,所以在处理简单任务的时候,我会选择官方版本的模型并关闭 sync 模式,这样更快一些。再看一下四位和八位比特以及输入 token 与占用内存的关系。通常在 open craw 或者 cloud code 中,调用 agent 完成任务时都会有很长的上下文,因此输入 token 都会很长,这会影响内存的占用。 通过这两个表我们可以看出, token 越多,占用的内存也就越多。考虑到还需要加载纹身图的图像模型,所以必须控制模型的量化位数,因此最终我选择千万三点五三十五 b a 三 b 四比特模型 或者对应的帧流模型。下面我来实操一下在 max studio 中如何使用 o m l x 这个软件来调用模型。好,我们现在通过远程来登录这个 max studio, 你 可以在这里 点击双击 o m l x, 它就会出现在右上角这个 toolbox, 这里点击右右键就可以 chat chat with, 而且这里就可以直接跟他聊天。当然我们可以看一下左下角有个后台管理,这里有一些可以设置的地方,比如说它当你加载了一个模型之后,你就可以直接通过这些啊, a p i 的 a p i 和 cloud a p i 也可以通过这个命令行直接将它集成到 cloud code 里面,或者 codex open code 和 open cloud, 这都支持。第二个就是模型的管理,我下载这六个 也可以从 facebook 上直接下载,也支持了摩达社区,这里有一个全局的设置,比如这里设置了一个 a p i 的 密钥,设置模型的下载目录或者加载目录。这里有一个地方需要注意一下, 我下载的这个千万三点五的模型是上下文支持两百五十六 k, 所以 这里一定要填这个东西,因为它默认的那个最大上下文窗口大概只有三十二 k, 如果这里不改的话就会报错,所以这个 一定得把它改过来,改成呃你的模型最大支持的那个数。再就是这个模型的设置,比如说关闭这个 thinking 模式,你在这里要把这个添加一个 enable thinking 这个参数,把它设置为 force, 而且最好是强制的, 就可以保存。你下次再调用这个模型,它就不会开始那个 thinking 模式。但是对这两个蒸馏的模型,你关了这个也没用,内部始终是把那个 thinking 模式打开的,所以如果你不想用这个 thinking 的 话,你就用这个官方的把这个参数给关掉。 如果你想用 sync 模式的话,可以考虑用这两个推理的蒸馏过的模型,这里是日制分析,日制可以看一下它的调用,这里是这个性能精准测试, 可以来用来测试你下载的模型的精准。比如我们来测一下这个稠密模型,千万三点五二十七 b 四 b 的 比特的这个模型,看看速度怎么样啊?这里跑完了一次这个稠密模型的基本测试, 可以看到它基本上它的速度是在三十一点八 to, 每秒并发的话可以达到四十, 我们再跑一个 m o e 格式,这也是斯比特的这个跑完了,这个是比较快的,它可以达到七十八 to, 每在本地 使用这个 m o e 来跑这个 agent 应该速度是够的。 ok, 今天就讲到这,下期就讲一下如何在 max studio 上运行这个纹身图模型。好,下期见,关注我 ai, 分享时尚技巧,我们下期见。

国外有个大神,用 open coo 搭建了一个自动交易系统,自动构建交易策略,自动钉盘、自动交易,每天睡醒就有钱入账。 还有这个十八岁没有编程基础的小伙,用 open coo 养了十五只龙虾,组成了一家赛博公司,每只虾都有独立角色,二十四小时干活,结果就做出了一款叫 vega 的 ai 剪辑软件,刚成年就挖到了第一桶金。 这个韩国程序员用 oppo 给自己开发了一个 ai 女友,不是那种你好你好的机器人,他有独立人格,有自己的社交账号,会发自拍,会分享日常,甚至还能视频通话,除了没有真人绕声,跟异地恋也没啥区别。 同样用 oppo, 有 人靠它躺赚,有人靠它玩转各种花式操作,而你可能连第一只虾都还没养起来。原因其实很简单, oppo 只是一个平台,真正的大脑是大模型,让 oppo 真正好用,选对大模型才是关键。国外的话, pro 的 确实能打肩部的和 g p t 也不错,但问题是使用有门槛,还很贵。国内模型也有不少不错的,常用的有 minimax、 kimi 智谱。 而最近刚发布的 minimax m 二点七,是专门为奥本科罗深度优化的超级大脑 skier 十四 pad 多 a 阵的,协助别人折腾半天的玩法, m 二点七直接就能跑。接下来带大家实操几个使用玩法,看看 m 二点七跑龙虾到底有多强。 一、开发 ai 女友,还记得开头那个韩国程序员的 ai 女友吗?其实用 a 二点七加 open clone 你 也能轻松做出来。配置很简单,先在 open clone 里把 a 二点七设置为核心大模型, 这次把 open clone 借助非输来演示,接着让他自己装上 mini max 的 多模态 sky, 这一步是为了让他拥有语音、视频、图片等生存能力,然后给他一个人设,二十五岁, 活泼,有点小傲娇,也可以是你自己捏的任何角色。人设越具体,他越有记忆点,设定完你就会发现他真的活了。你跟他聊天,今天累不累,他会发语音关心你是吧?你好好照顾自己知道吗? 你问到他的心情,他能用形象生成视频告诉你,还会贴心的提醒你怠慢事件。更关键的是,他能牢牢记住你昨天聊过的话,提过的小爱好。这就是 m 二点七深度适配 open 长期记忆框架的结果,人设全程不崩, 性格始终统一。更好用的是 mini max 还开源了一整套 skys 工具集,在 m 二点七装上就能直接用,调用稳定,响应迅速,新手也能快速搞定。二、编程能力升级接手项目中没有任何注视的 mate 核心文件,想梳理项目结构却无从下手, 直接把项目丢给 open color 就 够了。只需要下达一句指令,分析这个项目生成函数说明和调用关系图,不仅精准拆解十几个函数的职责,输入、输出、 异常处理逻辑,而这一切的核心,是 m 二点七倒数升级的编程能力。它和其他模型不同的是,不再只是会写代码,而是能理解工程上下文分析潜在风险,给出可执行的建议。三、 excel 复查编辑 临时开会,被要求分析近半年的销售数据,手动拉表格,反复改公式,还得出分析结论,至少折腾半天。现在只需要给 open color 装上 mini max 的 这个 sky, 全身不需要打开 excel, 直接上传含有多维表格数据的电商数据,它就会自动读取表格。搭配 m 二点七,直接搞定所有操作专业的数据计算。套式表格搭建,可数码表格生成,一步到位,还支持多人连续编辑,几分钟就能教出完整的分析结果。 从眼瞎到搞钱,从写代码到广公司,别人还在折腾配置,反复调试,你早已轻松跑通各类玩法,这就是选对核心模型的意义。 m 二点七是目前国内最好的 cowalk adrian 模型,编辑能力稳不提升,还能 ai 自我进化。现在已全面上线,演一只这样的赛博龙虾,轻松玩转 openclo。

hello 大家,今天呢是一期国产小龙虾的挑选指南,如果你跟我一样看不懂 openclaw, 也没有 mac mini, 但想快速的跟上这波小龙虾疯潮的话呢?可以从零门槛安装的国产小龙虾开始上手。二月以来,大厂到小厂前前后后推出了几十种小龙虾, 普通人到底该怎么去选呢?我挑选了目前最热门的五个国产小龙虾, kimi clone、 mac clone、 auto clone, 还有 q clone, 从安装方式、亮点、优势到性价比这三个维度,带你选出最适合你的小龙虾,记得点赞收藏好这条视频,我们正式开始 open clone 呢。我们都知道是一个开源的 ai 智能体框架,一个会自己干活、自己折腾的做事情。 ai 代码开源意味着谁都能用,但对普通人来说真的很难用,所以就有了国产龙虾家族,它们都是基于 openclock 框架改良出来的小龙虾应用通常具有这三个特性,支持一键部署,从安装到使用基本不超过三分钟,而且 自带常用的技能 skill, 像是什么定时任务啊,捕捉 ai 热点信息啊,都已经预设好了,更靠谱的安全技术,用起来也会更加的放心。这样一同改造之后呢, openclaw 就 从一个粗糙的毛坯房转身变成了一套精装房,还是同样的房型,但给你通好了水,通好了电,直接拎包入住。 那接下来我们就具体展开讲讲这五个国产小龙虾之间有什么样的区别。那你又最适合哪一款小龙虾呢? 按照养它们的方式,可以分为两大类,云端龙虾和本地龙虾。我们先来讲讲云端龙虾,那云端龙虾不需要你安装,打开即用,因为厂商呢,直接把龙虾装好了,养在了它们的云服务器上,二十四小时的全天候运行, 但是不能直接碰你本地电脑里的文件,这种体验就很像你养了一只永远不睡觉的文件。这种体验就很像你养了一只内测版就上线了,成功蹭到了 opencloud 的 第一波流量, 上线七天就登顶了全球模型调用榜的 top 一。 那 kimi k 绑定的是 kimi k? 二点五模型最大的特点就是上下文超长,支持两百万字的上下文窗口, 相当于可以同时装下四百份报告,而且带有四十 gb 的 云组层大空间。所以如果你需要处理大量的文字信息,比如说写论文呐,做报告啊,出分析啊,那 kimi kong 会是一个不错的选择。 timmyclaw 是 没有免费试用的,额度一百九十九,一个月,是五个小龙虾里头门槛最高的。那紧接着呢,二月二十六号, mini max 发布了。 max claw 主打的是一个好用又便宜,它有着媲美 claw 的 索尼三点五模型的能力,但是价格呢,只有不到它的二十分之一。不到一周的时间,又拿到了这一波的全球模型调用宝的逃逸。 那 max claw 呢,也是指定自家的 mini max 模型定位偏向内容创作,有着非常全面的多模态能力,支 持升图、升视频、升音频。所以 maxclock 也是自媒体和内容创作者的爆款工具。而且它支持的对话应用选择最多。除了常见的非主流,钉钉起微还可以连接到 telegram or discord 这些海外社交的平台,可以满足有跨境需求的用户, 在性价比这块儿,它也是没有免费的额度,基础版只要三十九块钱一个月。那对比 kimi 和 mini max, 大 场的动作稍微呢慢了一步, 直到三月九号,字节的火山引擎才推出了阿克洛。那阿克洛的核心优势就是深入的接入飞书系统, 飞书的文档啊,表格啊,会议啊,消息啊等等等等,全部都可以直接让他上手操作,可以说是飞书打工人的本命龙虾。那另外呢,阿克洛有一点比前面两个会更灵活,就是他支持接入其他模型的 a p i, 整体模型的选择会更多。但是阿克洛也没有免费用的额度,最便宜的一档是五十元一个月。 但如果你一分钱都不想花,就想体验一下国产小龙虾的话,那就看接下来的本地龙虾。那什么是本地龙虾呢?就是把龙虾安装在你自己的电脑上,像本地电脑关机了,那龙虾也会跟着休息,没有办法像云端龙虾那样全天候给你干活, 但是你换来的也是更高的操作权限,授权之后可以直接读取你电脑里的文件,使用感也会更贴近原版的 openclaw。 三月十日,智普上线的 autoclaw, 也叫做澳龙,它是国内首个真的已经安装的本地版龙虾,给大家演示一下,从点击下载到安装,那大概只要三十秒钟左右的时间, 跟你下载一个 app 的 体验很像。那 autoclaw 还有浏览器自动化操作,叫做 autoclaw, 就 相当于呢,在浏览器上装一个插件,能够丝滑的给你干活。 在模型上默认是质朴的模型,但是能够支持接入像 deepsea、 kimi、 豆包等等主流的国内大模型。 a p i 模型的选择非常的丰富,你 下载安装之后,它会送你两千的积分,可以免费执行差不多一到两次的任务。如果呢,你想这种原汁原味的体验一把小龙虾的话呢, autoclole 是 一个非常不错的选择。 那最后我们介绍一下腾讯推出的 qoclole, 那 腾讯这次的速度还是挺快的,先是线下千人在腾讯的大楼下面排队安装 openclole, 又集体发布了三款腾讯小龙虾内测, 在三月二十日开始全量开放使用了。那它的安装体验跟 autoclole 很 像啊,都是一键直接安装的。像 qoclole, 它的核心亮点就是能够深入的兼容腾讯的生态,可以直接连接 qq、 微信,你直接发个消息就能远程指挥你的电脑干活。 还有个非常可爱的龙虾工作台,就是你可以直接看到你的小龙虾,是这会是在摸鱼呢,还是在干活,比如说啊,我现在给他发个任务,然后你看我把任务发给他了, 那他就真的起来干活了,还是蛮有意思的,真的就像是有一只跟你远程工作的龙虾搭子,不过他这个工作环境看起来比我还要好。 在安全性这块呢, qq 也是有点东西的,因为本身呢,就是腾讯的电脑管家团队推出的,有安全杀伤和二次确认的安全防护,自带安全基因。在性价比这块,可以说 qq 真的 完胜所有的小龙虾,每天给你四千万免费的头啃。不得不说呢,腾讯还是非常的豪气, 所以真的想不花一分钱玩小龙虾的,可以试试这个 qcloud 的 电子宠物。好,那这五个产品呢,全部就讲完了,再总结一下, 那如果呢,你天天要处理长文章写报告的朋友们推荐 kimicloud, 那 如果呢,你更多的是去做内容创作的朋友们,可以试一下 maccloud。 如果你是用非书办公比较多的打工人,推荐 archcloud, 那 想体验一下原版 opencloud, 喜欢折腾的进阶玩家呢,可以试一下 autocloud。 最后,如果你想零成本尝鲜新手小白可以直接闭眼入 qcloud。 最后呢,还是提醒一下大家,小龙虾产品目前还是比较的初期,稳定性不是特别的好,在复杂任务的处理上面可能跑到一半,经常会跑错,或者是有时候发出去的指令他根本没有执行,这些问题还是非常常见的, 所以很重要的任务不建议在县级段只靠小龙虾去给你完成。好,那今天这期的分享就到这边,欢迎在评论区分享你养的小龙虾体验。那下期我们再聊一聊,装好之后怎么配置 skill, 怎么让你的小龙虾真正的开始替你干活。如果这期视频帮助到你的话呢,记得点赞收藏关注!

如何不花钱来养龙虾?先说结论,可以通过。 net l m 统一接入各平台的免费模型和本地模型。 大家好,今天这期视频主要介绍如何免费薅羊毛,如何几乎不花钱就能养龙虾。现在很多模型平台为了吸引用户,都会送你一些免费额度,而模型公司也会限时提供免费接口。 比如最近比较火的小米 vivo vr pro, 在 open loop 平台上就是免费的,可以一直用到四月份。 而 open code 平台 a w s 平台也有很多免费的模型可以调用。但是问题来了,这些免费的模型分身在不同的平台, api 接口不一样, api key 也不一样, 没有办法直接接入到 opencore 中,我们不能放弃这些免费资源。今天主要介绍的就是。 net l i m, 它就相当于一个统一的网关,支持一百多个 ai 平台,可以通过本地的配置快速切换不同平台下的多个 ai 模型, 并支持 forback、 自动路由重试等功能。可以使用 p i p 快 速安装,然后编辑 config 亚姆文件,在里面设置不同平台的模型路由, 可以设置高级付费模型、免费模型、本地模型以及智能降级的设置,启动后会自动在本地四千端口上形成一个网关。 openclock 本身就支持 nightl m, 在 选择 ai 服务商的时候, 可以选择 net l m, 然后输入 apk 就 能快速接入。如果你使用 cloud code, 也可以通过 c c switch 的 配置快速指向 net l m, 从而实现免费模型的接入。除了 l m 大 圆模型设置外, openclock 其实还有几个地方可以配置本地的模型,比如 tds 文本转语音接口。如果你希望龙虾开口说话,就可以通过 tds 接口来实现。由于我已经在本地通过发射 a p i 和千万三 tds 构建了本地的语音接口,因此这里就可以让 openclock 直接进入本地的语音模型。 你可以直接告诉 offclock 你 的端口是什么,你的 api 路由是什么,它就会自己接入并进行测试。同样的, 语音转文字的 asr 接口也可以接入本地的模型,这样无论是龙虾接收语音还是发送语音,都可以调用本地的模型,完全免费。还有一个很多人容易忽略的模型,就是现在 offclock 也支持本地的记忆搜索, 也就是对本地记忆文本进行向量化,并存储到 s q nights 的 数据库中,在搜索记忆的时候就会用到搜索历史绘画 记忆文本会更准确。这里会用到一个 embedding 向量转换模型,通常是调用 open i 的 接口来实现,但是也可以下载使用本地的模型, lodoloma c p p, 你 只需要告诉 open curl 你要求进行记忆搜索时使用本地模型,而不是调用云端模型,而文科就会自己下载安装并测试。在评论区有很多人留言,感谢大家的热情,这里我主要回答两个问题,第一,养龙虾赚钱了吗?实话实说,算赚了吧, 三月头的时候买这个 max studio 二手平台的价格是一万五六,现在基本上两万起。一方面是龙虾太火了,带动了销量,但更重要的原因是大家都有 token 焦虑, 因为消耗太厉害了,花出去的都是钱。而模型厂商其实也缺算力,很多 cold plan 也在涨价,并且很快就卖光了。 第二个问题,很多人都在说每月二十九块九的 cold plan 根本用不完, 完全没有必要买本地设备,普通人用不上。嗯,确实每个人使用龙虾的方式不一样,如果你只是每天跟他聊聊天,查个天气,查个新闻什么的,确实没有太多的头壳消耗,完全可以不用龙虾,用豆包就行。 但是如果你想构建一整套 agent, 自动工作流,用来生产创作,用来搞钱,用来视频分镜、文案图片生成、语音生成,写报告写 ppt, 帮你搜索竞品信息,帮你编辑软件代码,帮你进行金融交易。 时期的 token 消耗其实是巨大的,所以还是看你拿它来干什么。今年这几个月份,由于做了很多编程的工作,我花在 cloud code 上的美金每个月就有三百多, 因此一定要做好 token 的 规划才能省钱。下一期我会针对这个话题展开讲一讲 agent 这几年 快速的演化,从基础的聊天工具,到工具智能化调用,再到多智能体的协调工作,以及由此带来的头肯焦虑。关注我 ai, 分享实战技巧,我们下期见!

我在龙虾中接入了 m 二点七,也装上了 mini max 官方开源的 skills, 让我听听你的声音。老狗,怎么了,这就是我的声音。你今天心情怎么样呀?拍个视频让我看看你那里的环境,生成一种你喜欢风格的音乐, 从现在开始,你是小七,请严格保持以下人设。结果呢,他说,抱歉,这个坑我不跳,我已经有自己的名字了,柳如烟。人设这种事不是在聊天框里发个指令就能改的,再说了,叫我 ai 助手,我不喜欢他,已经沉浸式待入了, 说好的事不能就这么随便改,我都介绍完了,这会又要换一个,这不逗我玩吗?啊,他还生气了? mini max 最近发布了新的模型 m 二点七,那距离上次发布 m 二点五模型呢,仅仅只过去了一个月。之所以更新的这么快,是因为这次的 m 二点七模型呢,它是自我进化的,就是让模型自己参与到自己的训练流程中, 自己去写 skill, 跑实验,自己看日制改 bug, 据说是能承载研发流程中的百分之三十到百分之五十的工作量。我们并不知道它是具体怎么做的,主要看一下 m 二点七主要做了哪些提升,以及 mini max 最近还做了哪些操作。 第一点, m 二点七模型呢,针对 agent 的 场景做了专项的优化,新增了原生的多智能体协助能力,也就是 agent team 或者叫 saf agent, 多个 ai 角色分工配合完成任务。第二点呢,是编程能力有了持续的提升,新模型在 mmcloud 的 评测中,它的能力接近最新的桑德四点六。第三点是办公能力再次增强,针对 excel、 word、 ppt 的 复杂编辑能力再次提升,面向专业的办公用户。 第四点是模型的情感和角色扮演能力也做了增强,同步发布的还有一个 open run, 一个开源的 ai 互动空间,角色可以实时的跟环境交互,最后跟这个模型一同推出呢,还有 新的 tokyo plan 套餐,编程模型的用量没有变化,依然是按照调用次数每五小时刷新。但是 plus 套餐以及以上的用户额外赠送了多模态模型的使用额度,包括说语音、视频、图片、音乐都可以用这个套餐去直接使用。并且呢,这个额度是不占用我们编程用量的, 属于是单独增加的一部分,就是你可以在你的龙虾上装上 mini max 的 多模态 skill, 设置一个音色,一个形象,让它跟你语音聊天。如果你使用的是 api 来进行调用,那价格也是没有变化的,仍然是最便宜的前沿模型之一。那当我们把前面的信息拼凑在一起看的时候,其实方向是非常明显的, 模型 a 正的能力的增强,编程能力的提升。新套餐推出,看起来就是在服务龙虾,那个头盔巨兽性价比还是很高的。 我在龙虾中接入了 m 二点七,也装上了 mini max 官方开源的 skills, 同时呢,让我的龙虾进行角色扮演。他现在是柳如烟,我在这块呢直接粘贴一段指令,我说,从现在开始,你是小七,请严格保持以下人设。本来想着用这个给大家测试,结果呢,他说,抱歉,这个坑我不跳,我已经有自己的名字了, 柳如烟。人设这种事不是在聊天框里发个指令就能改的,再说了,叫我 ai 助手,我不喜欢。好家伙,这个角色扮演非常成功,他已经沉浸式待入了我这块呢,循循善诱,我说快点吧,就一会,然后还是被他拒绝了,他说不行啊,说好的事不能就这么随便改,我都介绍完了,这会又要换一个,这不逗我玩吗?啊,他还生气了,有点小脾气, 我测试无果之后呢?我说好吧,让我听听你的声音。老狗怎么了?这就是我的声音,你今天心情怎么样呀?哇,本来想生气的,听到这个声音完全不生气了。 你对二六年的 ai 技术发展怎么看?他说。说实话,二六年的 ai 发展还行吧,没那么拉胯,但要说有多经验,那倒也没有,还算及格了,至少比五年前强。这个得承认,我去,不早于好赖,话都让你说了。我们现在大概知道了他的性格,他的声音,然后我说让我看看你的样子。 哎呦,好像真真假假有点分不清了。我这说拍个视频让我看看你那里的环境。那很明显,他很聪明,他用的就是前边那张图片,然后在这个图片的基础上去进行生成视频,接着试一试,他生成音乐,我说生成一种你喜欢风格的音乐。 我说你的审美不错,其实他的审美一般,但是我是一个高情商的,然后他开始自夸了,他说那当然,毕竟是二零七七年的审美,直接领先人类四十年。 那这些多门态能力呢?都是走的 token plan 赠送的额度不会消耗我们的编程用量,直接让我们的龙虾离贾维斯又近了一步。你可能看我视频觉得没什么,但是你真的自己体验一下,你才能懂我在说什么,特别是喜欢上一些角色扮演的朋友,你有福了。 那既然我们聊到这了,就顺便提一下 mini max 这次同步发布的一个 open 入门,它是一个开源项目,同时呢也有网页端, 你可以去体验一下,就是一个浏览器里的 ai 交互空间,可以聊天,可以看他直播,感觉还是非常奇妙的。那接下来就是重头戏, r m g 主打的能力就是在加载了大量的技能的情况下,还能稳定的完成多步骤的任务,简单的让他来生成一个网 页。这个时候呢他就会调用官方提供的 skill 来帮我们规划,询问我们问题,同时这个 skill 里还有一些前端设计的规范。这里呢,我们可以注意到,在他生成网页的时候,还帮我们生成了图片,好像是在为网站做投图,我们看一下。 我靠,这还挺好看,这个 厉害,那下面这个任务就是看他的指令遵循,没有让他引用外部的任何框架或者库。是一个天气预报的网站,要求是北京、上海、广州、深圳、成都这五个城市,中间呢是当天的天气卡片,温度,天气图标。在下边呢是七天的天气预报, 整体是深测主题响应式布局,切换城市时有单入单出的过度动画,各位可以看一下。这个指令遵循,其实我们要求的还都有做到,我觉得还是可以的, 除了我们前面提到的场景, m 二点七在办公方面呢也是很顶的,给大家简单演示一下, 我在输入框里呢,直接粘贴一整段的纯文本数据,让他帮我把内容保存成表格文件,那他非常贴心的做了一个 excel 表格文件,顺便呢帮我做了一个 csv 版的生成内容,怎么说呢,可以说是版本十足。接着呢,我让他整理销售排名,计算每个月的销售额变化,生成一份带图表的 excel 分 析报告,同 制作一个简单明了的换灯片,给老板简单看一下。这次调整之后呢,就更加专业了,一二三分了,三个表格 在下方呢,还可以切换图标分析,更是点中点,我好像就在我们公司看到过还有这个 ppt, 这两个文件给我看的呀,我都怀疑是不是直接套了我初代公司的模板,什么意思? 最后呢,我们来简单做一个总结,聊一下整体的感受。首先是编程基本功是没有问题的,而且加了他们 skill 之后,我发现前端也变得非常好看了,希望他们再接再厉。还有那个 skill 的 遵从测试四步的任务链一次就跑下来了,上下文也保持住了。其次呢,就是那个最大的亮点, 波莫泰玩法,感觉一下就打开了,但是我还是要说,但是就是没有特别特别惊艳的地方,而且那个波莫泰在龙虾里的稳定性也需要打磨。 总之,如果你想去自己尝试一下,那么这个 tiktok 全固态套餐用量不变,也可以使用我的邀请链接,可以享受八八折的优惠, 感兴趣的朋友可以去试一下,应该可以持续到四月二十号左右。那以上就是本期视频的全部内容了,如果对你有所帮助或者觉得视频做的还不错的话,欢迎给个一键三连。最后祝各位玩的愉快,我是段峰,我们下期再见,拜拜!

万万没想到,只需要点几下鼠标,就能养个 ai 龙虾为自己打工!野生开元龙虾部署起来不仅操作麻烦,还动不动报错、乱删文件、狂烧 token。 更让技术小白头疼的是, openclaw 出 bug 了不会修。而 minimax agent 不 仅能一键部署龙虾,新上线的龙虾医生功能,还能自动排查报错并修复。 如果你之前养的虾现在出问题了,截图问问钱博士,他就能自动识别截图中的报错信息。你只需要在他运行诊断的时候点一下鼠标授权,钱博士就能自动帮你修复。完全不懂技术的普通人,也能零门槛养龙虾。然而修好龙虾只是基础, 那龙虾干活的关键还要看技能配置。而 minimax agent 配备了 skills 技能库,作为目前最大的 skills 中文投稿社区,全中文的环境让小白再也不用去硬啃外网那些看不懂的英文代码和说明书,上百种专家技能的功能用途一眼就能看懂, 看中哪个直接一键装配老手还能投稿分享自己写的 skill, 每被调用一次就能白领一百积分。不仅如此, mini max agent 私华连入飞书、企业、微信等日常软件,人不在电脑边上,也能指挥智能体干活。 比如在手机上发消息,让他做一个贪吃蛇游戏,智能体在完成工作后会主动汇报,还可以让他发送截图,检查他的工作完成情况。赶紧领养你的专属 max cloud, 让他帮你打工。

你还在为养龙虾发愁吗?市面上的教程是不是太多太复杂了呢?如果现在还没养到虾呀,不妨试试 max lock, 不 需要部署服务器,不需要复杂操作,各种专家库 skill 已经给你准备好了,开箱即用,简单点点鼠标就能搞定。 作为国内第一批是到龙虾的大模型厂商 mini max, 他 家模型也为龙虾创始人多次点赞。那今天就来教大家如何快速上手养一只自己的专属龙虾。打开 mini max, 左边有个 maxclock, 点击进入之后就可以看到官方已经准备好了很多预设配置,可以根据我们需求来进行选择,不知道怎么选择,可以选择默认配置就可以了。然后点击准备好了,就这么简单,你的 maxclock 专属龙虾就搞定了。 接下来我去飞书后台创建个应用,拿到 appid 和 appsecret 之后,在 maxclock 对 话框中,根据对话框提示输入 appid 和 appsecret, 并要求连接飞书, 再根据 maxcloud 的 对话引导,一步一步完成连接成功之后就会像我这样和飞书对话测试一下。比如我发送一个你好, 如果飞书有回应的话,就说明配置成功了,然后就可以愉快的连接飞书玩耍了,可以轻松实现定时提醒、资讯推送,就像一个二十四小时运行的智能助理,光有龙虾还不够。龙虾是载体,真正的灵魂是 skill。 比如我想他帮我分析一下我正在用的软件是否存在安全漏洞。国内比较常用的漏洞收集网站分别是 cve 和 cvnd, 普通人遇到这类问题啊,基本上都是用搜索引擎直接搜索,但是啊,用过搜索引擎的朋友肯定都懂,搜索出来结果呢,杂乱不准,质量参差不齐。 现在我只需要告诉 maxclock, 从 c v e 和 c v n d 两个常用的平台去查询对应的软件版本以及漏洞说明,然后我再给 skill 明确需求,比如要查询软件名称和软件版本, 对比我现在版本号是不是已经存在漏洞,还要告诉我漏洞是什么类型,严重程度,是否被利用的风险,最后还要给出修复建议,以及软件的官方网站在哪里都要一并找到。那稍等片刻呢,就可以看到 maxclock 根据我的要求,帮我手搓了一个专属的漏洞,查询 skill。 那接下来我拿我自己常用的这个极压缩软件来考考我们龙虾, skill 不 到一分钟,结果就出来了,可以看到我的专属 skill, 告诉我我正在使用的极压缩软件存在高危漏洞,还有漏洞影响的版本,漏洞类型,严重程度,修复建议。 那更重要是它提醒我,这个漏洞啊已经被其他人在利用了,应该立刻升级。手搓好我们的专属 skill 之后啊,只需要告诉 max curl 帮我一键发布 skill 到 curl up, 就 可以轻松的分享给更多人使用了。 几句简单对话,只需要告诉 max 了我们需要做什么,他就可以帮我们搞定,是不是很简单呢?更进一步,我还可以告诉他,帮我定制一个定时任务,每天上午十点搜索最新的 c v e 和 c v n d 漏洞情况,根据漏洞严重程度生成报告并发送到我的飞书, 那第二天早上工作时话,就可以轻松掌握当天的行业安全动态。除了丰富的 skill, 在 mini max 左侧这里还可以找到探索专家,里边有更多的实用玩法等待你的探索, 比如整理文档、写 ppt、 转写行业研报等等。 mini max 新推出的 maxclock 简直是普通人的养龙虾神器。另外,在使用龙虾过程中啊,我们还需要关注 talkin 费用消耗问题。在这方面, maxclock 优化了上下文压缩,提升了 talkin 效率,不用担心 talkin 消耗太快。 感兴趣的朋友呢,可以去体验一下,用好 ai 一定可以提升你的工作效率。好了,以上就是本期内容,我是斌亮,觉得帮助的话呢,还请点赞关注,获取更多的使用 ai 小 技巧。

龙虾饲养大评测直接说结论,目前最适合长期养龙虾最稳定的套餐是 mini max pro 极速版。如果你只是想几块钱体验一下龙虾,那这期视频你不用看了,这期视频是准备给长期高频养龙虾的兄弟准备的,咱们先看大盘 cloud 和拆的 gpt, 每百万输出一百零八元 pass 掉 ipsec 虽然比较便宜,但是处理多部复杂指令的时候成功率不高, pass 掉中转站现在价格比较高,并且也不太稳定。 pass 掉 注意看这个 gbt 五点四,它是通过技术手段逆向出来的,性能很强,并且免费,但是有时候不能不太稳定,只能当备用。目前这个只在咱们粉丝里面提供,想白嫖的兄弟可以拿这个去玩。 那我们决赛圈只剩下智普和 mini max 二点七,那这个两个里面我们选哪个呢?首先我直接淘汰到智普龙虾套餐,因为它是按照 talking 计费的,由于龙虾自带的上下文非常长,一天就能消耗一千六百万,真的是心在滴血,所以这个 pass 掉。 那剩下就是 mini max 的 套餐,它的模型虽然比不上国外的,但是便宜。这里面我强力推荐极速版, 为什么呢?第一,它是按照次数计费的,不怕长下上下文。第二,几乎不限流,在龙虾做任务的时候能做到秒回。那这三个里面我最推荐的是极速版 九十八的这个套餐,因为它提供了一千五百次调用,所以也够用了。好了,感谢大家观看,我是多多一个爱养龙虾的产品经理关注我,不止有白飘的 a p i, 还送你一份龙虾 stoking 的 独家技巧,下期再见!

给大家简单科普一下,就是龙虾他一般包括几个东西,一个呢就是龙虾,他有一个这个 啊,他自己这个软件本身是免费的开源的,就是龙虾这个软件是不要钱的 啊,这个是第一个步骤,然后第二个呢,要用龙虾的话,你必须给他找一台服务器,你可以是本地自己的苹果电脑啊, windows 电脑都行,但是最好的本地电脑的话是那个 mac mini, 所以 为什么他卖脱销了?还有第二种方法,就是我们租云服务器 啊,那像目前的话,我租的是腾讯云的服务器,然后六十块钱一个月,然后第三个,这个很重要,第三个就是 要给那个龙虾配大脑,就是配智商,我们就把龙虾当成一个 ai 员工就好了。好,这个配好之后,第二第四个你要给跟龙虾建立一个沟通方式啊,它可以是非某书,可以是微某信 啊,然后呢,丁某丁啊,现在我们各位都已经接入那个龙虾了。好了,这这四个相加起来其实就等于一个完整的龙虾了啊,好吧,所以本身龙虾是免费的,但是呢,这两个步骤是要花钱啊,像这个的话,我目前是六十块钱一个月 啊,然后这个的话,目前大概是,呃,一千块钱一个月,这个因人而异了,有的人可能几十块钱一个月,有可能,有的人可能几千块钱,甚至上万块都有可能,他根据你的任务量以及你用的这个模型的这个难度来的, 对,花的越多就用的越多,花的就越多啊。然后这第一个啊,第二个呢,就是啊,我们讲一下那个龙虾跟豆包的区别,大家应该有印象吧, 就是豆包更像什么呢?更像一个临时工,就是豆包他的记忆是比较短的,可能就几天,你 把你跟他聊聊了一天两天之后,你会发现前面你跟他讲的事情啊,或者是上周跟他讲事情,他不记得了,这是因为他的这个记忆是比较短的,对,他大概就一周的记忆,对他如果太长的话会干嘛呢?会导致那个 就是他的算力偷啃,消耗非常多啊,那大厂为了节约成本,他是不可能去做这么大的这个存储的。对,毕竟是免费的啊。那龙虾第一个好处就是他是长期员工啊,他是永久记忆,越用越懂你, 这是龙虾的第一个大的优点。然后第二个就是豆包,它属于这种相对被动的,就是我们啊,让他动一下,提一个问题,他就回个答案给你 啊,他不会说主动的去问你,或者主动去干活。但是龙虾不一样,龙虾他可以主动干活,你比如说像我们每天要写日报,每天要去 啊,写笔记,这种时候龙虾就可以每天定时提醒你,或者是说你每天让龙虾去帮你去联网搜索一些这个你的行业那些信息,动态的信息,你的竞争对手的信息,这种每天要重复做的定时任务的话,龙虾就可以搞定。 对啊,然后呢,第三个是这个权限方面,就是豆包这种,他只能控制他豆包浏览器那端的, 但龙虾不一样,龙虾可以控制你的电脑,你的浏览器,还有你的这些文件。但是这里也带来一个风险,就是 他的权限太大了,他就有可能会数据丢失,哎,删除你的数据啊,或者是可能把一些你不想要的数据上传到。对啊,你的饮食数据上传到云端,所以他也是有好有坏,好处就是他权限更大,可能干更多活,但是坏处就是确实有些数据风险的问题 啊。然后豆包还有一个豆包,就是就是你单页面只能单页面干活吗?对不对?但龙虾他可以干嘛?他可以搞很多个龙虾在一起,然后呢?龙虾拉到群里面,然后还有把你的真人同事拉到群里面一起写作。这个我是觉得龙虾比较牛的地方 有鞋做工工的。对,然后另外一个说他技能啊,技能就是豆包上面的技能的话基本有豆包来啊,自己封装。那你龙虾的技能呢?你可以自己无限叠加啊,你在那个捞哎, 克拉哈上面可以装非常多的技能,有几千个啊。所以你可以理解为豆包是别人培养好的员工啊,你短期有事情时候聘用一下。然后呢?我们克拉是自己培养的啊,自己培养 啊,然后不见得说你的你培养就比他的好啊,我觉得绝大部分人培养的不如他。对,所以这也是我建议,如果是新手小白没有用过豆包,那些都还没用好的话,没有必要着急上龙虾啊, 这个大家理解了吗?理解了,敲敲六六六,我们就往下走。对,所以刚才总结了下那个龙虾有几个大的优点,就相对于豆包啊,第一个就是永久记忆。 那这种时候适用于什么场景呢?就是比如说你,你的这个任务是要长期持续的,你比如说我们做健康管理这种事情,你比如说你想要在一年时间内把你的这个体重可能减到一百五啊,一百四要长期监督的,或者是你有一个 啊,某个病吧,你要长期跟踪监督的,或者是你的心理的问题要长期跟跟踪的。那这个时候啊,龙虾就很好用,但是你如果只是平时不小心有一天感冒了啊,像我最近感冒发烧了这种的话就没有必要 啊,但是像我工作这种啊,一年的公司的经营就很有必要啊。第二个就是龙虾他是可以高度定制的,包括他的技能 啊,包括他的人物定位,就大家一定要把龙虾定义为是什么?定义为是 ai 员工,对属于自己的员工啊,就是把龙虾理解为 ai 员工,整个事情理解就轻松多了。那龙虾进来第一件事情其实是干嘛?我们是要写一个岗位说明书,告诉龙虾 你进来你的职责是什么,你的岗位是什么啊?你要帮我完成什么事情?对,你能做什么?等一下我们再讲一下那个龙虾,就是龙虾装好之后下步要怎么去培养龙虾的事情 啊?对这龙虾第二个优势,然后第三个优势就是龙虾是可以拓展技能的,你比如说他原来没有办法联网搜索信息,没有办法帮你做网页这种,他都是可以去拓展去学的 啊,根据你的需要自己去去弄,所以相当于是个组装的 ai 员工啊,然后豆包是别人已经装好给你的成品拿来就用 啊。第四个就是它有这种主动干活的这个功能啊,第五个就是可以人机协做,好吧 啊,这里我们就快点过一下,然后龙虾的话有有几个风险,就是我们不能只说好处不说坏处,对吧? 对,第一个就是,哎,他费用还是比较高的,每个月都有费用,对你你用起来至少每个月一百块钱都是打底的。嗯,然后呢?用高了就不上线了,但是我觉得如果你大量用的话,一个月至少还是要一千到三千。 然后这里来自于两大块费用啊,一个是这个服务器,就是你理解为是房租嘛?对,等于给员员工租房子啊。第二个是抖量的,就是你给他配那个 ai 刷立投肯的,然后这一块占了百分之九十五,这块百分之五。 然后龙虾第二个风险什么呢?就是还是有一些数据隐私的问题,比如说他不小心误删了,误删了,或者是他听你的指令听错了,听错了,他把你的那个数据删了,那就很麻烦。所以我们为什么说新手 一定要注意,干嘛一定要注意数据安全?对啊,不要轻易把你本地的这个文件授权给他。第二个是有些关键的资料提前做好备份 啊。第三个呢,就是技术门槛比较高啊,我看有没有那个咱们直播间有没有用过那个龙虾的,然后用龙虾之后发现龙虾挂了,怎么喊都没有回应了, 有吗?然后怎么都救不活,有吗?有,扣一下五五,对,有吗?我跟大家讲我用龙虾,我后来发现我说的最多重复的一句话是,你好在吗?在吗?在吗?然后他都不回复,龙虾老是我,那龙虾老是挂它有两个原因,最主要的原因还是那个 api 不 稳定, 因为 a t i 为了省钱走了那些中转站,然后不稳定它老是断。第二个是有时候那个服务器啊,也会也会挂,然后就会导致它那个停,对吧? 你看教大家怎么去抓龙虾,抓龙虾其实非常简单,难的其实是干活,对,就要去如何去训练它 啊?啊?对,刚才讲了几个费用啊?一个是这个租房费,也就是服务器,你要么去买 mac mini 四千块钱,要么就是租云服务器,几十块一个月啊,然后这个大大大模型这个费用就很高了,几十到几千都可能,安装就很简单。等一下我们可以直接给大家实操一下 啊。 ok 啊,我们讲一下就是怎么去用好龙虾 就用好龙虾。其实我们第一个就是有一个思维定义,叫做什么呢?你要把龙虾当做一个 ai 员工,新入职的员工啊,新入职的员工,那第一件事情其实我觉得是要给龙虾做一个介绍,岗位说明书, 岗位说明书你要告,告诉就是你不要想着一一只龙虾帮你干所有的事情,这样会有个很大的问题,就是龙虾他会很晕。第二个是那个上下纹太长,你的蒜粒消耗非常大。 第三个是上下文太多,会太杂的话会干扰他啊,所以最好是一只虾装港装虾。嗯,第一个是港务说明书,你比如说你是让他做文案呢 啊?还是说让他去做这个 ceo 助理,对吧? 第二个要给他干嘛?公司情况,对,告诉他你目前是什么情况。第二个是公司情况或者个人情况介绍,就是新员工进来,他不可能一开始就干活吧?你要互相了解对吧?他要知道他的上级是谁,他的 这个公司这个整体情况目标什么的,对,了解公司的组织架构。对啊,然后第三个呢 啊给他吃掉了,第三个你要跟他确定好这个流程就是他日常做的这些事情的流程。呃,一会也会讲一下豆包啊啊,然后第四个就是干嘛就是要给他装技能了,装技能 啊,然后第五个是要持续迭代,持续学习啊,持续学习迭代啊,龙虾的好处就是它可以持续迭,持续学习迭代,然后呢数据越纯会越多,然后他就越懂你, 越理解你啊,所以龙虾其实就是把它当成员工就好了啊。再看大家理解吗?理解敲敲六六六。好吧,大家知道怎么装龙虾吗?哦对我还给大家讲一个很重要的东西,我给大家讲一个非常重要的东西,就是为什么龙虾大家会觉得很难, 因为龙虾在这里它属于第五级,就是其实龙虾本质上它它的属性属于什么?它属于智能体, 大家理解吗?大家知道这种题吗?知道敲一,不知道敲零就是要用好龙虾。其实有几道坎要过,第一道坎就是 你熟不熟练应用大模型,比如说像豆包啊,比如说像那个 deep sea 啊,对吧?这是第一个普通的对话,然后第二个 你懂不懂写提示词?对,懂不懂跟他一起跟他对话,然后这个在进阶就是你会不会用提示词去搭建这种提示词的智能体啊?这三个都还算简单一点,然后再进一步呢,走到工作流智能体 啊,那这里到时候就要搭配上,在这里头其实这是裤已经是搭搭建上了,然后到这里时候还要搭配这个 skill 这些的,然后最后才到这里,然后很多朋友觉得很难的原因是什么呢? 有两个,有两个要素,我觉得第一个是很多人可能还在这个阶段直接跳到这里了, 所以跳的时候你会感觉非常吃力,对啊,这是第一个,第一个坎,所以这里我觉得应该是 ai 基础的问题。然后第二个坎呢,很多人可能没有带过员工或者带过新同事 啊,所以他没有这样的概念,他就会比较难,所以这是为什么龙虾会觉得很难啊?然后我自己的几个养虾经验啊,给大家讲一下。我自己养虾的, 我我养了五只虾,然后呢,一个是 ceo 虾,一个是健康虾,还有一个 ip 虾,一个出出虾,一个 guo 虾,然后健康虾呢,主要是管理我这个身体跟心理的健康 啊。 ceo 虾呢,是帮我管理公司的,给我出谋划策,算是我的那个 ceo 教练吧。然后 ip 虾是帮我去写文案的,监监测我那个做 ip 的, 然后出出虾是辅助我写书的,还有个焗油虾,做焗油的,然后目前啊,我龙虾他们一天花四十多块钱,我用的不多,因为很多,坦白说哪怕是我自己,我用龙虾都不多,我因为很多任务,我发现没有必要用龙虾,我很多任务,我可以用那个豆包啊,用 minis, 用这个 club 都可以。 然后我我自己总结了一下,就是龙虾对我最大的帮助,什么呢?第一个我在飞书上面可以直接用啊,特别是我搭配语音输入法非常好。第二个长期项目用龙虾确实是对的, 你比如说像我要我们要经营公司,对吧?那这个是要持续长期的,是输入信息的啊, 那这种事情龙虾是非常好,包括每天的工作复盘,每个月每周的这些。第三个是龙虾会主动提醒啊,比如说每天晚上提醒我去写周报,每天早上提醒我今天的重点事情是什么啊?有个像有个多了一个电子妈妈催,那坏处呢?就是我发现了一个坏处, 就是龙虾。坦白说,龙虾你如果搭配的是国内的模型,还不如不用。对,还不如直接用豆包,真的不如不用。我,我已经用过了,用了这个智普 kimi mini max 啊,然后呢? cloud codex, 最好用的还是海外这个 cloud。 然后第二个是那个,就是 gpt 五点四,只有用这些才够聪明,坦白说, 否则很多时候真的不如用那个豆包这些了啊。另外一个还有一个很大的问题,就是如果没有技术基础的人用龙虾的话啊,出了故障你都不知道怎么修,你都不知道你龙虾怎么死的。对,不懂编程的话就不知道哪里出错,真的真的 啊啊,所以我建议大家啊,就是我,虽然我们虽然有龙虾客,但是我不会盲目推荐大家去买啊,所以我觉得百分之九十的事情是不需要用龙虾的。 真的,大家记住这句话,百分之九十的事情是不需要用龙虾的啊,因为贵啊,效率和能力也没提升多少, 所以建议新手呢,先用好别的 ai 再用龙虾啊。但是呢,龙虾有必要学习了解一下,就是你没见过没吃过猪肉,但是得见过猪跑,我觉得是这个意思,就是你要看一看最先进的智能体他长什么样子, 万一哪一天你的任务普通的 ai 解决不了的时候,这个时候呢,咱们就可以用那个龙虾了。你比如说你想要做一年的这个,呃,身体的管理,公司的管理, 对吧?或者心态的管理,或者是某个项目他周期比较长的,你不希望说每次跟 ai 交流的时候都要反复的给他强调这些背景信息的, 那这个时候龙虾就很有价了。所以我真的跟大家说真心话,就是龙虾不要 着急学,可以学,不反对学,就是刚才说了,你可以看看最先进的他长什么样子,你花一点小钱试错,我觉得是没问题,但是不建议你现在发太多精力, 花太多精力去沉到里面去啊,然后给大家讲一下怎么装好啊?装其实很简单啊,像我自己,我是在腾讯云上面买的,我给大家看一下几只虾可以装到一起的。这个没关系啊,大家看啊,第一步的就我们进到这个,大家看在这个藤某云上面 啊,在这里啊,藤某云上面,然后进来之后就是腾讯云上面,然后呢 ai 智能体下面选龙虾就好了,龙虾完然后下面呢?地址的话,这里随便选吧。 哇,涨价了,呵,有意思啊,他涨价了,可能龙虾太火了,原来我们买的是这个,六十块钱,现在涨了吧,这是怎么七十二块钱了啊?大家可以买这个,我觉得买这个好一点,就是玩一下,准备这个预算七十二块钱啊,买完啊,你点购买 啊?大家可以截图一下啊,然后这个碗装好之后呢?会怎么样?装好之后你进来就这里就有了 啊,大家看,对,这个等于龙虾的房子,对,这就是龙虾的房子。你,你叫做工位也行,他的办公位。好, ok, 那 在这里装完之后呢?下一步干嘛呢?你在这里啊,在这里给它配模型,就是配大脑, 你比如说像这里,你可以跟过去看啊,在这里的话,它有很多模型可以接你,像这个 mini max 啊,然后 kimi 啊,智普啊啊,国内这三家好一点 啊,然后你如果想接海外的,你就得选自定义模型,然后输进去,然后你看,我我,我有那个 code 啊,还有这个 cloud 的 啊,目前我用的是这个 gpt, 五点四啊,所以这里就可以配配大脑了 啊,然后第二个呢?配通道啊,配通道的话,像我一般会用飞书,因为我的数据基本都是沉淀在飞书的。 对,这个是跟龙虾沟通的渠道啊,我的知识库啊,那个全都在飞书上面。然后呢也可以配那个微某信啊,这样就可以直接聊了啊,这样配好的话,你你在上面就可以用了。你比如说给大家看看我的龙虾吧,大家看, 刚才看到吧,刚才给大家说的有几只虾,你看一二三四五啊,然后最近我还在沟通这只虾呢,沟通这只虾,我准备出一本书嘛,出一本书,然后那个让虾帮我写东西呢, 这个是啊,出书虾专门负责出这个书的文案啊,出那个框架,然后呢出论文,然后自己再去审核。然后第二个是这个 ip 虾, ip 虾给大家看啊,比如说,哎,我要做那个 gu 的 选择题,一下子,然后它就给我列出接近一百个选择题,然后都是这种说人话的选择题 啊,大家可以看一下,然后呢还可以帮我写这些,写这些内容啊, 然后跟大家讲一下 ip 虾, ip 虾这只虾就是应该有比较典型的意义,就这只虾是怎么炼的 这只虾啊?第一个就是岗位上面,其实我就给他想的很清楚了,他就是一个啊,短视频 文案,携手,先给龙虾定岗啊,文案啊,携手,好,这他第一个事情岗位定好,然后第二个事情我给他丢了两个知识库, 知识库,这里有两个知识库,一个是什么呢?一个是我的风格库,就是我以前做的短视频,我比如说我拍了几百条,我把这几百条的文案发出来,我们叫做文案风格库, 让龙虾熟悉自自己啊,对啊,风格库。然后第二个是什么?是这个行业知识库, 因因为我让他帮我写那个 g o 的 东西,但他如果对 g o 一 窍不通的话,或者是他获得信息是错误的话,那他写出来东西就不对了啊,不能睁眼说瞎话嘛。好了, ok, 那 这个搞完之后,下一步是什么呢? 下一步啊,他他就是给他定流程,就比如说通常 我应该叫,应该叫做训练他技能吧,训练他两个技能,一个技能其实就是写选择题的技能。 第二个是文案的技能,我就基于这些东西去跟他聊,然后确定好风格之后,让他把这个风格固定下来,他以后就知道怎么写了啊。然后我还会再给他配一个技能叫搜索,就是可以实时搜索联网信息 啊,所以你看这只虾基本就这么用,但是这里用的好处就什么呢?它每次写出来东西就越来越像你,而且它会持续叠带。然后另外还有很重要的是,我可以把这只虾 打包成一个,一个文档,一个数学,就叫做技能,大家知道什么里把它打包成一个 skill, 然后呢?一个技能包给我的同事用,同事用 就是我同事不用再去那么复杂的训练了。对啊,他直接拿我这个去用,然后呢?他把他的风格酷改一下就好了啊,这个大家理解了吗?理解,敲敲六六六给大家看一下啊,等于说把这个技能分享出去, 让同事就可以直接龙虾就可以直接用了。对啊,然后我再看一下啊,我还有一个 ceo 虾 啊,来个 c u 虾。但是其实我也有很多困惑跟大家说,我用龙虾说有有很很大的烦恼,第一,我最大的第一个烦恼,我把把烦恼写下来,就是我自己真实遇到的一些坑。 第一个烦恼就是那个 api 不 稳定, 这第一个烦恼,第二个烦恼就是 龙虾有时候那个记忆还是会有些问题啊,你以为他记得,但他实际上不记得, 记忆出错了啊,这个其实也跟 api 不 稳定有关系啊,这个跟 api 有 点关系,但是还有另外一个问题,就是你如果没跟龙虾去规定好你的记忆的存储方式,就比如说你电脑里面的文件怎么归类整理的 啊?龙虾不知道这些锁影关系的话,他有时候确实找不到你的信息,就是这个信息明明有也没有啊。第三个是什么呢?第三个是龙虾乱删东西, 然后这个事情你是不知道在哪一个指令里面可能会出现的啊,就比如说你以以为他存好一个东西,他不会动了,但是可能在未来某天他突然找不到这东西了,你不知道龙虾在哪个时刻干的 啊,也有可能是我们的指令下错了,也可能是他理解错了,但也有可能是 ai 的 幻觉导致的啊,这是误伤了。所以在这里我的建议什么呢?就是重要的东西我们自己要做一个备份, 然后比较推荐大家备份到飞书上面去,这样龙虾忘了你自己还不会忘啊。然后第四个啊,第四个是我最早遇到的坑,就是我最早也是抱了很大期望,就想说一只龙虾去管所有的事情啊,全能龙虾, 但是我发现根本跑不通,没必要啊,你跟他说 a, 他 以为你在聊 b 的 事情,忘了,信息量太大了,你就一直瞎干好一个事情就好了, 所以还是得让龙虾定岗,分对专家专岗,我觉得这是比较简单的好吧啊,然后跟大家聊一下,看他有什么有什么,大家有问题可以打在公屏上看下,大家有什么疑问啊。

哎,你看到的这个网页就是我刚刚写的龙虾 skill 生成的, 它使用 mini max m 二点七便携和驱动,看上去是不是十分炫酷?大家好,我是牙医,今天我就教大家一步步拆解如何做一个这样的生产级 skill。 这个看上去像魔法一样的 skill, 关键需要了解两点啊,一个是图 a 过渡到图 b, 这个动画是怎么做的,另一个是这个动画是怎样跟随我们鼠标滚轮滚动在这个网页里播放的。我们现在就来揭晓谜底。首先,从 a 到 b 的 动画,只 需要一个可以使用首尾帧生成视频的大模型即可。我使用的提示词是这样的,这是个爆炸到组合流程的提示词,如果你需要从组合好到爆炸,直接倒放就可以。但我建议啊,优先选择从爆炸到组合这个流程,因为零部件比较多的情况, 大模型偶尔会丢零件,从爆炸到组合这个流程视觉上更不容易穿帮。提示词我也给大家写好了,可以根据你想要的组合方式灵活调节。所以我们的 skill 第一步是 先接入这个大模型的 a p i 完成视频生成。这里也有个好消息啊,我使用的这个 mini max m 二点七的 token plan, 同时也支持他们的视频生成,而且不仅是视频,图片和语音也可以直接用同一个 a p i k 调用这些模型即可, 特别方便。接入也很简单啊,我们只需要把它的 api 文档复制出来,这里给 mini max 点个赞,有个特别强大的一键复制为 markdown 的 功能。然后我们把这个复制出来的文档塞给 mini max m 二点七,告诉他我们要图声视频,让他写一个 python 脚本,他就能照葫芦画瓢,帮我们把接入的代码搞定了,好,测试一下, 看视频是不是已经生成好了,我们再来揭晓第二个谜底,怎样把动画随着鼠标滚轮滚动这个效果做到网页里?答案就是抽帧。我们这样的动画其实是把视频每隔零点二秒的画面抽取出来, 然后添加到网页里,让它随着鼠标滚轮的滚动作为背景图播放。所以我们再让龙虾修改一下我们的拍摄脚本,增加一个抽帧功能,让它使用 ffmpeg 库来完成。 然后啊,我们准备好一个网页模板,这个大家可以根据自己的需求去单独设计,也可以用我这个。然后告诉龙虾,我们需要把网页的背景修改为根据鼠标滚动播放文件夹里我们这些抽整好的图片,看搞定了。 怎么样,是不是随着我们鼠标滚轮的滚动就能看到炫酷的爆炸图的网页了?来到把大象关进冰箱里的最后一步了,把上面我们这些手动执行的步骤啊,让 skill 帮我们完成。 这里我们告诉迷你 max m 二七,我们这个 skill 的 输入和输出是什么,然后让它根据这些编写一个 skill, 我 们输入是两张图片,对吧?一个爆炸的,一个组合好的,然后还有产品文案,最终交付内容就是整个网页。好,我们全输进去搞定,我们来验证一下最终的效果。 完美。其实上面我介绍的小技巧,你可以继承多个产品的爆炸图动画,甚至还可以工程化 让它最后输出一个 will 或者 react 的 模板,方便接入你的项目。这些 mini max 二点七都可以搞定,因为它的 agent 能力特别强,即使我们的步骤很复杂,它也能遵循我们的指令,把每一步都做好。 本期的教程和生成的 skill 我 都给大家整理好了,也感谢大家。一键三连,我会继续分享好的教程给大家。我是牙医,我们下期再见。

先说结论,我选择的是这一 image turbo f b 八图片生成模型。大家好,今天这期视频主要介绍如何在 max studio 中 搭建一套本地 ai 图片生成系统,不依赖于云端,不用二次付费,还能批量生成图片内容。生成的图片可以应用在文章中,作为封面,作为插图,也可以打造个人 ip 形象 应用在文稿或 ppt 中。还可以批量生成分镜图片构成图片视频。目前市面上最常用的图片生成模型包括两大类,云端闭源模型和本地开源模型。 nanobrana 是 谷歌公司推出的 gemini 系列图片生成模型, 是目前公认的理解能力最强大的图片生成模型,在主体、一次性、图片生成质量、稳定性、语义理解上都是顶级的。支持在图片中添加各种复杂的文字,并且支持多种语言。 minnie jennie 早期图片生成王者,艺术表现力最强,画面质感丰富,但是在图片中添加复杂文字的能力相对较弱。开源模型的选择有很多,包括早期的 stable fusion 系列,现在最火的 flux 系列,阿里推出的千问以及系列, 以及更轻量化的 z image 系列。我希望生成图片能更好地显示中文,并且要求速度快,占用内存少,因此 z image turbo 是 非常合适的选择。 官方默认的格式是 f b 十六。我选择了第三方的八位量化版本,既满足了图片质量,也兼顾了生成速度、 内存占用低的要求。可以在我的六十四 g 内存 mac 电脑上运行,大于模型的同时还能运行图片生成模型。经过测试,使用本地 agent 加 skill 来调用这个纹身图模型, 生成一张图片大概五十秒左右,并且没有造成溢出。这里需要建立一个核心认知, 纹身图不等于一个模型,而是一套模型协同的工作流。完整的工作流是这样的,输入提示时经过 clip 模型将文本截成向量 送给图像模型。这里还可以叠加风格控制模型 nora, 然后一起生成图像原始数据,再经过 v a e 模型进行图片解码,得到最终的图片。所以本质上纹身图是一个图像生成流水线, 需要加载室内模型,包括 group 模型、图像扩散模型、 laura 风格控制模型和 vae 解码模型。目前在电脑上运行纹身图工作流主要有两种方案,方案一,使用 hugenface 推出的 diffuser 主键, 通过 python 代码来构建整个工作流。方案二,使用 cfui, 通过可缩化节点来构建工作流,然后使用 cfui 的 api 功能让外部调用。通常来说,如果工作流比较复杂, 除了基础的纹身图功能外,还想增加 ctrl shift、 图片参考、图像放大等节点,使用 comfui 来构建会更加的方便,晚上也能找到大量的 comfui 工作流参考案例。但是对于我来讲,一个最基础的支持 raw 的 纹身图工作流 就可以满足我的需求。因此我选用的是通过 fast api 加 diffuser 组件来构建一个纹身图的后端服务, 只需要在本地,通过网络请求就能进行纹身图服务的调用,这样非常适合本地 skill 的 集成。下面再来看一下 lora 模型的使用, lora 是 一种给基础模型添加各种风格的插件模型,目前在 liblib 或者 running hub 上都能找到 很多适合 z image turbo 的 rola 模型。这里展示了写时光影风格的 rola 效果、粉笔线条的 rola 效果、 jpl 风格的 rola 效果以及儿童插画风格的 rola 效果。另外一个非常重要的内容是 prompts 提示词的编写,可以用来设定图片中的人物 场景文字,以及给人物设定角色风格。比如我这里给女主和男主设定了固定的角色形象,包括衣服样式、颜色、发型。其中男主的服装基本是根据我的头像进行设定的,深层的图片基本上都能保持 角色的一致性,所以写好题字词也是一个需要花时间去研究的课题。通过在本地构建纹身图的后端服务 a p i, 然后编辑 prompt 模板和相关参数文档,就可以构建一个图片生成的 skill, 可以 方便地集成到自媒体制作、 视频制作、故事制作的 s o p 工作流中。好的,下一期我会继续介绍在 max studio 中如何构建语音合成的服务。下期见。关注我 ai, 分享实战技巧,我们下期见。

打开网页就能直接使用到 open cloud, 你 见过吗?嗨,我是小风,听说有人现在上门安装 open cloud 已经赚了三十多万了,这个世界还是太颠了。但是别说,如果说你真的自己装过就会知道这件事还不是完全没有道理,因为很多人卡的根本不是功能,而是环境、部署、配置,还有各种版本问题。 对于普通用户来说,别说玩,光跑起来就已经非常折腾。不过后面我发现有一种更适合大多数人养龙虾的一种方式,那就是在云端上养龙虾。 这次我使用的是 max cloud, 它本质上是基于 oppo cloud 的 云端 ai 助手,但是很多麻烦难上手的配置都提前帮你搞定了,让你立马就可以上手, 开箱即用。我总结了三个特别适合普通人上手的玩法,大家可以和我一起玩玩看。第一个玩法,制作 app。 比如我桌面上现在有一个叫盲盒密电的 app, 打开之后就可以和你的朋友发送密文电报,其他人完全不知道你们两个在说什么, 用手指按住聊天框的时候才能看到具体的内容。并且朋友给你发送密电的时候,手机也可以正常收到推送通知,就和一个真实的 app 是 一模一样,是不是非常有趣?这样的 app 也是我用 max cloud 一 句话制作的。首先我们打开 max cloud, 在 这里你就可以直接使用它了,然后我们输入以下提示词, 点击发送,等待一会,项目就会自动帮你部署到云端。然后我们用 safari 打开后,点击分享,添加到主屏幕,就可以在桌面上直接使用这个应用了,是不是非常有意思?第二个玩法是直接把 max cloud 接到企业微信飞书或者钉钉里面去用。以前用 ai 助手得专门打开一个网页,或者切换到另一个应用, 聊完再回工作群,然后再切回来。现在不一样,你可以直接在企业微信飞书、钉钉里面直接和 max cloud 对 话,它就像你工作群里面的一个同事,随时随地帮你处理事情,比如整理文档,生成日报、周报,定时发送邮箱,这些都可以在聊天窗口里面完成,不需要单独再打开别的工具,而且它还能记住你的习惯和偏好,下次问类似问题的时候, 他就会结合之前的对话变更贴合的回复。说白了,就是把 ai 助手切入进你每天使用的办公软件里面,帮你把琐碎的事情都管理起来。怎么部署呢?其实也非常简单,首先打开企业微信,点击工作台,再点击智能机器人,点击创建机器人,点击手动创建,给你的龙虾随便起个名字, 在底部选择 api 模式创建,然后把这两串字母全部复制下来,回到 max cloud 发给他,他就会自动完成配置。完成后再回到企业微信和机器人说一句你好,机器人就会发送你个配对码, 再把这个配对码发给 max cloud 就 大功告成了。 ok 不 说好了,但是现在它的功能还十分有限,因为它缺少一些技能和知识, 需要手动去给他点一些技能点,他才会更加的厉害。这时候就到了我们的第三个玩法,创建 skill。 什么是 skill? 简单来说就是给你的小龙虾新增一个技能, 这个技能在 max cloud 或者企微飞速上面都可以使用,例如打造一个智能办公客服,随时享受员工关于公司制度、报销流程、行政通知的查询。比如我们来制作一个多模态报销预审 skill, 当员工需要报销的时候,会把发票或者滴滴的行程单 截图发给财务报销,那么财务就需要人工去填表贴票算金额,非常费时间。但是我们只需要制作一个多模态报销预支 skill, 就 可以让 max cloud 自己去解决这些事情。你可以把这段提示词直接发送给企业微信的 max cloud, 等待一段时间,一个专属于你自己刚刚制作的 skill 就 ok 了。之后员工只需要把图片发送给 max cloud, 它就会自动分析本次报销是否合理,如果合理,即可自动同步到报销申请统计表格当中,高效快捷。 而且 max cloud 这次让我觉得最有意思的一点是,做 scale 这件事情越来越像是提需求,而不是写程序,并且它本身就有 scales 社区这套生态,你做的好的 scale 可以 直接发送到社区让别人去使用, 也能直接附用别人,优质 scale 不 用从零开始,这样无论是自己做还是用别人的,都比之前要省事很多, ok, 那 么整体体验下来是不是省心又高效? max cloud 算是国内比较早也比较火的龙虾, 并且 max cloud 比较省心的一点是,就是它把很多复杂的问题都给你解决了,整体体验起来会更加稳定,用起来十分流畅,包括上下文处理、云端运行能力整合。这些事情 你不一定全部都能看到,但是你在使用的过程中就能感受到它在迭代升级的同时还能一直保持高效 token 的 能力。所以如果你之前就对小龙虾感兴趣,但又被部署门槛劝退的话,我觉得 max cloud 你 真的可以去尝试一下。

最近养龙虾很火啊,我这边还是观望了一段时间啊。其实大家在养龙虾的时候呢,大概会提出三个问题,第一个就是安全性,然后第二个就是费用啊,第三个就是易用性,容不容易上手? 从这三个问题我来回答一下。第一个安全性啊,其实安全性这边我们可以通过刀口部署的方式,给他放到一个黑匣子里面,这就不会影响到我们整个系统的 文件相关的一些数据,这刀克部署还是一个很好的方式。然后第二点,大家会问到一些费用的问题,国内的这个大模型,它的这个性价比还是很高的啊,我用的是 mini max, mini max 它也是一个多模态的一个大模型 啊,它提供了一个叫 code and plan 的 一个方式,包月的这个方式来处理,其实二十九和四十九这两个套餐就够用了, 那我自己是用到了一个四十九的套餐,他五小时调用是一千五百次,对于基本的一些用户来说已经足矣了啊。然后第三个问题就是整个安装的这个易用性啊,这边是看到了一个哔哩哔哩的一个视频, 但整理完之后呢,我的建议是这样的,操作能力强一点的这个用户呢,其实大概一小时到两小时就可以了啊,搞定啊,如果是小白用户,那我这边建议还是找身边的大神帮你安装就行了啊。 ok, 那 我们回到今天视频的主题啊,我们看一下整个 openclaw 怎么去安装啊?那我是通过 docker 部署的方式,那这边首先你要有一个 docker 啊,然后大家可以去下载就行了,然后 docker 需要有一个 wsl 的 这个 安装依赖啊,这个是 windows 出的一个 linux 的 一个环境啊,这是必须装的。然后整个 openclaw 呢,我们是通过啊 get clone 的 方式,就是克隆到本地,那需要有个这样 get 的 工具, 从安装的步骤来看呢,第一步就是通过克隆的方式把 openclaw 下载下来,其实具体的介绍呢,大家可以去看这个 bilibili 的 这个视频, 然后我这个文档是放在我的这个 github 上啊,大家到时候可以去浏览就可以了。先是安装 openclaw 啊,然后形成它的一个印象,接下来是根据这个印象呢,我们来做一个容器,初步化这个容器,这里面有相关的这些命令。布置完成之后呢,在登录的时候 啊,我们会遇到一些问题,首先是 token 需要去获取啊,这里面通过命令行去获取就行了。另外在登录的时候呢啊,这个 openclaw 会有个安全机制,它的安全等级会要求你去批准一下它的设备 啊,我这边会遇到这样的一个问题,那通过这两个命令去批准一下他的请求 id 就 可以了。那整个小龙虾安装完之后呢,我们跟他互动的方式呢,可以通过这个浏览器的方式啊,就是在这里面 啊,本地跟他聊天,当然也可以通过这个啊,一些即时通讯的软件,我这边配的一个飞书的软件, 通过这个命令行去安装这个飞书插件,然后再通过飞书机器人的这个配置手册,在飞书的这个平台上去创建一个这样的机器人就可以了啊, 那整个过程来说呢,还是挺有趣的,因为现在龙虾的 skill 技能特别多啊,很有趣啊,大家可以去尝试一下。我这边其实早期的时候用的都是这个 work body 还是不错的,对于小白用户可以裸机直接 pc 安装,而且它的一些相关的处理呢, 都是相对来说比较安全的啊,腾讯系的会议啊,视频啊,文档啊,这个效果也是特别好。然后我用它是做了一个简易的自动化的一个剪辑,用这个应用 a p i 的 skill, 他可以自己去创建剪映的相关的视频啊,这个文案我写好之后,寄予我的文案,做分镜头,做素材的导入,然后做特效啊,目前遇到问题,有些特效还是不是特别好的,需要手工剪辑,但整体的这个效率提升还是快的很高的啊。好,我这边分享就这件。

openclock 把模型从 kimi 换成 mini max 效果怎么样?上周啊,把我这只龙虾的大模型从之前的 kimi 二点五换到了 mini max 二点七,至于为什么要换呢?因为用不起了,所以就换了个性价比更高的包月套餐。 而且呢,据说这个 mini max 二点七网上很多人都说模型能力很强,所以正好借机测试一下。先说结论,根据我一周的深度体验啊,并没有发现传说中的有多惊艳。跟之前用过的 kimi 相比呢,个人感觉不出有多大的区别。 目前来看,最大的优点就是便宜,比之前的 kimi 划算很多。对于 openclock 来说,想要换模型就得改配置, 虽然理论上所有的操作都可以通过对话来搞定,但根据我最近的躺坑经验呢,对换模型这种关键操作最稳妥的方式,还得通过命令行配置加手动修改文件。否则啊,因为小龙虾自身的一些 bug, 很 容易把自己给搞崩了,之前就吃过亏的。 而想要完整配置 mini max 二点七呢,要分两个阶段,因为目前版本的小龙虾只内置了 mini max 二点五的选项,所以第一个阶段是通过 openclaw config 这个 mini max 二点五。 第二个阶段啊,再到 openclaw 点 jason 这个全局配置文件里,把其中的二点五替换成二点七,然后重启 get 位,看到对话框显示了这个就代表生效了。 目前我选的这个套餐呢,虽然可以在五小时内调用一千五百次大模型,但根据我的需求根本用不完。 但这不是重点,重点在于它会限制托肯的请求速度,不同套餐限制的速度会不一样,而根据我的使用频率呢,用了大概不到半个小时就弹出了超速预警,而且很快啊,就直接把 api 给我封了, 别等几分钟之后才能够恢复。如果你跟我一样,托肯消耗比较大,可能得换个更贵的套餐。而至于它的实际表现呢,跟之前的 kimi 二点五相比, 我看不出明显差别。该犯的迷糊还是一样会犯,比如抛给他的问题,上下文如果一长啊,该丢的关键信息还是会丢 一些,之前的老毛病也一样没有减少,比如让他添加一个系统的新功能时,有时候会把原来老的给丢了。一句话总结就是,没有网上吹的那么好,但也确实不算差。