hello, 我是 乔克,今天我又又又把我的这个,嗯,我的焦黄还有我的整体的系统做了一个微升级吧。啊?那以前呢,我是把它当成是一个执行的人去思考的,那焦黄你要去替我安排底下的人去干活,那我现在呢就是做了一点思维的转变, 首先教皇你作为一个负责人,我是希望你能够去找些机会的,你告诉我我这个钱要怎么赚啊?你能不能独立的让这个模型去跑前二十四小时在线去赚这个钱?那所以呢,我会跟他说,我说那个我就给他们做了一个,就是我给教皇做了一个新的人设,那就是我让他每天定期的去扫描有没有这个行业的相关机会啊,或者是怎样去做。 那可以看到呢,他现在是我在跑测试啊,他现在在做就是高优先级机会,可观察机会跟咱们不推进的机会。 那他呢是有说哎,就是这个短视频,这个代运营啊,然后指南包怎么怎么样,他有做这个相关的这个报价跟执行人啊,那我是希望他们二十四小时能跑起来去在线去把这个事去做掉啊,包括什么什么机会什么机会他们都是有看的。 对,然后呢这个是我的教皇,那我的教皇其实我又给他加了一个功能,是我加了豆包的网页版啊,为什么?是因为,呃,本身我电脑的算力是不够的, 在我电脑算力不够的情况下,那我要怎么去解决这个问题呢?我觉得就是用网页版的 ai 去解决我本地部署的问题,因为就是我们上网要消耗 tokyo 太贵了,那我本地部署的配置又不够,那我能不能搞一个就是配置低的本地部署,然后自动去通过网页去搜索,然后用各种大模型的网页的免费版去解决这个问题 啊?也可以看到就是我跟我的这个教皇去说话,那就比如说我给他去一个命令,他就会,呃,去识别,识别完以后 啊,再把这个结果哎反馈到我这边啊,我是每天能够去定时去做做这么一个动作的啊,这是我现在目前的最最最新版的一个迭代,那包括那他们每就是这些技能啊?都不是我配置的,是教皇去帮他们配置的啊,就是教皇是一个统一的技能载体啊,他需要给谁安什么技能,然后怎么怎么样去做。 另外呢?呃,其实我焦黄的模型现在是有下调的,因为,呃,我电脑配置不够,以前吃四 b 它会很卡,所以说我现在把这个我焦黄的模型反而是下调了,把主要去干事的人的模型呢,然后再去上调,然后现在是做了这么一个调整,不知道行不行? ok, 你 觉得怎么样?
粉丝4670获赞4.9万

就在刚刚,小龙虾更新了最密集的一次版本升级,从官方更新的日历来看,一口气出了两百多个 bug, 覆盖了平台几乎所有的核心模块。这次更新最核心的亮点是全新 context engine 插件接口,简单点说就是 ai 记忆和上下文系统现在都可以插件化了,开发者可以自己定义上下文策略。 新版本还支持了 openai 的 gpt、 五点四、谷歌的 gmini、 三点一 flash 等最新模型,推理速度和成本都有优化。另外多 agent 的 写作也更方便了,现在副 agent 的 可以直接给子 agent 的 传文件,不用再折腾共享目录。 整体来看, opencloud 正在从一个 ai 工具慢慢变成真正的 agent 的 开发平台。目前我们让小龙虾自己进行了升级。关注下期视频,我们聊聊小龙虾的安装部署成本。

open curl 小 龙虾彻底火了,但现在国内版本多到让你看的眼花缭乱,像什么 ez curl, ark curl, kimi curl q curl 到底有什么区别?我们应该选择哪个?其实这些版本早就分好了赛道, 有大厂出的云端版,有社区搞的汉化版,还有专门转性能的重构版。别盲目跟风,选错那就是折磨,关键看你的需求。 拜公主直接冲字节的 archcrow 社交达人选择腾讯的 qcrow, 小 白用 ezcrow 硬核,即刻一定要折腾原版的 opencrow, 选对小龙虾效率翻倍!表格拿走不谢!不清楚的评论区留言。

今天说十个国产平替版本的 openclaw, 我 已经汇总好,大家可以截图保存。第一个,腾讯 qcloud。 腾讯目前在做的是一个内测版本,支持本地一键部署,并且可以直接接入微信、 qq 等腾讯社交工具。很多人关注它的原因其实不是部署,而是腾讯生态。一 旦 ai 助理可以直接连接社交工具,很多日常沟通和信息整理的工作都有可能自动完成。第二个,网易 lobster ai, 网易的思路偏向自动化办公工具,它提供的是一个图形化工作流界面, 用户可以用可示化方式设置任务,比如定时执行、信息整理、内容生成等。同时系统支持常识记忆,并且运行在本地沙河环境中,重点强调的是安全性。第三个,智普 auto g l m agent。 智普做的是一个大模型 agent 平台,支持本地一键部署,同时内置几十种技能,比如文档处理、信息解锁、自动任务等。它还可以直接接入飞书等办公系统,所以很多开发者会用它做自动化办公实验。 第四个, minimax 的 qmi agent。 minimax 走的是云端 api 路线,它没有强调本地部署,而是提供 agent 能力接口,开发者可以直接调用 系统,支持飞书、钉钉等办公生态,适合做企业级应用。第五个字节 arc agent 字节的产品是典型的云端 sas 形态,用户通过网页就可以使用,不需要部署。 light 版本可以免费试用,而 pro 版本按照使用量付费,整体定位更偏向平台工具。 第六个,阿里扣炮。阿里的路线是本地和云端双部署模式,既可以在本地运行,也可以直接使用阿里云服务,基础版本是开源免费的,但如果企业需要定制方案,则会收费。第七个,小米 miklo 小 米的思路更偏向终端设备,它主打端侧运行,通过设备本地执行任务,再结合云端模型进行推理, 未来可能更多结合手机和 i o t 设备场景。第八个,华为小 e agent 模式,华为正在尝试把小 e 助手升级为 agent 形态,本地能力结合华为云算力,可以支持自动化任务。 基础功能是免费的企业级方案,会提供定制服务。第九个,腾讯 work buddy, 这是腾讯推出的企业办公助手,是一个云端 sas 产品,不需要本地部署,用户可以创建多个自动化机器人,免费版本最多支持五个。第十个,猎豹 easycore, 这是猎豹移动富盛团队做的一个简化版本,主打一键部署和快速上手,希望降低普通用户使用 ai 自动化工具的门槛。今天的内容到这里就结束了,你现在已经用了哪个呢?欢迎说说你认为好用的平台是哪个?

兄弟们,我昨晚差点崩溃了,我的 opencl 配置花了一周,调好的技能、定时任务、记忆系统差点全没了,就因为一个误操作,我差点把 opencl 目录给删了。当时我的手都在冒冷汗,心想这下完了,重新配置得花多长时间啊? 结果你猜怎么着?我去 github 看了一眼, opencl 刚好在今天凌晨发布了 v 三点八版本,新增了一个功能, chili 备份, 就两个命令,一键备份、验证备份。我试了一下,三十秒,整个配置全打包好了,配置、技能、记忆、定时任务一个都不落。 而且这功能想的特别细,第一可以只备份配置,第二可以不包含工作空间,第三还能验证备份文件是否完整。我算了一下,以前手动配置、备份、复制、粘贴、压缩、检查至少要十分钟的时间,现在三十秒轻松搞定,更重要的是安心! 如果你经历过配置文件丢失,就知道有多痛苦了,特别是你调了很久的记忆系统,定时任务,重来一遍真的很要命。所以听我说,如果你也用 open class, 现在立刻马上去执行这条命令,别等出事了再后悔!

普通人用 openclaw 最适合用哪一个大语言模型?我用了七天之后,呃简单的给大家做一个总结吧。我前后已经用了三个大语言模型,分别是 kim code, daisy 还有 minimax 啊。首先说 kimi code, kimi code 其实它的能力我感觉是非常强的啊,但是它有一个很大的一个问题,就是它的呃 token 是 有呃非常明显的这种数量限制的,当然这不是最大的问题,最大问题是它呃恢复的时间比较长,好像是七天吧, 就一百多个小时啊,这个等待的时间是一般人接受不了的,除非你在进行会员模型。 那我呢就选择了买新的大医院模型,就换成了 deepsea。 deepsea 呢,它的能力好像变差了很多,就我感觉它它的这种呃处理任务的能力是比较差的。 当然可能是我呃用的时候 openclog 可能有些地方没有配置好也有关系,但是它给我的直接的感受就是它的能力下降了非常多。除了能力之外的最大的问题就是什么呢?就是它的上下文的长度是这三个模型里最小的。 那最后就讲的这个 minmax 是 我目前呃正在用的一个大语言模型,它最大的好处是, 呃一个它便宜,呃初级的会员二十九块钱,它有这种呃 token 的 数量限制,呃,但是它数量限制之后恢复的时间会比较的短, 呃,比如说五个小时,呃它就恢复一次。普通人用 opencloud 的 话,这个 token 的 数量是足够用的了。这三个大语言模型我我最推荐的是 mini, 其次呢是 kim code 啊, dipstick 我是 直接不推荐的啊。

openclaw 大 龙虾火归火,但普通人真玩不动全英文命令行配环境,一下午还动不动报错,甚至还有人花钱带妆,真的没有必要。其实可以先找个低门槛的 ai 智能体体验一下。比如国内第一个 openclaw 中文版摩莉莉, 它不是简单汉化,是底层全改的本土化版本,所以非常适合小白,安装也非常方便,不用代码不用环境,不用英文, windows mac 都能用,官网下载一分钟就搞定全中文界面,中文指令理解特别准。 帮我整理最近的 ai 新闻,并整理成文档发给我,他直接动手,不用你碰鼠标键盘两个最香的点。第一,很多国内软件,比如绿泡泡, 听听非书却能远程控,出门在外躺在床上发句话就能指挥电脑忘带文件,再也不用跑回去。第二,内置 deep stick, kimi 这些国产大模型,不用自己配 api, 成本比原版低一半,非常适合那些怕被 ai 淘汰 又不想折腾大龙虾的朋友。总之,不必死磕难用的版本,立刻找个能帮你干杂活的 ai, 效率提上去才是最重要的。

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

龙虾剪视频真的可以哦,大家看一下成品哦,这是一开始剪的一个版本,后面我又让他进行了一些修改啊,是一个精简版,具体的过程给大家分享一下。首先是在晚上十点钟,十点零四分,我告诉他,我在这个路径里面有我所有的口播视频,你按照我的这个文案去识别, 按照顺序把这个视频再进行拼接,让这个视频非常的流畅。好,这下面是我的一个文案,再过了大概两分钟吧,就告诉我有二十三个视频片段,还有一个文本文档,那要完成,他要跟我确认几个事情,那哪些文案对应哪些部分,还有就是每个片段要保留什么 内容,还有要安装一个工具,都没有回答他上面两个问题,我说你就按照你的建议执行,你先下载,你先做好,那到后面我发现他有点跑不动了, 那这个时候就过了有十分钟的时间吧,就给他重新再发了一遍我的这样的一个要求啊,就是刚才那个软件没装上,他现在软件装上了以后,哎呀,就现在可以来进行一个工作了啊,当时我很急,因为这个时候已经过去差不多四十分钟了,他说是百分之二十的一个过程,然后问了他,他说中间有个东西 失败了,开始重启,但他一直其实有些问题,但他自己也在解决问题,这个真的很棒,不到一个小时的时候,他说他已经渲染了百分之五十了,而且后面真的很快,你看这个可能也就两分钟,这个过程当中他已经完成了百,又完成了百分之四十多,那到最终完成你看就在十一点二十, 其实过去的是一个小时,十分钟嘛,就已经完成了,而且会告诉我大概存在什么地方,有多长时间。是我刚才的第一个版本叫最终版,他竟然第一个版本叫最终版,来看一下啊。看气孔没剪掉,一开始还一些准备的东西,他都没给我剪掉, 可以这样说,中间有些气口没有剪掉,但是他的顺序非常 ok 的, 完全没有错误,这是非常好的一件事情。我在十一点二十的时候跟他说,哎,我需要剪掉这个人物不说话的,还有重复的部分,你只保留后面的语句,因为有些语句我觉得当时录的不好,就录了两遍,让他检查一遍,像一个人一口气说完,更加的一个流畅。 好,这个时候他又开始了,这次非常的流畅啊,会说他的方法是检测出有静音的部分,把它去剪掉,这样的一个逻辑和思路很快分析出来,这应该也就十分钟吧,分析出来原来是五分钟,剪掉以后就是三分钟,很快 啊,过程当中可能有些问题啊,是他自己也有在解决后了十一点三十八分的,也就花了二十分钟的时间。马上我们这边就出现了一个叫做精简版的,大家再看一下。 好不容易从短视频直播间获得你看没有起口的三个目标,第一个呢是快速要摸清客户的 去见人的一个保底动作,根据这三个目标,这个起口也给他剪掉了啊。接下来呢,想试验一下,就到每一个时间点,我要加什么样的一个素材,他能不能给我加上去,包括像一些音效啊、效果啊,用完的啊?第一步已经非常成功,很满意了,如果有新的消息的话也会和大家分享的。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

nintendo 二来了,网上评论却两极分化,对比它的 pro 版本,有人说它是为了速度牺牲画质的阉割版,有人说它是 ai 逻辑的新巅峰。我去问了一下 jamie 奈, nintendo 二对比 pro 到底升级了哪些方面,给出我五个核心的关键升级点,这是 jamie 奈给我的答案,我们来一起看一下吧。 第一,推理速度提升三至五倍。第二,具备了实时联网感知,能和真实世界保持一致。第三,多主体一致性控制更强,连贯脚本的神器。第四,四 k 文字渲染升级,彻底告别火星文。最后是引入思考模式,指令遵循度显著提升。 今天我们就通过一组图片生成实测对比这五个核心升级点,看看纳德布纳纳二点零对比 pro 到底是否真的做出了这些提升优化。另外,我们还会告诉大家一些能够用到的纳德布纳纳二的免费入口,大家一定要看到。最后关于推理速度的对比,我们就实测所有图片生成后再来揭晓。 go 一个测试,测试模型对此刻新发生的非公开数据级的事件或地标的一致性认可。 提示词中含有特定地点的特定事件,我们找到了科穿沿岸的真实图片进行对比。大家可以看一下 number one 的 二生成的图片,明显是参考到了科穿沿岸的真实场景,但 pro 的 感觉就比较差强人意了。 这一局 number one 的 二伸出第二个测试挑战模型,维持多个具有不同特征的角色的能力。提示词中五个角色性别、发色、穿着、动作各不相同,且要保持画面的电影级和谐。 那那不那,二生成的图片每个人物特征都精确还原了,且分为统一,还是挺不错的。看看 pro 生成的图片,提示词中提到的背夫动作是背着步集箱,但实际生成的是扛着的,这稍微有点出入,但是其他整体还是挺不错的。 这一局难得不烂的二选。第三个测试,直接硬钢中文特殊符号多行排版的精确度。之前用 pro 生成的带汉字的海报,大家应该都遇到了渲染不对的情况吧,基本上要用 ps 后期补字。 两个模型都成功渲染了字体和图形,但从画面的构图、空间感和环境的氛围丰富度来看,还是 nintendo 的 二生成的图片视觉冲击力更强,环境氛围细节拉满。这一局从原生四 k 文字渲染的角度来看,两者打平,但其他角度还是 nintendo 的 二更深一层。 第四个测试,测试模型对长指令,反之对逻辑分布执行的理解力要求模型先思考如何构建, 再进行生成一些比较复杂的逻辑嵌套,如果模型不思考,生成的画面就会逻辑崩溃。这个对比就比较直观了, number 不 number 二的 ck mod 就 有很大的优势,在生成前理清了这三层画中画的因果关系,再去生成图片,而 pro 就 不具备这种能力, 生成出来的图片逻辑完全不对。好了,最后我们来看一下推理速度的对比。我们一共测试生成了五组图片,推理思考时间, number 不 number 二是比 pro 快 的, 实测下来感觉推移速度难得不难得二略占优势,且价格上难得不难得二比 pro 下降了百分之五十以上,可算是性价比拉满了。 你被种草难得不?难得二了吗?我今天的测试全都在七六零 a s studio 上完成的,只需要输入一个账号就可以快速接入海内外超九十加大模型, 新模型上线贼快,还有免费的投屏额度可以领取。我整理了一份能够快速免费体验的操作文档,欢迎评论区来找我领取哦!记得点赞关注哦!

普通人该如何选择 open club? 大家好,目前国产 open club 满天飞,到底该如何选择合适的版本?我花时间把几乎所有版本的 open club 都装了一遍,今天就来讲讲不同版本的区别,详细的对比资料评论区留言获取。我们先看看各版本战力对比。 一、智普 auto club open club 原版封装修改一键本地部署最省心,免费额度起步积分套餐二十九至四百九十九元, 支持企业微型飞书、钉钉、 qq, 内置 glm 杠五、蓬尼模型,可自定义多模型技能市场九十五个,支持 mcp 自定义网关几乎满血。 open club 新手首选二、猎豹 ez club 国内版 同样是原版封装,三端覆盖本地云端,安卓每天免费二百积分,付费四十至二百元每月,内置九大主流模型,技能市场超三万个,有专属龙虾商店,普通用户最易用。三、 当被茉莉功能对标 openclock 主打微信加 siri 远程控制,每日登录送三千积分,付费十九点九至一百三十九点九元每月,支持微信服务号 siri 调用,带权限管理,适合习惯用语音微信远程操控的用户。四、腾讯 work buddy 腾讯官方办公像 agent, 积分消耗极低,每月免费五百积分,专业版五十八元每月,内置多模型办公与代码能力强,插件生态丰富,本地部署稳定,职场办公首选五,网易劳普测 ai 免费使用,需自配模型接口,高度兼容国产模型,支持几乎所有国内大模型 i m 接入,全面带 m c p。 沙乡安全环境开源爱好者首选六,阿里 coco 阿里开源版本地加云端双部署, 支持钉钉、飞书、 imessage、 discord 等超多通道,纯开源可二次开发,适合即刻与企业自建。七子杰尔克勒 云端修改版深度绑定豆包与飞书 lite 版四十元每月, pro 一 百九十九元每月,限时限量,纯云端运行。七乘二十四,在线飞书用户首选八, mini max max claw mini max 专属云端版,模型单一但稳定,免费一千积分付费三十九至一百九十九元每月,开箱即用,适合不想折腾配置的普通用户。九月之艾面 kimi klo kimi 深度定制云端版常文本与代码墙套餐三十九至五百五十九元,按 kimi code 度倍数计费,仅在 kimi app 内使用 kimi 重度用户专属。 最后总结,追求完全自由,最强能力直接上 openclor 原版,新手一键开箱。推荐 autoclor, 普通用户三端方便选 easyclor 国内版,办公省钱稳定选 workbody 飞出豆包生态选 arkclor 微信 siri 远程选房没有力,即刻开源自建选 couple rob sir a r 好 了,除了 coco 需要邀请码之外,相信其他十款产品一定有一个是适合你的。以上就是本期的全部内容了,感谢您的观看,记得关注哦,我们下期见!

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

在欧奔 klo 火了之后的几天时间里,突然间就冒出了很多的变种 klo, 什么 nano klo, nano bot, piccolo klo, 甚至还有可以部署在 esp 三二上的咪咪 klo。 呃,捅了猴子窝了。那在这些变种龙虾的宣传页面上,要么就写着它们的代码有多么的精简, 要么就写着它们占用内存有多低,只需要极其廉价的 cpu 就 能跑起来,那这对我这个硬件工程师来说就很有吸引力了,我可以在我之前做的这些电路板上来养龙虾。 不过面对这么多的龙虾,我的选择困难症又犯了,那这些龙虾到底有什么区别?像 zero klo 和 piccolo klo 看上去大差不差的,那应该怎么选择呢?另外的话,像咪咪 klo 这种能运行在 esp 三二上的龙虾,它真的好用吗? 硬件工程师又应该去养哪一只龙虾呢?那今天的视频我们就一起来探讨一下这些问题。首先是欧奔卡洛,那比起其他的龙虾来说,就是大鳌权 github 上面的新标也是最多的,那部署的条件的话,基本上就只有一个内存足够大,按照我的经验就是大于四个 g, 所以 除了常规的电脑,像是树莓派五啊,地瓜的 r d k 叉五开发版啊,以及说大部分的乡城派开发版都是能够部署的。 然后呢,它有一个很大的问题,就是代码量比较多,有七十万行,所以呢,就有了 nano bot 这个项目,那它是基于 open core 修改而来的,目标就是追求极致的代码只有四千行。这样的好处就是一个差不多水平的软件工程师就能够读完所有的代码, 那在你读懂它之后呢,就可以基于它来构建出自己的龙虾。所以 nano bot 就 有点像是一个学习项目。那从功能上说,虽然说做了精简,但是总体还是能用的,简单的聊天、整理文件、调用 skills 都是可以的。那比起 open class, 它缺失的是一些高级的功能, 比如说没有向量化的长记忆功能,那这就导致了一段时间之后,它很有可能就忘记了前面的聊天。那另外的话呢,它也没有插件系统, 所有的功能不能通过第三方做扩展,只能说等官方来实现。那总体来说,我并不是很建议没有代码能力的新手去使用 nano bot, 它的文档也比较少,只有一个 readme。 那 不过如果你有能力去看懂 nano bot 的 代码,那基本上也就不需要接受我的建议了。 接下去是 nano cloud, 那 虽然名字里有一个 cloud, 但是它的功能和其他的龙虾其实是不太一样的,只是说借用了一个名字而已。它是基于 cloud agent sdk 开发的,简单理解就是一个对 cloud code 的 分装,所以本质上算是 cloud code 的 兄弟。那虽然代码量极少,但是它的内存占用并不低, cloud 的 cost 占用多少,它就至少要占用多少,所以它其实并不归属于龙虾的范畴。那 pico cloud 的 话是国内的一家开源硬件公司希素科技开发的,那他们家的主营业务就是卖 linux 以及 esp 三二开发板。 做 pico cloud 的 意图就很明显了,就是在低内存、低成本的 linux 开发板上养虾。所以说 pico cloud 的 核心目标就是省内存。那 pico cloud 是 基于 nano bot 修改而来的, 原本的话, nano bot 是 基于派送开发的,所以即便是做了精简,内存的占用率还是要到一百兆以上。那为了节约内存, pico cloud 的 开发团队就让 ai 把 nano bot 用 go 语言进行了实现,那因为是翻译语言,所以内存占用率一下子就降到了十兆以内。 那从能力上说,一开始的时候 pico 可乐和 nano boot 几乎是重叠的,不过随着时间的推移,慢慢的就分道扬镳了。那衍生出了一些自己的功能,比如说为嵌入式系统定制了更多的功能,集成了 fnc 和 spi 的 控制。 所以如果你是想玩玩低成本的嵌入式部署, pico 可乐还是不错的,尤其适合像 k 二三零、 d iv 幺幺零六、 c v 六幺零这种内置一百二十八兆内存的芯片,性价比是非常高的。 那接下去来说一说 zero colo。 zero colo 是 一个非常值得一提的项目, nano bot 和 piccolo colo 可以 说是从 open colo 那 边继承而来的,所以它们基本上就是 open colo 的 经典版本。 而 zero colo 就 不一样了,目标非常的宏伟,极低的内存占用,覆盖几乎所有的硬件,同时呢,具备 open colo 几乎所有的功能,也就是说它是奔着和 open colo 平起平坐,甚至是说干掉 open colo 来的。 那目前的话,它也拥有插件系统,原生的向量记忆系统,支持浏览器方案,甚至有自己的技能商店,有 hux, 做自动化也没有问题,有成熟的文档以及华丽的 web 控制台,那这些都是 nanobot 和 pico 所没有的。而且呢,它的内存占用率极低,已经支持了部分的侵入式芯片部署, 不过美中不足的是暂时不支持 risk 五芯片,所以像 k 二三零 d s g 二零零二什么的就用不了了。总体来说呢, zero cloud 是 值得去探索一下的, 如果想要取代 opencloud 还是任重而道远,很多的功能也仅仅是做了一个开头,需要大量的时间投入去生化。那最后一个是咪咪 cloud, 那 这个的话是一个绑定在 esp 三号上的项目, 这个对介入式工程师来说还是非常的诱人的,受众的话理论上说要更广一些,但硬件开发的难度也更低。不过实际使用之后呢,发现有两个致命的问题,或者说也算是一个问题吧,就是说它所有的能力需要你自己提前写好, 比如说你想要去控制舵机的转动,那么就需要修改咪咪可乐的代码,那给它加上舵机控制的函数,把它固化成一个原子能力,那后续的话就可以通过聊天让咪咪可乐去调用这个能力了。 那简单的概括就是,咪咪可乐只是能调用你写好的 api, 而其他的可乐呢,是能够自己生成代码并且执行的, 所以想要玩转咪咪 colo, 就 需要你有一定的嵌入式开发能力。好,那以上就是今天视频的全部内容了,简单的总结一下, open colo 算是大鳄权,但是占用内存高,那 nano bot 的 话呢,主要用于代码的学习,那 pico colo 的 话呢,更适合嵌入式的部署。 cora 可乐的话呢,野心比较大,但是有待发展。米米可乐是部署在 esp 商号上,但是无法自编程,需要有开发的能力。好,那以上就是今天视频的全部内容了,如果你对这方面有帮助啊,别忘了关注和三点,我们下期再见,拜拜。

最终还是没忍住买了 m 四版本的 mac mini, 我 现在在用的主力电脑是 m 二版本的 mac mini, 这个是二三年买的,到现在已经用了三年的时间了,其实它完全还够用,现在买它纯粹是怕它涨价。 我这个是在拼多多买的三零九八,看价格还没有涨多少,因为去年我是看到过两千九左右的 mac mini, 不 过这个价格也是可以接受的,毕竟这个 m 二我当初买的还三千五呢。它们两个都是盖板,这个是八加二五六,这个是加量不加价,最低配就是十六加二五六。 二五六的内存版本说实话是真的不够用,但是经过这三年的验证,我觉得外挂和雪豹也是没啥问题的。 这个是我之前买的三星的 t 七一 t 的, 当时买的价格只需要四百四十五块钱,现在我看了同款已经卖到了一千三百五了,所以说我决定 m 四版本依旧走这个外挂的路线。但是这个视频的话,也看一看拼多多能不能安全下车,虽说拍个开箱视频万一有问题后期可以扯皮, 里面是还有一个 mac mini 的 盒子。 m 四其实对我诱惑最大的一点就是它的尺寸了,这个要比之前的 m 二版本的小太多了,依然是有这样的贴纸,我们直接撕掉, 然后我们打开,没有任何的阻尼可言,大家看一下这个尺寸,我给他俩摆到一起,大家可以看一下这个对比,不足他的二分之一,但是他会稍微厚一些继续拆掉。 依然是苹果这个经典的铝合金的机身质感,精致感这块拿的还是非常到位的,不过边角的话依然是比较挂手的,设计语言跟之前是一样的,这个是之前的 m 二版本,而这个是最新的 m 四版本,占桌面的面积要小太多。再来看一下都有什么配件, 下面的话就是有一个电源线,然后是一堆不用读系列,来看一下这个电源线相较于上代的进步是变成了这种编织的线材,但是依旧是比较硬一些的,然后跟之前的接口是一样的,即使是这么小的机身尺寸,依然是采用了内置的电源,这个是平时携带出去的一个体积。 来简单看一下它的接口方面,这次他终于把接口有移到正面啊,正面有一个三点五毫米的耳机接口,然后是有两个 c 口, 这个是 usb 三的一个接口,是支持最高实际的一个速度的。然后背面我们看一下这个是它的电源接口,这个是一个网线接口, 网线接口的话是一个千兆的网啊,当然可以花钱升级到万兆。然后这个是一个 hdmi 的 二点一的接口,是最高支持到了八 k, 然后还有三个雷电四的 c 口,这次它是彻底把 usb a 口给放弃了。我们再来对比一下上代的接口,其实这代的接口相较于上代还变多了,上代是电源口,网线口,两个雷电口, 然后 hdmi 口,还有两个 a 口,一个耳机口,对比下来数量上是多了一个雷电四的接口,然后这次的分布的话,我觉得会更合理一些,当然没有 a 口的话倒没有那么的方便,但是这些接口对我来说肯定还是不够用的,所以说肯定是要外接一个拓展屋的,对了,很多小伙伴吐槽这个电源键,它是在这里 是没有那么的顺手,但是我的 mac mini 基本上是没有关过机的,所以说对我倒没有什么太大的影响。相较于外挂各种这种扩展窝,我觉得这种还是来的会更简洁一些。然后这个东西大家尽量买质量好一点的,有质量保障的,因为这个出问题的可能性还挺大的。 我这个是之前的伞塌起的,我觉得还行,然后它扩展出来这么多接口,尤其是这两个接口是非常重要的,所以说这个的话,我之后应该是会给他配一个这样的一个扩展底座,所以说我觉得这个配件是挺重要的。 然后另外一个配件就是这种外挂的固态硬盘了,这两个我个人是非常推荐的 mac mini 的 配件。好了,对于这个 mac mini 有 什么其他想要了解的,可以评论区交流。没有关注小伙伴呢,记得点关注,我是大星,我们下个视频再见。

上期我们讲了 aa 圈养龙虾存在的安全性问题,今天我继续分享 oppo 可乐的部署方式。最近一段时间, oppo 可乐持续火爆,各大厂商也纷纷入局,推出了各自的适配版本,整个生态快速扩张。 对于大多数普通人而言, oppo 可乐到底有哪些部署方式?自己该怎么选?目前主流的 oppo 可乐的产品形态分为三类, 一类,官方开源版。他是最基础最原始的版本,完全开源,可本地运行,数据不经过云端,隐私性最强。但他没有图形化的安装包,需要手动配置环境。 第二类,大厂优化托管版,由各大厂商基于官方版本进行二次开发,提供更友好的界面、更稳定的服务,支持云端一键部署,无需复杂配置,兼容性和应用性更高。 第三类,官方简化封装版,由社区和个人封装的一件安装包,简化了部署环境,适合想本地运行但又不想折腾代码的用户,平衡了易用性与隐私性。了解完形态,我们再说说普通人该如何选择。 如果你是个纯新手,没有任何技术基础,想体验功能,优先选择大厂托管版,开箱即用。如果你在意数据隐私,又希望任务本地运行,又不想配置复杂的环境,可以选择第三方封装的简化。 如果你是开发者,有一定的技术能力,可以直接使用官方原声开源版。接下来我介绍一下官方原声部署存在的门槛与问题。第一,环境配置复杂。官方提供的部署需要手动 安装运行库,步骤繁琐,很容易出错。第二,安装过程中容易出现依赖缺失、端口冲突、模型调用失败等问题,没有基础的用户很难独立解决。第三,缺少友好的使用指引。 官方文档偏向技术人员,普通人员很难理解其参数含义与配置逻辑,上手成本很高。简单总结,官方部署方式更适合技术人员, 普通人员使用大概率会遇到阻碍。以上就是 open core 主流的部署方式、适用人群以及官方部署的存在真实问题,大家可以根据自己的技术水平和使用需求选择最适合自己的方案。

怎么发现龙虾突然变傻了呢?糟糕,装了最新版的龙虾之后啊,怎么发现龙虾突然变傻了呢?除了聊天啥也做不了。再仔细一看,确实是最新版的龙虾,但为什么会出现降质的问题呢?好,那么接下来一个视频给你讲清楚它的原因是啥,以及应该怎么样去解决。 首先先去打开命令行窗口,然后输入一个 open cloud 杠 v, 如果你的版本是二零二六三点二 以上的版本啊,就是比这个版本更新的版本,那你会发现你的 openclaw 简直是和傻子一样,它不能做任何事,它只能陪你聊天了。这时候你会发现,那我去安装 openclaw, 和我直接去使用某包 某 seek 是 没有任何区别的。原因是啥?原因是在于 openclaw 在 三点二的时候,它进行了安全升级了,这时候它把所有的 权限全部关了,然后这点怎么样证实呢?给大家来说一下。在 opencloud 的 外部页面,它是有权限的展示的,然后这个权限展示在哪呢?在代理,代理其实就是 agent, 然后在 agent 的 这个 twos 里面点击它,这里面是我当前 opencloud 所能调用的所有的工具。然后当你装的是三点二的时候,你会发现全部,几乎全部,除了啊,这个,呃,除了通讯的消息之外,其他的全部是灰的,我不能执行本地的这些操作了,然后文件我都读取不了了,原因就在于三点二它进行了安全升级了,这时候它啥也做不了。那好,这是怎么办 啊?比较简单的方式,笨的方式就是我去找代理,然后我去找这个托斯,然后我把里面的所有的这些都 东西,我给他一个一个的去开启,这是最笨的方式啊,那么这样的方式,我把它所有的全部点开之后呢,不用保存,它自动就保存了,那这时候我就拥有了所有的权限了,我就可以让它操作本地的一些指令,对吧?啊?这是一种方式,但是教给大家最简单省事的一种方式,你可以这样三点二的版本 打开 opencloud 的 配置文件,然后 opencloud 的 配置文件怎么样去找呢?它就是在你当前登录用户的根目录底下 啊,然后去找就行了,那比如说 macos, 那 我就可以输这行命令啊, open, 然后打开,打开谁啊?当前根目录底下有一个文件夹,叫做 open cloud, 就 输入这行命令,敲回车,它就打开了 open cloud 了,然后这里面有一个接省文件,对吧?好,双击打开这个接省文件,然后在接省文件里面呢? ctrl f 啊,去查找,对吧?或者说, ok, 你 不会使用这个啊,命令也没有关系,然后你去找它里面有一个 tours 这样的一个配置,这个配置呢,就是说我的权限里面除了聊天之外没有其他的了啊,好,这时候咱们怎么办?把这个 tours 给它删了, 记着删了,这是最简单的方式啊,删掉,删掉之后, ok, 这个时候重新去启动咱们的龙虾,你的权限就已经回来了啊,好,那么这时候, ok, 咱们重新去启动我的龙虾,那我就,呃,那我这时候呢,我就可以使用 open cloud, 然后 get away 啊,然后 restart 返回车,然后等待它启动。启动完成之后呢?这时候啊,它就有权限了,然后怎么去验证呢? 还是在刚才这个地方,然后你去刷新,你会发现这个时候的这个 taurus 里面所有的权限就有回了啊。所以呢,如果你的版本是新的版本,是刚安装的 open color, 记着一定要把 taurus 删掉,把所有的权限开到最大,这样的话才能发挥龙虾的作用啊。好,我是磊哥,每天分享一个干货内容。

今天跟大家聊一个很多人最近都在用,但很少有人真正看透的东西,欧盟酷洛镜像版本。现在呢,很多厂商都在推欧盟酷洛镜像版本, 呃,比如三六零啊,比如三大运营商。我们先把他明面上的优缺点讲清楚,镜像的缺点非常明显, q, 配置非常复杂,容易出现各种问题,而且工信部明确不建议使用镜像版本,存在合规的安全隐患。但是他也有优点,镜像封装好,能把欧文格洛自身运行的风险降到最低,所以上手快, 更加稳定。这些呢,只是表面情况,今天我重点讲清楚他最核心的隐藏的逻辑。首先你要搞清楚,欧本可乐本身是一个智能体引擎,只要能对接模型就能正常跑起来。而原声的欧本可乐是完全开放的 公开模型,本地私有化模型都能对接,自动化工作流,不受任何限制。很多人觉得原声风险高,其实不然, 只要你配置好 sku, 做好权限和安全处理,风险其实并没有想象的那么高。再加上欧本可乐后期会持续升级优化,稳定性和实用性完全能满足日常使用。 但镜像版本就不一样,它是一个封装好的固定版本,一旦官方升级,镜像很难同步更新,存在明显的升级时间差。更关键的是,它还会直接锁死你和大模型的对接通道, 只允许你使用公开大模型。之所以这么现实,原因非常现实,只有走公开大模型才会产生头,肯消耗才会持续付费。如果你用本地模型,不会产生外部计费,所以就像直接把这条通道给你屏蔽了。总结一下, 欧本可乐镜像版本虽然上手快,运行风险低,但配置麻烦,升级之后,同时工信部也不推荐,存在合规隐患。更关键的是,它会强制绑定公开大模型, 让你持续性花钱。所以想真正灵活、低成本、安全的使用欧本可乐,使用原声版本才是合理的选择。

这是一款让你不用任何 a p i t 就 能让你电脑流畅运行 openclaw 的 开源工具。记住这个项目名字,它通过浏览器自动化技术,完全不花一分钱,让你的 openclaw 直接利用网页登录去调用 gpt、 cloud、 jammer、 币豆包等等主流模型,完全不需要任何的 a p i t, 让你零消耗,用上 openclaw 就 非常顶。