两天两次大更,你的 openclo 刚升完就废了?你看,上周末狂揽二十八万 star 的 openclo, 刚发了个史诗级三点七版本,官方直接放话我们没有小发布,结果话音刚落,第二天三点八又砸过来了。官方还开玩笑说我们修复的问题比制造的还多,这就是进步。这次过山车市的更新到底干了啥? 我帮你总结了四个方向,第一,模型能力升级,新版首发适配了 g p t 五点四,还有 gemini 三点一 flashlight, 你 看最新的大模型能力,现在能直接无缝接入了。第二, agent 架构升级,这次最硬核的就是可插拔的上下文引擎,以前对话一多 ai 不是 爆 token 就是 丢细节,现在就像给 ai 插了个 u 盘,记忆策略随便换,完全不用改底层。 第三,工程部署能力优化,以前服务器一重启, ai 直接失忆,现在 a c p 绑定支持了重启恢复, docker 镜像也做了瘦身,部署更快更轻。第四,安全可信拉满 火速发布的三点八版本,核心就是维稳就场,不仅新增了 opencloud backup 备份恢复能力,还让 agent 能精准识别消息来源,顺手修复了十二个以上的安全漏洞。 两天两次大更,背后是一百九十六位贡献者的努力。 openclaw 的 发展重点已经从技术实验全面转向了 ai agent 的 工程化落地。那么你是不是也经历了刚升三年期就立马被推着上三点八的窘境呢? 来评论区聊聊你的升级体验。 openclaw 这波更新速度让人想起当年 chrome 刚出来的时候,一周一更, bug 越修越少,功能越做越强,看来 ai 工具已经开始卷熬夜能力了。
粉丝2.9万获赞28.5万

刚才说了,全球人民都在养龙虾,好龙虾进化了! open curl v 两千零二十六点三七刚刚发布,八十九项,提交两百多个 bug 修复,史上最密集的一次。 但最让开发者炸锅的是, ai 的 记忆终于可以自由插拔了。先说最硬核的 context engine 插件接口,做过 ai 应用的人明白,上下文管理是最头疼的问题,对话轮子一多,偷啃就炸, 信息一压缩,关键细节就丢。以前这些处理逻辑写死在核心代码里,改一处就可能崩全尘。这次 openclo 开放了完整的生命周期,从初步化注入、组装、压缩到子智能体深沉,前后的处理全部可以自定义。其实就是换一套上下文处理逻辑, 像换插件一样简单,不用动底层代码,想用 r a g 可以, 想做接近压缩随意,想让不同子任务有隔离的记忆空间接口都给你准备好了,这把 open curl 从一个工具变成了一个平台。第二个亮点,同步首发,适配 g p t 五点四和 gemna 三点一 flash。 更重要的是模型降解机制,某个模型限流或过载时,系统自动切换到备选模型,不报错,不让用户干等。你可以把 open curl 想象成一个模型, 前端是你习惯的聊天工具,后端可以挂 cloud gpt、 gemini、 deepseek, 哪个便宜切哪个,哪个好用用哪个。第三个亮点,两百多项 bug 修复,覆盖了 discord 的 断联、死机、 telegram 频道隔离、 whatsapp 前缀注录、 cclide 的 锁冲突、沙盒逃逸防范, 几乎把整个平台翻修了一遍。一个开源项目能不能长线运营? bug 修复的密度是照妖镜,这次的密度说明用户量在高速增长。 大厂 ai 产品有算力、有团队、有用户基础,但有一件事,他们永远给不了你控制感。当你把 ai 部署在自己服务器上,数据在自己手里,源码随时可查,模型随时可换,这种信任是大厂给不了的。 opencloud 三点七,让工具更稳、更开放、更可信,而可信在 ai 时代是宝贵的稀缺品。关注星智源,秒追 a s i。

网上传言都说 openclaw 好 用,就是太费头。肯,今天来带你看看它到底费不费头。肯,我平时最常用的是 geminis, 去做文字生成,图片, web coding, 流程自动化,基本上所有的任务。我们来看看这五天下来我到底用了多少钱?这是我国 a s 九九里面的, 我自己用的,五天用了三点多美元,差不多算下来每天五块钱人民币。再看看我们团队,差不多有三四十人,一周下来用了十五美元,也就差不多一天十五块人民币,你觉得这个价格贵吗?用最先进的粘板三模型,一天下来每个人差不多一到五块人民币,但是他基本上二十四小时都可以再帮你干活。 如果你感兴趣,也想把 open i 正确部署在你本地上手,能够真正的做成你的 ai 助理,那么我们有一个 ai 工具群,里面会有十八手的 open club 本地部署课程,还有很多个实际行业的落地案例。如果你感兴趣,可以看主页介绍,第一行会有专人给你提供更多的信息和介绍。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

openclaw 昨晚迎来史诗级更新,可插拔上下维引擎,彻底解决 agent 记忆痛点。 gpt 五点四和 gemlife flash 三点一以光速接入,官方推荐 lostclaw 插件,让你的 ai 助手真正实现永不忘记 这波操作,直接把 agent 推向新高度! open core 昨晚迎来史诗级更新,可插拔上下文引擎,彻底解决 agent 记忆痛点。 gpt 五点四和 jimmy knife flash 三点一以光速接入,官方推荐 lastless core 插件,让你的 ai 助手真正实现永不忘记 这波操作,直接把 agent 推向新高度。不仅如此, kappa 大 神又整活了他,开源了一个仅六百三十行代码的 agent 自净化训练框架 auto research, 单个 gpu 就 能跑五分钟。一轮实验 发布后, github 狂揽进三 k 星,这简直是 ai 领域的博士生模拟器,未来科研效率要爆炸!开元社区那边也有大动作, unipad ai 甩出三十 b 参数的 uni scientist 科研基础模型,它能自主提出假设、收集证据、执行推导 甚至实现迭代验证的科研闭环。 benchmark 跑分显示,它在多项权威榜单上匹敌,甚至超越了 cloud 和 gemini 等顶尖闭源模型。在垂直领域,思谋科技的 industry 工业大模型表现抢眼,在工业职业考试中力压 gpt 五点二和 gemini 三点一减 pro。 他不仅知识广度深,更强调边界控制和规范遵从,通过智能体 smart vr 工业质检,效率直接飙升百分之两百。这才是真刀真枪的落地,连图灵奖得主 donno no 都被震撼了。八十八岁高龄的他用 cloud opus 四点六,仅一小时三十一次探索, 就破解了一个困扰他三十年的三维图论数学悬案。 cloud 展现的不是暴力搜索,而是结构性逻辑演绎,这简直是 ai 创造力的里程碑。聊到 opencloud, 揭露 ai 发布了 pinchbench 榜单,专为衡量大模型对 opencloud 的 适配度。 国产 mini max m 二点五在速度上登顶,成功率也名列前茅,值得我们开发者重点关注。生物医药领域也迎来新突破, 英镑智能与 lucy 的 ai 共同发布了轻量化科研基础模型 lfm 二点六 b mmi i, 专为制药研究打造, 覆盖多个关键细分任务。这意味着 ai 在 加速药物研发方面又迈出了坚实一步。再看看应用层, ai 社交也有新玩法。暴雪和皮克斯老兵打造的 ai 社交产品 cici 突破两百六十万,估值一点五亿美金。 他主打用声音匹配和游戏场景,让 ai 理解用户的真实行为,而不是包装虚假人设,这或许是社交的未来方向。聚深智能的基建也来了,无问智科在浙江发布了首个物理 ai 数据机作平台,无银 专治机器人数据库。他通过虚实融合,提供海量高质量数据,还开源了一万小时数据。地平线等巨头纷纷深度合作,彻底打通聚深智能从训练到商业化落地。 自动驾驶方面,文远之行与吉利远程申花战略合作,预计两千零二十六年将交付两千台前装量产 robo taxi gx 二, 新车搭载尖八自动驾驶套间,探测距离可达六百米,单车成本还降低了百分之十五。 robo taxi 的 规模化落地真的不远了, ai 硬件生态也正在爆发。 昂比亚预测,两千零二十五年,全球 ai 眼镜出货量将达到八百七十万台,同比大增百分之三百二十二。其中 mate 凭借锐半品牌占据百分之八十五点二的市场份额。 智能穿戴设备的下一个风口可能就是 ai 眼镜了。手机厂商也没闲着,三星宣布将压住多 ai 模型战略考虑,与多家 ai 公司合作,将各种 ai 模型整合进其智能手机,以挑战苹果。 未来手机的 ai 能力将成为各大厂商竞争的焦点。对我们开发者来说,最关心的可能就是就业市场了。陌陌最新报告显示,两千零二十六年一到二月, ai 岗位平均月薪已突破六万元,岗位量更是暴涨十二倍。 新经济行业整体回暖, ai 人才争夺战已经进入白热化阶段。一家 ai 公司诺思克 ai 仅用两周就转型推出了 openclaw 相关产品 zacclaw, 并获得近亿元融资。他们将 ai 助手直接部署在本地,操作浏览器读写文件, 这证明 ai 时代的迭代速度已经不能用人类时间来衡量了。最后来看看政策层面,交通运输部宣布,十五五期间将深入实施人工智能加行动,大力发展智慧交通。同时, 最高法也强调,要准确把握科技创新融错空间,并加强 ai 领域历法研究,为 ai 发展保驾护航也划清边界。 今天的 ai 天天降日报就到这里了,观众老爷们爱一时代的技术浪潮汹涌澎湃,你准备好乘风破浪了吗?记得关注 ai 天天降,咱们下期再见!

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

经常有人问我,要玩儿 ai 的 话需要换电脑吗?配置到底要多高?那今天我就把这件事情彻底跟大家讲清楚,不管你是想做图做视频,还是运行智能检测 skill, 那 这个视频都会帮你找到自己的位置,不多花冤枉钱,而且不会因为配置不够而被卡住。 很多人呢,买电脑呢,只看价格,不知道哪一个部件到底影响什么。而且在 ai 这件事情上面,三个核心的部件各有分工,而且它和以前非 ai 时代选电脑的逻辑呢,已经完全不一样了。首先我们来看一下内存,内存呢,能够决定你同时能够跑多少东西, 内存只要不够,你的程序会卡,会崩溃,会报错。而跑 ai 工具的时候,往往需要开着编辑器,浏览器终端等等,而内存就有可能会成为瓶颈。 而显卡呢,是决定你能不能在本地做计算密集性的任务,比如说像图像生成啊,云识别啊,视频剪辑这些都需要显卡来加速。而显卡里面有一块专属的内存叫做显存, 它决定了显卡能够处理多大的任务,显存不够,要么跑不起来,要么慢的让你崩溃。而 cpu 决定通用计算的速度,而对于绝大多数的 ai 工具来说, cpu 都不是瓶颈,这几年的主流的处理器都够用,完全不需要去特别追求顶配。 所以我们先来说一下第一种情况,如果呢,你只是想用浏览器去打开豆包千问 china gpt 或者是 dbic, 或者呢?你用一些像 china studio 这样的桌面客户端,把多个 ai 模型整合在一起去辅助工作,那这一类工具,它所有的计算其实都在云端完成, 你的电脑呢,其实就是个显示器,对于配置要求极低,只要能够流畅的跑浏览器,其实就能用。哪怕是五年前的老电脑,只要内存不低于八 g, 网速还行,用起来完全没问题。而在网页上升图升视频也是完全一样的道理,你在网页上点一下任务,发送到云端服务器,等结果直接回来就行, 你的显卡 cpu 跟这件事情根本就没有任何的关系。而这类的工具,对电脑的真实的唯一的要求其实就是网络网速越快,响应就越快,体验就越好。 不过有一点要说清楚啊,八 g 内存是能用的底线,但并不是推荐的配置。如果你现在要新买台电脑,不管是什么用途,十六 g 内存是起步,现在几乎是标配,价格上呢,几乎没有额外的成本,但是体验要好得多。 第二种情况就是用本地的智能体工具,比如说最近大火的 open cloud 龙虾,或者是 ai 编程工具,比如说 tree cloud code, open code 它会在你的电脑上直接读写文件,运行代码,调用终端,或者是本地的智能体平台,比如说 cowalk 呀,或者 skywalk desktop, 它们的逻辑呢,都比较相似,核心的计算是依赖于云端模型,本地呢,主要是负责任务调度,还有界面的交互。那这三类工具就有一个共同的特点,就是都可以运行 skill, 也就是说让 ai 在 你的电脑上执行一套完整的自动化流程。 那这类的工具其实对配置的核心要求,取决于你的 ai 在 你的本地到底实际在干什么活。如果说你只让它生成一份 word 文档,整理一个表格,那对电脑几乎没有额外的要求,十六 g 内存完全够用。 但是如果你是让 ai 帮你去剪辑视频,做语音识别,批量处理图片,那就完全是另外一回事了,配置要求呢,就直接拉满。所以说,这一类工具对于显卡的要求,并不是由工具本身决定的,而是由你让 ai 做的事情决定的。 如果你确实让 ai 在 本地做视频剪辑,做音频识别这一类计算密集型的任务,那显卡呢,就不能够将就显存呢?就像是显卡的工作台,工作台越大,能同时摆开的材料越多,干活就越快。 那如果你要做视频剪辑,其实我觉得更好的方法是核显加独显的双显卡组合,它能够大大的加速剪辑的效率。而这三种情况就是在本地运行大模型, 比如说你像在本地啊,去运行一个小 ai 模型来保护隐私,或者在本地来生成图片,那么不废话,我直接给你一个简单的估算方法,用模型的参数量乘以二,大概就是你需要的显存的显存,而十四 b 大 概就需要十二到十六 g, 而七十二 b 的 模型如果没有四十 g 以上的显存,根本就跑不动。所以一块能流畅跑中型模型的显卡,价格都在几万甚至是几十万以上。 哪怕是 rtx、 五零九零 d 这种目前消费级最强的显卡,它跑能力足够强的大元模型其实也很吃力。 而如果你用 api 去调用同等能力的云端模型,每个月的费用可能只要几十到几百块。所以啊,除非你有非常特殊的隐私需求,或者每天的调用量大到 api 费用比买卡还要贵,否则都不建议本地去跑 ai 模型。 但是还有个被很多人忽略的问题,就是操作系统 mac 的 这个 m 系列芯片,它用的是统一内存架构, cpu 和 gpu 是 共享同一块内存, 所以一台六十四 g 内存的 mac 可以 直接用来跑七十 b 级别的模型,而且速度还不错。而 windows 机器呢,是做不到这一点的,因为显卡的显存和系统内存是分开的,你有六十四 g 的 系统内存,但是显卡只有十六 g 的 显存大模型还是跑不起来。 还有一个非常重要的问题就是兼容性,绝大多数的 ai 软件 mac 和 windows 都支持,但是 mac 在 兼容性上甚至要略好一点,很多工具在 mac 上的体验会更流畅,而且更新也更及时。 如果你是 windows, 想用老电脑,那么一定要注意 win 七以下呀,现在几乎所有的主流 ai 软件都不支持了, win 十是最基础的要求,但是强烈建议升级到 win 十一,因为随着时间的推移,越来越多的工具会把 win 十一作为最低的要求。 如果你近期有换电脑或者是重装系统的计划,直接上 win 十一,不要犹豫。最后给大家总结一下啊,如果你是用网页版或者客户端工具,普通电脑就够,用本地智能体工具做代码文档类的任务的话,那么十六 g 内存起步,三十二 g 更好。显卡要求不高, 如果做视频剪辑,做音频识别,那么核显加独显的双显卡组合最实用。本地跑大元模型,那么 mac 比 windows 要更有优势。操作系统方面 mac 的 兼容性要略好。 windows 一定要用 win 十一,而 win 七以下直接放弃。赶紧转发给需要的朋友吧!我是 c 哥,点赞关注,咱们下期见!

open club, 呃,我,我不太确定是不是我设置的问题啊,所以说我拍这个视频大家来一起看一下,就是说,呃,我在使用国产的这个模型和呃国外的这些模型之间,它的使用上面体感的一些 啊,非常明显的一个差距,他到底在哪里?就是我刚才做了一个什么操作,就是我去啊,我去升级了我的 open cloud 版本,从二月十二号的这个版本迭代到了二月十七号这个版本,那么我在升级过程当中呢,我看到了有一个 vcom 的 这个插件的报错, 嗯,我给大家来看一下,就是说遇到了什么什么问题?就是说这个插件他报了这个错误,就是说啊可能存在一些风险的代码,对吧?那么 这个插件的话呢,是之前我在测试 wacom 接入 openclaw 这样子的一个项目里边,我去做测试用的,那么测试完成以后呢?这个这个插件其实是用不到的,呃,所以,呃,我看到有这样子的一个风险提示,我想把这个插件从我的啊这个 plugins 里边去移除掉, 所以我就问了一个这这样子的一个问题啊,就是说,呃,你自己去搜一下有没有 wacom 的 这个插件,那么你看一下它是如何回复的?就是说 他其实现在的这个回复的话呢,已经有点脱离我的问题了,就是说这些是 crm 自己生成的,不是我主动发的,对吧?然后需要我查什么东西呢? ok, 到这里没有没有没有太大的这个问题,我就主动的耐心的解释一下嘛,就是说我遇到了这个,我收到了这个, 然后呢,你看他是他是怎么样子去去回答我的,就是说他从头到尾他一直都是说这个东西不赖我,你不要去找我,就类似像这样子的一些公司老油条的这样子的一些,呃,考虑问题的逻辑啊,就就很匪夷所思知道吗?这不是我主动发的消息, 也不是让你搜索 wecom 插件的,就是这样子,那么我就问了嘛,就是说啊,你既然这个东西的话,你既然是 chrome 报的,那你告诉我是哪一个 chrome 对 吧? 他回答的其实都是都是不是我想要的东西。然后呢,我从这个上面去切换到了啊,这个 切换到了这个 jimmy 三 jimmy 三 flash。 然后呢,我就让他去查一下嘛,就是我把上面的这些问过的问题全部都丢到同一个问题里边去啊, 你看一下,让我们检查一下 wecom 的 这个插件的配置,然后他就去搜,搜完了之后呢给到我这个一个报告, 就是我不太确定到底是我配置的问题,因为我只是切换了一下模型而已,其他的变量我都没有变, 但是执行的效果结果大家都是可以有目共睹的,就是就是他可能会出现这样的问题,所以我不太确定是不是我自己配置的问题啊。如果说,呃, 你知道有什么解决方案的话呢?也欢迎在评论区里面留言去告诉我。呃,至少我遇到这个问题,他自从我开始呃使用这个 mini max 开始就一直存在了这个问题啊,大家如果说有这个经验的话呢,大家可以分享一下到底我该怎么办?

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

谷歌 gemini 最强性价比模型发布,一块八读完三本三题,谷歌深夜放大招,正式推出 gemini 三点一 flashlight。 从名字就能看出,这款模型主打轻量快速,官方给的 title 则更为直接。迄今为止性价比最高的 gemini 三系列模型有 多便宜呢?每百万输入 token 仅值零点二五美元,百万输出 token 一 点五美元。几个直观的例子就是只需要折合人民币一点八元,就能让 ai 读完三本三体全集,同时始终保持高性能表现。对比上一代主力 flash 模型 gemini 二点五 flash 首次响应 token 时间快二点 五倍,输出速度提升百分之四十五,而且专为大规模智能应用而生,能够低成本、高效率地实现模型批量部署。如此看来, open 克拉这盘龙虾肉,谷哥也想尝一尝了。高质!

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。

昨天我刚发完视频,解读 open core 的 更新版,手机还没放下, open core 又更新了,这更新的速度啊,比我更新视频还要快。 大家好,我是杜宇,带你看懂 ai 赛道的钱和事儿。我们先来复习一下昨天的 v 三点七,是这只奥地利龙虾有史以来最重量级的一次升级,核心亮点是什么呢?是 context engine 插件接口。说人话就是啊, ai 终于可以自己管理自己的记忆了,你可以给它装不同的记忆模块, 不喜欢默认的记忆,压缩逻辑自己换一套,再加上 memory 的 混合搜索 bug 修复,还支持了 gemini 三点一 flashlight。 总之啊,三点七是大脑升级,给 ai 装了一个更强更灵活的记忆系统。然后,今天 v 三点八来了,而且是先发 beta 测试版,结果三十分钟后直接退正式版,连 beta 都懒得多测一会儿。这团队啊,是真猛。 三点八主打的是三件事,第一, a c p 溯源功能,你的 ai agent 现在终于知道是谁在跟我说话了,能记录每一次对话的来源和 session id, 这对部署在企业环境里的 agent 来说是质的飞跃。 第二,官方备份功能上线, opencloud backup create 一个命令本地状态全部打包存档。以前是玩得越溜越怕出问题,现在至少有保险了。 第三十二个以上安全漏洞修复,包括 telegram 消息重复推送这种让人抓狂的 bug, 好 有人要问了,为什么连续两天更新呢? 这不是一家公司在加班赶工,这是全球开发者在同时攻限代码。现在 opencode 在 github 上有超过二十五万颗星,超过的 react 成了 github 史上最多人 star 的 非聚合类开源项目,咱们过去也解读过不少开源项目,但这种更新节奏我是头一次见。 全球几千个开发者盯着同一个 report, 哎,你刚提一个 issue, 可能六小时后就有人给你推 pr 了。这种重包开发的飞轮效应,任何一家闭源公司靠堆工程师都追不上。那这给国内 ai 产业带来了什么机会呢?我投资的时候啊,关注一个指标就是水在被调用。 你知道现在 open 可乐调用排行榜上的第二名是谁吗?是国内的阶月星辰。 step 三点五, flesh 紧跟在 android 后面,比 kimi k 二点五还要高。同一千万的 quin 三点五, mini max m 二点五。这些模型都在快速地接入 open 可乐生态,这意味着什么呢? open 可乐相当于一个全球的分发渠道,国内大模型在这里正面 pk, 谁效果好,用户留谁,没有保护墙,纯市场竞争。 深圳已经开始给 open 可乐相关的项目发补贴了,感兴趣的可以去我主页看龙虾十条那条视频,具体解读补贴政策。不过随着这些大厂越来越卷,对于普通用户的利好就是,一行代码不会也可以开始养自己的龙虾了。比如每天自动抓取行业资讯,整理成简报, 接飞出机器人,让 agent 自动汇总项目进度。操,论文看,其实一直在讲,说到这儿呢,欢迎大家在评论区留言分享一下。你们都在用龙虾具体干啥? 那么 v 三点八之后有了备份功能,万一配置炸了,可以一键恢复,入门也变得更稳定了。普通人现在要做的,就是找到自己工作里最枯燥最重复的那一块,那里就是你的龙虾,能帮你省时间的地方。给自己定个小目标,比如每周自动化一个工作任务。 最后我想说的是,我们正在经历的是执行力的民主化。以前只有大公司才负担得起一只执行团队,现在一个人加一只数字龙虾就能跑起来一个艺人公司。 ai agent 的 基础设施正在以一种你我都不曾预料的速度变得越来越稳,越来越强。接下来,谁能最快找到自己的使用场景,谁就能先赢。一步点关注,不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见!

还记得 ai 只能和你聊天吗?二零二六年 ai 圈最火的词是什么? openclock, 它不是新模型,而是一个让 ai 真正拥有手和脚的开源智能体框架。简单说,它让 ai 从聊天工具进化成你的数字员工。 openclo 怎么诞生的?来自全球开发者社区,就在三月七日, v 二零二六点三点七,贝塔版本上线 d top 新标狂标二十八万,最大杀气可插拔上下文引擎, ai 记忆首次实现自由切换,从此告别鲸鱼脑常对话,永不掉线。 nice! 底层模型你说了算! open cloud 自带密钥模式,无缝适配, g p t 五点四,詹姆莱三点一,甚至国产模型都能一键接入, 推理速度提升百分之三十,响应延迟低至一百毫秒。用哪家你自己选。

我现在的状态只能用炸裂来形容,以前的 ai 只能动嘴皮子。今天鼓捣了一下午,不手的这个龙虾终于活了,并且他是真的有手有脚能干活。我让他运行的是 jimmy 三的大脑,不仅能帮我管理本地文件,还能直接在飞书里跟我对接。刚才我试了一下,让他随便建个表直接就做好了。甚至我随口一说,他连我在做的亚马逊全品和广告分析都能走了。 可以直接截图给他起名字,直接给他起名叫贾维斯。 真的感觉不久的将来,张丽霞的剧本可以照进现实了。他能直接操作我的本地文件,帮我整理文档,甚至能写一段代码,帮我去做数据挖掘。这不再是工具了,这是生产力的价位打击。我让他自己生成了一个如何部署本地龙虾的 ppt 和龙虾可发,我是三妹,每周分享跨境干货。

家人们养 openclaw 龙虾,选模型不用愁了,专属评测榜单 pinchbench 火遍全网,龙虾之父亲自推荐。更惊喜的是,国产模型直接杀疯,成功率速度霸屏前排,实力惊艳老外。 这个实时更新的榜单超靠谱,从成功率、速度、价格三大核心维度评测全球模型,精准匹配 openclaw 需求。成功率上,谷歌 gemini 三 flash 举手,国产 mini k 二点五紧随其后, 包揽二三名。速度方面, mini maxm 二点五直接登顶,超越杰曼莱拉玛,比上一代提速百分之三十七。价格上,国产模型稍逊一筹, gpt 五 nano 性价比拉满国产最便宜的 mini maxm 二点一,约威奇三倍。 但综合性价比榜单里,八个优质模型,国产就占了四个。榜单由 qioai 打造,含二十三个真实任务测试开源,可自定义评测,更贴合实际工作流,小模型也能吊打大模型。

今天折腾了差不多四个小时,终于把这个龙虾给装上了,然后我用它揭露的是那个 jamming 三点一 pro 的 模型, 他太厉害了,我可以让他在电脑微信上给好友发信息,然后可以把电脑上的内容啊啥的截图,然后传给我手机上,我手机发信息到电脑,他就能控制电脑帮我做事情, 啥都可以。太厉害了,以后在外面就可以用手机来操控家里的电脑了。

如果你现在还在通过死抠 ai 的 提示词来学习 ai, 那 么就好像一个厨师从自研开始学习怎么做菜,也许从一开始方向就错了。 要知道穷尽一生你也无法学完文字的所有组合,你真正应该学会的是搭建一个个 agent 智能体,而你 就像个老板,让你的 ai 像员工一样自主的思考并且去行动。接下来我将用两个给客户搭建的自动化视觉超级智能体实际应用的例子来告诉你搭建 agent 的 基本逻辑,并且底层都是使用的满血版的 gmail 三加 nano banana。 二来实现的功能, 只需要上传一张你的产品图,那就能够制作这样精美的亚马逊产品的详情图,并且还能够自动分析营销和视觉策略, 全程无需繁琐的多人对话,并且每个 ai 都按照我事先给他预设好的目的来行动,从分析到出图全程也就五到十分钟, 或者我都不需要上传图片,只告诉了他一句话,帮我设计一个名为叫小茶太的奶茶店的 v i 视觉,那么他就帮我自动地生成了 logo 和全套的 v i 视觉标识系统,甚至包括电招和视觉延伸以及应用场景。 要知道这些智能体在某些 ai 平台上是动辄几百几十会员才能使用的功能,但实际上也就是几部工作流就可以完全搭建出来的,因此你完全可以自己动手搭建并且调教这样一套智能体,打造出属于自己的设计风格, 根据不同的业务方向让多个 ai 替你去打工,而你只需要像老板一样坐在电脑面前盯着他们干活就可以了。 接下来开始我们的智能体搭建教程,你看完后就会觉得其实真的非常的简单,那智能体呢,是在 comui 平台上搭建的,并且需要用到的节点是这个摩羯 api party 的 节点,用于链接 gmail 三和 nano 二, 大家可以看我往期的教程来安装 api 节点,那这里呢,就不再追溯了,我们直接开始教程。目前 api party 呢,目前已经更新到了三点零的版本,在节点中你可以找到 number 分 组下面的 gmail 三拉玛和 gmail 三 nano 节点, 一个用于理解,一个用于深图,那现在都已经加入了 gmail 三点一具体用哪个模型,大家可以根据自己的实际需求, 如果你是第一次接触康复 u i, 那 也没有关系,这个应用本身和康复 u i 其实关系不大,那 ag 智能体的搭建呢,其实都是大同小异,原理相通的。 这里呢,我以这个水杯为例,创建我们的第一个 ai 员工,他负责理解商品,并且呢给出营销策略,因此需要在 prada 这里给他输入基础的提示词。 smart 有 两种,一个是 system smart, 一个是正常的 smart。 system smart 呢是叫做系统提示词,这里用于给他一个身份,让他知道自己的主要责任。那 smart 呢,就是我们正常的和 ai 交互的提示词。 我在这里给第一个员工设定的是电商专家,并且呢对跨境电商非常的熟悉,并且负责制定策略。然后在参数这里把 web search 给它打开, 让它能够自主的去网络搜索内容,那还可以把图像理解等级开到最高,这样呢对复杂商品的细节理解力会更好。 这些参数如果你是直接使用 gmail 三通用版是看不到的,一般只存在于 api 调用中。在 autopod 这里接一个显示任意用于保存内容的输出。 那现在我们可以正常的提问,让他给这个水杯出一个亚马逊销售的策略,看看第一个员工的工作是否顺畅。当然我这里只是作为基础的演示,所以提示词呢,相对比较简单。那在实际的智能体搭建过程中, 大家可以在两个不马特中给他更多的要求和限定,让他更符合你的风格。那目前我们的第一个员工工作正常,他负责生成总策略, 接下来我们的主要工作是出详情页,对吧?那我们现在就需要一个设计总监,他负责对图片做总的规划。我们把刚才那个拉玛节点复制一份,然后这里呢把他们的 contacts 节点相连,那 contacts 呢,就是上下文, 这个相连了之后,下一个拉玛呢,就清楚上一个拉玛做的什么,相当于总策划呢?他做了一份文档,设计总监一看,哦,明白了我要做什么。 之后的普马特,这里我们给到他的任务就是根据该策略规划一个六页的出图方案。那这里具体多少页呢?你可以自己设置 好的。同样的,我们把第二个员工的 output 输出线接上,看看输出呢,是否正确。好的,那么现在可以看到我们的设计总监已经按照要求给出了每张图的设计方案。 那接下来是什么?是直接就开始出图的吗?并不是哈,我们是不是要给设计师配一个翻译啊?就好像这个老板,他一定是要求好看,但是需要有一个人跟设计师说具体每个东西该怎么放,对吧? 所以呢,我们需要在 nano 前面再加一个拉玛的节点,把每张图的设计要求翻译成提示词, 所以我们把设计总监给到的方案发给每一个翻译,然后跟他说,哎,你就负责生成第几张的提示词啊,同时呢,给到他一定的规则,那这个规则呢,是一定要遵守 nano 的 图片编辑的规则,不是让你说随便整一个水杯就可以,而是要使用 输入图片当中给你的水杯来进行操作。这个规则呢是我已经写好的,那工作流呢,我也会共享在我的文档中,那需要的朋友拿到之后呢,仔细看就可以了哈。 然后这几个翻译之间呢,他是互相隔离的,所以不需要连接上下文啊,你只需要负责你的那部分就可以了。我们这里呢,先出第一张图来进行测试这个流程, 然后呢,我们在这个翻译后面直接接 gmail nano 节点,也就是 nano, 最后只需要按照提示词出图就可以了啊,像不像大厂里面的这个设计师啊,只需要对接需求,不需要太多思考。那 nano 呢?这里选择 nano 二啊,第一张图是商品白底图,所以我们这里选择 比例一比一就可以了。好的,那么我们现在来测试一下,看看这里面每一个员工,他是否能够正确理解我的工作流程。 ok, 三号员工正确的输出了提示词,那设计师呢,也正确的输出了这个水杯的白底图,并且呢他们都是符合我们的设计要求的。 那接下来呢,我们把三号四号员工再复制一份啊,复制出第二张图啊,后面剩下的需要几张图就复制几个就可以了, 不过呢,我们在这里先进行测试一下,注意要把设计总监的方案和最原始的输入图给到每一个员工,同时呢,设计师之间他们也是需要沟通的, 以免上面的设计和下面的设计风格上相差太远啊,所以把设计师之间的上下文相连,让他们之间可以沟通。好的,现在前两张图都按照要求生成正常了,那么接下来我们直接复制更多的 ai 员工就可以了。前面我们的要求是总共六张图组成详情图对吧, 那么我们 这里呢,要给每个员工都安排好,你负责生成第几张图, 按照设计总监的要求去生成就行了,别的甭管了啊,不知道看到这里各位呢,有没有生出要当老板的这种快感。最后呢,我们使用 ctrl y 自带的图片连接工具,把每个人生成的图片拼合在一起,成为一个整张的图片 啊,所有这些做完之后,这个智能体就算是完成了,是不是非常的简单,那么现在身为老板的你, 开始发动你的全体员工为你干活吧, a p i token 的 这点花销相比于你付给员工的工资,那简直是不值一提。本期视频用到的所有的工作流我都会附在摩羯 a p i party 里面, 老用户呢可以升级到最新版本,新用户下载之后就可以看到了,除了详情页的,还有一套 v i 设计的,大家呢可以自行调试修改。那么本期视频就到这里,我是摩羯 ai, 感谢大家观看。