粉丝63.8万获赞128.7万

大家好,我是阿错,今天又来海鲜市场赶海了,看这一期都能发现哪些奇特的海洋生物,刚来就看到大货,这可能是海南最贵的海鲜之一,价格要卖到四百以上。没错,他们就是犀牛虾,有的地方也叫海战车或者拖鞋。龙虾, 它们重名叫灵土领家虾,是常家科领家属的物种,在分类地位上和龙虾是亲戚。正如它们的名字一样,它们长得就像树上的蝉,反正啊,都是结食动物,一个海里一个树上都差不多。犀牛家喜欢栖息在珊瑚礁中,在倒粪的时候需要靠潜水才能捕捞到,再加上它的肉质比龙虾还要鲜甜, 卖贵一点那也是自然的。这个是刘海星科的面包,海星他们的表面很粗糙,而且具有斑块状的花纹,整体看起来像是刚出炉的面包,所以得名 和海参海胆一样。他们同属于极皮动物,但是皮很厚,基本没啥实用价值。搞广场呢,你拍他们上你抖音, 哈哈哈。这个红色的海星正是吃海星肝的王海星,他全身围住红色,表面则布满各种疙瘩。俗话说得好,长得越快,胖的越快。还好他们不是保护动物,这种养在缸里翻沙应该不错。 在这场赶海的乐趣就在于下一秒就能发现新的种类。这个是沃洛克的土法螺螺肉,其名长得就比较土,壳上呢还都是疙瘩,看着就有点像癞蛤蟆。他的可口开口很大,一看就是很甜,适合来当祥龙的平替版 食用鱼,里面有不少的观赏鱼,这种就是蝴蝶玉刻的马夫鱼,在外形上,它的背脊第四脊脊延长如鞭状如同马夫手中的马鞭,所以得名。同时呢也先把鞭器关刀,所以在此求见。它们也被称为黑白关刀。小小的嘴巴也有利于它们捕食上古虫, 而下面这条外形更为可爱,可惜有点缺氧了。它们就是刺猬鱼科的三点阿波鱼,在水中见它们也被称为蓝嘴新娘,它们喜欢栖息在珊瑚礁中,鲜艳的体色也是珊瑚礁鱼类的标配。 刺猬鱼科的其他成员颜色也要更加艳丽,看着就赏心悦目。三点阿波鱼长着一张蓝色的小嘴,整体看着有点憨厚。它们是杂技性的鱼类,一般以海绵和藻类为食。这条看着有点缺氧了,不如我们。 这缸里最好的便是今天最大的红花蟹,这么大蟹肉应该非常鲜甜,可惜被人捷足先登了。在 市场看到这条鱼就可以打起十二分的精神,他们这是一颗的双带黄颅,眼睛一条带,然后这边是两条带,在分类地位上跟石斑的关系比较近。他还有个响亮的外号叫肥皂鱼,这是因为他们在受精以后,体表会分泌大量的粘液,这种粘液能够使海水放血泡沫,所以得名。 粘液中含有有毒的黑芦素。手上有伤口的话,接触会引起发炎啊,一摸手上都是粘液,这个手上有伤口,全部不要乱摸。双带环 看着这种虾菇,这种看这个这种猛虾菇,这种基本上都是猛虾菇,它的个头能够达到二十五厘米以上,在五笔中间处有两个非常明显的小黑点, 他们出生也叫螳螂虾,那么这个书生从何而来?这里给大家展示一下。和螳螂一样,虾菇也有捕捉足,上面呢还沾有尖刺,这个属于川字型的虾菇,这样的结构能够帮助他们牢牢的抓住猎物, 活的虾菇就不建议大家这样上手了,因为被抓到真的很疼。竹笋青衣,偶尔才回来一条,它的肉质细嫩,特别是鱼头胶质感十足,这个鱼头光看着就流口水。 这个是凤螺壳的蝎尾蜘蛛螺,螺肉其名,它的印记呈弯钩状,前是蝎子的尾巴,最为得名。凤螺壳是个大家族,在海南常见的还有各种凤凰螺,他们都长一对小眼睛,非常的可爱。下次有机会出一期视频给大家介绍一下。蜘蛛螺虽然长得好看,但是肉质一般,大家要吃的话就吃红口螺就好了。

大的来了,兄弟们,我的 open klo 已经从人工智障进化成了有傲娇属性的私人女仆,并且我只是发了条视频链接,他就已经能自己看视频学习, 完全胜任了赛博员工的职位。刚开始养龙虾的兄弟们是不是觉得他只会聊天,那就大错特错了。今天手把手教大家装上这几个 skill, 让你的龙虾也能进化。因为原版的 open kla 部署麻烦,并且会限制 a p i 速率,这里我们使用无需部署的涌动虾。打开后点击左边的技能先装。第一个技能, skill vader, 这个技能是所有龙虾必装的,因为它就相当于电脑上的杀毒软件 kla 哈布上有数万技能 skill vader, 能够检测这些技能的安全性,有没有恶意代码和病毒脚本,毕竟这年头安全第一。 第二个技能, self improving, 这个技能是让龙虾加深记忆和自主学习的关键,它的名字翻译过来就叫自我进化。装上后,你给龙虾强调一下称呼,它就会记住按照你要求的口吻和人设来回复,而当它的回复有错时,你给它纠正过后, 它之后就不会再犯同样的错误。第三个技能, fun skills, 这个技能也是必备,当你想让龙虾完成某项工作,结果缺少关键性技能时,装上 fun skills 后,它就会自动给你推荐刚需的技能,并可以把这些技能做一个对比, 让你挑选最合适的来安装。第四个 skill creator, 这个技能是可以让你的龙虾自主创造技能,比如你告诉它 创造一个每天晚上十二点提醒我睡觉的技能,它就可以自己创造。第五个 web search 可以 让龙虾读取到网页里更多的信息,比如视频开头,我让龙虾根据视频链接自己学习, 就是装上这个技能后达到的效果。第六个 brave search, 可以 让龙虾不需要通过浏览器找资料,通过 a p i 即可查找到任何网络内容。我个人感觉这六个技能是所有龙虾都必备的。 另外再推荐两个比较通用的,一个是 excel, 这个就不用多说了, word, excel! ppt 应该是我们接触最多也最基本的资料,这个技能装上后,龙虾制作的资料就会更精细。这里给大家看一下。这是我还没装这个技能时,龙虾给我生成的 ppt, 简直惨不忍睹,非常拉胯。而这个是我装上技能后,龙虾生成的 ppt, 质量提升了一大截,直接拿来用都完全没问题。还有一个是 humanizer, 这个技能可以让龙虾的回复和生成内容更有人味,减少 ai 味,毕竟冰冷的机器和有情绪的回复提供的情绪价值完全是不一样的。以上是本期全部内容了,涌动虾我放评论和简介了,兄弟们自取,感谢大家观看,我们下期再见!

龙虾。什么龙虾?这是什么?这是龙。这是少爷的属龙。这是少爷的属相。你头怎么了?我是什么?你头怎么了?我是,我是属龙的, 你是怎么了?我是属龙的。对啊,你不说我猴子吗?头怎么?啊?啊啊?对不起少爷,咱到底是属龙还是属龙?又或者是只龙象。

兄弟们,最近刷到很多一键部署 openclaw 的 东西,甚至我的网页都出现了这个,让我们来看看怎么个事。兄弟们,你们可以看到原版能做的,他这都能做,让我们选择一键安装,下载速度还是挺快的, 让我们直接打开 这里,原本是想着改一个存储位置,方便后续查找,但是这不是我的电脑,只有一个 c 盘,所以只能安装在默认位置了。 这里已经开始安装了, 安装速度还是挺快的, 但是安装到这里就不对劲了,直接弹出了收费提醒,最后我也没有扫码,我总感觉里面会有坑, i 等等很多都得协调,有安装的兄弟们可以跟我说说用着怎么样。好了兄弟们,咱们下次见。

今天周末跟大家闲聊一下龙虾啊,很多人发现这个龙虾很火,但是也发现龙虾很难用,跟大家讲一下,为什么大家会觉得龙虾难用,这里面呢,可能有三个原因,第一个呢是大家的 ai 基础太薄弱了 啊。第二个呢是大家可能缺少这种管理人的经验。第三个呢,大家可能缺少这种 it 的 这种经验,我展开说一下。 先说第一个,就是为什么 ai 技术薄弱,龙虾可能用不好呢?因为龙虾它是你可以理解为是最先进的智能体形态,就是我们用 ai 可能简单来分,分成五级吧。第一级可能是跟大模型对话,比如说你可以你会跟豆包,跟 tips 这些去简单的对话。 然后第二层呢,是你会写提示词,通过提示词去约束 ai 的 角色,约束它的表达输出,更符合你想要的答案,这是第二层。然后第三层呢,是基于这些提示词,你能去构建这种智能体。 然后第四种呢,就是你可以去做工作流的智能体,就更加复杂,然后多环节的。然后到第五层呢,就是到龙虾这一层呢,这一层的话就是发现要做好这种全区的记忆管理,做好这种 skill 的 管理,做好这种呃任务的管理。 所以很多人他其实还在第一第二层的阶段,那现在从第一第二层直接跳到第五层,所以确实是比较费劲的,这也是为什么现在很多龙虾玩的好的人呢,都是这种 ai 即刻比较多,这是第一个原因 好。第二个原因为什么说,呃,如果没有这种领导管理的经验,龙虾可能用不好呢?因为龙虾你如果把它简单的来看的话,你把它理解为一个 ai 员工,那 ai 员工入职你的第一件事情其实是给他定岗, 然后呢?第二个给公司的资料,第二个就叫做知识库,然后第一个定岗,其实你可以理解为是提示词,也是岗位说明书。然后第三个呢是培训员工啊,这三个事情其实就跟我们在公司里面当老板、当领导,培养新员工一样的,所以如果没有这个经验的话,很多人确实龙虾就调教不好, 这是第二个原因。但第三个原因更头疼,就是如果没有这种 ai 基础,就龙虾有时候不回你信息了啊,你都不知道他在哪里出问题了,不知道是那个托肯出问题,还是他服务器出问题,对吧?然后安装一个新的插件,装不上,你也不知道怎么办, 所以缺乏这种 it 基础的话,我就发现龙虾这个维护太累了啊。嗯,所以我觉得主要是这三个因素导致,为什么很多人用不好龙虾?嗯。

龙虾的那些事一、中国几乎不产龙虾,却是世界最大的龙虾消费国。 龙虾价格由高到低,大众熟知的依次是澳洲龙虾、南非龙虾仔、波士顿龙虾。二、波士顿龙虾其实不是真正的龙虾,属鳌虾类,有两个特大的钳,它是冷水性的,品质不错,但卖相不够好。 三、澳洲龙虾最贵是因为最早进入中国,属于先入为主,并不见得品质最好。据说来自世界最大海峡莫桑比克海峡的玫瑰龙才是龙虾极品。 四、同样来自非洲的毛里塔尼亚青龙,是性价比很高的后起之秀,比波龙略贵。 没有麻烦的大钳子,个体小,适合家庭消费。关注我久了,您也常吃。

目前市面上有非常多的这个龙虾的部署方案啊,总结下来,对于我们普通人来说,主流的就两种,一种是用这些大厂直接优化好的一个一键式部署,三秒钟就能部署成功的一个方案。还有一种就是买一台 mac mini, 然后去接一个大语言模型去部署。哪一种方案是最好的?那我告诉你,没有最好的,只有说哪一个最适合你啊?我是建筑设计行业的,我经常都要用电脑, 而且用一些比较复杂的各种各样的一些软件,那对我这种人来说,我天然操作电脑的能力就还可以,然后也愿意去研究一些新的东西。如果你也跟我一样是属于这一类人的话,那我告诉你最好的方案就是买一台 mac mini, 然后去接一个大语言模型进行部署。 如果你平时基本上都不用电脑,只是在手机上去操作一些软件的话,那我的建议就是直接在选一个大厂的,然后一键部署。 为什么这么说呢?因为你买一台 mac mini 并不代表你就一定能够把这个东西装上,因为装这个,呃, open color 的 这个过程是有一定门槛的。对于我这种人来说,呃,我操作下来我都是跟着别人的视频一步一步的去操作,而且操作过程中还会出现很多问题,很多 bug, 我 还得去问 ai 怎么解决,然后一步一步的解 bug, 这个过程对于普通人来说真的是相当相当难受,有可能你在装的过程中你就放弃了,那你买了 mac mini 不 就浪费了吗?而且装好那也只是第一步, 那你以后装好之后,你你时不时还得更新,因为它是一个开源的一个项目,并不是一个成熟的大厂做的一个比较成熟的一个产品,也出现了很多安全的问题。有可能你两三天就要更新一次,而且更新了之后,有可能你原来接的飞书的或者其他端口的都断联了,都没法用了,那你又得去解 bug, 去操作半天,这一套操作流程下来, 你真的是会放弃使用龙虾啊。所以我现在建议是这样的,如果你到目前为止,你只是在网上了解了龙虾,但是还没有真正使用,那么你现在先别着急去买一台 mac mini, 你先找一个你信任大厂的去装一下它一键部署的龙虾,先用一段时间。当然我也要提前提醒一下你,一键部署的这个呢,虽然它方便,但是它的权限呢,也会大打折扣,它的能力的上限也会大打折扣,因为你在云端部署的那个本地你根本就调用不了, 就是那台电脑你不知道在哪里,你也看不到它的界面,你只有一个聊天窗口界面,那么你可能大概率感觉它跟你以前的这个 ai 是 没有什么区别的。 然后再加上你还得要接很多这种 a p i 接口,比如说你想要纹身图、纹身视频,那你得要花钱去买它的 a p i 接口,你才能让龙虾完成这件事情。这个怎么理解呢? 就比如你买了一台手机,你不给它付费买流量,你是不能上网的对不对?你不装软件的话,那它也就只能去翻一下这个基础的界面,基础的功能对吧?你不能达到一些比如说剪视频这些功能,所以你在云端用的时候,你大概率是感觉不到它比原来的这个 ai 有 提升特别多的 好。但是我也建议你先尝试在云端用一下,你用完了之后呢,你再去想象一下你有没有使用龙虾的场景。比如说你在公司里或者你生活中有一些比较 复杂的,重复的,但是他的每一步操作呢,都是比较清晰的,你可以把它流程化的一个事情,如果有的话,那我恭喜你,你利用龙虾大概率是可以去提升你的效率的,你把你的整个这个流程,把它跟龙虾用自然语言沟通一下,告诉他你的这个需求,然后让他帮你生成一个这样的一个技能 scale, 让它每一天帮你自动化的去完成。如果你在用云端的过程中,你都发现不了一些使用场景的话,那我建议你现在也先别着急去买 mac mini, 因为,呃,有可能你大概率在短期内找不到你的使用场景,那你就需要等一段时间,等几个月,等各行各业的牛人 把一些技能研究清楚了,把一些需求场景研究清楚了,然后它们就会出一些教程,然后你就跟着这些教程手把手的去用这个东西, 那他大概率是能给你带来提效的。但是我也要提醒一点,那那些人提前研究出来了,他提前使用了,肯定是能够提前享受到红利,然后赚到很多钱的。 那你后使用的人大概率只是在你原本的工作和生活中稍微提点效率。反正最终总结就两点,就是如果你是一个平时不怎么操作电脑的人,你就直接云端一键部署就可以了。那如果你是一个经常用电脑,也经常用一些复杂软件的人,那我建议你现在就直接买一台 mac mini 直接干,或者你以前有一个老的笔记本,那你就用 windows 去本地部署了。但是 windows 本地部署会有一点麻烦。什么麻烦呢?就是它的步骤会多一点。当然我相信对你这种你们会操作电脑人来说都不是问题,因为网上的教程都已经比较成熟了,它无非就是要先安装一个能够用 linux 系统转换的一个系统。 那 windows 系统就是不太友好了啊,有可能你在用的过程中你会发现不太稳定,甚至你自己的电脑,因为,呃,平时用的时候风扇也要转啊,然后电屏幕也要开着啊,然后经常他可能因为温度过高啊,或者什么蓝屏啊,各种问题啊,甚至你的电费消耗也是比较大的啊。如果还没有用龙虾的一些朋友啊,我建议你们从现在开始就用起来。

分享一个超牛的龙虾 skill, 我 现在迫不及待的想买一台三 d 打印机了,这是我五分钟之前交付给客户的三 d 模型,一个机械狗,它可以白膜,可以调光照,可以多视角,是一个完全可以交付的三 d 模型水准。然而我完成这个三 d 模型只用了两张图和一段不超过二十字的大白话。 不到十分钟一个,原来需要手抠三天,超精细的三 d 模型就做出来了。怪不得 ai 的 发展让三 d 建模师们集体焦虑, 那该如何让你的 oppo cloud 具备这项进阶的能力呢?很简单,首先你需要在你的小龙虾里面安装这个 hightown 三 d 技能,这个技能已经上线了 cloud hub, 你 可以直接搜索到,或者你可以直接跟你的小龙虾对话,龙虾自己就会安装。 接着呢,你拿出你手机上任意一款纹身图的 ai 工具,豆包啊,吉梦啊纹身,都可以生成这样一张你想要的三维模型效果图。 这是我做的机械狗的两张原图。然后回到小龙虾,我这台电脑装的是 qcloud, 其实都可以的,我自己觉得国产本土化的一些 cloud 反而更安全一些,效果其实差不多。接着呢,你就直接用大白话把你的需求丢进去,然后你就等, 如果中间弹出这个需要你提供密钥,别着急,你直接去这个官网点开 api, 两步就能创建密钥。记住 a k 和 s k 密钥一共两段,都复制给龙虾,然后他就自己去干了。十五分钟,一个你亲手创作的三 d 模型就生成了,是不是非常简单,赶紧玩起来,今天就到这散会!

分明是阳光的尽头。嗯天呐我想你怎么像只龙虾呀。快速洗漱。 这个蛋还挺好吃的。每天都要吃三个。哇哇塞,真香。感觉还可以,身上闻起来一点都不香。哎,难吃,我还是不适合做饭。这个太难吃了。开始化妆 看。这个是我今天的一个穿搭。这个是今天要做的花蟹子。我什么都没做,我要勤奋的工作做好啦,送花花去啦。哇,漂亮漂亮。会炒很好吃的 卷卷。我喜欢泡饭的。 天呐,不会把碗打破吧。不会, ok 现在要去一个比较稍微远一点的地方,要去做一个手工。到了到了。我的天呐,这里好像是可以喝咖啡吃东西,还可以做烘焙,阳光。哈喽,小狗 做一个小鱼。 这里是阳光的尽头。 哎呦妈呀,连我的指甲上,我要把眼睛往前面连一点连短短的会像我一点。 ok, 我 的小鱼做好了。我的小鱼怎么像只龙虾呀。当车挂,然后也可以把它挂到手机上面,很好看。 这是我的小鱼,是一条崎岖的鱼。没肚子的鱼。怎么回事? 拜拜。好了,拜拜。嗯,走,看我关上切完之后就这样。那还不错呀呀好可爱呀。买菜去给你 做小狗看想吃哪个自己选。你不是欺负老实人吗。今天就是用牛肉还有鸡胸肉,每个都给他对半切就可以了,然后把这个萝卜给它切一半,然后就是四个放水里面煮。今天想做一个炒饭, 包里棉被里面杀杀菌。你是不是饿了。旺仔是不是饿了。干嘛干嘛不准下来。你看这只小狗,它自己跑到自己沙发上睡觉去了。你怎么知道这是你的沙发呀。你觉得是你自己沙发比较舒服是不是啊,这是你家吗?大姐 好吃不?这个就是我的菜饭,来拆快递了, 下一个是衣服,就是这个样子,它里面是这个背心,好看的好看的,然后下面穿一条黑色裤子或者是配牛仔裤也可以 看看还有什么哦。是一个造物者的面膜。这个礼盒好漂亮。然后里面是一袋一袋的,就是可以当旅行装用了,再给你们看一下效果如何。下一个是我买的准备旅行出去的帽子哎,还不错姐妹们。哈哈哈开心。 可以了可以了可以了。卸妆卸妆,静置,然后再用卸妆膏卸妆。晚安,睡觉了,困了真的眼睛都睁不开了。

连续两个周末,我都是在手指的方向 tastinglex 那 边去做 open house, 从那边过来到 tasting district plaza 呢,只需要走路几分钟。那我之前有跟大家介绍过这一个 plaza, 它是属于 tasting, 不是 耳湾 啊,整个塔斯汀是有两个购物大的购物上链接,一个叫塔斯汀 district, 就 我目前现在在的这个位置。另外一个呢是叫 塔斯汀 market place, 那 是离在离尔湾的家比较近。那在尔湾很多被吐槽的地方就是没有夜生活,在塔斯汀就不一样了,塔斯汀呢,它至少是有一个酒吧呢,就是我正前方这个路易这个酒吧呢,开到晚上两点, 我今天来的目的呢是嘴馋。在电影院旁边呢,有一家这个新开的龙虾卷,因为在去年年底去 西西雅图这个过跨年的时候,在西雅图的派克市场门口是尝了一个龙虾卷,大概价格呢?二三十,然后回到洛杉矶之后一年多了都没吃过。今天呢,就是来带大家尝一下 今天来的这家龙虾卷,叫 pinchi and pops, 来尝一尝。现在周中的话还是有工作餐的,有 taco, 里面是龙虾或者是这个 rice bowl 盖饭, 呃,都是比较便宜的,十三块钱,在现在物价疯涨的年代已经算是非常划算了。这三个卷吗?龙虾卷,蟹卷,还有虾卷?对,然后选择自己喜欢的淘品加上去就可以。 最近尔湾物价涨的特别厉害啊,我给孩子经常,我给孩子很很喜欢吃垃圾食品, 一份薯条,现在价格在四块五中份,然后饮料大概是两块五,这就七块钱。嗯,再加一个 ice cream, 就是 那个蛋卷, 蛋筒又要三块钱,就这三样,简简单单三样东西就是十块钱以上,所以以前说的穷鬼套餐,现在穷鬼估计都消费不起。 这边的话,它的价格跟下图的派克市场我刚比了一下啊,也是差不多二十多块钱,然后一份这个龙虾卷,加个三块钱就可以升级套餐,很划算,我们来点餐吧, 店铺的环境还是很好,今天礼拜二中午工作日,看这个照片就比较有胃口, 龙虾卷爆开的那种感觉。来看一下, 这些就是单点的呃,一些品类,主要品类,那么这个主要就是卷呢,也是非常重磅的,挑选你的卷, 然后搭配上套餐,然后搭配上这个配料,还有里面的一些想加不加的一些东西,那这个就相当于一个所有的卷的一个 combo a few moments later, 这是一份蟹卷套餐,二十三,加三块的一个升级费用, 还有贴心的一个小手套,来尝尝 剩下的菜啊,都到了,这份是蟹肉意面,然后龙虾卷啊,它都配菜,里面都有沙拉。然后这份是工作餐,中午的现在 lunch special, 三个虾的 taco 薯条,然后这份是蛤蜊汤,然后还送了这什么哦,这是一些 snack, 掰开看看吧,这里面的分量如何?主要是龙虾卷掰吧。 哇我去,这么多肉,这比我们在那个西雅图还记不记得。对对对,咱们在西雅图吃的肉应该没有没有这么多是 ok? 先给大家介绍一下 frida, 我 的朋友也是律师, 是专做移民跟刑事律师的。对,现在主要做刑事做的比较多,移民也做对,今天不光是我老婆,还有朋友,还包括弗瑞达, 我们四个人过来去尝了,你觉得今天的店也是你介绍的?嗯哼啊,我吃下来真的很棒。嗯,主要里面的肉放的特别多。对,我觉得料非常的足,而且我觉得它那个薯条它是加那个 chen 二岭的, 然后他的那个薯条他是有果粉炸的,他跟那种快餐店垃圾食品,那种快餐店的薯条真不一样,真的不一样,真的非常好吃,三块钱薯条加饮料很棒啊,真的是非常的划算,很划算,而且他那个薯条就是你完全是可以不用蘸酱吃的,然后口感也很好,最主要的是他也不咸, 所以小朋友也会喜欢吃。然后龙虾卷的那个也不咸,所以小朋友也会喜欢吃。然后龙虾卷的那个也不咸,所以小朋友也会喜欢吃。然后龙虾卷的那个虽然有夹,但是不腻, 包括刚才我们吃那个 taco 里面的虾都已经爆汁了,一直在往下滚,一直往下滚,我们说,哎呀,这个虾一直在我们的餐盘里滚来滚去,因为太多了,我觉得最适合他家店的那种。呃,形式呢,就是买一个 带走,直接进电影院里面,边看电影边吃,太爽肯定会把旁边的人馋死了,馋死了出来马上肯定很馋的。那么大家如果有法律问题,包括移民问题都可以去联系弗瑞达,弗瑞达会为大家去 做到一个非常好的服务。对,包括就是联邦啊,刑事啊,还有就是目前最近就是由于这个艾滋的这个行动啊,很多驱逐啊,就这些我们都是可以就是接的,这都是我们非常擅长的领域。 ok, 好, 我们下期再见,拜拜。拜拜。

想象一下,呃,你拥有一个完全运行在自己设备上的著属 ai 生态系统。嗯,这个听起来确实很梦幻,对吧?而且注意啊,我说的不是那种,就是 你每次打开网页都要重新自我介绍的那种啊,对,聊两句就会忘记前言后语的云端聊天器人。没错,绝不是那种。我说的是一个真正 啊,怎么说呢,真正活在你本地设备里的数字大脑,也就是完全属于你自己的。对, 他不仅能以极高的智商和你对话,还能同时就是分裂出多个完全独立的人格。哇,多重人格?是的,而且他会把你们之间所有的记忆啊,篇号啊, 甚至是潜意识整整齐齐的写在最简单的纯文本文件里。纯文本?这倒是很少见,对吧? 他甚至会呃在凌晨三点你熟睡的时候静悄悄的启动,帮你把那些繁杂的后台工作全都处理完。听起来非常像科幻电影里那个钢铁侠的贾维斯,对吧?没错,就是贾维斯。所以,欢迎大家来到今天的深度探讨。 今天我们的任务就是来拆解一份极其硬核但也呃极具启发性的技术资料,也就是 open call 智能体系统的底层加固文档。对的,我们要一起弄明白,在这个人人都把数据往云端大模型或者那种复杂的数据库里塞的时代, 这种坚持本地化,坚持纯文本驱动的系统,究竟藏着怎样惊人的力量?这份资料确实呃让人眼前一亮,当我们深入探究 openclaw 的 设计哲学的时候,你会发现他走了一条 怎么说呢,和主流商业 ai 完全相反的路。完全相反。对,你想现在的主流应用是不是都倾向于构建巨大的黑盒啊?是的,就是啥也看不见的那种。没错,他们把你产生的所有数据全都锁在他们自己复杂的云端数据库里。但是 opencloud 的 核心逻辑是绝对的控制权和透明度, 就是一切都在我自己手里。对,他把系统的神经中枢纽,呃,记忆、存储,甚至连智能体的行为逻辑全部以肉眼可读的方式交换给了你。哇,肉眼可读?不过这就让我产生了一个 呃,非常现实的疑问了。你说既然他强调一切都在本地,完全不依赖云端服务器,那他是怎么解决那个多设备同步的问题的? 嗯,这确实是个痛点。对啊,比如我平时用手机也用平板,还有 mac 电脑,他们是怎么协同工作的?难道我每个设备上都要跑一个独立的 ai, 然后他们在那互相打架吗?当然不是,那样就全乱套了。 为了解决这个问题呢, opencloud 引入了一个叫做 gateway, 也就是网关的架构。网关架构?对, 你可以把它理解为,呃,一个全天候运行的交通枢纽塔台。哦,机场塔台那种感觉。没错,在这个生态里, gateway 网关是一个长期在你主服务器或者你家里的电脑上运行的后台守护进程, 它是整个系统里唯一一个拥有实权的咽喉。咽喉?意思是所有东西都要过它这道关。是的,不管你的消息是来自我 app 还是 telegram 或者是系统内的其他渠道,只有这个 gui 才有资格打开并管理这些绘画。也就是说,我的手机或者平板,其实它们本身并不处理核心数据,一点都不处理,那它们就是个哎。显示器或者遥控器,这个比喻非常到位, 就是遥控器所有的客户端,不管是你电脑上那个极其精美的 mac os 原声应用,还是你在外面用的移动设备,全都是一样的, 甚至包括那些没有屏幕的后台服务器。对,那些所谓的无头节点,它们全都是通过 web socket, 也就是一种保持长连接的技术,实时地挂在到 giveway 网关上的等等。如果手机只是个遥控器,那假设我要查一下我的呃 token 消耗量, 或者我疯狂往上滑,想看一个月前的聊天记录。嗯哼,我的手机其实是在就是临时向这个 gayway 塔台要数据。没错,这就是系统架构里常说的单一事实来源,只有塔台说的才是真理。对的, gayway 后主上保存着所有的状态和绘画记录,而且这里有个极其聪明的细节。什么细节?它的历史记录全是以 jason l 格式保存的。 jason l 就是 一种每一行都是一个独立 jason 对 象的纯文本文件,也就是说,它不是一个巨大的,每次修改都要重新加载的复杂数据库。 哦,它是一行一行独立追加的。对,所以你在手机界面上看到的所有历史记录啊, tocan 统计啊,全都是向 getway 查询之后直接渲染出来的结果,手机本地绝不会去解析或者囤积这些原文件。 听到这里啊,我必须要扮演一下找茬的决策了,呵,来吧,这种一切依赖塔台的设计听起来是很完美, 但现实世界是有网络延迟和断线的呀,这是不可避免的。对啊,假设我今天出门儿,在地铁里用手机的 web app 跟 ai 聊了一路, 中间地铁过隧道,网络断断续续的。嗯,等我晚上回到家,打开 mac 电脑上的客户端,这两边的数据怎么可能不发生状态冲突?肯定会错乱吧。这恰恰是网关架构最精彩的博弈。 面对网络间隙, openclaw 采取了一种极其强硬而且极其克制的原则。什么原则?事件绝对不重放。怎么讲?不重放指的是什么意思?是说,当你的 mac 电脑或者手机在断网之后,重新连上 webshop 的 时候, gucci 绝对不会像倒带一样,把你错过的信息一条一条的塞给你。哇,那不塞给我,我怎么知道错过了什么?克古端,必须主动承认,哎,我掉线了,然后发起一次大局的刷新,寻求哦,主动去拉取最新的状态切片。没错, 因为整个宇宙里唯一的真理只存在于网关的日制文件里。只要网关收到了你在地铁里发出的消息,你回家打开任何设备,看到的永远是那份绝对一致的上下文。原来如此, 他通过这种强制的拉取机制,彻底消灭了多端状态冲突的可能。是的,用极其简单的规则解决极其腐残的问题。 绝了。那现在啊,我们有了一个绝背权威的调度中书。可问题是,这个中书到底在指挥谁呢?这就是下一个核心了。对啊,如果我所有的信息都涌入这个网关 啊,比如,一边是我老板发来的那种极其严厉的质问邮件,哼哼,压力很大。另一边呢,是我妈在家庭群里发的搞笑视频,难道都是同一个 ai 在 树里吗? 这 ai 不 精神分裂才怪啊,哈哈。这就是 open crawl 摆脱单调机器人标签的核心机制了,也就是多智能体路由 多智能体 multi agent。 对, 事实上 get 位内部是可以并行投放多个完全隔离的大脑的。这种隔离有多彻底? 是像我们平时用那个聊天软件那样,仅仅是新建一个对话窗口然后换一套提示词吗?远比那个深的多, 它是物理级别的全方位隔离。每一个智能体都有自己独立的工作区目录,独立的状态文件,甚至。呃,独立的认证配置,连认证配置都是独立的。对啊,打个比方,主智能体可能拥有高级的 api 权限, 甚至有执行系统代码的能力,但这个凭证绝不会泄露给其他的资质能体哦,所以安全级别完全不同。没错,当系统接收到你老板的消息时,动态路由规则会精确捕捉到这个特定的私信对等方。然后呢? 然后把消息丢给一个极其严谨的只能查找工作文档的智能体。而当你的家庭群组有消息时,路由规则会根据群组 id 把消息引导给另一个专门负责插客打混的智能体。呵呵, 他连执行本地代码的权限都没有对吧?对,他就是个受限的逗逼智能体。而且如果系统不主动牵线,这几个智能体根本不知道彼此的存在。这个应用场景太诱人了。 但我接着就想到了一个技术上的瓶颈啊。呃,头壳消耗。对,如果我们要让一个 ai 表现的极其专业或者极具个性, 我们通常会给他写非常非常长的系统提示词,对吧?告诉他你是谁,你的语气是什么?你要遵守什么规则?是的,这就是所谓的 prompt engineering。 如果系统里并行跑着好几个智能题, 每次对话都把这些长篇大论塞给大模型,那 tucker 的 消耗和显存占用绝对是个天文数字啊! 你的直觉非常灵敏,大模型的上下文框是非常昂贵的资源。为了解决这个问题呢, openclock 设计了一套叫做呃,工作区引导的动态组装机制。引导机制 boost? 对 的, 在每一个新绘画的拼一轮,系统会去读取几个关键的纯文本文件,比如定义操作指令的 agents 点 md 哦。 markdown 文件对,还有塑造人设和语气的 soul 点 md, 以及记录你个人偏好的 user, 点 md 哦,等等。 他把所有这些文件的内容全部塞进去,那不是反而更长了吗?这里的精妙之处就在于裁剪和模式切换。怎么裁剪?首先, 如果这些文件过长,系统会自动进行硬截断,决不让基础设定无限指令膨胀哦。物理截断?对, 但更重要的是,它区分了完整模式和极简模式。这两个模式有什么具体的差别呢?当你直接呼叫主智能体的时候,他使用完整模式,拥有全部的指令和上下文。嗯,火力全开。但如果系统为了完成某个特令的小任务,动态生成一个子智能体, 这个子智能体就会被迫进入极简模式。极简到什么程度?在这个模式下,所有多余的文档啊,更新指令啊,通通被提出, 系统提示词里只保留最核心的安全护栏、基础身份,还有几个必要的工具。哇,这种对上下文近乎苛刻的控制欲啊。没错, 正是这种克制,确保了系统能在极低的资源消耗下并行运转那么多个大脑。既然聊到了这个上下文控制,我们就必须面对所有 ai 用户最痛的一个痛点了, 失忆,哎,大模型的通病。对啊,如果我每天都在跟些智能体高频聊天,大模型的上下温孔总有一天会被塞满的吧?迟早的事儿。那一旦触发了清理机制, ai 会不会突然忘记我昨天刚告诉他的重要信息?这就是 open call, 最让我 怎么说呢,最让我拍案交绝的地方了。哦,怎么解决的?它的记忆系统完全建立在纯 markdown 文件上,它有一个用来存放核心事实的长期记忆库,还有按日期生成的日常笔记,比如今天是二零二六年四月六号的 m d 文件。嗯, 这个我能理解,就当成日记本嘛,但这些只是存储戒指啊。真正厉害的是聊完天自动总结一下吗?远比那个优雅。 系统里有一个机制,叫做压缩前刷新。压缩前刷新?对,当系统监测到当前的绘画即将触及上下文框狗的极限,也就是马上要触发自动压缩, 马上要清理掉。早期对话的时候,让我猜猜他会在清理之前先把所有东西读一遍。他会做的更隐蔽, 系统会在后台静默的插入一个用户根本看不见的智能体回合。看不见的回合?对, 在这个隐藏回盒里,系统会给模型发送一个带有 no reply, 也就是无需回复指令的强制提示词。这个提示词写的是什么?大意就是警告你的短期记忆马上就要被清空了, 现在立刻把你认为最重要的信息提取出来,写到此盘上的长期记忆文件里。天呐,这个画面感太强了,是不是非常有意思?这简直就像是一个特工 知道自己马上要被强制洗脑了,所以在失去意识前的最后一秒钟,疯狂的抓起笔,把最重要的密码写在自己的手心上。哈哈,这个比喻极其生动,而且真的揭示了背后的残酷现实。怎么说,不管模型多强大,短期的上下文永远是靠不住的。 好记性不如烂笔头吗?确实,写在手心上最靠谱,但是把信息写在手心上,也就是存入磁盘,这只是第一步,你还得能在需要的时候迅速找到它。 这就需要谈到 openclose 混合搜索机制了。混合搜索我大概听过,通常会提到向量搜索,也就是 vector search 对 吧?对,那是目前的标配了,就是那种能理解羽翼的高级搜索。是这样吗?没错,向量搜索很聪明,它能理解你的言外之意。 比如你几个月前在日记里存了一句运行 get 外的机器。嗯,今天你向 ai 提问啊,我的 max studio 网管虎基在哪? 即使字面上完全不同,向量搜索也能通过数学降维知道你指的是同一台设备。既然向量搜索这么聪明,连言外之域都能懂,那为什么还需要结合传统的 b m 二十五关键字全文搜索呢? 这不是技术倒退吗?这恰恰是很多纯向量搜索技术在实际应用中经常翻车的原因呢?嗯?怎么会翻车?向量搜索贯穿的是宏观的十亿, 但是当他在处理那种精确的没有明确四亿的离散符号的时候,他就是个彻头破尾的瞎子。 离算俗号,能举个例子吗?比如,你在排查一个代码问题,已需要搜索一个特定的原变量名,或者一个具体的报错代码,比如,呃, squiggle back unavailable。 懂了。 对于项链搜索来说,这段报错代码就像是一堆无意义的乱码,它根本找不到似意上的相近点,完全正确。这时候,反而是最老派最传统的 b m two five 全书搜索能发挥其效了, 因为它就是死磕儿,精确的 token 匹配哦,一个看大意,一个抠字眼儿。对, opencloak。 将这两者结合起来,一方面用 sql live 向量扩展加速,肆意召回。 另一方面用 b m two five 做精准锁定,它既懂你的言外之意,又能在茫茫大海里准确地捞出那根特定的针哇。再加上那个私信作祟的身份连接,比如,它能知道 telegram 上的 alex 和 whatsapp 上的阿狗其实是同一个物理人类。没错,这样一来,这就构建了一个毫无死角的记忆网络了。听到这里,我觉得这个系统已经有点令人敬畏了。它有完美调度的神经中抠, 有分裂的人格,还有永远不会妄设的记忆网络,确实非常强大,但现在呢?他依然只是一个困在聊天框里的大脑啊。如果我想让他帮我处理本地文件,或者去网上抓取数据,他是怎么长出双手的?这就要归功于他的模型提供商接入, 还有极其克制的 skills, 也就是技能系统了。技能系统,首先在大脑的选择上,它是绝对开放的,你可以随时无缝切换 open ai 啊、 cloud 啊,甚至是完全断网运行的本地大模型。而且底层的插件系统会自动帮你处理所有的脏活儿、累活儿,脏活儿、累活儿。 比如什么样的脏活?比如当你在大规模处理数据的时候,必然会遇到 a p i 限流,对吧?也就是常说的四二九错误哦,遇到这个传统应用,通常直接报错,直接罢工了。对啊,但在 opencloud 里,插件系统拦截了提供商层面的这种异常。 如果你的第一个 a p i 密钥被限流了,它会自动在后台轮换到下一个备用密钥,无缝重试,你根本连感觉都没有。哇,全自动的, 那赋予智能体手上去干活的 skills 系统呢?我比较好奇的是,假设我的系统里安装了五十种不同的技能,嗯, 比如写代码儿、查天气、发邮件等等。对,难道 ai 每次跟我说你好的时候,都要把这五十个技能的具体说明全部读一遍吗?那也太浪费算力太贵了吧。这正是我说它极其克制的原因。 在 openclaw 里,技能并不是写死在代码里的黑盒,它其实是一个个存放着 s k l 点 m d 文件的普通文件,又是 markdown 文件。对,最妙的是,在每一次对话的系统提示词里, 大模型根本看不到这些技能的具体执行细节,那他怎么知道自己能干什么?系统只会给大模型提供一个极其精简的技能,目录导引。目录导引里面有什么?里面只包含两样东西,第一,技能的简短描述。第二, 那个 markdown 文件在你硬盘上的具体路径。哦,我好像明白了。你的意思是说,如果我问他 今天天气怎么样,大模型看了看目录,发现有个叫查天气的技能路径。然后呢?然后大模型会主动调用系统内置的最基础的 read 工具, 也就是阅读工具,去读取那个特定路径下的 s k l 点 m d 文件,现学现卖啊。没错,直到那一刻,他才真正学会了如何查天气。 这就好比你给一个非常聪明的大学生看一个图书馆的目录,他遇到不懂的问题的时候,自己去书架上把那本说明书拿下来翻看。哇,这是一种真正的按需加载, 既让智能体的能力可以无限扩张,又保证了大脑的绝对轻盈。是的,及其优雅的设计。 这也太绝了。不过,到孟贤为止,我们所有的场景都是我主动找 ai 聊天,对吧?啊,是被动的响应。对,但一个真正的顶级私人助理,不应该只是个被动回答问题的百科全书啊, 他应该能在我不理他,甚至我在睡觉的时候自主地帮我把活干完。系统里有这种机制吗?有的,这是实现绝对自制的最后一块拼图了,也就是定时任务。 chrome jobs, oh, chrome jobs! 这些任务由 gateway 在 后台统一调度, 并且是持久化存储的,就算你的 server 断电重启了,你的任务也绝对不会丢。那执行逻辑上呢?它分为主绘画任务和格力任务两种,这俩有什么区别?我举个具体的场景,你看看对不对啊?好,你说。 假设我想设定一个任务,每天早上六点,在我醒来之前,让 ai 去把我的几个核心邮箱扫描一遍。嗯,抓取新闻?对, 把重要新闻抓取下来,总结成一份五百字的早报,然后直接发送到我的 telegram 上。一个专门叫做早报的特定话题里,我应该用哪种任务针对你?这个场景,你绝对应该使用格力任务。 为什么不是主绘画?因为如果你使用主绘画任务, ai 会直接在你平时的聊天窗口里开始自言自语的处理邮件。 哎呦,那会彻底打乱我昨晚跟他讨论私人话题的连贯上下文呢。对,而格力任务会在后台悄悄开启一个名为 chrome 冒号 drop id 的 专业隐形绘画。隐形绘画对它拥有全新的上下文, 做完复杂的总结之后,通过 delivery, 也就是投递功能,把结果精准推送到你的 telegram 里, 绝不污染你的日常聊天记录。完美就是我想要的干活,不留痕迹。不仅如此,格力任务还有一个杀手锏,他可以覆盖模型设定。 覆盖设定,意思是换个大脑。没错,我们在日常闲聊的时候,为了省钱也追求回复速度,通常会配置一个轻量级的模型。 嗯,比如一些开源小模型。但是像你刚才说的,扫描邮箱过滤噪音,还要转载深度早报 这种每天早上六点执行的重度脑力活,需要很强的推理能力。对,你可以在定时任务的配置里强行指定。这个任务,必须唤醒最昂贵、推理能力最强的模型,甚至把他的思考级别直接拉到最高。哇, 这招太聪明了!把便宜的算力留给白天的闲聊,把最烧脑最深度的推理任务安排在没人打扰的深夜去默默运算。没错,充分利用资源,最后在早晨把最干净、最具价值的结果呈现在我面前。这才是真正的 ai 助理啊!是的, 低廉值的日常交互加上高智商的后台批处理,在这个架构里达到了完美的平衡。确实如此, 那么让我们稍微深呼吸一下啊,回顾一下今天这场干货满满的旅车。好的, 我们看到了一个把一切调作权全部收归本地的 get 外塔台,见识了如何在不报险存的前提下,用极其克制的模式切换来维持多重人格的运转。嗯,还有那个非常独特的记忆系统,对,我们领略了那种像是写在手心上的 压缩前刷新记忆法,以及能在茫茫自海中捞出特定代码的混合搜索。最后呢,我们还探讨了他如何像查阅图书馆目录一样按需加载技能,甚至在深夜隔离出一个最高智商的大脑为你打黑工。哈哈,打黑工! 当你把这些模块全部拼合在一起的时候,呈现在你面前的就是一个高度自制、扩展无限, 却又把每一分数据主权都死死铆定在本地设备上的强大系统。没错,而这正是我在节目最后想留给正在收听的你去独自咀嚼的一个问题。嗯?什么问题? 纵观今天探讨的整个 openclo 设计,你会发现一个怎么说呢,极其震撼的矛盾感。矛盾感?对,你发现没有,无论是让他产生多重人格的。搜点 md, 或者是它用来抵抗遗忘的记忆文件,它竟然把目前人类能触及到的最高级、最复杂的 ai 行为全部铆钉在了最原始、最简单的纯文本 markdown 文件上。确实,这非常反常力。在当今科技界,大家都在拼命追求把算法做成黑盒, 沉迷于构建那种极其复杂的高维度向量数据库的今天, opencloud 的 做法简直就像是一记响亮的耳光。是的,它打破了行业的惯性, 他似乎在提醒我们,想要真正控制、塑造并且理解一个超级人工智能。最终的答案可能并不是制造更多的黑河,而是化繁为简。没错,而是回归到人类用肉眼就能直接读懂的最朴素的纯文本中去。 好了,感谢大家加入今天的深度探讨,希望这期内容能为你提供一个新的视角去审视未来的 ai 生态。感谢大家的收听,保持你的好奇心,我们下次深度探讨,再见!