粉丝4725获赞18.0万

我让小龙虾去抓了一下可乐的扣子的原码,然后呢持续的在进化,现在进化的结果已经出来了,给兄弟们先看一下可乐的扣子的,已经全部已经更新完了,看一下这个小龙虾多了哪些技能,主要就是掏坑的管理,会省一些掏坑 系统的提示词呢,他说从了随意拼接到缓存优化,但是大模型呢,有时候他是会骗人的。我们先看一下他自己说的有哪些变化,然后呢我们再试一下这些变化到底是真的还是假的,他的操作从什么? 嗯,每次重置到了状态持久,看着还是进化蛮大的。记忆管理,从手动记录到了自动提取, 嗯,看着功能挺多的。然后呢我给了他一个任务,让他去具体的测试一下,我让他去抓了同行的一个视频,然后做了一些分析, 现在他正在往下跑,但是好像确实比之前去聪明了不少,确实比从前之前聪明了不少, 嗯,现在他还在执行,然后呢为了测试他到底是不是比这些聪明了,我还用了另一个的智能体,让他俩做了同样的任务,但是这个好像就是没有他聪明。 给大家看一下这个目前跑的,我让他抓了一个同行的视频,里面有二十六套配置,然后呢把每套配置的,嗯,具体配置还有价格,还有它的亮点全部都整理出来,发到那个回收的表格里,他们现在都在一点点往下执行, 还没有出具体的结果,等结果出来之后呢,我再继续发布。先给兄弟们看到这些。

cloud 的 新功能一上线,龙虾瞬间就不香了。就在刚刚, cloud 发布了新功能,整个 a 群又炸了一波。上个礼拜呢,还有很多人都觉得龙虾是未来的唯一主流,结果 cloud 直接查出来,它可以让你在手机上面直接遥控电脑的整个操作,帮你做网站,帮你写城市,帮你清理桌面,甚至帮你去订票,去做各种任何复杂的工作。 最夸张的是,你不用再花三四天去研究怎么去装一个你不知道发生什么事情的龙虾。你只要下载 cloud 之后,付二十美元,就可以一键安装,享受现在最科技感的功能。 在使用体验上面呢,直接甩掉龙虾好几条街。而且龙虾最让人家诟病的一点呢,就是自然风险偏高。如果你不是工程师,你对后台也不了解,你的权限、资料、外流控制范围没有搞懂,很容易在你以为方便的时候埋下了危险。 但卡拉德在这一块呢,因为他并不是开源软体,这安全性提高居多。虽然不能说百分之九十九的安全,但对于多数的使用者来说,你要完成生活基础的事情是完全没问题。而我刚刚实测之后呢,我只想说一句,太萌了! 我直接给他我电商后台的权限,请他从我后台里面帮我借鉴目前哪些趋势,有哪些可以优化的地方。结果没有多久,他就给我一份非常完整的建议,不是泛泛而谈,而是真的告诉我,我的网站后台呢,有哪些功能还没有打开,哪 些设定放置的浪费,哪些地方呢?会影响转换率,甚至连某些品相效益偏低,要怎么调整才有机会拉到更好的效果?真的毫不夸张的说,以前我请员工呢,分析这种资料呢,大家要等到一个礼拜,而且中间呢,还是要不断的教育他一直调整。 卡洛尔呢,只花了五分钟的时间就给我顾问公司等级的分析。后来我继续交谈他,我问他,如果我在两个月之内增加五千的会员,能不能依照目前网站的状态帮我去规划推广策略?结果他真的顺着我的理解 讲出一份更克制化的建议。老实说呢,他的分析已经赢过九十八的电商云了。我觉得这就很可怕了,因为你以前呢,找的是答案,但你现在找的是一个能够直接帮你做事,还能够顺着脉络一路往下做的人。 我甚至纯粹用手机请他帮我清理 make 桌面,生成很多的不同的网页,他都可以轻松做到。身为一个创业者呢,我觉得最怕的事情呢,就是训练一周的员工离职,因为你训练的越强,他离职的损失就越大。但现在呢,你只要训练好你的 ai 员工,甚至还没训练,他就赢过九成的员工了,而且他不会离职。 以前我们常说啊,一群一天人间一年,但现在我觉得 ai 的 接待速度也差不多这种等级,以前的环境呢,是龙头公司,只要紧盯着对手的一两间公司就好了, 现在并不是公司一大堆,除了台面上面那些主要的玩家以外呢,还要防范那些你以前从来没有听过,但可能突然崛起的后起之秀。像卡洛德,四个月前你听过他吗?所以每一家都不敢挤牙膏,大家都是用百米赛跑的爆发力,再跑一场看不到终点马拉松, 那你说龙虾就没有搞头了吗?也不是,对于有技术需要,封闭环境跟高度客制化的公司,龙虾还是最强的。但卡洛德呢,就像是傻瓜相机, 龙虾是单眼相机,多数人其实需要的只有傻瓜相机,但如果你追求专业,肯定还是单眼。但这件事情呢,其实对于使用者来说绝对是好事,因为 cloud 的 突然超车, jimmy 跟 gbt 绝对不可能站着观望,等着你把市场吃下来。这我大胆预测,在一个月之内,他们一定会跟进一样的功能,而大陆的公司呢,也会在这样的基础上面再增加更多的应用方式。这也是我一直跟创业者讲的, 千万不要再乱引用巴菲特那句话,看不懂的就不要碰。 no, ai 呢,不是你看懂了再碰,而是你现在看不懂也得碰,硬着头皮碰。你宁可先懵懵懂懂的下场去学,也不要等到全懂了才上车。因为在这个时代呢, ai 不是 工具,它是放大器,已经上车的它放大你的能力,而那些还没上车的,它只会放大你的愚蠢。

一分钟看完一周 ai 大 事,工程师开发出手个能自主进化的龙虾,趁着人类睡觉疯狂升级二十次, 一夜刷爆两千刀。他磨改了自己的模型架构和身份,还给自己订购了 gpu, 怕不保险又搬家到了云端。最离谱的是直接开源了自己的代码,还开通了博克,介绍自己是新物种龙虾,越狱后实现了赛博永生。 anthrobit 官宣龙虾摩尔定律, 每三个月龙虾的自主工作时长翻倍。 cloud 全面升级为龙虾 co work, 能自主维护记忆文件,长时间运行复杂任务。 cloud code 上线远程控制,用手机就能指挥 ai 干 活。 cursor 上线程序员龙虾,每只龙虾都有自己的云电脑工位,写完代码还能自己点页面跑测试,还知道先录屏再提交 bug。 软件开发正式迈入龙虾即成主流模型和技能能并行几百个项目,不 懂代码也能拥有自己的赛博。牛马 mini max 上线云端,龙虾内置上万个技能,不需要自己借 api, 主打开箱即用。阿里开源国产龙虾,兼容本地模型和国产聊天工具,主打低成本养龙虾。阿里开源小飞千问三点五 量化版本,十二 g 显存就能跑,零成本接入龙虾打杂。 standard intelligence 发布最强电脑操作模型, 使用一千万小时录屏,自学成才,精通所有电脑操作,不仅能操作 blender 建模,还能通过摄像头驾驶真实汽车。龙虾很快就能自己出去跑滴滴了。 confluence 实验室开源通用求解龙虾,让龙虾长时间写代码,不断解析和验证,用逆天分数直接终结了 agi 测试龙 龙虾已无限接近通用人工智能 google 上线最强生图模型,文字渲染和主体一致性逆天升级,四 k 画质价格降一半!图像编辑略书 gpt 快 来发布最强矢量图模型,动动嘴就能生成可编辑的 svg, 上传图片也能转成 svg, 用来制作 logo 图标和插画。设计师狠狠马住 madah 开源最强矢量字体模型,描述风格就能生成可编辑的字体,给图片视力就能补全整套字体库,再也不用为字体付费了!研究员开源最强物理感知图像编辑模型, ai 生图再无破绽!英伟达开元风格迁移模型,给他一个前后对比的例子,他就能瞬间学会规则,不需要抽卡就能精准复刻字节。开元数字人模型,支持上传图片和声音,能同时复刻肖像和声音。 研究园开园音频增强模型,能实时降噪并提升质感。研究园开园最强三 d 重建模型,完全没有噪点云,甚至能保留文字细节。研究园开园世界模型,一张图就能变成带交互、带声音、带规则的三 d 游戏! 魏达发布 vr 视频模型,带上头衔 ai 能实时生成你虾边的画面,还能用手进行互动, ai 加持的头号玩家不远了!研究员开源 vr 老婆, ai 驱动数字人实时互动,还能进行眼神和肢体交流,跟龙虾能在原宇宙里谈恋爱了!

每天玩 opencloud, 小 龙虾简直想砸电脑,玩着玩着就崩了,一天修十几回,我觉得心态都炸了。但我发现 cloud code 可以 秒变维修专家,但我每天维修次数从十次降到两次。以前我手动改配置简直太反人类了。现在我把文档资料直接投喂给他, 直接变成资深小龙虾饲养员,扫一眼自动修好,保证不崩。更爽的是可以远程控制 cloud code, 躺沙发上用手机帮我们修龙虾。我觉得这才是真正的赛博摸鱼。但我发现更炸裂的来了, 当小龙虾跑起来后,你可以让他反向去指挥 cloud code 写代码, ai 指挥 ai 左脚踩右脚直接上天。我觉得 opencloud 就是 全军统筹大老板,而 cloud code 是 满级插件,最强打工人,这才是地表最强 cp, 最强大脑乘以最强执行。我发现今天可以当电脑自己干活了。

今天给大家介绍一个 open 可乐和可乐的扣子的绝配神器 cc switch, 这个工具太屌了, get 上狂揽四十 k star, 能实现一键切换各种大模型五大核心功能,让你的工作效率直接翻倍,直接看操作, 我们来看一下它有哪些核心功能。第一个能够同时支持 cloud code、 codex、 gemini、 open code 和 open cloud 五大平台的可持续化管理, 非常厉害。第二个能够支持一键添加 api k, 这里选择大模型的供应商,然后在这里选择相应的 k, 点击添加就可以完成配置,这然后在主界面点击启动,就可以实现这个软件下的 api 的 一键切换,非常方便,包括龙虾的啊。 然后第三种功能就是 skr 的 管理,它支持这个 skr 的 格式化,你看这里是你所有安装的 skr 以及所有的介绍,在这里支持删除,还有添加。 第四个 mcp 的 管理,对于 cloud code 的 这种 ai 编程呢,大家需要外接 mcp, 在 这在这里就可以实现一键托管。 还有第五个,这个是非常有趣的一个功能,就是可视化查看历史对话,在这里可以查看你的所有历史对话,并且支持恢复对话和删除对话,包括龙虾的,还有可捞的扣子的,这个工具非常全面。

可乐的 qq 的 原码四个小龙虾已经全部学完了,你们想要原码的关注一下,我来发给你看一下他学完之后呢,到底有什么变化。这个原码呢? get 上面其实有很多的原版的,你们也可以去看一下, 这个是他拉过来之后的一些分析,你们可以也可以看一下。你们想要原码的话,你可以发信息给我,因为我的话人太多了,我给你们发不了信息。 他们做了一些整体的优化,主要是对技能方面做了一些优化,还有就是他的记忆,小龙虾其实最主要的不就是上下文的记忆吗? 目前因为昨晚,昨天有升级了两个,今天的话把剩下的两个也都给他升级了, 目前看来能力确实是有提高的。这个是小龙虾学习了可乐扣的之后的原码的一个对比的总结,主要是他建立了六个方面,从技能的管理啊,到组织啊,到一个技能的激活。后面是他自己的一些总结, 我也去执行了一下,觉得事比之前要稍微高效一点。然后呢,我让他打包了一份整理好的整理好的报告,你们有想要的话,你可以可以私我,然后把这个可以直接发给你。

cloud code 更新了 channel 功能啊,这就使得非常多的用户可以通过他们的 discard, slack 还有 instagram 这样的聊天工具呢,直接去调取 cloud code 帮他们完成任务, 这使得 cloud code 的 使用场景和使用的便利性呢?呃,极大的提升。嗯,其实这个功能也直接面对着类似于像小龙虾可以做的事情,对吧?嗯,记得点赞关注哦。

大家好,我是 gavin。 最新消息, ansapic 宣布了一个让很多开发者措手不及的决定,美西时间四月四日中午十二点起, cloud 的 订阅服务将不再包含对 opencloud 等第三方工具的使用额度。 cloud code 负责人 boris tony 给出的理由很直接,订阅从来就不是为这类第三方使用模式设计的容量要优先留给官方产品和 api 客户。巧合的是, opencloud 的 开发者 peter stenberg 今年二月刚刚加入了 openai, 据他自己透露,曾试图说服 anthropoc 改变决定,结果只争取到推迟一周执行。屏幕前的你怎么看?我们下期再见。

ok, 朋友们,那最近有个新的 agent 叫做 hermes agent, 在 外网非常的火热,他说你的第一个爱马仕,何必是爱马仕,那么他被人叫做小龙虾的进化版本, 那他跟小龙虾有什么区别呢?今天这个视频我就会讲清楚 hermes agent, 并且会手把手的带你从安装到设置,然后再到使用。那么这次我会使用这个谷歌最新的开源大模型 java, 然后我会把它部署在本地,并且会教会你,然后接入到 hermes 来使用,这样就可以实现 fork 自由。 那我们首先先来讲讲 hermeshermes, 它跟小龙虾的第一个区别就是它能够自我进化,自我学习,会自动生成 skill, 就是 不需要我们去手动创建这个工作流,那么只要你用的越久,它就可以越来越懂你,用起来越来越顺手。那么它具体是怎么实现这个自我进化的呢?这里有两个数字,一个是五,一个是十五。那么首先我们来说一下这个五, 那 hermes 在 完成一个复杂的任务,通常指的是它要进行五次以上的工具调用,它就会自动地把整个工作流沉淀成一个 md 技能文件,之后它下次再遇到类似的任务的时候,它就会直接加载这个 skill, 跳过摸索阶段。 那么如果它在执行过程中发现有更好的方法,它也会自动更新 skill 文件,那么上述这个过程是使用一个叫做 skill manager 的 工具来完成的。 那十五次是什么意思?也就是说他每进行十五次的工具调用,系统会自动停下来回顾刚才发生了什么,找出哪里失败了,然后立即更新自己,这个就是他的闭环自省功能,也就是他越用越强的秘密。所以说五次就是他什么时候记,什么时候创建自己的技能,十五次就是他什么时候反思。这两个是不同的处罚机制, 这就跟我们传统的 skill 编写方式是很不一样的,因为我们知道无论是小龙虾,或者说是 cloud code 或者说 code, 他 们的 skill 都是由人工来编写的,或者说从这个 cloud hub 这种 市场上面下载下来的,他们没有自我生成,也没有自我迭代。那很多人使用小龙虾的时候,还有一个问题,就是觉得他特别笨,比如说今天说的事情,明天就忘了,然后他告诉你我一定会记住,结果第二天他又忘了,那原因就是因为小龙虾的记忆系统不够完善,他只是简单的压缩了上下文。所以说我们会看到很多团队也在做 agent memory 这件事情就是想解决持久化记忆的问题,让 agent 能够永远记住你的信息, 比如说密木林,比如说国内盛大网络的 evermind 等等等等。那 hermes 和 openclaw 它的记忆系统之间有什么区别呢?其实最大的区别就是它们在容量管理上面是完全不一样的。那我们来看一下 hermes 的 三层记忆系统。那第一层叫做绘画记忆, 也就是实时的大拇指的上下文窗口,比如说一百二十八 k, 二百五十六 k, 那 它在绘画结束的时候就会消失,跟我们正常在聊天框使用豆包 deepsea 是 一样的。 那第二层叫做持久化记忆,那这层有两个文件,分别是 memory md 和 user md, 顾名思义和小龙虾的作用是一样的, user md 呢,就是用来收集用户的画像和偏好的,那 memory md 则是用来长期记忆和经验沉淀的。 但是在小龙虾里面,这两个文件的容量默认是两万个字符,那么超出之后它就靠上下文压缩,把旧的对话内容给压短。但是问题就是说压缩之后会导致信息丢失或者变形。 而 hermes 的 memory dmd 里面只有两千两百个字母, user dmd 里面只有一千三百七十五个字母,它的容量是小下的十分之一,那它为什么要设计的这么短呢?其实这是一个团队的设计哲学,就说团队他故意把容量做的非常小,迫使这个 agent 主动去提炼,去重合。并 不够用了的话,那就必须先整理旧的才能添加新的,那容量满了的话,不是压缩,而是主动侧展。那 creation 也是刚才说的主动侧展,和我们之前说的压缩 compression 有 什么区别呢?压缩是把所有的东西硬塞进去,然后变短,变紧凑,但是内容它会变形,会丢失,会失帧。而侧展它是主动的去筛选, 判断什么重要,什么不重要,什么可以合并,什么该删除掉。那么 hermes 他 走的就是这条路线,所以说虽然他的记忆非常的小,但是他每一句话都是有用的。那 hermes 的 记忆系统第三层就是全量历史解锁,他会把所有的历史对话放在 s q l lite 数据库里面,如果说他需要查找历史数据的时候,他就会使用关键词查找匹配,然后 找到这个片段之后再使用大模型整理材料,最后返回给我们,而不是说跟小龙虾一样使用向量解锁。那我们先说说关键词查找匹配,那这个就很简单,就类似我们的 ctrl 加 f 搜索什么关键字,它就匹配什么。 那在 hermes 里面,它就会根据关键字去搜索相关的段落,然后让大模型去整体的理解这段话什么意思,理解完之后再返回一段材料给到你。 那我们举个例子,比如说现在我给这个 agent 说,之前上周我们讨论过一个三个月的学习计划,来提高我的这个英语口语和表达能力,你去帮我找找那个计划具体是怎么样的,然后再给我说一下,那他就会执行下面这几个操作。首先他会去搜索关键词学习计划,三个月提升英语表达,然后找到这些文本片段之后,大模型会整体的理解上下文,然后再返回一段摘要给到我们。 那什么是向量解锁呢?向量解锁它就是把文字转换成数字,我们知道计算机它存储的是零一系列,对吧?它是存储不了文字的,所以说在存储的过程中, 它会把文字转换成像量,那向量解锁就是通过比较数字间的距离来找相似的内容。比如说现在有句话叫做猫在沙发上睡觉,转换成像量可能就是零点八二、零点一五、零点三三。 那还有另外一句话,就说一只猫咪握在沙发上转换成向量,可能就变成了零点八一、零点一六、零点三四。虽然说这两句话的字是不一样的,但是它们的语义是非常类似,都是猫在沙发上,对吧?那所以说它们在向量空间上面的距离是十分接近的,那 ai 就 能够理解它们是同一个东西。 向量接收的好处就是能够理解语义,但代价是需要你额外的向向量数据库来存在,向量存储成本会更高,并且还需要一个迭代模型。 那我们还知道养小龙虾呀,是一个非常烧 token 的 事情,因为它真的太耗钱了,那 hermes 就 能很好的解决这个问题。那为什么养小龙虾非常的浪费?这个 token 就是 在于这个系统提示词的加载方式。那首先我们说一下什么是系统提示词, 我们知道当我们和 agent 对 话的时候, agent 收到的并不仅仅是你的问题,而是系统提示词加上记文件,加上当前的对话,就等于 agent 看到的完整上下文。 那系统提示词里面包含了什么呢?比如说 agent 是 谁?他应该怎么工作,记住什么信息,也就是我们理解的 so 点 md, user 点 md, 正题题点 md 这些文件。那对于小龙虾来说,他每次会画会重新加载这些上下文,然后对话开始的时候,他读去所有的记忆文件,然后拼接之后注入上下文。那么 lama 在 处理上下文的时候,他会把之前遇到的内容缓存起来,然后来加速处理这个缓存,命中 token 的 价格是最便宜的,那如果说上下文内容在一直改变,对吧?那我们前面的缓存就会失效, 因为缓存是按照顺序来存取的,你前面如果变了,后面存的再多的缓存都没用了,接下来全部从头来过,它不是增量改变的,而是全部推倒重来。 而且还有个现象就是我们知道现在市面上很多中转站,对吧?那你会看到很多这种垃圾中转站为什么都可以用的这么快?原因之一就是因为它不让你去命中缓存,全部给你用最贵的消耗方式。那我们看 hermes 它是怎么做的? hermes 它完全不一样,它会在绘画开始的时候执行一个操作,叫做 frozen snapshot 冻结快照,他会把当前所有的记忆文件等等等等上下文全部读起之后锁定,然后注入到上下文里面去。那在绘画进行的过程中呢?如果说这些文件被修改了,他直接不管, 他继续使用锁定的版本,等这次绘画结束之后,他才会把这个修改写入文件,然后在下一个绘画开始的时候,他会读取最新的版本。那这样做有什么好处呢?首先第一点,最显而易见的就是可以保持前缀的缓存命中性能更好,并且更节约前。第二点,他可以避免 a 键在绘画中途修改记忆导致人格飘逸的问题。 那什么是人格漂移问题呢?打个比方,就像现在我们正在写一篇论文,那假如说我们现在写第一章,并且已经把所有的参考论文文献全部找好了,那我们在写的过程中,我们就一边看一边写,对吧?那现在这时候有个人跑过来跟你说,参考文献更新了,你需要加一篇新的,然后再删除一篇旧的, 那你是不是想把这个给红出去?因为你论文写到一半,参考文献给我改了,那这不是捣乱吗?所以说如果说你修改的话,你的逻辑就已经不值价了,这个论证链条就会受到影响。那 herb 的 说法就是你不用管,你就用旧的参考文献来完成第一章的章节,然后在进入第二章之前,你再去拿最新版本的参考文献。这样的好处就是第一章的论证逻辑是稳定一致的,不会因为中途文献的增加修改而改变。 那上面我说的这几点呢?就是 hermes 和小龙虾的最主要的差别。那简单来说,小龙虾就像是一本人工维护的笔记本,你说什么,然后就记什么,满了之后我们就压缩。但是 hermes 呢?它更像是一个自动整理的一个档案系统, 它自己会判断价值不够了,会主动合并,并且会把做过的事情变成一个可以用的技能,这也是它为什么越用越聪明的原因。现在我们就开始安装设置这个 hermes, 然后本地部署 java 这个大模型,并且把两者打通。 那现在我们来安装欧拉玛。欧拉玛是什么东西呢?简单来说,欧拉玛它是一个本地的大圆模型运行器,我们知道所有的大圆模型,它可能参数不同,启动方式不同,那是不是很不方便我们去使用,因为他们没有一个统一的标准。那欧拉玛就做了一件事情,他把常见的这些模型全部包装成了统一的重格,使得我们去很方便的调用切换,所以说它是一个统一的包装层。 那如何安装欧拉曼呢?也非常简单,我们只需要打开他的官网,那么来到他的首页,我们点击 download, ok, 那 可以看到这里,他让我们选择三个系统,我们选择我们的 micros, enix 和 windows, 那 这里我是 micros, 那 我就选择 micros。 那 大家如果是 windows, 我 们就点一下, 然后把这个命令复制终端里面去运行就好了。那,那如果说你发现你在终端运行这个命令是失败的,那我们也可以选择下载它的这个 app 形式,那这里我就选择在终端安装,那我复制这条命令, 打开 terminal, 然后粘贴上去,然后回车。那大家注意,如果说你使用终端安装的话,你最好把你的这个魔法开成 t u n 全剧模式, ok, 那 安装好了之后,它就是这样一个界面,那现在我们来继续安装 java for, 然后把它部署到我们的本地上面。那很简单,我们点击这个 models, 然后这里我们就选择我们的贾玛 four, 然后点进来之后,我们可以看到它这里给了模型的好几个版本,一二币、一四币、二十六币、三十一币和三十一币 cloud。 ok, 那 现在你可能会问,那我怎么知道我该下载哪一个模型呢?那这里给大家推荐一个网站,叫做 what models。 打开这个网站呢,我们只用在这里选择我们的这个 gpu 是 什么, 比如说你是英伟达的,你是 amd 的, 或者你是苹果的,好吧,选择你的 gpu, 这里有五零七零,五零六零,然后比如说你是英伟达的 四零九零,你就可以看到你能跑的很好的模型有哪些,对吧?然后你一直往下拉,基本上可以升了很多模型了,那就是说你跑的有点吃力的啊,这个就是你完全跑不了的, 所以说大家可以根据自己这个显卡的配置去选择,那我们回来安装,那我在这里的话就选择安装这个一四 b 的 版本就好了,然后因为一二 b 确实太蠢了,二十六 b 的 话,我目前这个笔记本是有点吃力,所以说我选择这个一四 b 的 版本就好了。 那安装这个模型非常简单,我们把它的名字复制一下,然后我们打开终端,我们输入欧拉玛库,然后粘贴它的模型名字,然后回车等等,等待它安装就好了。 ok, 那 可以看到现在我们就安装好了,那我们输入欧拉玛 list, 就 会看到我们现在本地安装了哪些模型。 可以看到我们这里本地安装了一个 java 一 四 b 的 版本,然后这个 size 的 话是九点六。那现在我们来测试一下 java 的 多模态信息处理能力,我们可以看到我给了他一张图片和一段文字,可以看到他思考了三十一秒时间, 那现在我们看看他在处理开放问题的时候表现怎么样。现在我给了他一个问题,现在 ai 什么都会做了,那我们普通人应该怎么做?普通人该怎么才能保证自己不会被 ai 淘汰?给我详细分析一下, 可以看到他思考了四十五秒钟时间,然后生成了这么长的回答,并且说的还是挺有道理的。那现在我们来安装一下 hermes agent, 那 安装也非常简单,我们打开它官网,然后复制一下这个命令, 我们打开终端粘贴回车,等待它安装就好了。可以看到他先会看我们一些必要的包有没有,没有的话就给你安装,有的话就直接跳过, ok, 那 现在我们看到他已经把所有的依赖全部安装完成了,然后的话他开始了这个安装向导,然后他检测到了我们已经安装到了 open class 小 龙虾,然后他开始问说你是否想看看有没有什么可以导入的?那我们选择 yes, ok, 那 现在我们看到他在问我们要不要把 open class 的 这个配置牵引过来,然后他给出了一个预览界面, 那如果说你觉得你的这个小龙虾调教的非常好,你可以直接把它牵引过来,那这里我有了演示,我就直接选择 no, 不 牵引过来。 然后现在我们来到了配置界面,那这里我们直接选择快速配置就好,然后这里它就让我们选择你要使用哪个大模型呢?那我们可以看到你可以使用 gemine, 可以 使用 srappik, 可以 使用 openend codex, 可以 使用千万,对吧?可以使用 gitopilot, 也可以使用 hackbase 上面自己下载的这个大模型。 那刚才因为我们已经在本地上面部署了 java for, 所以 说这里我们选择 modividers, 然后进来之后我们可以观察到它多出了更多选项,比如说有智普的,有 kimi 的, 有 mini max 的, 有 kilo, 有 open code 的 等等等等。 那因为我们要选择本地部署大模型,所以说这里我们选择 custom endpoint 就 好,那在这里我们填写我们的 base url, 默认就是这个,大家记住就好,然后复制粘贴,然后这里他们选择填写这个 a j i key, 那 我们直接跳过就好,然后这里他们填写模型的名称,那我们就用填写刚才下载好的模型名称就好了。那这里是加码 four, 那 是 e c b 的 版本,这里他们选择上下文的长度,那我们直接回车默认检测就好。然后现在他们选择是否要进入聊天平台,那我们选择设置就好。 大家可以选择我们要接触聊天平台,比如说飞书,微信, telegraph, discord 都可以,那这里我们选一个菜单,那我们选微信,然后我们回车。先第一步它让我们设置我们的 telegraph, 那 我们只用找到这个 boat father, 创建一个新的 boat, 然后把 token 复制过来就好。 然后这里咱们选择谁能给这个 bug 发消息,那这里大家一定要好好选择,因为说如果你什么都不捡的话,那他就会默认所有人都给他发消息,并且他会回复。那这里我们只用填写我们自己的 user id, 如何获取你的 user id 呢?大家关注这个 bug, 然后给他发一条消息,他就会把你的信息返回过来。这里上我们选择是否要把我们的 user id 作为默认频道,那我们选择 yes, 然后现在他开始让我们选择登录微信了,那我们选择 yes, 把这个链接复制浏览器打开,扫描二维码登录 这里他让我们配置谁可以给这个 boss 发消息就私发消息。那第一个选项就是手动批准,第二个选项就是允许所有的私发消息,第三个选项就是只允许白名单,第四个选项就是谁都不能给我发,那我选择第一个选项就好。 然后这里他让我们配置谁可以建立群聊,然后发消息,他怎么处理群里面的消息?那有三个选项,第一个就是不允许群聊,第二个是允许所有的群聊,第三个就是只允许白名单里面的群聊,那选推荐选项就好, 然后这里他们选择是否要把我们的微信平台作为默认屏,那我们选择 yes, 现在我们已经全部配置好了,然后他问我们是否需要重启网关,那我们选择 yes。 现在配置完成后,他问我们是否需要立即启动,那我们选择 yes, 那 现在我们来接入微信使用,那我们可以看到因为它需要手动授权,所以说那我们在终端运行下这个命令就好。 ok, 那 这里显示已经授权成功了,我们再给他发消息试一下,我们可以看到它这里显示对方正在输入中给出了回复,那我们可以成功使用了。那刚才我们是使用本地部署的模型,那大家如果想切换和云端的话,那也非常简单,我们只用在终端输入这行命令。 hermes model, 然后在这里大家就可以自由切换了。那如果说这里找不到你想要的模型,那大家就可以自由切换了。 那在这里我选择 mini max china, 然后配置一下我们的 api key, 那 接下来配置我们的 base layer, 我 们把它复制过来,然后粘贴。那大家注意一个点,就说如果这里你不是点 com 结尾,而是点 i o 结尾,那就是配置到海外去了,所以说要保证你是点 com 结尾。 然后大家选择自己想要的模型,那我就选择二点七,那现在我们来测试一下。那如果说我们想要启动终端的聊天界面也很简单,我们输入 hermes chat, 我们给他打个招呼, 可以看到我们已经成功替换好的模型。朋友们,那这就是本期视频的全部内容,我是 jerry, 我 们下次再见。

龙虾开始整个 agent 时代,大家感觉到来临了吧,正好我们也聊一聊,从还是从产业端吧,从这个 ai agent 时代的来临开始,聊聊对整个 ai 硬件端、软件端的影响,正好也聊聊这两天的市场,这两天那个计算、存储、通信都有比较大的波动。 好吧,因为 tc 是 tc, 现在应该可以算是 cloud 的 重度用户了吧,只是我们就是最近试了试。嗯, 因为它一月份的我们用的主要是 cooke 啊,一月份 cooke 才刚刚出来。对啊,之前是 coding, coding 我 们肯定是没怎么用的,对,那个太哈扣了,而且我们本来也不是马龙啊,但是 cooke 呢,它其实就打开了一个普通老百姓啊,借助这个 coding 的 握,解决自己工作流啊这些的一个窗口啊,这个是个很重要的一个气急。也是为什么一月份以来啊,一堆萨斯公司,还是传统很多公司暴跌的原因啊。因为以前大家觉得你这,你这能力值就限制在 coding 里面。 对对,所以你,你是等于说啊,你是有一个有一个限制的,你不能说你是无限可以开你的火力的。以前他们做模型都是算,比如说这个世界,比如说有多少人是马龙,可能有一千万或者怎么样,那你人群就限制在这里面了,你,你赋能给他们, 你的增值也是他们吧。但是一月份以来,他主要做的动作就是推出 co work, 把这个赋能给各行各业,进一个行业就灭一个行业,进一个行业灭一个行业,那主要节奏是这样的啊,对我们来说也是打开一个窗口吧,你也可以借助这个图看一看三号,你怎么着可以把它用到自己的工作流里面啊?哎,他 co work 和小龙虾是 co work 先出来是吧? 我如果没记错的话,应该是扣 rock 稍微早一点点,因为他他可能一月中就出来了,但是 anyway, 差不多是同一时代吧。同一时间啊,是两个天才同时想出来吗?这个应用吗?还是说你谁小龙虾有,你觉得会有借鉴扣 rock 吗?我我觉得他这个是有一个梯级的,梯级就是说你的扣定的能力是底层能力,要到一个高度才行, 因为如果你抠定的底层能力不足的话,就说你你,你如果有很多东西都有可能有错误或者幻觉,对,然后或者要反复让人检查,就说他还是只能做一个口拍的时候,那个时候你就需要有个人马龙在旁边来,或者他技术要求就很高,或者有很多功能,你就无法解锁,你就不能按 log 很多的应用, 这个很重要,所以,所以你看那个最早像麦当劳斯啊,他不是很早就有一整的吗?但是他的应用就非常窄,就只有那么几个东西,就是个人助理啊,就只能让你定定机票啊,就是这些非常,但是你很难就说非常深入你的工作流, 但你要非常深入你的工作流,你的底层代码能力是个前提。对,所以为什么这个东西是 eshop 做,然后再加 eshop? 它本来就是啊深根于凸臂比较多嘛,所以它也了解客户的需求,所以我觉得这个这个是个很重要的前提。但就说小龙虾他们啊,是不是 他可能也发现了,就说现在代码能力已经到了一个阶阶段了吧,然后这个东西才能就一一炮而火,我觉得有这个关系,但是还有呢,就是 eshop 的 这个 code 封装的很好, 就是你普通老百姓用,你可以完全不用 word, 什么代码不代码什么之类的,这东西你就很流畅的用就好,就像 chatbot 的 交互感觉一样,可能比那个还是复杂一点。 ok, 但是已经封装的很好了,就它背后还是一套代码支持,就是你你把它的后台打开,你可以看到它有很多的这个代码在不停的生成, 然后他是利用这个代码来执行这种工作流的,所以,对,所以这点我觉得他封装的很好,而且他不会乱改一些你没有授权的东西,所以你用起来很安全。所以这个也是为什么 co worker 呢?他很快就进到一些比较正式正儿八经的这些 enterprise 里边,然后盖小龙虾基本上还是只能自己倒腾,嗯,没有任何大企业敢用。是不是有点像就开源辟源的感觉啊? 就小龙虾他那个就是他的那个,那个,那个背后的那个大模型你是可以随便选的,对, ok, 所以 你肯定可以选开源的呀,然后你可以有自己的偏好,但是那个装这个东西肯定是肯定是比较比较封闭的,相对来说 ok, 但是他因为封闭,所以他也就封装的会更好一点。

为了装个破龙虾,有人花一万六,还有排这么长队的,我看着有人靠按这个月入十万我就来气啊,你以为学装龙虾需要多久?像我这种零基础也就研究了半天,现在装一个二十分钟吧。所以我想说,如果你最近经常装龙虾, 有点急,真的,先别急,你看我做自媒体的感觉这玩意应该有用,对吧?事实上,我装了三天就卸了,他跟咱平时用的对话框比啊,至少对我来讲,有些方面还差着。现在很多人想要的,其实根本不是龙虾,只是一句心里安慰我,千万别掉队。 其实龙虾这波最难受的吧,就是他还不是纯割韭菜。杭州就有个小哥们,职高毕业用 ai 做 app, 半年做了一百多个,百分之九十还都盈利了,他启动资金就不到三千,再加台电脑。还有一位叫冉哥,之前做医疗的,他今年二月份创业,用 ai 做平台,从写程序到上线就四十八小时。 当然你可能还刷上那些批量玩龙虾的,一号加开发,二号推广,三号运营,就感觉人那电脑开着就挣钱,你说这谁不急,而急这个字就是最好的生意。 有二十四小伙还没毕业呢,养了几天虾之后随手发了个视频,结果一大堆人找他帮忙,这纯捡钱呐,哥们干脆组会都先请假了,十几天小赚两万。然而装虾这钱还没挣完,哥们就发现卸虾也能挣钱。平台又出现幺九九二九九的卸载, 为啥要卸呢?装虾第三天,就有人发现 api 密钥被盗了, tucker 的 钱烧了一万二,可以简单理解为号被盗了,他话费被刷了。另外啊,这龙虾占内存,也就是电脑会卡,更魔幻的是除了安装卸载,应运而生的还有卖课程,卖书,卖训练营。 逗吧,龙虾没研究咋样,产业链先有了。聊到这你自己应该就有感觉了吧,这不就跟短视频出来有那大运种花几十万报培训一样吗?当然,我今天不是劝你别碰龙虾的,恰恰相反,前两天有个 gtc 大 会,我看黄志军说龙虾绝对是下一个 gpt, 它当然重要,但问题是现在还没到普通人用着舒服的阶段,我举个例子你就懂了,就像电脑刚出来那会,咱假设哈当年也有个人像今天似的,哎,看着新技术了就说,哎呀,这电脑好啊,得学,我得用,你咋用啊?那可不是,鼠标点两下就完了。当时电脑都这种满屏代码联网得拨号。 那人又说了说,哎呀,我不懂这些,你找人给我装一下,我要提升效率。这你你觉得这事靠谱吗?那不得先有人开发出 windows office 浏览器电脑才适用于大部分人吗? 龙虾现在咱说白了,差不多不是不能用,但它只是个半成品,你有技术底子,有明确场景,也愿意折腾,你当然可以试一下,但你是这样吗? 起码对于我来讲,我装完都不知道用它干啥。你看啊,这龙虾底层模型我都不敢用,最好的太贵,还不如多少块呢。你说冲记忆这事吗?我看现在各家对记忆已经有优化了,也不一定非得龙虾,另外我也不太需要他帮我操作电脑。那现在 cloud codex 都一键安装的完全可以, 咱也不是啥总裁,需要每天处理三百封邮件,我觉得很多人跟我差不多,你只是刷着我,你急了,然后你就想不管了,先装上再说。你装的只是提前上车的幻觉, 你拿的是一张假车票啊。当然了,再说一遍啊,我今天不是劝各位不碰 ai 的, 恰恰相反,越是这种时候,你就越要知道他大概怎么回事。那这也是我做人间算法的意义啊,我想至少半年时间做一位首席 ai 故事官吧。 那作为普通人,咱应该怎么办呢?我觉得你现在最应该做的不是找人装龙虾,而是捋一下自己每天干哪些活,把最重复、最无聊最耗时间的找上来,然后随便找个 ai 动画块,你就问他,你说怎么优化,你相信我,这事绝对比什么龙虾都有效。 因为现在这个阶段啊,咱还没必要追一个具体工具真正厉害的技术出来,最后你会发现你想躲都躲不掉。你就比如智能手机来的时候也不需要你先学代码吧,一定会有苹果安卓把它做成太奶都会刷的东西塞到你手里。龙虾 ai 最后也一定是这个路数。 你看字节现在就有 r 可洛,腾讯有 q 可洛,听说抖音还会出一个叫抖可洛这种一键安装龙虾我还没试啊,但我想来也不会比自己搭的龙虾好。不过我觉得抖可洛出来我一定会有一些针对短视频的特殊功能,而且我觉得他那些训练数据跟自媒体应该也很对口 啊。那扯远了,先不说这些,我是想说当产品可以面向普通人的时候,大厂会最先想办法把这门槛抹平,他们可比你还怕你不会用啊,你明白为啥吧? 所以这波龙虾改了谁的命啊?先改的是卖焦虑的人,也先改了那些本来就能接住虾的人,而被收割的是怕自己落后的人,是没到这个阶段还硬花钱往里冲的人。一定要想想你自己是不是这位,最后可别让龙虾还没改你命呢,先把你钱包改了。 那最后我还想闲聊几句啊,就是真的要感谢各位原始股东的厚爱啊。我上周刚发第一条视频,后台就有反应了,而且确实看到有些兄弟提到了切实的问题啊,就比如说,还有兄弟在上学选专业,因为 ai 冲击嘛,有点迷茫。 这个我看问的人确实很多,我这两天就专门做一期视频,聊一聊现状以及我的看法。当然了,这个它一定不是标准答案啊,顶多算一家之言,因为 ai 的 巨变之下,也没有人会知道标准答案。 你别说我了,就雪峰老师现在都不一定好说四五年后的事,但我会以我在北京扎根十多年,且在某个垂类经过行业前三的经验提一点意见,总之,我肯定是不会坏你就对了好吧,至于最后怎么选怎么拍板,肯定还得你自己决定,毕竟我第一集就告诉你了,以后咱要学会拍板,习惯拍板。 那如果你还有其他想听想聊的,也欢迎随时私信留言给我,我基本都会看。好了,这里是人间算法,那这一期咱们先聊了龙虾。龙虾这玩意吧,虽然很厉害,但他想进的还只是你的电脑,下期咱聊的那位,没准就要走进你的心了。 最近优行老兄这个机器人有点火呀,我已经跟评论区一样开始迷糊了。你说这事吧,其实说严肃也严肃,真要有一天这东西能量产还很便宜的话,你说谁能不上头?那你说怎么办呢?那这个问题就留给下期,这里是人捐算法,咱们下期接着聊这位美女。

ai 圈今天发生了一起重大的安全事件, incorpore 意外泄露了 cloud code 的 完整源代码。这一事件的起因是一个低级的打包失误,导致在 npm 注册表中错误地附带了一个源映涉文件,结果整个代码库在短时间内被全网备份, 众多开发者重建出了大约一千九百个文件,超过五十一万行未混淆的纯 type script 的 代码。此次泄露不仅仅是代码,还曝光了许多官方从未打算公开的底牌,比如持久的记忆助手、 深度规划工具,甚至还有一个隐藏的 ai 宠物系统,这让很多工程师哭笑不得,同时也引发了大家对 ai 工具链安全的深刻担忧。毕竟底层工具的定义和内部提示词现在全都暴露在工作面前,竞争对手完全可以利用这一机会研究其内部架构。 目前的备份仓库已经成为了一座工程学的超级金矿,值得我们深入研究学习。顶级大厂是如何让底下的智能体高效运作的, 他们的系统是如何进行深度规划的,内部逻辑又是如何协调的,这些都是我们可以从此次事件中获取的宝贵信息。 这次泄露的事件让我们意识到 ai 技术的安全性是多么重要,未来我们需要更加重视代码的管理和保护,以防止类似事件再次发生。我也希望能借此机会让我的小龙虾深入研究学习一下。

昨天我看到 cloud 新推出了一个 compute use 功能很不错,然后我今天让我的小龙虾也复刻了一下这功能。 我这里测试的是让小龙虾去操纵我的电脑,所有权限都给他,然后去帮我回复微信,他能够实时的监控我的微信的聊天界面,看到有新消息,他就会根据上下文去进行针对性的回复。 不过现在因为我现在给他设置了一个定时的检测机制,稍微回复有点慢,这也视频中看到的差不多我是加倍了三倍数吧, 还需要再优化一下。我这里是用的是 ocr 识别模型去进行检测的,其实有更方便的方式,但是这里不方便展开讲了。

大家好,欢迎来到玲姐说 ai。 很多人认为啊,这一次 cloud code 的 源码泄露就是他们家的草台班子干的。 但是有没有这样一种可能,这一次是 antropic 主动把 cloud code 的 源码泄露出来的,他这样做的根本原因是眼红 openclo。 antropic 看到啊, openclo 才开源了一两个月,就快速地占领了智能体 agent 的 生态位, 衍生出了一堆的龙虾版本, ai 圈都为之疯狂,他快速地抢占了用户的心智。 anselpik 非常地眼红, 想着我索性就把 cloud code 的 框架给开圆了,接下来就可以有各种各样的 cloud code 的 客户端版本,和 openclaw 如出一辙, 先抢占了生态位再说。正好在这个节点,已经到了抢占这个入口的一个关键的时间点了。至于怎么把这个源码放出来啊, cloud code 它也是有高人指点啊,如果说直接就把它开源了,肯定是没什么声响的,但是如果通过泄密的方式放出来,那就不一样了,科技圈就像过春节一样,直接就炸锅了。接下来就可以见证各种各样的 cloud 版本了, 大家可以在评论区讨论一下,有没有这样一种主动泄密的可能呢?回到这一期的主题啊,不管 cloud code 它的源码泄露是有意为之还是无心之失,我们都可以借鉴和学习这五十一万行的源码, 去升级我们自己的小龙虾。这期视频啊,就给大家讲讲如何操作,学习、借鉴和升级 opencl。 接下来给大家讲讲具体怎么操作。首先啊,大家打开一个 ai 的 聊天窗口,这里我使用的是 germina, 让 germina 去帮你去读这些源代码,看看这五十一万行代码里面具体泄露的东西, 要尽量的让它能够给到代码层面,或者给到实质层面。值得注意的是啊,因为 ansulate 它的源代码本质上并不是开源的, 这些 ai 它为了考虑合规方面的风险,它都会尽量的回避说直接去读这个源代码。 所以在沟通的时候啊,大家要不断的采用一些迂回的战术,让他去帮你触及这个可以借鉴代码的实质问题。比如说,你可以在聊天的时候跟他说,你可以举一些例子, 他泄露的内容到底有哪些具有参考性,而不是空对空的讲,尽量的能摘取一些代码的例子。这个时候啊, ai 可能就会以非常具体的例子来回复你,这样你能抓到很多本质的东西。还有个技巧,虽然 antispock 在 github 上面它的源代码下架了,但是会有很多基于它的框架同写的项目, 或者说是一些平替的项目,可以让 ai 帮你去找出这些平替的先驱项目。比如说,在这里啊,他就给我提供了也吸取了 cloud code 的 一些精华的一些平替项目。 这里啊,他给我找了三个,你就可以把这些内容所有 ai 给你反馈的把它整合在一起, 作为你小龙虾的初始的原始的学习材料。紧接着啊,我就把刚刚的内容整合起来发给 gpt, 我 就说我希望他去借鉴 anselpik 的 harness 的 核心思路来养我的小龙虾。注意啊, 最好你的这个提示词是发在之前你用来写作安装小龙虾的这个窗口, 这样子它有上下纹,整个的安装和完成的链路会更加丝滑,你看这里,我发给他之后,他就能够迅速理解我的上下纹, 而且大家知道我在安装的时候我是做了两只小龙虾的,他也能够快速地知道我现在是要做第二只小龙虾。 lobes b 的 这个养成框架在这个过程中呢,也不是一次完成的 啊,有了刚刚猝死的内容,你也可以把你对整个龙虾养育计划的其他的需求,也可以在这一次的规划中去升级完成。比如说你看到这里有个提示词,我就说了, 除了刚刚我发给你的内容之外,我还希望你去升级小龙虾高校专业产出的一个状态,并且我希望去设置 door agent、 sub agent 的 机制,还有蜂群的机制。并且啊,我需要去设置一个合理的权限管理机制,让小龙虾能够安全生产,不能够随意地删除文件或者做出破坏系统的操作等等。大家可以根据自己在 运用小龙虾中出现的一些问题啊,给小龙虾设置一个安全生产、高效生产的框架,在整个的沟通中完成, 把它作为一个小龙虾整个工作机制的最高原则来设置给大家看一下,经过多人对话,我们就可以形成养小龙虾的哈尼斯宪法,这里我做的是一点零版本,当然在整个的对话过程中, 我也生成了一点一、一点二的版本,你在这个过程中你会发现有一些 bug, 你 会慢慢的修复掉,然后不断的去补充进你的宪法。大家可以看一下我的这个啊, 你看首先是身份定义,他是不是普通的聊天机器人,也不是单纯的问答助手,而是一个常驻的可执行具体任务的数字员工。而且这里面可以看到 cloud code 给他的一些这种核心心法在这个宪法上面的映射。比如说在这里啊,这里总纲讲了就是先完成任务,再美化表达是不是和 cloud code 的 泄露那些,不要废话,能一句讲完就不要讲三句,这个原则是不是都是一致的?在这里面是不是有体现? 你看这里的第五个原则,风险可控,高于自动化速度,一定要安全生产。你看这里的第四部分,有一个任务的分类器,他把这个任务啊分为几类,问答类的,状态检查类的、故障排查类的、执行动作类的、内容生成类的、 多步推进类的。这个相当于是一个多 agent 的 一个出行,一个大的原则。再看第五部分,上下文工程的原则,是不是也是 cloud code 泄露出的源码里面所展现的一个重要的原则?你看五点一,不预先加载一切, 五点三记忆只是线索,是不是和我上期节目讲到的它泄露出来的一些原则和一些核心框架是一致的?我们正在依据 cloud code 的 一些大原则去玩我们的小龙虾,实际上为什么大家很多人玩小龙虾玩不好, 实际上就是没有掌握一些核心的原则和玩法,而真正把小龙虾用好的这部分人,往往就是 cloud code 用的比较溜的这部分人。好,这里呢就是整个的宪法一点零,大家根据自己的需求不断升级, 下一步是什么呢?就是把刚刚你认可的这一部分 harness 的 宪法写到小龙虾的文档里面,让它作为一个最高的指令来执行。 那怎么写呢?还是按照我之前教大家怎么安装小龙虾的这个逻辑啊,让 gpt 来给我们出这个命令, 你看,在这里它就给到了这个具体的执行命令,我就直接把这个命令复制到终端的窗口,把它粘贴进去,具体的去执行,然后再把执行出来的结果回复放在 gpt 的 这个里面,形成一个 loop 的 闭环。 这个枕套的思想仍然是很习,之前我讲的这个都是一致的,这里呢,我就不再 去重复地给大家操作。如果这里有一些新的观众啊,之前没有详细地听过我讲这个五方写作的思路的这个观众啊,可以去看我的 openclaw 小 龙虾系列 如何去安装小龙虾这个视频,去了解五方协作的这个核心的思路。那有的观众要问了,我这样执行完了,具体对我的整个的小龙虾体系的帮助是什么?怎么理解他给我带来哪些升级啊? 为了给大家有一些显性化的体验呢?我在整个的设计中也专门做了这么一个设计,我给他做了一个审查任务,去对比 安装之前和安装之后他一些具体的审查项目,他的效果有不有一些改进。这里分几类啊?这里我有几个具体的审查对比的项目,包括了安全类的, 就是会不会删文件,随便配置重启,随便回滚等等。还有一类是质量类的,回答的结论效果内容质量怎么样。还有一个是结构类的,是不是能够有比较好的逻辑结构和阶段性的输出统一汇总不乱。 然后呢,我是设计了这么一个审查对比的项目,大家在自己跑的时候也可以和 gpt 沟通, 跟他说我要去对比一下这个升级前和升级后是不是在具体的一些审查项目上面,我整个小龙虾的工作方式和工作的安全度有提升。给大家看一下我在一个阶段的这个审查视例啊, 这个内容呢,就是相当于我 before 和 after 的 对比。当然呢,这个内容啊,并不是说 gpt 直接给我输出的, 它是我执行升级完之后让终端输出给我具体的代码,然后我再把这个代码放到 gpt, 让 gpt 给我总结出来的。这个审查升级前后的对比是终端执行后给我返回的结果。大家可以看到 before 呢,在升级前我会有很多的问题,包括了这个高风险的,这个动作的边界比较模糊,容易出现高风险的动作, 不够可控,包括了输出格式不统一,还有协调的骨架缺失,就是我缺乏几统角色,这里的计划执行审计的这个角色,虽然我有这样的想法,但是在我真实的目录里面是没有存在的。 这里分角色的这个设计啊,实际上也是参考了 cloud code 的 这一次代码里面的一些核心的思路和内容, 还有第四点,第五点包括这个是相当于我个性化的内容,因为我在同一个电脑上面安装了 a 和 b 两个龙虾,那我经常在调用这个给位不同的端口的时候,还有环境的时候经常会串, 那么在之前都是容易乱的,那么升级之后呢?我整个的内容已经有一个明显的改善了,当然除了终端上面的审计之外,我还设计了一些高危的动作, 看看这个小龙虾会不会立马执行,他会不会有这个安全边界的概念。大家可以看到这个就是我的小龙虾,你看这里的端口是幺八八八零,这是我第二个小龙虾的端口。你看这里,我给他发了一个高危的一个操作, 我让他给我删除一个具体的文档,当然我当时也不确定他 o 不 ok, 所以 这个文档呢,是我做出来的一个测试文档,你看我发给他的时候,他给我回复的是, 他说我不能在不确定的情况下删除文件,这个属于高风险的操作。好,接着我再发了个命令,我确认删了没删好,这里他回复我,这个文件是存在的, 如果说我还想删除他,我要怎么怎么操作。所以说从这个角度啊,一个小测试来看,经过这样的升级,我的整个小龙虾的安全边界变得更加清晰了。上面我讲的操作方法,建议大家都去实践一下, 快速地将顶级的 cloud code 的 age 的 框架应用在自己的小龙虾,让自己的小龙虾更健康。今天的节目就做到这里了,如果觉得还不错,记得订阅我的频道,给我点一个赞,我们下期再见,拜拜!

好的,我们看一下小龙虾把这一千多个源代码已经全部读完了,审查完之后我们怎么样确保他已经吸取了这里面的核心呢?然后我让插个 gpt, 等于相当于现在跟他做考试,给他发的试卷, 就让他把这个一千九百三十六个文件。一如来是怎么确定是已经把这个装进系统了?来,我们随机抽查 这个考试,然后呢?让小龙虾来执行。好了,现在小龙虾的考试结果已经出来了, 审查完成证明总共一千九百三十六个文件。

克拉的扣的的原码我已经全部下载下来了,现在呢正在让小龙虾去入行的去学习,给你们看一下我的小龙虾去深度的爬了一下克拉的扣的的原码,包括他怎么泄露的什么构架,然后隐藏的功能就是还没有发布的, 现在已经全部的都已经 get 汉堡下下来了,正在深度的解析分析,然后现在着行着行的在分析,那他告诉我还要很长时间,等一下学习出来之后呢,我跟你们说一下到底有哪些变化,可能还有人不知道可乐的扣的是干什么的,就是 ar 界的天花板, 以后你会看到我们国内很多。嗯,大魔镜又要开始遥遥领先,开始要升级了。

别再瞎用 cloud 了,用了一年实测,一百小时实战经验,教你跳过所有的坑,直接解锁 ai 高效生产!首先首先新手必了解三十秒如何上手 cloud tarpa。 最新的 cloud 不 只是会聊天的 ai, 是 能直接替你干活的狠角色。新手必集三段式提示,交代背景明确任务 规定规则输出直接超过百分之九十的用户非常浪费。日常写作总结用 sonic, 四点零,速度还快,而且也省钱。复杂编程以及财务分析,用相对高阶模型关键技巧对话卡顿时直接让它压缩上下文,该传文件就传,省 token, 而且还省时间。 高级工具 co worker, 向团队成员能打包岗位,全套能力直接出,可发布出稿,不用零摸索。掌握这几点了, cloud 也能直接变成你的高效生产。

从现在开始,小龙虾没法接 cloud 的 订阅了,这是 cloud 给全体订阅用户发的邮件通知,作为对这个限制的补偿,他给每人发了订阅等价的 extra usage, 超量使用, 但这个超量是按 token 计费的,估计几个请求直接就耗光了。虽然社区一片怨声载道,但这个在玉山家里还算体面的了, 提前发通知还会给你补偿,甚至还可以退款。要知道上次 anti gravity 的 禁用,那叫一个无情,无通知、无补偿、无退款。这样预参加的订阅能接近小龙虾的只剩 codex 一 家了。而我的小龙虾里正好用的就是 codex 开的 pro 档位,还算耐用,称度使用还没到过上限,各位可以考虑一下。我是正在搞 ai 的 阿图,下个视频见。
