粉丝2523获赞1.2万


好的妈妈,第一次 他在问他天气怎么样,他直接回答,忘了叫我妈。爱 就不会丢失了。他会话筒不刻在 dna。 这就是 clm 的 魔法,让 a 永远记得。

想用 clone 根本打不开,好不容易用上了,还被封号了。我发现一个页面他跟官网一模一样,重点他不是账号池,可以连续对话,不需要换号,还不限制托肯。我们现在先来看一下效果。先扔给他一篇五万字的毕业论文,看一下他的文件读取的能力, 能够看出来他现在可以秒读完,而且还可以提炼其中比较核心的一些内容,还可以跟 kol 的 进行多次深度的对话,从大纲到正文的全部内容丝滑连接,再也不用担心断联了。 再给他一张我之前要研究半天的科研图,可以看到他不到一分钟就把整张图的实验流程啊,数据含义啊,结果分析都给我讲清楚了。 接下来我直接把这一份写到一半的时尚代码交给他,可格式马上就准确的定位到问题。他把整个结构框架梳理清楚之后,帮我完成了整个代码的一个修改,这可能是目前最好用的格式网站了,如果你感兴趣的话,可以点点关注。

你跟 cloud 聊了三个月,他还是问你,你是谁? ai 助手最大的 bug, 不是 笨,是健忘。今天这个插件让 cloud 真正记住你 每次新对话,一切从零开始。你的项目架构,代码风格,个人偏好,全得重新说一遍 context window 用来做什么?重复自己 memory m c p 一个轻量级记忆插件,三个核心能力, memory store 存记忆, memory recall 搜记忆, memory forget 删记忆,所有数据存在本地零遥测,完全隐私。 安装只要一行命令告诉 cloud 记住我的项目。用 text script 编号,函数式编程,下次新对话, cloud 自动调取记忆,直接进入状态。 底层用 sq lite 加 f t s 五全文缩影,不需要向量数据库搜索照样快。支持 token 预算控制,自动裁剪记忆,不会称爆上下文。 m c p 官方协议和 cloud 原声集成, 让 ai 真正记住你。从这个插件开始。 github 搜索 cloud memory m c p 关注锋芒, ai 追星,不盲从,实测出真知。

在之前的视频中,我为大家演示过 cloud code 的 官方插件 real for wig, 使用这个插件,只需要用一条命令就可以将 cloud code 拉进循环里,从而让 cloud code 全自动运行,并且不断迭代,直到项目达到最优。因为当与 ai 进行长对话时,模型就会变得越来越笨, 在长对话中,错误的尝试,涌跃的信息会堆积在上下文窗口中,导致 ai 注意力分散。所以这个时候我们就必须重置 ai 的 大脑,使用 raf 实现一个 well 循环, 每次循环都能强制 ai 重新开始,也就是上下文重置,让 ai 通过读取文件,比如代码日制突读列表来获取状态。这样的话, ai 每次都是清醒的,而且项目的进度保存在文件系统和 get 历史中,而不是在 ai 的 对话里。 所以这就是为什么我们可以使用 rob 的 方式让 ai 全自动实现项目迭代。这个插件虽然效果不错,也是和小项目的快速迭代。 当把它用到更复杂的项目的时候,那么对于 token 消耗的控制就没有那么智能了,而且缺少实时可观测性,而且日制不够完善,还有一些用户反馈无法正常启动这个插件。 所以本期视频我将为大家演示另一款生产级别的 ralph wig 项目, ralph for cloud code。 它不是一个 cloud code 的 插件,而是把 ralph 变成可执行的 c l i 系统,它能让 cloud code 持续自主地迭代改进你的项目直到完成。 同时它还内置了防死循环和 token 过度消耗的保护机制,而且还有智能退出检测等功能。它把 rob 技术从会循环升级成更智能的可长期运行的开发框架, 而且还支持 tmax 实时看板,甚至还能直接导入现成的 pr 文档或者规格文档,让 cloud code 按任务清单执行开发。 而且我用路由 for cloud code 根据产品需求文档全自动开发了一个习惯追踪 app。 好, 本期视频我将为大家详细演示路由 for cloud code, 它的使用方式以及使用技巧,还有使用后的效果是怎样的。 在演示之前,我们先对比一下路由 for cloud code 和路由 wiggle 这个插件它们有什么区别,在什么情况下我们选择 wiggle 这个插件, 在什么情况下选择 rough for cloud 这个项目?它们的区别体现在多方面,比如说安全与控制。像 rough for cloud code, 它支持智能速率限制,还具有熔断器模式,能够防止失控循环,而且具有五小时 a p i 限制检测,能自动检测并提示等待或退出选项。还具有智能的退出检测,能实现完成信号的语义分析。 而 rayf 威克姆插件,它不支持速率限制,没有熔断器,也没有 api 与 token 限制检测。然后我们再看一下 rayf 4 cloud code, 它还支持实时 tmax 仪表板, 能够实时显示状态进度,还有日制,还具有 ai 驱动的语义理解,实现响应分析。它能够直接将现有的规格转为 ralph 格式,并且它是独立于 cloud code 的 外部框架,它并不依赖于 cloud code 的 插件系统。而 ralph wig 它没有项目模板, 它需要 cloud code 的 插件系统,而且它完全依赖于 cloud code, 所以 我们在需要通宵自主运行任务的时候就可以选择 ralph for cloud code, 需要快速迭代小型任务的时候可以选择 ralph wig, 需要处理现有的 p r d 规格文档,或者用于生产环境和团队协坐。在这种情况下,大家就可以选择 ralph for cloud code 用于实验或者学习场景。这种情况下大家就可以选择 ralph wig。 因为 ralph for cloud code 非常强大,所以我们可以直接将 ralph for cloud code 用于真正的项目开发和生产环境。 好想使用路由 for cloud code 非常简单,我们只需要根据官方给出的命令,直接将这个项目克隆到本地,然后用 cd 命令进入到这个项目中,再运行 install 这个脚本,然后就可以实现自动安装 好。我这里已经安装成功,但安装完成之后,下面我们需要对路由 cloud code 进行一下配置,比如说设置一下权限,还有请求速率等内容。 然后在终端命令行,我们可以直接用 nano 命令来设置一下 realf loop 这个脚本。如果不习惯用 nano 命令的话,我们还可以直接用 vs code 来打开这个脚本。我这里可以用 anti gravity 来打开这个脚本, 在这个脚本中有每小时的最大调用上限,这里我设置成了一百次,然后大家也可以根据自己的 cloud code 的 订阅类型来进行相应的设置, 然后这个参数是单次调用 cloud code 的 超时时间。在这个脚本中还有一个参数需要设置,这里是允许 cloud code 可以 调用哪些权限,然后这里是我设置的允许 cloud code 的 执行的这一些权限。这几个参数都设置好之后,我们直接保存并且关闭就可以。 下面我们还需要根据官方给出的命令来安装一下 tmax, 用户直接用这条命令进行安装就可以,我们只需要复制命令,粘贴到命令行进行安装就可以。 下面我们就可以根据官方给出的命令来新建项目进行测试。在官方给出的例子中,我们可以直接提供一个已有的 p r d 文档给 rough for cloud code, 也可以通过手动的方式,先用 rough setup 这个命令来创建一个空的项目。我们可以先测试一下创建一个空项目, 我们直接复制这条命令,然后回到终端命令行,直接执行这条命令就可以。好,这里创建成功,在这里它就提示我们需要修改 prompt md 这个文件,还要更新规格文档里的这些内容, 然后就可以运行这条命令来启动项目开发。好,下面我们可以打开它生成的这个文件夹,看一下这里面都有哪些文件。 在这里我们可以看到它生成了四个 markdown 文件,这四个 markdown 文件都是它生成的一个模板,用于给 cloud code 进行参考。下面我们就可以根据自己要开发的内容,让 cloud code 读取这些内容,然后根据开发需求来填写对应的这些内容。 这是手动的方式,下面我们还可以使用第一种方式,第一种方式就非常简单,直接给他提供一个 p r d 文档。好,下面我们可以看一下我准备的这个产品需求文档 要求开发一款移动端优先的习惯追踪应用,基于 react native 和 export 构建,这里是技术栈,这一部分是核心功能,然后这里还给出了数据类型,还有 u i u x 流程,这里还给出了开发优先级列表。下面我们就可以用这条命令来促使化这个项目。 我们直接在终端命令行执行 rev import, 再加上我们刚才的 p r d 文档的文件名,这里再跟上文件夹,然后我们直接执行,看一下效果,这里提示正在转换 p r d 文档, 然后这里提示创建了这几个文件。好,这里提示这个 p r d 已经导入成功,这里是给出来的接下来的步骤包括审查和更改它生成的这些文件,在这个计划文件里,这里就是生成的这些任务。 如果我们感觉他生成的这些文件内容没有需要修改的地方,没有问题的话,下面我们就可以来运行他给出的这条命令来启动开发。我们直接复制他给出的命令,复制完命令之后,我们再切换到他为我们创建的这个路径下,然后直接粘贴他给出的命令,直接运行就可以, 这里开始启动,这里我们要稍等一下。好,这里提示正在执行 cloud code, 下面我们可以回到项目路径来查看一下,可以看到这里它已经为我们初步化好了 react native 这个项目。 下面我们还可以回到项目中的 fix plan 这个文件,查看一下它目前执行完成了哪些任务。打开之后我们可以看到这一部分都已经完成了,像这样的话,哪怕对于再复杂的任务, 我们使用 rough for cloud code 都可以实现,不需要我们去监督就可以运行在状态,这里我们可以看到循环次数,这里已经是第三次了,然后我们可以再看一下他执行的这个任务完成了哪些,可以看到这些任务基本都快完成了,还有个别没有完成的,这里我们再稍等一下, 然后在这个循环次数,这里这里已经到了第四次,好在等待了二十分钟左右,这里完成了开发。好,下面我们在模拟器中查看一下他为我们开发的这个习惯追踪应用的效果。底部是这三个标签页, 然后我们点击添加看一下效果。比如说我们随便输入一个内容,这里选一个图标,这里给他选一个颜色,这里我们开启这个提醒,这里可以设置时间,直接设置好之后,我们点击保存 好,这里提示这个习惯追踪已经添加成功,而且我们还可以对这个习惯进行编辑,进行修改,还可以点击删除, 然后我们点击统计,这里就可以看到这一些详细的统计内容,这里有刚才我们添加的这个习惯,这里还可以按周按月按年进行分类。在设置这里进行设置,包括修改主题颜色, 还可以开启通知,还有触觉反馈,还有今天已完成哪些习惯,在这里还可以导出数据。像这样的话,我们就使用 raf for cloud 丛林为我们开发了一个习惯追踪的 app, 通过测试可以发现 rough for cloud 比之前为大家测试的 rough wig 效果要更好,最关键的是它支持我们直接用 prd 文档来促使化这个项目,而 rough wig 只支持简单的任务描述,对于复杂项目,大家就可以使用 rough for cloud 进行全自动开发。

antropic the cloud 模型目前最大的限制之一就是无法在不同绘画之间实现真正的持久记忆。这主要是因为绘画本身被设计为无状态的。 同时,与像 gemini 这样的其他模型相比, cloud 的 上下文窗口也较小。当一次聊天或编程绘画结束后,模型通常会在下次重新开始,这时 cloud 就 会忘记你的项目背景、决策以及以往的工作内容。 这意味着你不得不一次又一次地重新解释所有内容。这不仅浪费时间,还会因为重复上下文而消耗掉你的 tokens 无法用于真正有用的生成。这种不断地重新提示会消耗你的 token 配额,导致剩下的 tokens 更少用于真正的推理 工具使用和高质量输出。实际上,这甚至会限制 cloud 的 有效使用工具或产出更深入、更有思考性的结果。因为大量的 toc 预算都花在让模型重新跟上进度上了。但对此有一个解决方案, 这就是 cloud map。 cloud map 让 cloud code 变成了一个真正能在多次绘画中记录你项目历史的工具,这样你就不必每次都重新解释上下文了。 cloud memory, 或称 cloud mem, 不会在绘画结束时忘记一切,而是会自动记录 cloud 的 操作,包括工具的使用、 决策和观察,然后将这些信息压缩后存储到带有向量剪索的本地数据库中。它可以在未来的绘画中重新注入相关的上下文信息,让 cloud 真正记住你的项目。除此之外,它还允许你通过 memsearch 和 mcp 工具 使用自然语言搜索你过去的工作。而且最棒的是,它是开源的,安装后会自动在后台运行。 现在,为了测试持久化记忆的影响,我用同一个详细的仪表盘提示,分别在无状态的 cloud 绘画和起用 cloud mem 的 情况下各用了一次。结果在差异化方面确实有显著的影响。 在没有 cloudmail 的 情况下, cloud 能够深沉这个可用的仪表盘,但它遗漏了许多与项目相关的细节。当我滚动浏览这个仪表盘时,已经能看到一些错误,比如重复的通用模式,而且需要更多的迭代才能真正与编辑要求保持一致。 在这个提示中描述的高端产品设计并没有在这次生成中体现出来。而如果我将其与 cloudmail 生成的结果进行比较, cloudmedem 记住了之前的决策工具的使用以及以往绘画中的上下文。这使得生成的仪表盘更加简洁精准,并且遵循了设计约束。你可以看到每个组件之间都有细微的交互。正是提示中所期望的标志性功能也被准确地实现了。 当然,我并不是说它已经完美了,因为你可以看到这里生成的图标看起来并不是很理想。但就我所要求的所有功能而言, cloudmail 这一代都已经实现了。 这个差异清楚地表明,持久化记忆能够直接提升输出质量,减少溶于,同时让模型能够将其 token 预算集中在创造有深度可投入生产的 ui 上,而不是仅仅用来重建上下文。发布新功能其实很容易, 但发布正确的功能才是真正能带来改变的。现在有几个前提条件你需要提前准备好。当然,你需要确保事先已经安装了 cloud code。 如果你还没有安装,可以很容易的根据你的操作系统进行安装。然后只需确保你安装了 note, ds 十八或更高版本棒 uv 以及用于持久化存储的 cobalt light。 三。一旦你满足了所有这些要求,我们就可以开始安装了。 这非常简单,你只需要进入终端,然后用 cloud 命令启动 cloud code。 当你运行起来之后,使用 plug in 命令。然后你需要做的是通过键盘上的方向键进入插件市场。接着你要添加一个新的市场,方法是按下回车键, 这时你需要回到仓库或者这个文档。基本上你要做的就是复制创作者的最后一部分以及仓库名称。然后只需将其黏贴到添加市场的部分,并按下回车键, 这会克隆该仓库,然后你会在市场部分看到新的 cloud mail 市场。你需要按下回车键。你需要浏览这个插件, 如果还没有安装 cloud mem, 就 去安装它。安装完成后,建议你关闭 cloud code, 然后重新启动。这样你现在就可以在 cloud 绘画中使用 cloud mem 了。 这将让你在所有绘画中拥有持久记忆功能。现在将成为一个非常强大的功能,会在很多方面帮助到你。你现在可以看到 but 实际上正在运行。这也会让你通过 web 查看器 ui 来查看。 这个界面会为你打开,让你实际管理你的绘画,同时还可以让你与自己的记忆进行交互。现在 model 有 很多不同的命令可以使用, 比如直接在所有绘画中注入你自己的记忆,但这需要你非常小心,因为如果你注入了错误的记忆,可能会影响到以后的生成和绘画。 这也是为什么建议你在使用生产环境版本时,某些情况下最好关闭 cloud mem。 但现在 cloud mem 已经起用,你就可以完整地使用这个记忆功能,也就是持久化记忆。它能够读取你所有的文件 并对其进行写入。它可以编辑文件,使用 bash, club, grab 以及所有其他 club 的 工具,并且会通过本地的持久化记忆捕捉所有这些操作。你甚至可以通过斜杠命令来解锁上下文信息。你甚至可以提取现有记忆或者注入新的记忆。 现在你会看到有两个新的命令。 cloud mem do 可以 用子弹里来执行计划实现。这是一个非常酷的新功能。 还有通过文档发现来创建实现计划。就这两个功能可以协同使用。你可以看到我刚才请求创建一个落地页,它会使用带有 memo 功能的计划工具。你还可以看到它正在使用多个工具来帮助我立即完成这个任务。另外提醒一下, 如果你使用 n c p 工具,你将能够通过项目历史获得更好的记忆。搜索体验。你可以通过下方描述中的链接轻松启动这个功能。链接里有详细的设置方法。你可以看到 他已经为如何实际创建这个页面制定了多个阶段。所以我们现在就让他开始为我们创建这个落地页好了。开始了,现在我想给大家讲讲我为什么要创建一个落地页的背景, 这和持久化记忆到底有什么关系?其实我提前把我以前的落地页目录都注入进去了,并让他参考了所有这些落地页, 因为我希望他能记住我之前生成内容时的上下文,这样我就不用每次都重新解释我想要什么样的输出。因为很明显,如果你让任何 ai 模型生成一个落地页,他通常都会生成那种你不想看到的典型的紫色 a s s 落地页。 在这种情况下,每次你开始一个绘画时,它都能节省百分之九十五的 tokens。 要获得最佳的生成结果,需要进行更多的工具调用。 而有了记忆功能,你可以让 cloud 在 起用 cloud memo 的 情况下进行多达二十倍的工具调用。这也是为什么我能从中获得如此出色的生成内容。我不是在开玩笑,这是我用同样的提示词生成的另一个落地页。 在这种情况下,它能够利用我通过其他生成内容保存到 cloud mail 中的字体目录和 ui 元素。你可以看到它确实在一次性生成这个交互式落地页时做得非常出色。

你是否曾遇到过 ai 在 长时间对话中失忆导致回答重复或不连贯?克拉的 man 作为克拉的插件解决了这个问题,它通过智能捕捉工具,使用记录和生成域摘药,将关键信息注入到未来的对话中,让 ai 拥有持久记忆。 无论是代码决策还是 bug 修复,可奥特曼都能通过 s q r i 数据库还向量搜索快速找回相关背景信息。更有 windows mode 打破上校文限制,通过实时压缩历史记录,支持无限长的编程绘画,节省偷更成本,提升大规模任务的处理效率和连续性,让你的 ai 不 再健忘,工作更高效。

cloud code 绘画越积越多,想找历史记录却无从下手。今天教你一个命令,搞定所有绘画管理问题。 xcloud cs 最强大的功能是 fcf 交互式预览,输入命令后,所有历史绘画一目了然,时间、项目内容全都能看到。选中任意绘画,按回车, 立即弹出操作菜单,想继续工作就 resume, 想查看详情就 preview, 不 需要了就删除。你也可以用 drag 模式预览要删除的内容,确认无误后再执行。 总结一下, f c f 交互式预览能让你快速回溯历史,并协助你把 cloud code 的 历史绘画管理的井井有条。现在就试试 xcls s, 不要忘记一键三连。更多命令技巧欢迎关注 x command, 我 们下期再见!

cloud code 开始记住你是谁了,它们上线了新命令 insights 运行后, 系统会回看你过去一个月的对话记录,总结你的项目方向和使用习惯。重点不是回顾,而是给出工作流优化建议。 ai 不 再只是被动回答问题, 而是开始分析你是怎么工作的,从一次性工具变成长期协作者,这一步的价值比多加几个模型参数更大。

众所周知啊,使用这些网页版的 ai 的 时候,经常会出现这样的情况,就是一个聊天框的对话多了之后, 你查看你之前的某一个对话是有点麻烦的,像这样要一个个往上滑,非常的不健康。于是我就用 ai 写了一个浏览器插件,它可以快速定位到你之前的聊天记录,像这样 当然也可以搜索具体的关键词来定位到那一条对话,像我这个聊天有五十多条,如果用滚轮滚的话就会非常麻烦。 最后我这个插件也是发布到我 github 上了,如果有需要的朋友可以直接搜我的仓库名或者 github 的 名字就可以找到下载使用。

