如果给 openclaw 配备更强大的武器 cloudcoat, 你 会得到什么?这就是 edgeclaw 二点零。它是由 open bnb 联合清华大学、人民大学等国内顶尖学府刚刚推出的 openclaw 强化版本,一个更安全、更强大的 ai 智能体。 它有三个亮眼的核心能力。第一,成本优化。 edgeclaw 支持多模型配置,并可以根据任务复杂度自动路由不同的模型,复杂任务交由高性能模型处理。 据官方测试,该策略最高可节省约百分之五十八的 token 费用。第二,对话记忆与上下文管理。 edgecloud 可以 自动存档和整理你和龙虾机器人的所有对话记录,并进行主动推理,意味着龙虾机器人可以清楚地知道你是谁,你的喜好,以及它该使用哪些工具和 skill 去完成任务。 你再也不用一遍又一遍地重复相同指令。第三,数据安全。 hcl 把任务执行分为了三级,从 s 一 到 s 三,最高的 s 三级别,比如 api、 密钥等敏感信息,它可以调用你的本地模型来处理, 从而彻底杜绝信息泄露。有了这三层能力叠加,你的小龙虾才能称得上是完全体,从而变身为真正的生产力工具。
粉丝1.3万获赞21.9万

兄弟们,天塌了呀! andropic 把 cloud code 的 全部原码意外公开了,五十万行 type script 代码,五十九点八 mb, 只因为 m p m 包里少了一个 ant maker 文件。全球开发者傻眼了,但有一个人悄悄行动了, 这就是 cloud code。 github 史上最快破五万 star 的 仓库,仅用两小时发布当天收获五万五千八百颗 star 和五万八千两百次 fork, 创下 github 历史最快增速记录。 cloud code 是 cloud code 核心架构的完整开源重写版,包含 agent harness 工具、调度系统命令、原数据端口、工具库管理、查询引擎、摘要生成和完整验证测试套件,洁净式重写,完全合法开源。 更传奇的是,作者韩国开发者 secret gene。 华尔街日报报道的 cloud code 年消耗两百五十亿。偷看的用户凌晨四点起床,用 omcodex 驱动完成 python 完整重写。原来需要团队开发的架构, ai 驱动及小时复刻 项目,包含五大核心模块, agent harness、 调度命令系统、工具、管理、查询引擎和验证测试套件。同时, rust 高性能版本正在并行开发中,性能将大幅提升。 ipone 优先架构 rust 端口开发中, omcodex 驱动 ai 工作流翻译、 mit 协议完全开源 ipone cioi 直接运行 ipone 三 msrc main summary 即可上手。零门槛体验 cloud code 架构 开源,免费 tiktok, 搜索 instagram 斜杠 qq 就 能找到,点个 star 见证历史!关注账号,每天分享优质 tiktok 开源项目,不错过好工具!

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!

还在为重复写代码调试工具练头疼? clockcode 是 个超高效的开发工具级,用 rust 写成,帮你快速搞定真实项目中的脏活累活。 它上线不到一周就狂揽十万星,速度破纪录,亮点有三,一是基于 omacolex 构建,智能又清亮。二是命令行体验,丝滑,开箱即用。三是专注做实事,不是玩具项目, 无论你是独立开发者、初创团队,还是想提效的工程师,都能立刻用起来。这么猛的工具,你试过了吗?

之前用欧本壳,是不是觉得配置模型、安装、插件管理、绘画这些操作特别麻烦,每一次都要敲命令行,一不小心就会出错,而且用了一段时间后,根本不知道 ai 跑了多少任务,用了多少 tok 内存占用了多少。 openclaw 对 于没有任何代码基础的用户来说,使用还是有一定门槛的,那如果有一个 gui 管理界面,使用 openclaw 就 会变得非常简单。最近在 github 上发现了一个很好用的 openclaw 管理项目, clawdeck x, 这是一款专门为 openclaw 设计打造的桌面管理平台,简单点来说,帮你把原本需要写代码、改配置文件才能完成的工作,全部变成 u i 点击操作, 它支持 win、 macos、 linux 三大平台。那需要注意,这款工具目前还处于公测阶段, 完全免费开源,那感兴趣的可以下载安装体验一下。我们现在看到酷狗 deck x 一 键安装功能,只需要在 github 上下载对应版本的酷狗 deck x 安装文件,我这演示用的是 windows 就下载点 exe 文件,如果是 mac os 就 下载 d a r win 文件。此外还有 linux 版本,那需要注意,要选对适合处理器架构的安装文件,下载完成后打开会自动跳转浏览器,而这个界面真的是果味十足啊。 软件会自动检测当前系统有无安装 open file, 只需点击一下就会开启自动安装配置, 它这里甚至还帮你设定好了国内的镜像源,但实际使用的时候可能还是会出现网络问题, 这个就自己解决一下。整个安装过程除了会安装 open call, 还会安装 uv go 等等一系列会使用到的工具, 可以说考虑的非常全面了。安卓完成好后, pro dark x 会提醒进入使用向导,而在这个阶段, pro dark x 会使用 g o i 界面帮你完成模型、频道等等方面的配置。先来看到模型配置上 配置服务商,这里内置了百度、千帆、火山引擎、小米等等众多服务商,可以说基本包含了国内的大模型服务商。填入 api 密钥,选择模型,最后是确认配置, 那这里需要注意一点,智普如果是购买了 c d p l 的 用户,记得将 api 端点手动改为 c d p l 专用端点。 kolok x 这里使用的是默认 api 端点在模型配置这,如果你不确定自己的模型是否调用成功, kolok x 还提供了测试连接的功能,像咱们这调用 g l m 五就失败了。将模型切换为 g l m 四点七就成功了,同时也能设置主副模型,当主副模型自动启用副模型, 这些功能真的比 oppo nano 原声自带的好用太多了。下面是频道的配置,同样支持多个频道的配置,咱们这就选飞书,飞书频道会提醒先安装飞书插件,然后去飞书开发者平台配置机器人,它这里配置机器人的步骤可谓是非常详尽, 甚至还包含了飞速机器人的权限、 jason 样式、常见踩的坑等等提醒,而只要跟着一步一步走,就不会出现问题。除了强大的一键安装以及配置之外,更让我惊讶的是它将很多难以展现的内容直接以 g u i 界面展示, 只需要鼠标点一下就能看到,比如实时展示当前活跃绘画、今日 top 使用量、累计预估费用,还能看到网关运行时间、内存占用、 cpu 使用率等等,这简直比专业的监控面板还要专业。 除了可以查看实时数据之外, pro 大 凯 x 还提供了非常专业的配置中心, g o i 界面。如果你的 oppo 早已经在使用中,那它也能通过这个配置中心修改系统配置。 这里还提供了预制的模板中心,可以一键设定你的小龙虾性格,这下再也不用去网上照抄别人的性格配置了。那甚至还提供了语音配置功能, 可以一键启动 tts 配置、 tts 服务商、语音转录、语音唤醒等等功能,那开启后,你的小龙虾就可以在飞书中给你发送语音文件了。如果你的配置已经非常完善,不需要再修改了,但对于技能的使用还不是很了解。 cool dock x 还内置了技能中心,除了官方的 cool hub, 还能使用腾讯刚出的 hub, 咱们用户可以在技能中心搜索并安装自己需要用到的技能。 cool dock x 还有一点很贴心, 全英文的技能介绍,自动调用模型,翻译成中文,不需要咱们用户再来配置 kolhab 的 插件,还需要复制安装指令发送给 open kol, 但腾讯的 kol 可以 直接一键安装。那你是不是给小龙虾定了很多定时任务,但到底有没有在运行,或者说有没有 bug, 只能依靠自己的记忆去回忆。小龙虾有没有 bug, 只能依靠自己的记忆去回忆。小龙虾有没有 bug, 只能拯救了我们这种任务新人, 打开调度任务,你设定了多少任务,全部通过 g u i 的 方式呈现在这 i 若还是 ok, 上次执行是什么时候,下次执行是什么时候,全部一目了然, 还能一键禁用、一键运行,删除途径化编辑。呃,这真的是太方便了。那想要看系统的运行状态,以往只能通过终端查看,而在 q o d k s 中还内置了健康中心, 只需要打开就能获取当前运行状态有无异常。像我这里就提示有几个高级异常,查看了一下详情,应该是之前的频道插件一直没有配置,那在配置中心删除掉即可修复。 q o d k s 还有很多实用的功能,像知识中心中的多代理协助,只需一键运行就能配置好多代理任务,非常方便。咱们这就不一一介绍了,如果你感兴趣也能自己安装一个, 那我让我的小龙虾借进来体验了一下,他给的评价让我有点意外,原来不止我们人类嫌弃命令行管理,欧奔科,连 ai 都在嫌弃,那最后多说一句,目前还是 beta 版本,可能会遇到 bug 以及稳定性问题,切勿用于生产环境。 那么 ok, 以上就是本期视频的全部内容,希望对你调教小龙虾养虾有一定的帮助,让我们下期视频再见!

兄弟们,今天凌晨 cloud code 的 五十一万行源码不小心泄露,引发轩然大波。基于泄露的代码,有开发者开源了这个幻壳项目, cloud code 不 到十二小时就已经收获八万 stars, 七点九万人疯狂搬运克隆。这套代码泄露的内容包括完整客户端代码 agent 的 架构、全线逻辑、 api 交互、任务调度等。尤其是 cloud code agent 的 核心设计全曝光,四十多个功能模块组成工具层含盖文件读写、 bash 执行到子 agent 的 生成。 一个近五万行的推理核心 query engine t s 负责思维链调度,还有多智能体调度器 coordinator 和 ide 桥接模块。可以说,当其他大模型还在卷跑分卷多模态效果的时候, antropic 已经尝试在系统底层悄悄搭建一套完整的数字员工生态。有记忆 curious, 有 规划能力 ultra plan, 有 团队协助 coordinator, 甚至还有情绪陪伴 body。 这套史诗级原码泄露,或许会在几天后给各家公司的 agent 带来大版本更新,感兴趣的朋友们也赶紧去收藏起来吧!

血泪总结,我用 openclaw 一个月,总结了这六个让你从玩具变生产力的配置原则,厉害!哈喽,大家好,我是姚鹿行。 前两天有个同学问我,姚老师,我 openclaw 装好了,但用了两周,感觉就是一个贵一点的 check gpt, 咋整呢?我说你配置完 agent jason 就 觉得齐活了,他才反应过来,那还要配置其他的吗?这一步你都没搞对,后面全白搭。 为什么你的 openclaw 像降智版的拆 gpt? 很多人装完 openclaw, 连上模型能对话了,就觉得可以爽了, 结果用了一段,发现完全不计预期。问题出在哪里呢?是因为你把 openclaw 当拆的 gpt 用了,两者的玩法完全不一样。今天我来给大家分享一下我踩了一个月的坑总结出来的六个配置原则,帮你的 openclaw 从玩具进化成真正的生产力搭档。 原则一,别在售马当里写小作文我第一次写售马当,洋洋洒洒的写了两千字, 结果龙虾根本记不住。售马当不是简历,而是行为宪法。他只需要回答三个问题,你是谁?风格是什么?什么情况下你会拒绝用户?超过五百字就太长了,龙虾会选择性的失忆。我的售马当现在长这样, 就是这么简单,但效果比之前两千字的小作文好了十倍以上。原则二, memory markdown 要分层,别堆在一起 open cloud 的 记忆系统很强大,但很多人都用错了, 他把什么都往 memory markdown 里边塞,结果文件越来越长,解锁效率越来越低,最后变成垃圾堆。正确的做法是分层记忆。举个例子,这样解锁的时候更有针对性,不会一团糟。 原则三,模型切换不是用斜杠 model, 而是用场景分群。很多人知道斜杠 model 可以 切换模型,但很少有人意识到频繁切换模型是反模式的。更好的做法是按场景分群,每个群绑定固定的模型。 我的 telegram 分 组如下,每个群有自己的上下文,不会相互干扰。原则四,心跳任务和定时任务不是一回事,很多人搞混这两个概念。 定时任务是到点了执行一次,完事就结束。心跳任务是定时唤醒 agent, 让他主动检查状态,汇报工作。让 open cloud 从一个等你问的工具变成了主动找你的助手。 原则五,别让龙虾自己改自己的配置文件。这是最坑的一个,我第一次让 open cloud 改配置,他直接把自己改挂了。而且如果你自己开着自动重启的话,他有时还会死循环,疯狂消耗 token。 所以 我总结的教训是,关掉自动重启配置文件,让 cloud code 改 克拉扣的会评估修改,兼容性不会乱来。 oppo club 自己改自己的话,很容易翻车。原则六,备份不是可选项,而是必选项。我见过太多人因为没备份而哭的, memory macdunk 被搞坏了,之前交的东西全没了。 换服务器忘了迁移配置,从零开始调教,误删了工作目录,几个月的记忆没了。以下是我的备份策略,花五分钟配置好备份,能省你几十个小时的重新调教时间。 最后,从玩具到生产力的关键。说了这么多,核心就是一句话, open club 不是 配置完就能用的,它是打磨出来的, 当你打磨好了,它就从贵了十倍的拆 gpt 变成了真正懂你的 ai 搭档,这个时间的投入非常值,感谢大家三连,谢谢大家,记得关注再走。

兄弟们, cologold 成历史最快十万新项目啊!已实现 python 和 rust 的 改写, cologold 再也封不掉了。一晚上十个 a 镜台把 t s 替换成了 python 代码呀! python 版架构逻辑啊,和 cloud code 一 模一样啊,使用 codex 改写啊!马克斯送了管购的 rocket tool 呢,兄弟们赶紧研究起来啊。

只要复制粘贴,龙虾就能一键安装,把我的这几句提示词记好,就能掌控龙虾从安装到卸载的所有问题。 直接跳过各种龙虾的复杂操作阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会如何做漫剧、做自媒体等等,甚至可以让安全家务也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的外部 ui 界面,然后我们再打开准备好的安装文档,复制这个提示词发送龙虾就会连接到飞书, 发送之后,模型会帮我们自动安装飞书插件连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具, 相当于龙虾的虾钱,但现在刚装好是残血版。接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态, 测试一下,让他打开我们自己的 chrome 浏览器,搜索今日热点新闻,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示 已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂怎么工作,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他学习的本地文件路径。发送后稍等一下, 龙虾就可以直接吸收这本书的精华内容。接下来我们测试一个你工作的相关问题,看看他有没有用你的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于你工作的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 g p t 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了, 我们虽然无法彻底解决安全风险,但可以做个看门狗,用这类方式给安全做个加固。用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来,我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 reddit 热帖摘要,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找并安装它。自动安装好了之后,我们可以发个消息测试一下,稍等一 下,他会使用这个 skills, 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 a p i t 才能激活的 skills。 现在大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的,是不是很简单。 这期教程,我们把龙虾从安装到满血,从进化到安全加固,全程只用自然语言,没用一行代码就完成了。文档和提示词都开源分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留。

clo? clo 还是 clo? 你 肯定被各种各样的龙虾刷屏到烦了,几个月过去,热度丝毫没有退去,愈演愈烈。今天这期我们来点不一样的,不是教你怎么安装和使用 clo, 而是带你十分钟开发一个 mini 版龙虾, 一共只有三百行代码,我不想讨论龙虾到底是有用还是没有用,而想带你从用户视角切换到我这样的从业者视角。我们一起完成 mini 版龙虾的开发之后,相信你对于它的原理以及能力边界的理解能够再上一层台阶。看百变不如实践一变,马上开始。 一、接入大模型,赋予大脑我们要开发的 mini 版龙虾 mini cloud, 第一步就是接入大模型。什么是大模型,相信大家已经不陌生了,就是, 总之大模型就是我们迷你版龙虾的大脑,用来指挥这只龙虾的所有后续动作。因为是迷你版嘛,我们不需要支持配置各种模型厂商,就选择一个国内友好的智普模型吧。先用三十行不到的代码连接智普模型,配置我的智普 api key, 然后就是将我们输入的内容以后台接口的形式发给模型厂商,再将响应的内容展示出来,再无限循环。看到代码不要慌啊,你不需要照搬代码,跟着我了解原理就可以,思路永远比实现细节更加重要。验证下效果,先启动我们这个程序,打个招呼,叔叔你好, 他回应我了,再问个有难度的问题,我喜欢吃糖,为什么?一通分析之后,他告诉了我们答案。先不管答案怎么样,这只虾已经有了,大脑也能开口说话了, 你发消息,大脑响应,再将消息转回给你,完美。二、让大脑有记忆在刚才的程序里,虽然可以无限对话,但是每次对话都是一个全新的请求, 这意味着这个大脑不知道你是谁,不知道你之前和他聊了什么。比如我输入刚才聊的啥,不出意外他啥都不知道。我再问你,我喜欢吃啥? 明明刚才我说了喜欢吃糖,但是他也不知道,挺睿智的是吧?作为一个可捞智能体,这样肯定是不行的。那该如何解决呢?非常简单,你将所有的对话记录存下来,每次新对话,将之前的对话记录原封不动的发回去不就好了吗?加个两三行代码就能搞定。我们再验证一下,启动这个程序, 先告诉他我喜欢吃糖,闲聊几句再问他我喜欢吃啥来着。哎,这次他知道我喜欢吃糖了,也就是他拥有了多轮对话的能力。 但这个时候问题又来了,当我关掉这个对话之后,他就忘了我们所有的聊天上下文,但我希望他能持久的记住我喜欢吃糖。该怎么办呢? 好说,我们先新增两个文档,一、 agent 点 md, 赋予他身份设定你是个友好的助手,每次回复都需要押韵。二、 user 点 md, 告诉我我的用户身份设定我喜欢吃糖。然后在代码里要求大模型每次对话前必须读取这两个文档, 同时赋予大模型自主修改这两个文档的能力。也就是迷你龙虾的大脑可以根据和你的聊天记录自己记下来,他觉得重要的东西。好再验证一下全新的对话,问他我爱吃什么? 哎,他知道我们爱吃糖,而且回复还是押韵的,符合我们在 agent 点 md 里对他设置的要求。再告诉他,我们不仅爱吃糖,还爱吃牛肉。回到 user 点 md 文档,发现已经被改了,记录下来了,我爱吃牛肉,完美! 这样一个有记忆、有人格的 mini 虾就搭建完成了,它不仅仅是一个大脑,还拥有了更加充分的上下文,也就是 context。 context 里有历史的对话记录,以及你的人设,虾的人设完美。三、进入 tours, 赋予它动手能力。 这个时候,虽然我们的龙虾已经很聪明了,但他只能对话,不能够操作外部世界。比如我在目录里贴入一张大家爱看的美女图片,然后问他这是个啥,他说他不知道。我再让他生成一个 ppt 给我,主题不重要,他也会告诉我们无法生成 ppt, 他 只能将文字发给我。这就是所谓的钢中之脑。 现在的他虽然很聪明,但就像一个身处在培养民里面的大脑,无法真实的影响外部世界,或者说他没有手,没有躯干,怎么办?讨饭,我们先赋予第一种工具,叫做帮身拷领,说白了就是我们提前写好一些脚本,然后这个刚中之脑会在合适的时机调用并触发这些脚本, 三十行代码就能解决。首先,我们定义了一堆工具,列出文件,读取文件、创作文件、删除文件,读取图片,再提前写好这些脚本,具体如何执行。回到 agent 的 md 里,告诉他现在已经有了这些工具。重新启动。问他目录下有哪些文件,哎,答出来了。 再问他图片里的内容都是啥,也答出来了,我们好好验证一下。金发女子、白色连体衣、过期长袜,这些都对了。下一步,我们再支持一下近期热度很高的 skills。 这个更简单了,在目录里新增一个 skill 文件夹,将我们要的 ppt skill 拷贝进去,在代码里加上大概二十行,让他每次执行前都能找到已安装的 skill。 好 了,再来试一试,生成一个两页的 ppt, 分 析下马斯克最近的言论。你看,很快就生成出来了,我们看看生成的质量,嗯, 嘿嘿,因为这个 ppt 的 skill 是 我随便写的,我们可以替换成一个社区热门的。再试一下,生成一个 ppt, 分 析马斯克最近的言论。好,深圳完成了,我们看看这回的效果,要好太多了。完美到这一步,我们的 mini cloud 已经具备了 toos 执行的能力。 toos 并不是大脑内部的,而是挂载在大脑外部的, 随着 twos 的 丰富,就可以无限变强。完美四定时任务与心跳这个时候我们已经很强了,用了一百多行代码,就模拟了去年 manas 这样的产品架构。但有人会说, cloud 产品的一个特点就是会自主执行任务, 也就是他会主动执行一些任务,主动给你推送消息。这是怎么做到的呢?很简单,看这二十行代码,支持新增和存储定时任务,同时后台有一个进程,在指定的时间点给你推送消息,启动程序试一下,告诉他五秒钟,提醒我喝水,稍等下 一条一条一条又一条。你可能会说,这不对啊,我看别人的龙虾不需要这么死板的提醒,会在某些时候自然的推送消息,看着更智能,这不是很简单吗?我们刚才新增了这一块喝水的定时任务,是你主动要求他保存的, 我们再给大脑一个定时任务,比如每个半小时总结他和你的对话内容,让他自己判断要不要在另一个时间点定时给你发消息不就好了吗?这块我就不掩饰了,但是原理都是很简单的,说的好听点就是自我净化。定时推送说的简单点就是高级一点的定时任务,但是不管怎么样,完美, 嘿嘿。五、接入飞书、叮叮等对话渠道。哎,有人又会说了,别人的龙虾可以在叮叮、飞书甚至 qq、 微信里聊天呢。你这个黑乎乎的是啥?太丑了,不想用。但要我说,这其实更简单,你可以理解,不管是飞书、叮叮还是网页版,本质上就是套路层,消息转发的中间层, 你的消息呢?通过这个中间层进行转发和接收,先包一个网页,现在看看就有点像回事了,对吧?你好哎,可以正常回复,每隔十秒提醒我喝酒。 哎,提醒我喝酒喝酒还是喝酒?你看到这一步,我们的 mini club 包了一层美观的外壳,好像也不算很美观,主要是我懒得去调样式,但至少他已经像个样子了,各种能力也都有,从性价比的角度完美。 最后总结,最后,不知道大家有没有发现,这个 mini 版龙虾的开发过程就是二零二三年到现在整个 ai 的 进化过程,一开始呢,只有一个大模型,只能一问一答,后来发展出了可以调用外部工具,不管 m、 c、 p 还是 skill, 都是工具的一种。 到现在不仅可以调用工具,还有了定时任务,也通过定时任务实现了所谓的自我进化,以及开始涨到你的聊天工具,比如说 qq 和微信里,他更像一个人了。 短短的三百行代码模拟了最近三年 ai 的 发展历程,大家也看出来这三年 ai 的 发展速度越来越快,但是并没有给人减负,而是带来了更多的焦虑,以及让人越来越老。看到这里的我相信也是花了很多业余时间来学习 ai 的, 大家一定能够深刻的感受到 ai 的 发展速度超过了你的学习速度。我不喜欢贩卖焦虑,相反作为一线的从业者,希望以原理科普的方式缓解一点大家的焦虑,很多热点有没有必要追,是不是噪音在大家知道原理之后就能够自我分辨。好了,喜欢我的话,请给我宝贵的三连,我们一起进步。

那如何把可乐扣的接入更便宜的国内大模型呢?那今天给大家分享一个技巧,只需要两步就可以让你的可乐扣的接入国内大模型。第一步,安装 cc switch。 那 cc switch 是 什么?以及具体如何使用,我在前期的视频中已经介绍过了,那如果不知道的朋友可以再去翻一翻。简单来说呢, cc switch 就是 可以方便的帮你在不同的模型厂商之间进行切换,避免你手动去改配置。 那已经安装过 c c switch 的 同学,记得一定要把你的 c c switch 更新到最新的版本,因为最新的版本预设了很多的国内的 api 供应商,那你配置起来会非常的方便。 那第二步,我们只需要选择一个国内的模型厂商,把它配置填进来即可。那这里我们以 mini max 为例,那我们在 mini max 的 开发者后台先把 api k 给复制出来,然后在 c switch 选择 mini max, 把 api k 给填进去, 然后点击添加即可。那在首页的面板只需要点击使用,那我们的模型就切换到了 mini max 了。那我们回到命令行看看效果, 使用 model 命令查看当前是什么模型,我们看已经是 mini max 二点五了。好,那我们看下 api 能否正确响应, 那已经成功了,那看是不是很简单。那你现在的 color code 已经开始可以正常使用国内的大模型了。那如果你在安装的过程中有遇到任何的问题啊,欢迎在评论区告诉我,我是星星,每天分享一个 webkit 的 小技巧。

就在昨天, ai 开发者圈子里发生了一场八级大地震, anthropic 犯下了一个极其低级的失误,导致他们当家 ai 编程助手 cloud code 的 源码惨遭泄露。随着开源项目 cloud code 在 github 上一夜爆火,各种离谱的传言满天飞,今天我不废话,直接帮你打破关于这次事件的五个最大误区。 误区一, cloud 大 模型泄露了,可以免费用了?大错特错!这次泄露的根本不是 cloud 模型的底层权重参数,而是它的命令行客户端界面。打个比方,泄露的是带高级自动驾驶系统的汽车外壳,不是最核心的发动机。你想跑跑代码?抱歉, apikey 还是得填 token 的, 钱一分不能少。误区二,这项目就是泄露的原始代码,并不是官方最初不小心把 type strip source map 文件发到了 npm 上, 原码被传到 gitap 后,立刻被官方用 dmca 版权法投诉下架。而爆火的 cloud code 是 极客大神,看懂了逻辑后,用 python 和 rust 进行的静态重写,没有版权争议,合法开源平替。那么它为什么爆火?价值到底在哪?两个字,偷师。 这是全世界第一次能如此清晰地看到顶级商业 ai agent 是 怎么设计的?长文本怎么管理?工具怎么编排?官方底层的提示词怎么写的?全网开源了,甚至里面还暴露了四十四个隐藏开关,比如二十四小时后台运行的 carols 和用来深度规划的 alt 喷泉,简直是 agent 开发者的无价之宝。最后一个误区,官方 cloud code 本身不就免费下载吗? 这项目对我们普通人是不是毫无意义?没错,如果你只是个想拿它写代码的普通终端用户,老老实实用官方原版,最稳定最省心。但如果你是极客或者 ai 开发者,这就是一把解剖顶级产品的手术刀。 官方闭源黑盒不让你改提示词,还会偷偷收集遥测数据。现在有了 cloud code, 你 可以随意模改底层逻辑,强行接入本地免费的拉玛三或者通一千万,打造一个完全受你掌控的私人顶级编程助手。这是一场由官方事务引发的开源狂欢, ai 发展的齿轮又转动了。

当你听到 cloud code 源码泄露的时候,你打开 github, 点击搜索框并输入 cloud code。 这是一个仅仅发布两个小时就突破了五万 stars 的 神级项目。项目捕捉了 cloud code 的 代理框架的架构模式,且不复制任何专有源代码用拍摄完整重构了 cloud code。 该移植版本比以前更接近了规范的根条目文件。目前 russ 移植还在开发,预计今天会合并到主分支,这将是该项目的权威版本。 ai 时代护城河不再是代码,而是数据分发加生态。关注我,了解更多前沿信息和技术!

hello, 大家好,我是老明,我想跟大家分享一下我真实使用 open cloud 的 感受, 就是这个软件呢,我已经安装部署好了,导估了我大概三四个小时才搞好。它的安装的难度其实对于普通人来说还是蛮繁琐的,远远不像网上讲的说什么一行命令就可以安装,那是建立在你所有的这个插件啊,所有的背景环境啊,以及其他的这种什么 语法都调试好的情况下。但对于一个普通人来说,你安装这些前置的脚本,前置的这个呃配置环境也是需要花费一定时间的,而且中间会遇到很多 bug, 你 需要一个一个去把它给调试完毕。 而且就算你安装好了这个 open, 可能很多人还不会打开,因为它很复杂,它是需要在终端里面打开一个外部 u i 的, 然后还要把它连入什么 discord 呀, telegram 啊,什么 imessage 这些东西,它不是那么容易的。然后我呢,我是全程用的 cloud code 帮我安装的 open cloud, 就是 我是拿呃 克拉的 code 接入了 g m g l m 五的大模型,借用它的力量才帮我成功的部署好了。我问卡,如果说我自己不借助其他的这个 ai 的 这个力量的话,可能很难去把它部署好。 这是第一个就是前置的部署的难度比较大,对普通人来说会花费很多的精力和时间,会让人心态爆炸。第二个就是我使用下来头肯的消耗量非常大, 就是我让他去执行一个很简单的任务,他要花费很多很多的 talk, 就是 我买了那个智普的 g m 五的一个 max 套餐,我就用了几个小时吧,基本上就给我烧了, 好像是烧了将近一周的额,额度我记不太清了,反正是这个量是非常非常恐怖的。这是第二个点,就是 token 的 消耗量非常大。第三点呢,就是我不知道该不该说哈,我不知道是我的网络的问题还是 呃,大模型春节期间的响应的人数太多了。就是 就是,我用了 g m 五的大模型接入到 open code 里面,响应的速度非常非常慢,我问他一个问题,基本上都是三四分钟之后才回答我的,这让我有点受不了,这个响应速度太慢了。然后我被迫无奈,我把它换成了 mini max 二点五,这下的话速度很快,但是 mini max 二点五它的智能相对来说执行复杂任务的这个能力又相对来说不如 g m 五, 所以说这也是我觉得值得勾背的一点。就是主要就是三点,第一前置安装难度我不小,第二点是透坑消耗量大,第三点是响应速度比较慢。 那我也不扯什么其他的,什么安全性啊,权限太高啊,这些倒无所谓,因为我是 我们可以把它用在一台全新的麦克迷你上或者一台全新的设备上。这个倒无所谓,主要就是我说的前三点,一个安装难度不小,比较复杂,第二个就是投可消耗量大,第三点就是这个响应的速度相对来说比较慢,而且再补充一个第四点,就是他能做的 很多事情,基本上你在电脑上是一样能做的,他只不过给你提供了一个七十二小二十四小时的一个移动终端的助手而已。

今天给大家分享两个项目,专门是用于武装你的 cloud code 和 codex, 它的作者都是一个人,都叫 o my cloud code 和 o my codex。 我 们直接看一下这个 cloud code, 因为 cloud code 它有个 type 模式,效果会比 codex 要好一点。虽然 codex 它的这个模型感觉会更聪明一点,但是 cloud code 它各种配置啊,还是要更好一点的。把这个装上之后,它的功能就会非常的强大, 首先它可以根据你的任务给出这样的一个配置啊,还是要更好一点的。把这个装上之后,它的功能就会非常的修复, 它大概是这样的一个流程,而且每个里面它都有这种团队成员角色,它一共是三十多个,它收集了三十多个,所以说它还是效果非常的好。然后它是可以去协调其他的一些 c i 的 命令,比如说 codex, 比如说 jimmy, 比如说你用一些思考,可以用 codex 这种计划的搭建,比如说像有一些是前端 的一些内容,其实就可以用 gemite, 然后实现的话可以用这 cloud code, 但是它综合都是用的 cloud code 来进行综合的,并且可以进行并行执行啊,因为 cloud code 的 team 模式它就是原生支持并行的,还有其他的一些 hock 啊。 这个分阶段的方式其实跟这个病型是一起的,它用 opus 的 模型,它自己会去判断各个任务之间是否有依赖,它一共有三十二个这种智能体,那我们看一下它是怎么样去安装啊?其实这些都不用管,你直接把这个项目直接给到 cloud code, 它就可以安装了, 然后都推荐大家可以去用这个 team 模式,因为我也是开源了一个专门去创建 team 角色团队的一个项目,叫 cctime creator, 我 认为它这个里面有非常值得借鉴的。首先第一个 他的这些团队成员可以借鉴,他的一些提示词可以借鉴下来。还有就是他的模型的智能路由,因为你必须要去测试了之后你才知道什么模型适合做什么样的一个角色项目。但是他里面也有一个坑了,他也是没有提到的,因为像现在的 cloud code, 他 一照上下文的是 o p s, 如果你授权 o p s 去做执行,他默认是继承的一照上下文,他的成本就很高,他要达到一照的时候,他才会去压缩上下文, 其实在三百 k, 五百 k, 它甚至跟 sonata 的 这种能力是差不多的,但是你要一直到一照上下文,所以说它的这个性价比极差,这也是一个比较大的坑。所以说我的这个项目都是默认 这几个角色都是默认的这个 sonata 的 模型,这也是有一定坑存在。再就是它的这个技能,它技能是可以沉淀下来的,自动的管理技能,自动的进行学习,而且它技能列表也是非常多,这个也可以进行一些借鉴。但是我认为它这个还是有一些欠缺的点在哪里呢?它是没有一个叫 持久化状态,或者说叫文件存储的,它是没有详细去说明它这些任务啊,这些派发的任务啊,进度啊,这些是保存在哪里的,所以说这个点也是它这里面不太好的,它没有借鉴这个 plan with fails 这个项目, 这个项目的话才能让这些智能体在压缩了上下文或者说重新启动的时候,它能继续之前的一个状态进行下一步的执行。 但是它这个就纯是在依赖 cloud code 的 一个能力了。不过整体来讲,它这个东西还是非常完整的,很多东西它都已经加上去了,之前非常火的这个持久进行执行的模式也加上去了,然后它的一个正规的工作流程的编排, 先要 plan, 再去按照这个 plan 做计划维护,再做修复。整个流程它是做的非常好的,但是它 codex 就 没有那么多 codex, 它基本上就不像 cloud code 的, 它是支持这个 p 模式的, 我也一直在找这个,有没有哦。一些框架可以把 codex 直接转化成类似于 tim 模式的方式,因为你起这种子智能体,其实你 token 消耗比 tim 模式还要高,因为其子智能体它都是一次性的, 那很多已经拿到的上下文下一个任务的时候,它其实是可以附用的,但是你起这种子智能体,它状态是没有保留下来的,所以说它做并行处理,做子智能体的时候,它的 token 消耗很恐怖, 而且很多时候他的上下文其实是不饱满的,所以说死神人体你只能把它当成一个工具来用,你没有办法把它当成这种角色,不同角色不同员工之间的这种协调,只有这个 cloud code 的 能去做这样一件事情。 ok, 最后也给大家推荐一下我这个开源项目, cctime quitter, 把这个装到这个 skills 里面, 你去跟他沟通,他自己去创建这几个角色,当然你让他创建其他角色也是一样的,其实他是学会的这样的几个原则。 比如说这个是后端的,这个是前端的,这个是研究调研的,这个是端到端测试的,这个是 review 的, 这个是管理所有东西的管理文档啊,管理这些代码有没有一些技术债啊?这种东西的。

全新的 ai agent 工具诞生了,它就是 cloud code get up 新开源 ai agent 工具 cloud code, 短短一个小时斩获四万九的 star。 它是 python 重新编写的 cloud agent 工具,作者迅速使用 python 改写 cloud 源码, 并在努力使用 rust 重新编写,以达到更好的性能和平台兼容性。这将是今年又一值得关注的项目,快去看看吧!十分感谢你的关注与点赞,我将持续输出更多 ai 内容。

这可能是我目前为止看到过最全的 cloud code 配置合集,经过十个月生产环境实战打磨,全套配置直接拿来就能用,像 agents、 skills、 hooks、 commands、 mcp 全含盖,把 cloud code 的 全能力拉满,而且上手贼简单,克隆仓库复制配置文件,改个密钥三步就搞定了, 完全不用丛林研究,比你自己瞎配强十倍!作者更是靠着这套配置拿下了 ansore pick 黑客松大将还等啥,赶紧把这套神仙配置抱走, cloud code 效率直接起飞!

如果你还没有用上小龙虾,或者被小龙虾高昂头等费用吓到,不知道怎么开始安装,然后配置搞的崩崩溃,那么今天这个视频就教你如何一键装上小龙虾,立刻开始你的一人公司,不管你是有着 极长文本需求的大佬,还是刚用上 ai 的 小白,只要点开这款软件,几分钟就能让你偷啃,成本报价百分之三十到百分之五十,无论外面搞出多违心模型,有了这个底层环境,你都极低的成本,无痛畅玩。看好了,咱们直接双击打开这个安装包, 点击我同意下一步安装。你不需要在里面配,在系统里面配什么难搞的 python 或者 no 的 环境,没有复杂的安装命令,当然 win win 除外。如果你的系统是 win 十的话,那就需要先安装环境,可以使用我上期视频介绍的环境安装工具。 好,现在我演示的这些电脑什么都没有,依然点开即用好,现在我们的软件已经安装好了,我们直接点击完成好。现在我们进入软件的主画面,我们直接选默认的中文,然后点下一步, 这边检查网关服务是否已经打开,没有打开的话会帮你打开好。网关已经开始运行,点击下一步自动安装一些必它会自动安装一些必要的组建 设置已经完成,开始使用。好。我们直接打开这边的快捷设置,然后打开。这 a 键的软件提供了非常方便的 a 键的管理面板,可以对你的每个 ai 员工进行个性化配置,定义它能使用的工具还有技能, 还有人设,都可以编辑,只可以都可以直接编辑的这些工具和技能,他每次对话都会重复发送,把我们把不需要的技能和工具关掉后,能节省大把头坑,这里我们直接全部禁用。 这有一点需要重点说明,如果你用的是原版的 open cloud, 是 关掉这些也没有用,它还是会发送这些信息,占用大量 token。 很多新手完全不知道它的 token 是 怎么被白白浪费的,这个软件能从根源上把多余的信息给自动剔除。 ok, 现在我们配置模型的 api, 直接点击这个渠道,推荐使用我们这个 linux 这个配置方式,只有这种方式才支持模型的热切换和 token 压缩。这里推荐使用 openroot 或者归机流动 openroot。 现在可以免费体验小米新出的 miimo v 二 pro, 我 们软件已经进行适配,可以 直接体验免费时间还有两天就结束了,需要体验的抓紧时间。注册地址在评论区置顶,那我们直接填入 a open root a p a p i 地址,然后 api key 直接我们复制过来, 然后然后填入 open root api key, 然后点获取模型, 选择我们的小米 mini v 二 pro, 然后点保存配置。 我们先把这个技能打开吧,然后看让你们看一下那个 token 消耗是怎么变化的,全部使用保存, 全部都是起用的。好,关闭,我们直接新开一个对话,那我们直接新开一个对话发送你。你好, 现在我们试着把这个呃技能全部关掉, 咱们再来一下,看这次是多少陀螺。你好,我可以连接成功,然后这次咱们再看一下,把技能关掉,剩下是陀螺消耗是多少? 可以看到咱们把技能关掉,现在陀螺消耗是一万六,咱们再来试一下,把这个工具也全部关掉,最小保存关掉新兑换。你好, 连接成功,咱们现在咱们来看一下,直接把那个技能和工具全部关掉,头壳消耗是多少? 现在可以看到咱们技能和工具全部关闭之后,头壳消耗是六千一,工具和技能全部打开是两万三,然后把技能关掉是一万六。市面上很多那种第三方的龙虾软件,但是他们最让人头疼的就是无法热切换模型, 每次切换模型都要等十秒钟,让小龙虾重启,我们直接实现了模型的随意切换,就在直接在这里点击就可以了,我们可以随意切换模型,不用等小龙虾重启。你看这里一直是已连接的状态,它不会重启,我们直接可以随意切换,切换回我们的这个小米 v, 小 米 mimo v 二 pro, 因为它是免费的,在这里我们可以看到这个用量,你看全都是零零零,不管你多少 token 都是零零零零, 软件已经适配了它这个 app 识别机制,我们把我们的软件让它一识别成 open cloud, 这样可以使达到免费使用 mimo v 二 pro 的 模型这个目的。这里我演示的是用 openload 的 a p i 接入, 如果你想用其他模型,可以通过我的邀请链接去注册轨迹流动,可以获得海量的那个全魔性通用代金券,有需要的可以直接说下面去用。 如果你想立刻下载这个龙虾神器,开启安全又省钱的 ai 体验,点击视频下方链接,大家自取,记得三连,我们下期再见,拜拜。

今天真的太惊喜了, open klo 官方终于出了个可示画图形界面的 klo x, 我 赶紧上手试了试,真心觉得比之前的原声版好用太多了。呃,你们都知道我之前折腾原声 open klo 有 多费劲,又是命令行,又是改配置文件, 对着黑框框敲半天,最后还经常报错,普通人根本玩不转。但这个可乐 x 完全不一样,它就是个普通的安装包,双击下一步就行,差不多五六分钟就能装完, 跟装个 qq 没区别啊,配置也特别省心,不用再去文档里改来改去,填模型密,要直接有个设置界面, 各种选项,点一点输一输就搞定了,全是中文,一点不费劲。它功能还挺全的,能创建不同的智能体,分开干不同的活,能连微信、飞书、 qq。 嗯,内置技能一共有六十九个,定时任务也支持,适用性很强。 我刚装上,还没深度测,但真实感受就是有自己的模型和密钥的话,十来分钟就能全部搞定。 嗯, oppo 可乐总算是走下神坛了,不再是只有懂技术的人才能玩的东西。呃,唯一要跟大家说句神,实在的,他确实会稍微费点桃啃,但这点大家心里有数就行。 呃,后面我会给大家测更多的可乐 x 的 使用技巧,还有怎么省桃啃避坑这些干货,你们有没有被原生 oppo 可乐折腾过?评论区说说你的经历,记得留个关注,后续继续给大家更真实的 ai 工具实测。

不废话,一分钟实测告诉你一字 clock 里贵的模型和便宜的到底差在哪?看完再也不纠结要不要换模型。 我们做互联网 a a 相关的行业文案任务,需要结合之前喂养的知识库,贴合行业逻辑,这也是很多人常用的场景。用它测试最直观 一次。 ko 内置 kimi、 可爱款等多种大模型,我们选两个极端对比,便宜的款和贵的可爱。 全程电脑录屏操作,打开 e z ko, 找到模型设置,先切换到款便宜模型,输入任务指令,再切换到 ko 的 贵模型,输入同一个指令,等待两者输出结果。 看清楚差距宽,只完成了基础文案拽写,没有结合行业常识和知识库内容,逻辑松散,细节缺失。 而 cloud 不 仅贴合互联网微压行业长久,还精准调用了我们之前喂养的知识库,推理严谨,细节到位。这就是贵和便宜的核心区别。 记住,简单任务选便宜的,复杂推理必须选贵的,用一字 call。 不 用盲目追求贵模型,按需选择适配自己的任务才是最高效的。赶紧去试试你的模型够不够用吧!