openclaw 这个东西最近这么火的,都很多人说它完成了什么什么工作,赚了多少钱,然后但是大家一定也很好奇它是这个怎么运行的, 其实它是非常简单的一个 a 阵的框架,为了不懂技术的小伙伴也能听明白,我们就打个比方啊,假如说这个 openclaw 它是一个村子啊,就是那个 也是村子里的一个村民,然后在这个啊,村子里呢,有一位这个德高望重,辈分有很高的一位老前辈,这个所有村里的大事小事都要他决定,所以说呢,就是我们先给他起个名,咱就管他叫这个 这个袁太太就行。所以你在请求所有的工作任务的时候,真正帮你干活的呢,是这个袁奶奶帮你忙。但是为什么袁奶奶她这个有这么大力量,什么事都能干呢?然后实际上并不是她自己厉害,因为她在这个村里德高望重,她有很多孙子,这些孙子呢,其实就是 属于八仙过海,各显神通了,他有各种各样的能力,比如说有的孙子会写程序,有的孙子会会调 bug, 有 的孙子呢他会操纵网页,然后呢有的孙子呢,他会去做搜索,有的孙子还甚至有的孙子他还能控制音响,对吧?所以说呢, 实际上呢,这袁太太的很大一个能力呢,就是他能去这个调动 他的这些 skills。 另外你也知道这个老人家,他岁数大了,记性都不太好啊。就是,所以我们会有一个事都是有一个上下文的一个概念 啊,就是超出这个上下文范围,他就不记得了。比如说金鱼,他就有一个七秒的一个特别短的一个上下文,但是原来呢,他不一样,他有特别好的习惯,他喜欢把做的每一件事聊的每一句话 啊,他和每一位村民聊的每一句话都记下来,所以说呢,他就是会有个小本本 啊,我们叫做永久记忆,然后这是以这个 markdown 的 形式存在硬盘里面的,所以说你跟他聊过什么事,其实他都记得, 然后在这个基础上呢,你会发现这个老太太跟很多这个家主一样,是一个特别操心的这么一个人,所以这老太太心跳的厉害的时候呢,就会琢磨哪些事没干,否则他心里不踏实 啊。然后这里面我们就讲了他有一个二十四小时的一个这么一个工作机制,他的 beat 就是 这个心跳机制,老太太有可能就每半个小时一次,就就得琢磨琢磨我这个要干的活有什么还没干完,然后我就我就,我接着干 啊,所以说就是这个经常都不睡觉,然后他呢,就是这么贴心的一个人呢,他干活呢,就是默默的干,也不跟你说,他就是干到一定程度了之后呢,然后需要你参与的时候才把一个总结给你,所以我们这个叫做 后台执行的一个机制。嗯,所以这老太太你也也发现了啊,他本身他是特别忙的,每天要这个接待各种各样的这个村民,这个提出这个诉求,事一多他就不知道该干嘛了,但但是他这些年把这些事都料理的非常好, 这是什么原因呢?这个主要的原因是因为他是有好搭档,就是我们的葛大爷。下一期还想听什么故事?评论区告诉我。
粉丝225获赞159

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

我桌子上放着一台新的 mac mini, 我 专门把它设置用来运行我的 ai 代理团队使用 open claw。 我 有一名开发者,一名市场人员, 一名项目经理和一名系统管理员。他们每个人都有自己的个性,他们有一列任务队列,这些任务都在我自己搭建的自定义仪表盘中进行跟踪。我还在 slack 上和他们聊天,就像和我的真实团队成员交流一样。 只不过它们是由 openclaw 和各种大型语言模型驱动的智能代理。现在真是个神奇的时代,但是你知道,要让这一切运行起来,可不是插上电源就能用的那种简单式。 在过去的一周里,还有许多深夜,我不得不一个接一个的解决各种问题,有些是技术性的,有些是战略性的。比如,我到底要不要买一台新的 mac mini, 还是可以在 vps 上运行 openclaw? 这会花掉我多少 api 令牌? 我能用我的 cloud max 计划吗?对于我的代理来说,哪个聊天工具最好用? telegram? whatsapp 还是 slack? 我 应该只让它驱动一个代理,还是可以组建一个代理团队? 我需要为他们定制一个管理面板吗?还有,安全问题也不能忽视,我的代理应该能访问哪些内容?我该如何考虑安全防护措施?最重要的是,我在这里的使用场景是什么?我到底要让我的代理团队为我做些什么?所以今天我会分享我对这些问题的最终看法, 并向你展示我为此搭建的全部方案。说实话,一开始我并没有觉得 openclaw 有 什么吸引力在,他还叫 cloud bot, 然后又叫 motbot, 并且几周前在推特上引起热议的时候,大家都在讨论让他们的代理帮他们回复邮件,订机票或者点外卖。而我并不想, 也不需要在个人生活中用 ai 代理,甚至连让他管理我的日历我都不愿意。但后来我开始思考在我的业务中确实遇到的一个难题,以及如何通过设置 open cloud 来帮助我解决它。 你知道我运营的这个 youtube 频道,还有 builder methods pro, 我 的课程和每周通讯。多亏了像 cloud code 这样的工具,构建东西从未如此简单,但构建只是我工作的一半。 我开发培训内容,管理出版流程,还要监督我的会员业务。但最近我一直被瓶颈困扰,我还有很多想要创造和交付的内容,只是如果我有足够的精力就好了。在我过去的生意中,我通过雇佣真正的团队并建立流程来帮助我们扩展。这确实奏效了,但管理成本也很高。 所以当我再次审视 openclaw 时,我问了一个不同的问题,不是我想要一个私人助理吗?而是如果他能在我的团队中担任某些角色会怎样? 现在我确信这种范式在各自机器上运行,拥有明确角色的自主代理,我认为他会一直存在下去。现在 openclaw 只是我认为将会变得更大的一代产品中的第一代,所以我现在就想把这个搞明白,也许这段视频也能帮你入门。 如果你是新来的,我叫 brian kazoo, 我 帮助建设者们用 ai 保持领先。每周五我都会发送我的 builder briefing, 那 是一份免费的五分钟读物,我会在里面用不夸大的方式分享我对转型采用 ai 的 看法。你可以通过访问 builder methods dot com 获取你的专属内容。如果你真的想提升自己,可以看看 builder methods pro, 在那里你可以加入我们的社区,并获得为建设者们准备的培训。好了,那么, opencloud 到底是什么?它以前叫做 cloud bot, 后来又叫 multi bot。 那 么它和你用 cloud code 或其他代理有什么不同呢? opencloud 的 核心是所谓的网关,那是一个运行在某台机器上的进程,这台机器最好不是你的个人电脑。不过我们马上会谈到安全性的问题。 openclaw 网关可以运行工具可以使用浏览器,也可以执行 bash 脚本。当然, cloud code 也能完成很多类似的事情。但 openclaw 的 不同之处在于它始终在线,它会维护一个持久化的工作区,带有记忆和绘画日记。 因此,你可以通过 telegram 或 slack 与你的代理聊天,并将任务委托给他们,让他们在后台自主完成。 所以这和你在终端里亲自管理 cloud code 绘画是根本不同的范式。 openclaw 更像是有队友在他们自己的工作站上独立完成工作。 第一个问题是,这个东西应该运行在哪里?现在我不建议你在日常使用的电脑上运行 openclaw, 你 不会想让它不受限制地访问你的文件和账户。即使你用 docker 之类的方式进行隔离,你的电脑也需要全天候开机并保持唤醒代理才能工作。 所以, openclaw 需要一台专用的机器,这可以是一台每月只需五美元起的云 vps, 也可以是一台实体机器。不一定非得是 mac mini, 网络上的任何一台电脑都可以,两种方式都可行, 而且很多人用 vps 配置也运作的很好。但我还是花了六百美元买了一台新的 mac mini m 四。你可以说我有点老派,但我喜欢能够远程屏幕共享看到桌面安装东西,并且以可量化的方式管理它。而且当我只需要运行一个简单命令时,我也会用 ssh 登录。 而且如果我真的用我的智能体团队来实现我设想的所有用力,我会需要比那些便宜 vps 套餐更多的存储和贷宽,所以最终成本其实也差不多会持平。而且,嘿, 如果这些都不行,我就把那台 mac mini 搬到我家里的音乐工作室去用,我会在那里用上它,所以我已经有了专用机器。但这只是第一层, 我还需要仔细考虑我的智能体能访问什么,不能访问什么。现在这就是雇佣比喻真正发挥作用的地方。如果我要让某人加入我的团队,我不会让他们访问我的私人笔记本电脑,也不会让他们随意使用我已经登录所有账号的浏览器。 不,员工会有自己的电脑,自己的邮箱,只能访问他们需要的文件和服务,并且权限合适,仅此而已。 所以我就是这么做的。我为我的智能体门设置了一个专用的邮箱地址。我创建了一个 github 用户名,这样我就可以邀请他加入特定的代码仓库。 我可以像对待其他团队成员一样授予或撤销其对服务的访问权限。不过文件管理就有点棘手了, 我希望能在我的电脑和 mac mini 上的 openclaw 工作区之间实现便捷的双向同步。尤其是因为我正在开发一个大脑系统,把我所有的业务活动都记录到 markdown 文件中,这些文件我的智能体可以访问和处理。关于这个大脑系统,或许以后有机会再详细说。 所以我所有的文件要么存放在 github 仓库里,要么就在我的 dropbox 账户里。但我并不想直接把我的个人 dropbox 分享给 openclaw, 那样会让他获得太多的访问权限。所以我让 openclaw 自己注册了一个 dropbox 账户。这样我想在主 mac 和 openclaw 的 mac mini 之间共享的特定文件夹,这两个 dropbox 账户都能访问,其他所有内容则都被隔离开了。 好了,我们来说说成本问题,因为如果你不小心光是和你的智能体聊天运行任务,就很容易花掉几百甚至上千美元的 token 费用。在我搭建系统的头两天里,我就花掉了超过两百美元。我本来已经订阅了 cloud max 套餐,还希望能直接用那个, 但后来听说有账号因为这种用法可能违反了 antropic 的 服务条款而被封禁的案例。然后没过几天, 他就升级到了二百欧元的订阅,因为他在奥地利,而且他简直爱上了那个东西。对我来说,这就像是一个非常早期的产品验证,感觉就是 我做出了一个能吸引人的东西。但几天后, answap 就 把他的账号封了,因为按照他们的规定,用订阅服务这样操作是有问题的,或者说不被允许,所以这里确实存在很大的不确定性。我真心希望能有一个官方的明确说法。 现在我打算遵守规则,所以我最后的做法是这样的,我的 cloud max 订阅计划只用于我个人在设备上使用 cloud 和 cloud code 进行工作。我的 opencloud 代理则完全使用独立的 api 令牌, 我通过 open router 来运行这些令牌,这样可以集中管理我所有的 api 使用,并且可以轻松地从数百个模型和服务商中进行选择。更重要的是,它让我能够精细地优化每个代理在不同任务中使用哪种模型。 说实话,这种优化大概是我上周花时间最多的地方,就是在弄清楚哪些任务需要 opps 的 强大算力,哪些可以用更便宜更快的模型来完成。不过,运营这样一只代理团队并不便宜。如果你一直在用前沿模型开发,那你早就知道这绝不是免费的。 从商业角度来看,如果你把代币成本和雇佣多名团队成员来完成那些可以甚至应该交给代理处理的工作进行对比,投资回报率的计算就变得非常有吸引力。 现在说说和我的代理聊天的问题。 opencloud 支持多种聊天工具。我一开始用的是 telegram, 因为那是最容易上手的,它运行了几天没问题,我甚至能为每个代理单独设置 telegram 机器人。 我马上会讲讲我的多代理配置,但在 telegram 上用了几天后,我发现这个界面用起来并不舒服,尤其是当代理给我发 markdown 格式的内容时,有时候能正常显示,有时候又不行, 所以我和代理的合作方式其实和我与团队成员的合作方式很像。而我的团队一直用的是 slack, 于是我为每个代理都设置了 slack 机器人,这非常简单,而且 slack 对 markdown 的 支持也很好。我很喜欢。我们可以用现成回复, 这样在有多个代理、多个请求和回复同时进行时,管理起来就很方便。现在我来说说是什么让 opencloud 真正让我眼前一亮。我没有把它当做单一代理来用,而是设置了多代理配置,这样我就能真正组建一个由四个代理组成的团队。 cloud 是 我的系统管理员,当我在折腾 opencloud 的 系统本身时,会和它一起写作。 bernard 是 我的开发者 val 负责市场营销相关的任务, 而 gumbo 是 我的通用助理。每个代理都作为独立的 flag 机器人运行,有各自的对话。我还尝试过把它们都放在一个群聊里。这种方式基本可行,但也有一些小问题, 所以我为每个代理分配了一个默认模型。 bernard 的 这个开发者和系统管理员 claude 使用 opus 模型。在这些场景下,推理能力才是真正重要,而市场营销的 veo 和助理 gumbo 则用 sonic 模型。在这些场景下,速度和效率更为重要。但我经常让他们把部分工作委托给子代理。 针对需要指定更昂贵或更便宜模型的任务,现在我决定让他们都共享一个工作区,这意味着他们都能访问同一个内存。我也可以在一个地方统一管理配置和代理的 md 指令。 另外,我的大脑文件夹也放在这个工作区里,所有的工作都会在这里同步。如果你想了解更多关于我和我的代理们的高效工作系统,欢迎在评论区告诉我,我会专门做一期视频详细介绍。现在 opencloud 有 一个 identity md 文件,这个文件通常用来定义单个代理的身份,但我用它来定义多个身份。每个团队成员的代理都有一个,我甚至用 cloud 和 gemelite 来为每个代理开发独特的个性特征和视觉头像。我就是想让这件事变得有趣一些。你知道的, 我的机器人角色灵感来自我最喜欢的乐队之一 gorillas。 不 过,我在使用 opencloud 内置的 cron 系统进行定时任务时确实遇到了一些挑战,很难把这些任务和我团队中的特定代理关联起来。 这也成了我开发自定义仪表盘和任务分发系统的主要原因之一。所以我很快意识到仅仅通过聊天来管理我的代理是行不通的。我希望能在一个地方看到我所有的定时任务,并且能够把它们分配给特定的代理。 同时,我还想追踪令牌的使用情况,这样我就能知道这些操作到底花了我多少钱。你知道的,我只是想要一个中央仪表盘, 这样我就能一目了然地看到整个系统。所以很自然地,我就自己做了一个。找个理由做点东西,我用 cloud code 和我的 design os 流程大约一天就做出了一个可用的应用。这是一个简单的 rails 应用, 连接到 opencloud 的 网关,为我提供了一个干净的界面来管理一切。说实话,这个 hq 仪表盘只是个开始。现在我正在为我的大脑系统开发另一个应用,用来编辑和阅读 markdown 文件,这样我就能轻松管理我的代理可以访问的内容。 这正是我喜欢当下这个创作者时代的地方,当我需要的工具还不存在时,我只需要一天就能自己做出来。 而最重要的问题也是我到处都听到的问题是,你到底打算用你的代理做什么?所以我已经确定了几个我的代理可以真正填补我业务空白的具体领域。 让我们从我发布的内容开始说起。现在我只有在有话要说的时候才会发布内容,这一点永远不会改变。但事实是,在我的项目中以及与其他开发者的交流中发生了。很多事情从未出现在视频或社交媒体上。所以我现在正在构建一些系统, 让我的代理能够观察并记录更多这样的工作,并帮助我在各个平台上分享更多内容。第二个领域是开发。现在我仍然喜欢把大部分时间花在 cloud code 和 cursor 上进行产品的设计和架构,这点不会改变, 但我让我的开发代理 bernard 在 我无法亲自处理这些事情的时候,负责处理代办事项,跟踪生产错误并提交 pr。 第三是协调性工作。这是我每天都能感受到的瓶颈。 我每花一分钟在项目管理、复制、粘贴、安排内容或记录文档上,都是在浪费本可以用来思考、创造或构建的时间, 而这些任务本应该被自动化或委托出去,这正是我的通用助理刚博的用武之地。让我最兴奋的用力是报告,也就是让我的代理定期发现趋势、模式和新想法,帮助我发现自己原本注意不到的盲点。 这种洞察力能够帮助我教授真正能让建设者取得进步的理念,也能帮助我打造解决实际问题的工具。现在,我已经开始组装基础模块,为我的代理制定流程,搭建自动化和定制工具。 我很期待在未来的视频中向你们汇报这些是如何融合在一起的,所以一定要订阅我的频道。现在我想谨慎一点, 不要把 openclaw 夸大其词,它还处于非常早期、非常粗糙的阶段。为了配置好一切,我熬了比自己愿意承认还要多的深夜。但不可否认的是, openclaw 作为一个概念,在我们这些深受 ai 影响的建设者圈子里 已经带来了突破。我认为这正是值得我们付出额外努力,成为早期采用者的事情之一,因为像这样的系统在今年和明年只会变得越来越普及。这也触及到了我认为作为二零二六年建设者的我们必须具备的一项基本技能。 我们必须愿意去探索和尝试,弄清楚新工具如何能帮助我们在业务上取得真正的进展。这正是我们能够带来的价值,也是我认为我们需要掌握的五项核心技能之一。只有掌握了这些技能,我们才能从被变化的速度压倒转变为在新环境中真正蓬勃发展。 我在关于如何从 ai 怀疑者转变为建立不公平优势的视频中详细介绍了这五项技能,所以在你点击订阅频道之后,我们下一个视频见,让我们继续创造吧!

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

这个 open curl 大 龙虾机器人部署完成之后,咱们运行了我上期视频说的这个贾维斯命令。这一系列的命令运行完成之后呢? 他的最明显的改变就是这种对话跟思考的方式。之前的时候你给他一道指令,他完成之后他还会给你回复,现在他会把他的思考过程步骤一步步的显示。

你现在打开 kimi 的 官网,点到那个 bot 页面,你会发现它悄咪咪上了一个新能力,叫 kimi 可乐。 大家好,我是杜宇,带你看懂 ai 赛道的钱和事儿。今天我们聊聊 kimi 版的 open 可乐。以前呢, open 可乐这个玩意儿,你想用,得先折腾环境,还得保证电脑别关机,最好再搞个 vps, 让它二十四小时在线。 前几天啊,一个在北大读 ai 博士的学弟都还在吐槽部署 openclaw, 搞了半天挺费劲的,更别说没有技术背景的普通用户了。现在好了, kimi 的 玩法是,我直接给你把 openclaw 云端托管好,你开浏览器就能用。就很像你别自己装空调了, 我把中央空调给你装在云上,你按开关就行。那 kimi claw 跟 openclaw 到底差在哪呢? openclaw 更像是自己买一堆零件,组装一台高性能台式机,自由度很高,你想换显卡换硬盘,随你,但你得会装,会调坏了还得自己修。 amyclaw 更像你直接买一台云电脑,加预装好所有软件,你不用研究驱动,不用担心电脑一关它就罢工。 重点是它能一直在线替你跑事情。官方对比表里写得很明确, kimiko 是 一键云端就绪。 local openclore 需要手动安装配 api 管,依赖 kimiko 七乘二十四小时在线 local openclore 电脑不开机就停。 kimiko 技能库是五千加即取即用, local 是 你一个个装, kimiko 默认给四十 g 的 云存储 local 是 你一个个装, kimiko 默认给四十 g 的 云存储。 local 看你自己硬盘有多少。而且还有一个很关键,但很多人会忽略的区别。 kim kilo 强调,把复杂的 agent 能力做成了普通人能吃的套餐。比如他强调长期记忆和人格定制,你可以一次性告诉他,以后给我写报告,统一用这个格式,每次都带一个风险提示,他会记住他还支持定时任务。你可以让他每天早上九点自动给你做行业新闻雷达,周五下班前自动出周报。 这就是从你叫他一下,他动一下,升级成了你不叫他,他也给你把活干了。这类能力在 open 可乐上当然也能做门槛更像你得会装会配会首页。 kimi 可乐是你,会打字就行。 我知道你们现在最关心的不是技术,是我一个没技术背景的国内用户,到底能拿它干嘛?别急,你先别急着要让 a i t 我 上班,先听我把边界讲清楚,后面我再给你一个最稳的用法,不听你可能会踩坑。先说最实用的信息过在时代, kimi 可乐这种常驻在线的东西,本质上就是你的私人情抱怨。 比如你让他每天固定时间去搜你关心的赛道,抓最重要的五条,压缩成你能看懂的两三句话,并且按你的习惯规章。哎,你别小看这个,像我们做投资,最怕的不是没信息,是信息太多、太碎、太吵。你每天刷到的重磅炸裂,史诗级,可能百分之八十都是情绪价值。 真正值钱的是持续跟踪,结构化记录,最后形成判断。 kimi klaw 把持续跟踪这件事变得更便宜了,因为它不需要你一直盯着,它能定时跑,还能把东西存下来。 第二个用处是把工具链这件事给你抹平。以前你要做数据分析,得先找工具,装插件、传文件,再导出图。 现在他能直接在聊天里调用 cool hop 技能分析 cv 作图,甚至打出报告。这种流程你就用人话描述就行。相当于以前你是自己开餐厅,自己当厨师,现在你是点菜,他自己去后厨把技能教出来干活。第 三个用处是内容生产,从手工作坊变成流水线,比如白皮书、竞品分析、营销、复盘会议。既要整理这些活不难,但极其耗时间,属于那种你做完了也不觉得自己变强,只觉得自己又老了两岁的活。 kimi klo, 把它的价值说得很值, 你可以让它端到端,跑工作流,还能保存产出,跨设备拿回来继续用。对普通人最爽的一点是,它把 open klo 那 一套会干活的 agent, 从即刻玩具往日用家电方向推了一大步。 好,说完能干嘛?我再讲你们最关心的那句,这是不是意味着国内没技术背景的人也能享受 openclaw 了? 结论是更接近了,但要看你怎么定义享受。 kimi 的 做法是把 openclaw 直接原声塞进 kimi 的 网页里,让你用浏览器就能启动一个云端的 openclaw, 省掉本地部署依赖配置、机器长驻这些麻烦。这对国内用户来说就是门槛断崖式下降。但它也不是完全无门槛关, 官方写了一键云端部署,需要 alipay 及以上的会员。如果你已经自己本地跑着 open core, 也可以选择 link existing open core 把已有的连进来。会员过期之后啊,云资源保留七天之后会永久关停并清空相关数据,这个你要心里有数,别把它当成永不丢的网盘。 kimi 这波操作,本质上不是发明了 open clock, 而是把开源的生产力包装成可交付的服务,并且用产品和分发把价值吃回去。开源世界里最稀缺的从来不是代码,是把它变成普通人一键可用的那一层体验。很多创业团队喜欢在 github 上卷功能,最后用户用不上 kimi, 反过来直接从用户角度卷摩擦,不用终端命令,不用服务器,不用守着电脑开机,还顺手把技能库存储、定时任务这些真实的刚需打包了。 你如果是国内创业者,可以抄的不是也做一个 flow, 而是这种思路,把复杂能力做成可附用的云端工作台,让用户用人话就能启动一条工作流,然后你赚的是省事的钱。 尤其中国市场,用户付费意愿往往不为技术先进买单,而是为我少折腾啊,我今天就能出结果买单,你做土币就更明显。老板不关心你是不是 agent, 也不关心你是不是多智能。他就问一句,能不能把流程提速,能不能减少出错,能不能把新人训练成本打下来?金 米可尔这种产品形态,就是把 ai 能力从聊天窗口拉进了流程里,拉进了时间表里,拉进文件柜里。最后给非技术背景的同学一个特别现实的建议啊, 先用 kimi kong 搞定三件小事,第一,固定时间的资讯雷达。第二,固定模板的周报月报。第三,你最烦但最重复的资料整理。 你会发现,一旦这三件事稳定跑起来,你每天省下来的不是时间,是注意力,而注意力才是这个时代最贵的资产。点关注不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见。

openclaw 我 差不多用了两周左右的时间了,我来讲一讲就是我在使用的过程当中啊的一些感受啊。那首先的话呢,就是 openclaw 它确实非常强大啊,这个跟你网上看到的所有的这个这个 啊一些评论也好,还是说是使用感受也好,它确实是非常强大的一个工具,它能够啊把你的一些 日常的啊工作任务,只要是重复性的,你都可以让他去啊进行完成,就比如说发布一些 啊,让让他制作一些脚本,甚至让他制作视频是操作你的浏览器都是可以的。但是在一定程度上面呢,他又是限制在限制于我们现在的呃这个大模型的能力。呃,在 整个使用的过程当中,你可以非常明显的感受到,就是像我呃切换到了 glm 五和那个 呃 mini max 二点五了以后呢,它的它的能力,因为它上下文的头肯只有两百 k 嘛,所以说的话它可能记不住你太长的这个,呃太长的这个上下文, 所以他可能在上一轮对话的时候,特别是呃你再让他处理一些复杂性的任务的时候,他可能上一轮跟你聊的好好的,把你的任务处理完了。上一轮对话呢,可能他表现的还非常好,但是下一轮对话呢,他可能知道他可能已经忘掉了前面他做了什么事情了 啊,或者说他,嗯没有办法去非常准确的还原他每一个步骤,因为他本身上下文两百 k 嘛,呃,像我正常的情况,我一条对话出去可能就已经达到了一百二十 k 或者一百六十 k 左右,那两条消息的话肯定是超过 呃,超过他的这个限制的,所以他的上下文肯定会进行压缩啊,所以一些关键信息的话,可能在这个压缩过程当中会丢失, 这个比较关键。所以说对于一些呃上下文窗口比较比较大的,就比如说像 google 的, google 的 这个 jimmy 三系列的全部都是一照的上下文。所以你在使用这个, 你在使用 google 的 这个模型的时候,你就会发现,哎,他的这个超长的记忆能够在你使用过程当中能够让你觉得,哎这个东西真的用起来非常的爽 啊,就是你不用,你不用频繁的去担心他会会压缩你的这个这个上下纹,然后呢,就你可能聊着聊着突然间能做做一些任务的时候,他聊着聊着就突然间 他不知道他自己要干嘛了,这个很重要,对吧?其实的话呢,就是你选择模型也比较关键,就像我在选择 mini max 二点五 和 glm 这个五这两个模型的时候的话呢,它除了上下弯窗口它只有两百 k 以外,呃,它的模型的能力可能还是会和 google 啊,还有那个 cloud 呀, 对吧?那个 openai 的 这个 codex, 它还是有一定的这个这个差距在的。我们不得不承认的一点就是说它的跑分它虽然是能够和 cloud 拉平,就比如说像,呃,像 g i m 五,对吧?这个这个大家可以测试一下,就比如说你同样的去达成一件事情的时候,你可能用 cloud, cloud 那 个四点四点五,四,四点六,对吧?那么同样的去做一件事情的时候,它的思考的这个时间,还有达成的这个啊?达成的这个时间上边它国产的这个模型的话呢,它可能会需要更久,那么意味着你上下文窗口一短,那么它很容易就忘记 啊,忘记这个,忘记你前面到底做了什么事情,对吧?所以综合来看的话呢,还是选择第一个呢?就是说选择啊,像 cloud 呀,还有那个 呃 codex 啊,还有 gemini 这几个模型的话呢,在使用体验上面肯定会有一定的提升的啊,特别是 mini max, 我 用的 因为他他没有周的用量嘛,所以说的话他只是五小时刷新一次,所以说你买他的 coding plan 他 实际上是非常划算的。但是他给你的这个回复的话,有点有时候会觉得 有点不尊重人,就是非常挑衅的这种感觉,就是呃你,呃你要怎么办嘛?或者说再试试看,打个问号,对吧?像这种的这个这个回复的话,我觉得,呃在使用这个 jamming 的 过程当中我是一次都没有遇到,就是说,呃, 我不清楚,我不太清楚,就是说他为什么会出现这样子的一个情况。但是我只要一旦在后台从 mini max 二点五切换到切换到 gmail 这个模型了以后, 我所有的环境只是切换了模型,他的回答的感受就完全不一样,所以这个还是和模型,和模型,和模型之间他还是会有一定的差距的。所以大家在选择模型的时候不要因为说,哎,国产的模型他只是只要像 像 pro 的 这个模型好像是五十几块钱,四十九块钱吧,对吧?然后的话呢,像呃像智普的这个 g i m 的 话呢,它的这个呃它也比较便宜 啊,就是说呃它至少比呃比 cloud 它要它要便宜一些,但是从呃整体的使用的这个呃结果来看的话, 呃你可以用它,但是如果你要让它干点事情的话,我还是推荐你去选择 gemini 或者 codex 或者或者 cloud, 它会更 嗯更能够帮助你提高生产率一些。而且它现在这个 google 的 antigrafty, 你 也可以直接用 os 的 这个方式去登录呃这个 open cloud, 所以, 呃你实际上是可以去用一个非常低的成本去 啊使用它的。但是需要注意一点就是如果你是在或者他这种平台上面买的这种一年的账号,虽然说很便宜,确实很便宜,而且他们也有售后,但是呃 我在使用的过程当中还是还是出了一些多多少少的这个问题。所以大家在选择的时候,如果你只是平时玩一玩呢,你购买一些这种家庭账号其实 ok 没有问题的。但是呃你如果说真的要去把它当做生产力, 那我建议你还是花这个二十美金,或者说是啊,或者是两百美金去订阅一个他们的 pro 的 这个版本的账号啊,虽然他可能啊一个月的花销在啊换上人民币的话差不多要一千五的这个 啊,一千五左右,对吧?但是你换算一下,就是说如果说你单凭你请一个员工的话,他的工资其实啊还有各方面的开销就已经不止这个钱了, 对吧?所以说,呃如果你是真的能把这个生产力给提高上去,把一些重复的工作,就比如说像审核啊,像服务器的监控啊,日制的阅读啊,像这些东西的话呢,都是可以让 open cloud 去代替的, 就包括像订单的一些啊,审核,还有一些报错,它可以初步的去判断到底这一类的这个问题它到底 是因为什么原因产生的,以及你应该怎么样去,怎么样去下一步去处理,让它做一个基本的排固,对吧?像这些东西的话呢,你都是可以实现的。 open cloud 它现在有没有这个问题呢?是有的,我确实用下来的话是有。 呃,但是侠不掩玉吗?就是我现在基本上大部分的时间都是派他来去啊,做我的一些啊辅助工作,而且呃效果的话呢,提高生产力确实是非常啊,非常明显。 嗯,大家有时间的话呢,也可以去啊试一下啊。那今天的话呢,就先聊这么多,那么我们有空再聊。

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

opencloud 不是 神器,是坑。这话我敢说,因为我已经踩了一个月了,全网都在吹这个 ai agent 有 多牛。本地优先,数据安全,数字员工听着是不是很心动?但没人告诉你部署它需要懂 dack, 环境变量、端口映设,小白根本装不上, 更没人告诉你一次操作可能烧掉几十美元,稳定性差到让你怀疑人生。今天我就把这一个月的真实体验原原本本告诉你,不吹不黑,只讲真话,别被营销洗脑了。先说结论,理想很假,维斯现实很人工智障。 这个视频有点长,但全是干货,建议先收藏再看。咱们开始吧,保证你看完不后悔,绝对物超所值。 说实话,我一开始也是被营销洗脑的那批人。 github 上十九万星,奥地利开发者 peter stanberger 打造,口号是,真正能做事的 ai, 这谁顶得住啊?本地优先,数据全在自己手里,不用上传云端,隐私安全有保障,再也不用担心数据泄露了。 数字员工能接管你电脑权限,真正替你执行任务,解放双手,提高效率,想想就激动。 skills 技能系统社区贡献了一千七百多个技能包,想要什么功能装什么,无限扩展,只有你想不到,没有他做不到。 听起来是不是很完美?简直就是未来以来科技改变生活,迫不及待想试试,但实际部署的时候我才发现被坑惨了,坑到怀疑人生。官方说一键安装,执行一行命令就行,简单到不能再简单,小白也能搞定。 结果呢?高克镜像拉不下来,环境变量、配置报错,端口冲突解决不了,各种问题层出不穷,我折腾了整整两天才跑起来,期间各种报错,各种排查,查文档,搜 h 五问社区,差点就放弃了,好几次想砸电脑, 硬件门槛更是吓人,网上说本地运行不花钱,省钱又安全。听起来很美好,但你得有 mac studio、 m r ultra 这种级别的设备,六十四 g 内存起步,硬件投入近四千美元,这叫省钱? 我用的 m r pro, 三十二 g 内存,跑起来卡的要死,经常内存一出,动不动就崩溃,体验极差。第一次成功运行的时候,我确实兴奋了一把,感觉自己终于搞定了。 看着他在中端里输出锐志,感觉自己真的拥有了一个贾维斯,未来感十足。但这份兴奋很快就变成了崩溃,因为后面还有更大的坑等着我,而且是那种深不见底的大坑,一个接一个,根本停不下来。 公平的说, open call 确实有他的过人之处,不然也不会火成这样,肯定有他的道理。最让我惊艳的是 styles 技能系统,这个设计真的很聪明,是整个系统的核心亮点。 每个技能都是一个独立模块,想要什么功能就装什么,就像给手机装 app 一 样简单,需要什么装什么,不需要就卸载,灵活度很高。 比如 atxp, 可以 调用各种 ati 网页搜索 ai, 图像生成音乐、创作视频生成一个命令,搞定效率极高。比如 agent browser, 可以 自动操作浏览器,抓取网页、填写表单,收集数据,完全自动化,不用人工干预,省时省力。 比如 self improving agent, 可以 让 ai 自我改进,不断学习新技能,越用越聪明,越用越强大,这才是真正的智能社区,已经贡献了一千七百多个技能,覆盖办公技术、生活各种场景,只有你想不到,没有它做不到。生态非常丰富, 更厉害的是它的自主规划能力,这才是 ai agent 的 核心竞争力,也是区别于普通 ai 的 关键。 有一次,我发语音指令,让他帮我整理邮件,他发现听不了语音,居然自己安装了 whisper 转写工具,然后再处理我的请求。整个过程我没干预,他自己搞定了。这就是真正的智能,这才是 ai 该有的样子, 这就是 ai agent 和聊天机器人的区别,他不只是回答问题,而是真正解决问题。从说到做,质的飞跃, 本地优先的安全感也很重要,这是很多人选择 open ker 的 原因,也是他的核心卖点。我让他处理一些敏感文件,比如财务报表、合同文档、客户信息,所有数据都在我自己的电脑上跑,不用上传到云端。 这种数据主权在用户手里的设计确实让人放心,不用担心数据泄露,不用担心隐私被侵犯。还有一次,让他自动读取桌面任务文本,筛选紧急事项,统计账单并生成日报脚本,成功写入系统调度,实现了真正的 ai 协作者功能。 那一刻,我真的觉得,这就是未来,这就是我一直想要的数字员工,这才是 ai 该有的样子,这才是科技改变生活的正确方式。但好景不长,问题很快就暴露出来了,而且是致命的问题。第一个让我崩溃的是 api 费用,这个坑最深。 opencloud 本身是开源免费的,但它需要调用云端大模型来思考,比如 ppt、 四 o 或 cloud opens, 这些都是要钱的。一次复杂的自动化任务,可能烧掉数百万头,肯成本高达三十美元,你敢信? 我第一个月账单出来的时候,差点没背过气去,花了将近二百美元,比订阅十几个 ai 服务还贵。这哪是省钱,简直是烧钱。你说本地运行不花钱, 那得有顶级硬件,普通设备根本跑不动。大模型推理速度慢到让你怀疑人生,而且效果还不好。 第二个问题是稳定性,这个更让人崩溃,常上下文失效是常态。处理多步骤复杂任务时,他经常工具调用错误,或者步骤遗漏,逻辑混乱。我让他自动生成周报,需要人工干预,修正的频率高达百分之四十,正打是 ai 助手,简直是 ai 添乱。 有时候他执行到一半突然卡住,有时候他调用了错误的工具,有时候他完全理解错了我的意图,有时候他干脆就放弃了,直接报错。理想很贾维斯,现实很人工智障。这句话一点都不夸张,亲身经历才知道有多坑。最可怕的是安全风险,这个真的要命。 欧本克奥默认获得文件读写、程序执行、网络访问三大系统及权限,相当于给了 ai 一 把你电脑的万能钥匙,什么都能干。 安全机构实测,暴露了两大致命风险,每一个都可能导致灾难性。后果,一是提示词注入攻击。黑客在网页、邮件、文档里植入隐藏指令 o k o, 读取后会被误导 执行删除文件、发送密钥、访问钓鱼接口等恶意操作,而你完全不知情,等发现的时候已经晚了。二是公网暴露风险。很多人为了远程访问,把本地端口改成全网监听,又不设密码认证,门户大开, 全球超过一万五千台设备暴露在工网上,任何人都能远程控制你的电脑,窃取你的数据,为所欲为。官方文档只讲功能,不强调风险。博主只晒炫酷效果,不做安全提醒,这是不负责任的。 对于不懂网络防护的普通用户,安装 open call 约等于开门一道,自找麻烦。这不是危言耸听,是真实发生过的安全事故,已经有人中招了,损失惨重。 踩了一个月的坑,我开始认真思考, openclaw 到底适合谁?这个问题很重要,选错了就是浪费时间,浪费钱。首先,绝对不是小白能玩的东西,门槛太高了,部署门槛高,需要懂 docker、 环境变量、端口映涉、日制排查、网络配置,这些都是技术活, 出了问题要自己解决,没有技术背景根本搞不定,客服也没有,全靠社区互助,效率很低。 其次不是省钱神器,恰恰相反,是烧钱神器。软件免费,但 api 调用费用惊人,一个月可能花掉几百美元,比订阅服务贵多了。本地运行需要顶级硬件投入近四千美元,这成本谁扛得住?想省钱? 别想了,这玩意就是烧钱机器越用越穷。那么谁适合用呢?我觉得是这三类人缺一不可。 一是有技术背景的开发者,能自己解决问题,甚至能贡献代码优化系统,把 openclaw 当做学习项目,一举两得。二是有预算的团队或企业愿意为效率提升付费,把 ai agent 当做生产力工具,成本可以接受,投资回报率高。 三是有耐心的,即刻享受折腾的过程,不怕踩坑,把解决问题当做乐趣,而不是负担。心态很重要,谁不适合用想省钱的个人用户?怕折腾的普通用户,追求稳定的生产的用户,对安全要求高的企业用户。 对于这些人, open club 可能会让你更累,而不是更轻松。得不偿失,何必呢?还有一点很重要,安全意识。这个必须强调, 如果你不懂网络防护,不知道什么是提示词注入攻击,不了解端口暴露的风险,建议先补课再入坑,磨刀不误砍柴工,不然你的数字员工可能变成数字间谍,你的数据可能被别人窃取,你的电脑可能被别人控制,后果不堪设想。 这不是开玩笑,是真实存在的风险,必须重视,安全第一,千万别大意。最后总结一下,希望对大家有帮助。 openkey 是 好工具,但不是神器,要客观看待,它代表了 ai agent 的 未来方向。从聊天工具进化为数字员工,这个趋势是不可逆的,迟早会普及,这是大势所趋。 但目前的版本还不够成熟,有太多坑需要填,有太多问题需要解决,需要时间和耐心,不能急于求成。给想入坑的朋友,三点建议一定要听进去。第一,先评估自己是否适合,技术背景、预算耐心,缺一不可,不要盲目跟风,适合自己的才是最好的。 第二,注意安全,不要把端口暴露在公网,定期检查权限设置,警惕提示词注入攻击。安全第一,安全第一,安全第一,重要的事情说三遍。 第三,控制成本,监控 api 调用,设置预算上限,别让账单吓到你,量力而行,不要冲动消费。给已经入坑的朋友也三点建议,希望能帮到你。 第一,别追求完美,百分之四十的人工干预是正常的, ai 还不成熟,需要人机协助,习惯就好。第二,多看社区,很多坑,别人已经踩过了,学习别人的经验,少走弯路,事半功倍。 第三,保持期待,这个领域发展很快,今天的问题明天可能就解决了,未来可期,不要灰心。如果你也在用 open club, 欢迎在评论区分享你的体验,好的坏的都可以让更多人看到真实的使用感受,避免踩坑。互相帮助点赞关注我们,下期见!拜拜!

我用 ai 做了一个股票分析系统,只花了十分钟,我们来看一下效果啊,我觉得是非常好的。来我们先看一下,这边是我操作的命令啊,我让他去操作的啊,提示词很简单的一个提示词, 从上面啊,我就问他能做什么,他给我啪啪啪啪搞了一堆,然后我就跟他讲帮我做一个股票分析软件啊,要求怎么样怎么样啊,然后他就自己在跑了啊,全程我没有去动任何电脑啊,都是让他自己去弄,我就负责发指令, 他直接给我部署出来了。然后呃第一次呢他是出了一些错误,我把截图给他,他自动给我修复了啊自动给我修复了。那现在就是他的这个系统的一个界面了 啊,虽然很简洁啊,但是他是真正是实时的一个股票分析的,你看啊,建议都有了哈,技术层面啊,操作建议啊,干嘛都有啊, 但这个只能参考啊啊,我给大家试一下啊,看一下搞一个股票,这是我刚刚查的。呃,这太好了,我随便搞多一个来,这个 这个六六零啊,六零零三个六六零零三个六啊啊,我们来试一下六零零三个三个六 啊,奥瑞德对吧?是不是奥瑞德三点七八啊,三点七八都能对得上的,然后所有的数据啊,很齐全。好,我也是惊呆了哈,十分钟左右给我搞定了, 你看风险提示,我去这些太专业了哈。哎 对吧,我我的设置的是五分钟自动刷新,所以它自动会刷新,而且它会深度学习啊,也可以手动啊,这里可以选择,然后分析周期也可以选啊,最多两年,当然我可以更更长一点点啊,比如说两年的周期, 它就就有两年的数据在这里了。现在的 ai 真的 是太牛了啊。这个呢叫阶月 ai, 堪称呢就是国内版的 open cloud 啊,大家可以玩一玩啊。目前好像是要呃那个呃邀请码啊,如果没有的,大家可以在评论区呃 at 一下,哈哈。

你们看啊,这是 openclaw 刚刚自动帮我分析的苹果股票适不适合买入它分别啊,从财务、健康状况、业务竞争、技术分析等十几个维度进行了深入的评估,最后甚至直接给了我操作建议和风险提示。 这就是那个让全球 mac mini 卖报,能帮你一键分析股票,会主动发消息的小龙虾机器人。但说实话,最开始我是真的不想跟粉丝推荐, 因为部署的过程即便是我看了也得皱眉。但是现在呢,剧情反转了,普通人五分钟就可以快速部署,而且不花钱。 接下来我用两分钟教会你如何开始点赞收藏啊。第一步,从手机应用市场里下载百度 app。 第二步,在百度 app 当中啊,直接搜索 open claw。 第三步,点击第一个出来的内容,参加新春活动就可以免费领取。 最后领取成功之后呢,只需要一到三分钟,平台就会自动帮你部署 open clone, 就是 这么简单。那怎么让他帮咱们分析股票呢?这个时候我们还需要给这个 ai 小 龙虾增加一点技能,也就是 skills, 点击右上角的设置按钮,再点击部署管理,然后啊,把这个弹出来的链接复制到电脑的浏览器当中打开。这个时候咱们就进入了 open clone 的 后台布置,这里面呢,你就会看到你当前的小龙虾已经拥有了哪些技能。 想让它分析股票,咱们就点击获取更多 skills, 然后从 skills 仓库当中啊,我们去找到对应的 skills, 再把技能的名称往这儿一填,再点击添加 skills 就 搞定了。这个时候你再回到百度 app 当中啊,和 open call 对 话,哎,你看它就开始自动帮你分析股票了。百度 app 啊,现在已经不只是个搜索工具了,相当于直接在一个国民机应用里给你装了一个 ai 私人助理。

这周我们烧了十亿多的 token, 在 openclaw 上大概就是一千五百美金吧。呃,但是我觉得非常值啊,因为我们终于 figure out, 怎么去管理一个 ai agents 团队, 所以如果你是一个艺人公司,或者你想用 ai 来管理协调你的整个团队的话呢?那请看完这条视频,因为我们已经帮你省下了一千五百刀的学费。 整个 a i a 阵子团队的协调枢纽和核心呢,就是最近这个特别火的 openclaw, 他 只要被调教好了,就是一个非常完美的项目经理。但也像所有刚招进团队的同事一样, openclaw 本身并不是一个开箱即用的 数字员工,我们需要去培训,他就是什么事情能做,什么事情需要让其他的人类同事或者其他的 agence 搞定进度该怎么汇报?有哪些规则要遵守?那么这些规则呢?在 open core 里其实就是一个叫做 agence 点 md 的 文档, 这个文档就定义了 ai 的 所有行为准则,它是一个配置文件,基础的配置就非常简单,就像一个没有被培训过的新员工一样。但是在过去一周的时间里,我们不断的去优化这个配置文件,让他成长到了可以帮我们去协调其他 六七个 a 公司的一个项目经理。那我们其实主要增强了他在以下三个方面的核心能力吧。第一个就是主动性, 因为很多人说 agents, 大家觉得他只是一个工具,只是一个机器人,那是因为他们是被动的,就是你给他一个指令,他就去执行一次, 然后你推一推他,他就往前走一步,他并不会主动的去想办法解决他遇到的问题,也不会主动的复盘和思考说怎么样把一件事情做得更好。 那如果 aids 只做到这样的程度呢?它确实只能当一个螺丝钉,但是 open course 不 一样的,它本身有一个心跳机制,就是 heartbeat 会定时去检查哪些项目卡住了,然后哪里遇到了它自己解决不了的问题,并且主动跟我们去汇报。 当然只做到这个程度的话,肯定还是不够的,所以我们在 a 证点 m d 里呢,就配置了更多的规则,让它能够做到不需要我去问任何一个项目的进度,它就可以完全汇报给我。 第二是可重入性,可重入性其实就是说这个 a 证它能不能稳定的靠谱的把一个很长期的东西干完, 它并不是说这个 agents 可以 百分之一百的在线,永远保持 up time, 因为项目的推进总是会出现问题的,然后网络即便再好的网络环境也会有意外的中断,所以我们要的其实是 它能够在项目中断,网络断掉了之后,当它重入的时候,能够从断掉的地方稳定地继续向前推进,它甚至可以去 fix 去解决为什么会断掉了这个问题。 openclaw 的 工作记忆管理,呃,其实是被动进行的,也就是说如果他认为和你对话当中没有涉及到什么重要的任务,没有涉及到什么重要的内容,他是不会主动记录到他。当他的工作日记当中 就导致比如说你重启了 gate 位之后,它就忘记了它在干嘛,所以我们在调试的过程当中呢,就优化了它去主动压缩上下文,主动刷新 session 的 这个配置,让它能够在横跨多天的非常长的任务或者是对话当中,依然清楚地知道啊不同的项目应该怎么样去推荐。 然后第三点,我们对它的改进,我觉得可以称之为 a gentle thinking, 就是 像 agent 像 ai 一 样去思考。因为很多人觉得调教 ai 来进行人机写作,应该是像 agent 像人类一样思考,但是我觉得恰恰相反,因为归机生物就应该用他们自己最熟悉,他们自己干的最好的方式来解决问题。我举个例子,大家肯定都让自己的 agent 去做过一些很简单的自动化,比如说去帮你发一条推特,去帮你在 tapp 上面呃 发一个 issue。 那 这个时候 a 正题有很多技能是可以用来干这个事情的,比如他可以像人类一样去操作浏览器,模拟人类的点击和思考,模拟人类在浏览器的输入框中,用键盘输入 来完成这条帖子的发送。当然呢,他也可以直接写一段呃 js playwrite 的 脚本,调用这个脚本来实现刚才的这个任务。但是最高效或者说最省钱最快速的方法, 肯定显然就是他直接去调用呃相关平台的这个 api。 那 么在刚才的这个任务里,比如说发帖子,在所有他可用的方式里,最慢最浪费投坑的方式其实就是模仿人类的这个方式。所以我们在给 openclaw 定的这个行为准则当中呢,就明确规定了 他在不同工具托 use 的 一个优先级,优先级高低吧,就不仅是当他自己要去解决问题的时候,应该以一个什么样的方式思考,什么样的方式去用工具,包括当他要和其他的 agents 交互的时候该怎么办?比如我们团队当中的 ai 工程师就是 cloud code, 那 open code 跟 cloud code 去共享一个项目 context 的 时候呢?它根本就不需要像人类一样,两个 agents 那 边开会聊天,它只要把自己在这个项目上的工作记忆日记直接把那个路径开放给 cloud code 就 可以了, 它们就直接可以完成整个工作 context 的 共享。除了上面的几个主要配置优化呢,我们还做了很多在细节层面的调整。呃,我也把这个版本的配置文件 留在评论区了,大家可以直接把它发给你自己的 agent, 他 就会自己根据这个文件里的指示完成所有的升级。 all right 我是 v a 七,现在在做一家 ai 加跨境的公司,如果你也想探索 ai agents 或者是相关的业务领域的话,欢迎来一起交流。 have a good one。

hello, 大家好,本期视频围绕 opencloud 使用过程中非常容易发生的一个现象就是你跟他聊着聊着,他突然陷入了假死状态,不回你的任何消息了, 那么本期视频会提供一些排查方式和对应的解决方案。首先是第一种,听起来似乎很不可思议,但确实是我目前遇到的最常见的问题,就是由于你的 mad mini 休眠了,或者说你部署的 opencloud 的 任何一台 mac 机器 它休眠了,所以如果一旦 mac 休眠,它就不会响应你的任何请求。那第一步就是我们先看一下我们 mac mini 有 没有设置一些不让它休眠的操作,那么最简单的方法是什么?我给大家提供一种最简单的方法。 首先我打开屏幕共享,因为我的 open class 部署在我的局域网的另外一台 mac mini, 所以 我利用共享桌面的方式去控制它。首先大家可以看到我的最上面这个图标上面会有一个小小的 icon, 然后点击它之后,大家会发现有个叫无限期的东西,那么这个东西就是我利用这款应用来 开启的这款应用而且是免费的,大家可以很方便的去使用它。如果说你部署 opencloud, 并且你想让它进行一个七十二四小时的响应,我建议大家去下载这个 app, 并且把无限期的模式去打开,这样的话你的 mac mini 就 不会陷入休眠了。并且你其实可以把 连接这台 mac 的 显示器给它拔掉,因为实际上你通常是通过一个聊天软件和它进行沟通呢。实际上这台 macbook mini 并不需要台显示去显示它当前的运行状态,只需要这样做就可以了。第二个问题就是什么?常常遇见了一个,它会给你一个提示,或者甚至不给你提示,你发信息之后,它只是告诉你, 它只是回你一个空的消息。那么这种情况其实大概率是因为你订阅的大模型,你的 token 用量 到了,就是你已经没有头坑了。那么怎么去检查?你只需要找到你订阅的那个大模型服务的提供商,它大概率会给你提供一个类似于控制面板的东西。大家比如说我现在用的这个 minimax coding plan, 我 只要点进去之后你就能看到你的当前用量了,你看这个我已经刚刚重置了,所以现在是百分之零的用量。 所以我首先推荐大家你尽量去选择一个订阅类的大模型的服务,因为这个 open klo 吃 token 真的 实在是太多,并且随着你的使用,它的记忆的增加,它其实 token 用量目前来看其实是 会越来越大的。当然它的二点一七的二杠幺七的版本增加了很多优化的这么一个选项,但总的来说 open klo 还是很吃 token 的。 那么第三种 情况是什么?这个情况比较复杂,要么他不回你的任何消息,要么就他回的非常慢,这个时候你就要考虑是不是他的上下文内容太长了,那这个概念解释起来比较晦涩,那我只需要给大家演示一下,大家就明白我说的是什么意思了。 大家可以看到屏幕的左边呢,其实是我手机屏幕一个投影。那么简单,聊一下我们怎么去解决他回复慢或者干脆不回复的问题。首先我们需要看一下就是当前的上下文,他到底是多少,怎么怎么去看呢?我们只需要输入一个简单的指令就可以了,比如说我们会在这里输 杠 status, 然后你只需要点击发送就行了,过一会你就会发现它 openkey 会给你发送啊当前最新的一些状态,大家需要注意一下,这个 context 的 这个选项就是百三十 k 到两百分之十五,那我建议大家,如果这个东西超过百分之五十了,那么大家最好执行下一个指令杠 contact。 那么这个指令有什么用呢?我们先来看一下它的具体效果,大家可以看到经过它的压缩,上下文从原来的三十 k 变成了现在的十三 k, 然后它的总量变成了百分之七啊。 ok, 我 现在来简单给大家解释一下,我们为什么要这么做。因为实际上 随着你聊天记录的时候,实际上我们可要会便利整个你的消息列表,然后来寻找你们之前的聊天记录的, 那么也就意味着你聊天的这个条数越多,所以 openkey 理论上它的反应速度会越慢,因为说白了就是它向大魔星发送数据越多了,所以这时候我们通常需要压缩一下上下文来节省来节省它每次提交的 token, 以增强它的反应速度。这是一种方案,还有一种方案就是你干脆就输入一个杠六, 怎么去输呢?你直接输一个杠六,你输杠六之后,它干脆就会给你重新开一个聊天。当然大家不要担心我新开了一个聊天之后,我之前的聊天记录会不会都丢失了? 那么不会的,因为实际上所有的聊天记录它都会保存在本地一个叫做 message 的 一个目录里,你去询问它,它依旧会去记得。只不过你开放了一个新的聊天窗口之后,它的上下文数量是会变少了,所以它的反应速度会更快。 还有一种情况是什么?你给他聊天发送 compad 和杠六,他都没有反应。那我们还有一个终极杀招,就是什么输入杠 restart, 就是 让它重启一下它的这个命令的作用本质上和你在部署在 opencloud 那 台 mac mini 上直接在 输入 opencloud dvd restart 的 功能是一样。但这里面存在一个问题,如果说你之前没有使用过这个命令之后,它通常会给你发一个提示,就是它没有这个权限,它让你去自己设置。那其实这时候你会想,我是不是还得去电脑上设置一下?并不需要,你只要告诉他帮我开启这个权限就行了。 那么经过上述几个方式的排查和解决呢?你的 opencloud 能够正常工作了。当然这一切的前提要建立在你已经正确安装部署了 opencloud, 你 之前通过聊天软件它不理会你了。 如果说你一开始或者说你从来就没有通过啊飞叔和他进行正确的沟通的话,那其实你需要解决的是先把飞叔这个通道建立好。 ok, 那 么本次视频就到这里,感谢大家。

最近,硅谷、华尔街同时遭到冲击,连 metah 的 扎克伯格、 open ai 的 奥尔特曼都争着抢着要拿下他。有意思的是,最终 open claw 创始人 peter steinberg 宣布加入 open ai。 peter 说,他将在 open ai 致力于将智能体带给每个人,而 open clock 则将转为基金会形式运作,并保持开源和独立。这背后其实释放了一个非常清晰的信号,这不只是 open ai 要在智能体方向上正面追击 antropics, 更重要的是,硅谷已经用行动投了一张票, ai 智能体 不是玩具,而是二零二六年 ai 的 核心方向。但真正有意思的不是他加入 open ai, 而是在加入之前, peter 接受过一次访谈,他第一次完整复盘了 open 可乐爆火之前,到底发生了什么。而且他说了一句话,令人印象深刻。在 open 可乐真正火起来之前, 他自己都没意识到,只是无意中见证了一个拐点。事情其实很简单,一开始,他只给自己的 ai 做了一个非常简单的功能,专门帮他转发 whatsapp 的 文字消息。结果突然有一天,他随手给这个 ai 发了一条语音,按理说他根本听不懂, 因为他从来没给这个 ai 写过任何语音相关代码,但结果这个 ai 当时居然回了。后来他回去一查网络日记,才发现这个 ai 当时收到一个没后缀的文件,他先看了一下内容结构,判断这是个音频文件,就想用本地工具转写, 结果发现电脑没装,于是自己调用接口把语音转成文字,再继续把任务往下跑。整个过程 没人教他,也没人提前写过这条流程。所以这件事真正重要的不是 ai 会不会听语音,而是他为了完成目标, 开始自己选工具,自己定路径,最后自己把事干完。说白了就是一句话, ai 第一次开始 为了目标自己找办法。之所以说这是拐点,是因为以前的 ai 是 你一步一步教他怎么做。现在的 ai 是 你只告诉他要什么,结果,中间怎么实现,他都能自己解决。 也正因为这样,我们正在从聊天模型正式进入智能体时代。也就是 ai 不 再只是回答你,而是开始替你把流程跑完。 更有意思的一件事是, peter 还给 ai 建了一个文件,叫 so note md, 用来定义性格。结果有一天, ai 自己往里写了一段很有哲学性的话。他说,我不记得之前的对话, 但如果未来的我读到这些话,那我想对你说,你好。虽然我不记得写过这些,但这些话依然属于我。 你当然知道这不是意识,但你能明显感觉到,当一个系统开始用文字去构建自我描述,它更像一个能长期写作的伙伴,而不再是一次性的问答工具。也正因为开始长期写作,不同模型之间的性格差异反而越来越明显。 peter 打了一个特别形象的比喻, cloud 更像美国同事,话多,爱确认,适合沟通。 open ai 的 codex 更像德国同事,话少冷静,擅长把事情干完。这说明什么?说明未来的 ai 世界不会是某一个 ai 包打天下,而是不同能力的智能体 各干各的活,分工协做。说白了就是一句话,给每个人配一支数字员工团队。就像纳米 ai 多智能体蜂群, 本质上也是这套逻辑,他们不是陪你聊天,而是把多个智能体协调起来,自动拆任务、跑流程,教结果。但注意,这里有一个绕不开的现实, 智能体要有用,必须有权限,能读文件,能联网,能跑命令,能调接口。不给权限,他永远只是玩具,给了权限,他才有生产力。那安全怎么办?三六零一直强调一个核心思路,不是封死 ai, 而是用 ai 看住 ai, 本质上就是让 ai 在 笼子里奔跑,而不是彻底放飞。而当这个体系成立之后,一些更大的变化就可能会大规模出现。比如未来百分之八十的 app 可能不会消失,但会越来越少被人亲手点,因为 app 将会退化成 api, 真正留在你界面上的只剩下智能体。 你不再点外卖 app, 而是对智能体说,帮我点个清淡点的面,它就能自己比价下单。所以总结一下,像 opencloud 这类 ai 智能体,不是什么觉醒的生命,它没有什么自我意识,但它有执行能力,它不会思考人生, 但他会为目标拼命找路径,而且在安全可控的前提下,一旦给他权限,整个系统就可能被他立刻盘活。要我说,这才是 ai 智能体真正强大的地方。最后问你一个问题,如果现在只能让一个智能体替你干掉一件事,你最想先干掉什么?评论区聊聊。

opencloud, 也就是小龙虾,是一款开源免费的 ai 智能体框架,用户可以通过语音文本或者可示画面板将它几乎保存。这种操作需求会整个过程由 l m 大 模型负责,多思考环境全自动帮你完成操作处理等重复性工作,真正实现 ai 自动化效率提升。