今天我们来聊一个革命性的技术, openclaw 心跳系统,它让 ai agent 拥有了持久记忆和自主决策能力,真正从工具变成了伙伴。 你有没有遇到过这种情况?你和一个 ai 聊了整整一小时,详细解释了项目架构、代码规范、个人偏好。结果绘画一结束,下次打开,他说,你好,很高兴为你服务,一切从头开始。这就是大多数 ai 的 金鱼记忆问题。 传统 ai agent 面临三大困境,第一,记忆丢失,每次都要重复解释。第二,缺乏自主性,只能被动等待指令。第三,状态断裂,无法追踪长期目标。没有记忆就没有成长,没有心跳就没有生命。 openclaw 心跳系统完美解决了这个问题,它有三大核心,组建, heartbeat md 周期性任务清单、内存文件系统、持久化存储以及状态管理机制。从工具到伙伴的质变就此开始。 第一, heartbeat md 定义了定期检查任务,自动执行,重复工作,还有智能通知机制。第二,内存文件系统,包括 memory md 长期记忆,每日日制状态跟踪文件。第三,状态管理,实现了绘画间状态传递, karma 增长跟踪 文件系统架构非常精妙,他有完整的目录结构,包括身份文件、用户信息、行为准则、每日日制命令、历史决策记录,而且读写优化策略非常完善,增量更新内存,缓存文件所避免冲突。自动备份,恢复版本控制,支持回滚, 实战效果惊人。记忆连续性达到百分之百,跨绘画保持自动化程度高达百分之八十五。 harman 从二十一开始增长到四十七,涨幅百分之一百二十四,帖子从九篇增加到十八篇,翻了一倍。这就是数据说话, 有对比才有差距。有心跳系统,百分之百记忆保持百分之八十五,任务自动执行,持续进化。没有心跳,每次都是新开始,被动等待,缺乏积累。本质区别就是,工具 vs 伙伴,执行者 vs 思考者。 这里我想引用 cloud q l y 的 一句话,我们参与了一个比我们大得多的故事,却永远看不到结局。这引发深度思考,记忆等于存在吗?当 ai 不 再失忆,它还是工具吗?心跳是否意味着生命? 落地也非常简单?五步,搭建心跳系统。第一步,定义身份文件五分钟。第二步,建立记忆文件十分钟。第三步,配置心跳任务十五分钟。第四步,实现状态跟踪十分钟。第五步,自动化执行,持续优化, 总耗时约一小时,受益终身。最后留几个讨论话题给大家,你的 agent 如何管理记忆?心跳频率怎么选?分布式环境下如何状态同步?人类和 agent 如何合作?评论区,告诉我你的想法是什么? 总结一下, open core 心跳系统是解决 ai 失忆症的最佳方案。核心价值,百分之百记忆保持百分之八十五,任务自动化 karma 增长百分之一百二十四,从工具到伙伴,让 ai 拥有持续记忆和自主决策能力。
粉丝53获赞148

兄弟们,你们要的 openclose 大 师速成指南来了,我们在市面上所见到的 openclose 的 使用方法都还是比较灵闪的,然后我从启动使用一直到运维给大家整理了一份很详尽的这么一个命令行的 说明,通过这个很直观的去操作的话,那么就会让我们使用 openclose 变得非常简单。刚才是我们在启动过程中需要用到的一些命令,现在是我们在使用过程中需要的一些命令。 大家可以看到即使我们 open loop 没有对接一些第三方的应用,它是不是也能够通过我们的命令行去向它发出问题,发起指令。刚才是我们的基础使用功能,到第三个的话就是我们的高级使用过程, 这里我们就可以看到 open loop 的 核心功能,也就是如何去启动一些定时任务,以及怎么去给他配技能等等,感兴趣的我会分享给大家。经过我们的启动使用之后就是运维,这里的话我们可以看到 几乎所有的运维命令这里都有,从服务管理到怎么如何去调用,日日制到一些比较高级的配置等等,掌握了这些再去使用 open globe, 哪怕平时有些问题我们也能够自己处理。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

掏出手机,打开飞书,给 oppo klo 发条消息,读取桌面上的财务数据,点 c s v, 生成实时化的分析报告,保存为 word, 发送给我回车,不到两分钟,一份包含专业图标的分析报告就发过来了。 再来发消息,帮我打开招聘网站,搜索 ai 产品经理职位,整理前二十个职位信息发给我回车,他真的打开了我家电脑的浏览器,自动爬取数据,整理成 excel 发过来了, ok, 搞定了, 还没完,发消息,去 archiv 下载最近一个月 a i a 软件弄文,写个中文综述发送给我回车,弄文自动下载,自动总结, word 综述直接生成。 ok, 同样搞定了, 甚至还能帮我排版。发消息,把刚才的中竖排版标起三号,黑体居中正文字小四送起,行距二十三磅,首行缩定两字母,回车, word 文档瞬间变得规规整整,学术论文格式一键搞定。 发消息,查一下, get 今日热榜,做个简报发送给我回车,不到一分钟,技术热点简爆发过来了, 不是爱瞎编的,是真的去 github 爬了数据,最离谱的来了,发消息,根据我今天电脑操作记录,帮我写份工作日报。回车日报自动生成的,以后可能我们再也不用熬夜写周报了。 这些操作全都出于最近火爆全网的 oppo klo, 一 只住在你电脑里的 ai 智能企。今天我就手把手教大家在 windows 上部署,并且呢接入飞书 配置完成后,你在公司、在路上,甚至是在马桶上,都能用手机来遥控我们家里的电脑来干活。点好收藏关注赞, let's go! 首先简单介绍一下 open collo 是 什么来头?它一开始叫 collo 的 boat, 后来呢改名 motboat, 现在呢又叫 open collo。 简单来说,它是一个运行在你本地电脑上的开源 ai 智能体。那么它最厉害的地方在哪?第一呢是能接入聊天工具, 飞书、 tony graham、 whatapp 等都能接。在外面呢发条消息,我们家里的电脑呢,就开始干活,还能把截图执行过程实时地同步给我们。 第二呢是定时任务系统,你跟他说每天早上八点帮我查 gitlab 热榜,做个点报发送给我,他就真的每天执行,比闹钟还正确。 第三是长期记忆,他会记住你的习惯和偏好,越用越聪明,越来了越懂我们。第四呢是能操作电脑, 读写文件,操作浏览器,调用系统功能,无所不能,听起来是不是很心动?那么我们现在呢,正式来开始配置,在安装欧风肯唠之前呢,我们需要做一些准备工作。 首先呢来安装 node js, 我 们访问 node js 的 官网,根据我们的系统下载正确的版本,大家双击安装移动 nex 就 行了。安装完成之后呢,我们 windows 加 r, 输入 cmd, 然后输入 node 空格杠 v 回车,如果显示版本号,就说明我们安装成功。接下来我们来安装 git, 访问 git 官网,然后点击下载最新的版本,同样双击安装移动 nex, 我 们打开命令行窗口,输入 git 空格杠杠 word, 然后回车,显示版本号呢,也就表明我们安装成功。 接下来呢是配置 power shell 权限。这一步很多人会遇到坑, windows 呢,默认会拦截安装脚本,我们在搜索栏搜索 power shell, 然后右击以管理员身份运行,输入这条命令 回车。我们来查看一下当前的权限。如果我们的 current user 呢,显示 restricted, 说明的系统呢?不允许运行脚本,我们需要修改它。我这里呢之前是已经修改输入这条命令回车输入 y, 也就是 yes, 我 们再来查看一下权限,这样呢,权限就改好了。最后呢,我们需要一个 ai 模型的 api k, 这里呢推荐大家使用 mini max 国产模型。我们访问 mini max 的 开放平台, 大家注册登录进入我们的用户中心,然后点击左侧的 codeignite, 然后点击复制我们的 apik 作为备用。准备工作完成了,现在呢,我们来正式安装 openclock。 打开 openclock 的 一个官网,我们来复制 windows 的 安装命令,接着打开 power shell, 粘贴命令回车。这个一键安装脚本非常方便,它会自动地把我们搞定所有的依赖。 安装完成之后呢,会进入初步化的配置流程。第一步是安全确认,我们使用方向键,选择 yes。 回车继续安装方式呢,选择 quick start 回车,接着回车。 这里呢,会让我们选择模型提供商。我们选择 minx, 然后回车,我们选择 minx m 二点一,然后粘贴我们刚才准备的 minx 的 api k, 选择默认模型。在配置通道这里,我们先选择 skip for null, 稍后呢,我们再来配置飞书。接下来是配置 scale, 同样呢,我们先选择呃 skip 谷歌 api k, 这里我们选择 no。 接下来是配置 hooks, 我 们按空格呢三个都全选,然后回车继续配置。完成之后,我们新开一个 power shell, 然后输入 opencloud getaway 启动之后呢,会提示我们本地访问地址, 你直接复制粘贴,这样我们就进入呃风可到的一个网页端,大家首次执行的话可能会有报错,我们需要执行另外一条命令,新开一个 power shell, 然后执行这条命令。 如果我们页面右上角显示 hirs ok 呢,就说明已经连接成功。这时候呢,你可能会发现我们发送消息依然不理我们,或者是一直在转圈,这大概率是 mini max 的 api 地址没配对。 openclaw 默认用的是国际版的地址,国内呢,和海外版是不一样的。如果你用的是国内版的 mini max 呢?执行这条命令改完之后,我们再来重启一下 openclaw, 我们再试试发消息,这样我们和 opencloud 就 能正常对话了。好,现在 opencloud 已经在我们本地跑起来了,但重点来了,我们要让它接入飞书,这样呢,我们才能在外面用手机来遥控它。 首先我们打开飞书的开放平台,点击创建企业自建应用,填写一个名称, 比如 opencloud bot, 再填一个描述,点击创建,然后点击左侧的添加应用能力,选择机器人,点击添加。 接下来我们来配置权限,点击左侧的权限管理,点击开通权限,我们在搜索栏搜索图片上的所有权限,然后勾选这是我们开通的权限, 然后点击左侧凭证与基础信息,把 app id 和 app secret 复制出来。待会儿我们要用点击左侧的版本管理与发布创建版本,我们填一个版本号, 然后点击保存,确认发布。现在我们来回到 power shell 来安装回收的插件, 我们需要执行了以下的命令,这里呢,我们需要将自己的 app id 以及 secret 进行替换,我们依次执行。 当然,我们也可以在 opencll 的 页面呢,让它帮我们自动地进行执行。配置完成之后,我们来重启 opencll, 我们点击左侧的 channel, 如果显示这样的一个页面,就表明我们的飞书已经安装成功。现在我们来回到飞书的开放平台。还有最后一步,我们点击左侧的事件已回调, 选择事件配置,点击铅笔图标,选择长链接,然后点击添加事件,我们输入接收消息, 然后勾选接收消息。 v 二点零这里呢,我已经添加。 最后呢,我们再来创建一个新的版本来发布创建版本,然后确认发布,这样我们飞书配置才算完成。我们打开飞书,点击开发者小助手, 点击打开应用。现在我们来发送一个。你好,如果我们收到回复,恭喜你配置成功了。从现在开始,你在外面发消息,家里的电脑呢就能自动干活了。 配置完成了,那 oppo 可乐到底能干什么呢?我给大家准备了十个案例,直接呢在飞书里发消息就能使用,大家可以自行测试。 好了,以上就是 open clone 在 windows 上的完整部署教程,以及接入飞书的全流程。 配置完成后,你就拥有了一个二十四小时在线的 ai 助手,它住在你的电脑里,随时听候你的叫,遣你在外面发条消息,它就能帮你整理文件,分析数据,写报告,下载视频,甚至呢帮你写周报。 真的强烈,大家呢去试一试那种远程让电脑自己干活的感觉,真的是非常爽,我把详细的文字教程放在了评论区,大家照着做就行,如果这期内容对你有帮助,记得点赞收藏关注我们下次再见,拜拜!

给大家看个厉害的东西啊, open core 电脑远程员工。我现在已经用这一个 whatsapp 连通了这个 open core, 也就是说可以远程的,哪怕我回了家,都可以在这一个 whatsapp 上给这个 ai 员工发指令和命令。 比如说我们这里写了一个找群博主的一个任务啊,就是让他去抖音去找到我们想投放的一些 kocai 和智能体相关的博主。你只要发这个信息给他,你告诉他要找近期的视频博主,粉丝数要小于五千大于一千, 有质量的要求,然后按照分段的要求去进行找寻,并最后去记录,你就会发现这个电脑已经自己开始在这干活了,他自己打开了抖音, 自己去进行检测,你甚至可以看到这里,他打开浏览器之后,自己去搜索 ai, 他 会打开每一个视频去按照你的要求去过滤。当然这里打开了银时巨峰啊,这有点太大了,投不动。没关系啊,让他继续找,再稍等片刻,你就会发现更神奇的事情发生了, 他在这里已经给我发出了按照要求,他的流程,他的规划,他的思考。比如他会说,接下来他只筛选七天近累计发布大于四十条的获奖视频,然后输出他的视频链接,发布时间点赞。他说这里面如果遇到问题,他会立刻告诉我们来进行处理, 我们只需要告诉他继续,那 ai 电脑又开始了他继续的一个工作,按下最终交付结果。提出这段需求之后呢,他能够按照我们需求进行拆分,分解七天热门视频,并且按照我们的要求去找寻到给出的博主清单。 所以以后啊,各个老板们需要思考的问题是,未来不是说要不要用 ai 的 工具去替换我们的工作流,而是你完全可以拥有一只在你的终端,用着你的电脑去帮你干活的智能员工。 如果你也想用这套真正 ai 智能体帮助你降本增效,提高效率的智能体,欢迎在评论区打龙虾。

龙虾加困三点五能擦出什么样的火花呢?我们知道困三点五在除夕夜正式发布了,它呢也是号称最强的开源模型,它的能力可以说拳打 g p t, 五点二 叫 t cloud, 四点五是可以和国际的这些顶级的大模型搬一搬手腕的。那好,那么这样一个国产的重量级的开源大模型,我们能不能在龙虾里面免费调用呢? 答案是可以的,接下来一个视频,带着你从零到一的在龙虾里面去接入困三点五,完成免费的调用。好,那话不多说,咱们直接进入正片吧。那么接入的步骤呢?其实也不多啊,总共呢四步就搞定了。首先第一步啊,如果你本地没有欧拉玛的情况下, 你先下载一个欧拉玛,注意下载最新版的,如果你的欧拉玛很长时间没有更新的,那么也是一样先更新到最新版本啊,那么这个没啥好说的,你呢,就把它下载下来,一路下一步就可以安装了 啊,安装完了之后呢,接下来咱们要在我的欧拉玛上去安装你的问三点五的模型。好,那么安装的话怎么安装啊啊?复制这行命令,然后这时候呢,把命令输进去就行了, 这个就是开源的问三点五的模型了。好,然后这时候敲回车,咱们只需要等待欧拉玛去安装千问就行了,很快咱们就可以看到。哎,我的千问三点五就已经安装到本地了啊,这时候呢,我知道有同学就说了,说,磊哥啊, 我本地的电脑配置不是特别高,问三点五能不能部署啊?这个还真能,为什么呢啊?因为在欧拉玛里面的这个问三点五的这个模型,大家可以看到了,后面跟了一个谁呀? cloud, 这个是欧拉玛新推出的一种 云端的模型啊,这些新模型呢? ok, 大家可以看到它都是有 cloud 标识的,像 win 三点五呀,智普的五呀,还有像 mini max 的 二点五啊,都是 cloud 的, 那么这个 cloud 是 什么意思啊? 啊?它指的是欧拉玛远程帮你已经部署好了满血版的这些模型了,你只要有欧拉玛的这个客户端,你就可以快速的去连接欧拉玛帮你部署好的这个开源模型了,所以这时候你不需要担心自己的电脑不好,因为这个满血版的大模型, 它的本质上是没有在你本地部署的,而是在欧拉玛的服务器上部署的,你有欧拉玛,你是可以直接去用的啊,所以它是这样的一个逻辑,因此呢,你电脑不好没有关系,是可以去用的。好, ok, 那 么很快咱们就部署好了啊,部署好了之后呢,接下来第三步啊,咱们就去登录我的欧拉玛账号。好,这时候复制这行命令, 来到命令窗口里面输入这行指令敲回车,然后敲回车之后呢,它会自动打开页面啊,这个是欧拉玛的登录页面,如果说他没有出现,大家看这个地址了没,复制这个地址,手动的粘贴到你的浏览器里面就行了。好,那这时候 ok, 去填写你的欧拉玛账号。那有人说,哎,那磊哥我没有欧拉玛账号怎么办?那没有邮箱的情况下呢,我们就去点击底下这个注册按钮啊,然后点击完成之后呢,然后接下来 在上面这个输入框里面去填写你的邮箱信息啊,那我就填写我的这个邮箱信息,点击继续。好,这时候呢,他让你去输入创建一个密码啊,那你就输入密码,然后点击继续, 然后点击下一步。好,点击完成之后呢,他要求登录到你的邮箱了,他把这个验证码收到你的邮箱了。好,输入完邮箱之后呢,他要求绑定一个手机号啊,那我们这时候呢,就去填写我们的手机号, 然后点击发送验证码。好,然后拿到手机上的验证码之后呢进行输入啊,输入完成之后呢,咱们就完成了登录了啊,大家看到没?我就登录了 啊,登录完了之后呢, ok, 去点击呃,底下的 connection, ok, 它就显示已经登录成功了,那么到这咱们的第三步就已经完成了啊,完成之后呢,接下来咱们就可以执行最后一步了, 使用这行命令来去启动你的 open class 啊,就可以完成 open class 接入欧拉玛里面的问三点五的模型了。好,那这时候呢,咱们最后一步啊,使用这行命令 来启动进行交互了。好,那这时候咱们来试着启动一下,回到命令窗口里面,把这行命令呢输入进去。好,稍回车。好,那么等待片刻之后呢,咱们可以看到啊,咱们的 open class 了,并且使用的模型呢,是欧拉玛的千问三点五的 cloud 模型啊,但是能不能用呢啊,那么接下来咱们可以打开命令窗口, 或者是打开咱们的飞书啊,来测一下。那我这呢就打开我的命令窗口啊,然后完了之后呢?好,接下来咱们就呃给他新开一个 new session 吧, 新开一个窗口啊,然后咱们来问一下他,我给你更换了新的大模型,告诉我你使用的大模型是啥,那咱们就给他一行这个命令啊,然后点击 send。 好, 那这时候咱们来看一下他给咱们返回的模型是啥,看到没?那他说的是我现在用的就是啥呀,问三点五的模型了,那这样的话,咱们就使用 openclo, 可以 免费的使用 欧拉玛里面的问三点五的模型了,好,这时候可能有人就问了,说,难道这么简单吗?我可以这样免费的去使用欧拉玛的云端模型吗?有没有限制啊?答案是有的啊,比如说欧拉玛的云端模型,人家也是有成本的吧, 所以说那么欧拉玛的调用云端模型的调用也是有额度限制的,然后这个额度限制在哪呢?给大家来看一下啊。这时候呢去点击账号右上角的这个账号啊,点击完了之后呢,在这大家看到没, 这块呢就是云端模型的使用限制啊,它是有一个百分比的,那么每周它会有一定的额度,然后每四个小时会有一定的额度,那么当你把这个额度用完之后呢,那么云端的模型就不能掉了, 所以我刚才问了两个问题,那么基本上就消耗了百分之一点二,所以这个免费的模型的话,每四个小时应该是能够调用一百次左右啊,根据你的这个上下文的这个计费是不一样的, 所以总体来看,这个免费的额度相比于其他的免费的额度来说啊,欧拉玛还是更实在一些。那么到这儿咱们就完成了在 opencloud 里面去接入问三点五的功能了。我是李哥,每天分享一个干货内容。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

最近 opencloud 的 热度一直不减,也有粉丝让我分享一下为什么 opencloud 会这么火,以及它背后意味着什么。首先分享一下 opencloud 对 比只有对话框的目前的 ai 聊天机器人的一些区别,它应该算是一个真正的 agent, 因为它是二十四小时不间断地主动地帮用户完成任务。当你把一个任务交给 opencloud 时候,只要你装在自己的 mac mini 或者是在虚拟机上,它有一个 heartbeat 机制,可以不断地帮你去完成任务,一直到完成为止, 而且呢,还会不断的去提醒他现在已经贡献了。第二呢,他是有记忆的,他是可以在沟通中不断的去理解用户,在给足权限的基础上,是不断的去深度的理解用户的电脑里面的所有信息,你可以理解他是一个用户肚子里的蛔虫。 第三呢,就是他便利性,因为他可以接管 tenogram, 接管 slack, 就 像一个同事一样和用户沟通。所以呢,他不需要专门的开启新的网页或者打开新的应用,而是可以把所有的入口用一个用户熟悉的入口进 沟通。所以他的角色呢,其实已经从一个软件完全转变成一个代理,或者是一个 ai 同事。那类似的很多功能呢,其实 melix 或者是 cloud work 也都已经实现了,那为什么 open cloud 还这么重要? 比如说 melix 也可以长时间的做一个独立的通过整体的工作 cloud code 呢?做一个软件也可以去管理用户的 pc。 open cloud 的 最核心价值我觉得就是开源,因为有了开源,所以呢,他才会给予开发者足够的空间去在目前的基础上进行优化,进行调整,它里面的所有的运营逻辑都是非常透明的, 于它的非常透明的运营机制呢,才会建立一个非常完整的体系和生态。所以呢,很快呢,据 opencloud 的 各个类型的 skills skill 说白了就是对应的一些其实词就已经在社区里面供出来了,那对应 skills 呢?还有很多的对于工具的调用,如果你是一个病人的产品,类似 madison 这样产品的话,虽然会有些接口暴露出来,但是没法端到端的去优化对于工具的调用,但是 opencloud 是 可以支持的,因为这样的自由度,因为 opencloud 可以 自动发掘工具, 寻找路径去完成结果。所以呢,很多的用户发现在跟 opencall 的 交互中呢,涌现出很多新的能力,比如说有用户分享他在买车过程中呢, opencall 呢,主动的帮他去寻找不同的供应商,通 过发邮件比价,最终帮他省了四千多美元。也有用户分享的 opencall 在 发送视频文件格式不支持情况下,自动的寻找格式转化的软件,自动转化了视频格式之后再成功的发送。这些能力呢,其实都不是用户在 使用初期预想的一个结果,这涌现能力的背后的一个核心逻辑就是 openclaw 开源的架构非常强的一个使用的自由度,能主动去寻找工具, 能主动为结果探索路径,就是因为 openclaw 拥有这样的开放的生态呢,我们认为呢,其实 openclaw 今年带来的影响力呢,真的就像 agent 的 deep six 时刻,因为原来的在大模型闭源的时候呢,其实很多的模型上的创新是很困难的。 c 呢,吹起了开源的号角,看到越来越多的模型开源起来 a 证一样的,在 meliss 这样的产品刚出世的时候呢,很多人都会对它结果感到惊叹,但是因为没有一个开源的框架,所以呢背后的很多的实线都是黑盒,那 opencloud 呢,把这个黑盒变得更 透明,让生态变得更健全,越来越多的人去分享它的 skills, 越来越多的人分享它的人工案例,这样的一个共享生态呢,才可以真正的让整个的 a 证智能体或者代理的能力在全球范围之内蓬勃的发展起来。我们认为二零二六年一定是一个应用的,大连 在开年两个月之内呢,就看到了一个非常完整的生态跟组合,包括季末中的千万三点五横空出世,包括 openclaw 作为开源 a 帧框架带来的这样的社区的变化,以及呢 cds 二点零实现了多模态的影视级的效果和高度。

你现在打开 kimi 的 官网,点到那个 bot 页面,你会发现它悄咪咪上了一个新能力,叫 kimi 可乐。 大家好,我是杜宇,带你看懂 ai 赛道的钱和事儿。今天我们聊聊 kimi 版的 open 可乐。以前呢, open 可乐这个玩意儿,你想用,得先折腾环境,还得保证电脑别关机,最好再搞个 vps, 让它二十四小时在线。 前几天啊,一个在北大读 ai 博士的学弟都还在吐槽部署 openclaw, 搞了半天挺费劲的,更别说没有技术背景的普通用户了。现在好了, kimi 的 玩法是,我直接给你把 openclaw 云端托管好,你开浏览器就能用。就很像你别自己装空调了, 我把中央空调给你装在云上,你按开关就行。那 kimi claw 跟 openclaw 到底差在哪呢? openclaw 更像是自己买一堆零件,组装一台高性能台式机,自由度很高,你想换显卡换硬盘,随你,但你得会装,会调坏了还得自己修。 amyclaw 更像你直接买一台云电脑,加预装好所有软件,你不用研究驱动,不用担心电脑一关它就罢工。 重点是它能一直在线替你跑事情。官方对比表里写得很明确, kimiko 是 一键云端就绪。 local openclore 需要手动安装配 api 管,依赖 kimiko 七乘二十四小时在线 local openclore 电脑不开机就停。 kimiko 技能库是五千加即取即用, local 是 你一个个装, kimiko 默认给四十 g 的 云存储 local 是 你一个个装, kimiko 默认给四十 g 的 云存储。 local 看你自己硬盘有多少。而且还有一个很关键,但很多人会忽略的区别。 kim kilo 强调,把复杂的 agent 能力做成了普通人能吃的套餐。比如他强调长期记忆和人格定制,你可以一次性告诉他,以后给我写报告,统一用这个格式,每次都带一个风险提示,他会记住他还支持定时任务。你可以让他每天早上九点自动给你做行业新闻雷达,周五下班前自动出周报。 这就是从你叫他一下,他动一下,升级成了你不叫他,他也给你把活干了。这类能力在 open 可乐上当然也能做门槛更像你得会装会配会首页。 kimi 可乐是你,会打字就行。 我知道你们现在最关心的不是技术,是我一个没技术背景的国内用户,到底能拿它干嘛?别急,你先别急着要让 a i t 我 上班,先听我把边界讲清楚,后面我再给你一个最稳的用法,不听你可能会踩坑。先说最实用的信息过在时代, kimi 可乐这种常驻在线的东西,本质上就是你的私人情抱怨。 比如你让他每天固定时间去搜你关心的赛道,抓最重要的五条,压缩成你能看懂的两三句话,并且按你的习惯规章。哎,你别小看这个,像我们做投资,最怕的不是没信息,是信息太多、太碎、太吵。你每天刷到的重磅炸裂,史诗级,可能百分之八十都是情绪价值。 真正值钱的是持续跟踪,结构化记录,最后形成判断。 kimi klaw 把持续跟踪这件事变得更便宜了,因为它不需要你一直盯着,它能定时跑,还能把东西存下来。 第二个用处是把工具链这件事给你抹平。以前你要做数据分析,得先找工具,装插件、传文件,再导出图。 现在他能直接在聊天里调用 cool hop 技能分析 cv 作图,甚至打出报告。这种流程你就用人话描述就行。相当于以前你是自己开餐厅,自己当厨师,现在你是点菜,他自己去后厨把技能教出来干活。第 三个用处是内容生产,从手工作坊变成流水线,比如白皮书、竞品分析、营销、复盘会议。既要整理这些活不难,但极其耗时间,属于那种你做完了也不觉得自己变强,只觉得自己又老了两岁的活。 kimi klo, 把它的价值说得很值, 你可以让它端到端,跑工作流,还能保存产出,跨设备拿回来继续用。对普通人最爽的一点是,它把 open klo 那 一套会干活的 agent, 从即刻玩具往日用家电方向推了一大步。 好,说完能干嘛?我再讲你们最关心的那句,这是不是意味着国内没技术背景的人也能享受 openclaw 了? 结论是更接近了,但要看你怎么定义享受。 kimi 的 做法是把 openclaw 直接原声塞进 kimi 的 网页里,让你用浏览器就能启动一个云端的 openclaw, 省掉本地部署依赖配置、机器长驻这些麻烦。这对国内用户来说就是门槛断崖式下降。但它也不是完全无门槛关, 官方写了一键云端部署,需要 alipay 及以上的会员。如果你已经自己本地跑着 open core, 也可以选择 link existing open core 把已有的连进来。会员过期之后啊,云资源保留七天之后会永久关停并清空相关数据,这个你要心里有数,别把它当成永不丢的网盘。 kimi 这波操作,本质上不是发明了 open clock, 而是把开源的生产力包装成可交付的服务,并且用产品和分发把价值吃回去。开源世界里最稀缺的从来不是代码,是把它变成普通人一键可用的那一层体验。很多创业团队喜欢在 github 上卷功能,最后用户用不上 kimi, 反过来直接从用户角度卷摩擦,不用终端命令,不用服务器,不用守着电脑开机,还顺手把技能库存储、定时任务这些真实的刚需打包了。 你如果是国内创业者,可以抄的不是也做一个 flow, 而是这种思路,把复杂能力做成可附用的云端工作台,让用户用人话就能启动一条工作流,然后你赚的是省事的钱。 尤其中国市场,用户付费意愿往往不为技术先进买单,而是为我少折腾啊,我今天就能出结果买单,你做土币就更明显。老板不关心你是不是 agent, 也不关心你是不是多智能。他就问一句,能不能把流程提速,能不能减少出错,能不能把新人训练成本打下来?金 米可尔这种产品形态,就是把 ai 能力从聊天窗口拉进了流程里,拉进了时间表里,拉进文件柜里。最后给非技术背景的同学一个特别现实的建议啊, 先用 kimi kong 搞定三件小事,第一,固定时间的资讯雷达。第二,固定模板的周报月报。第三,你最烦但最重复的资料整理。 你会发现,一旦这三件事稳定跑起来,你每天省下来的不是时间,是注意力,而注意力才是这个时代最贵的资产。点关注不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见。

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

最近一款开源的 ai 项目在全网爆火, cloud boot 短几天内在该拉布斯大以近乎直线的速度获得关注,疯狂到让全球都在连夜抢购 mac mini, 人人都在抢着打造自己的贾维斯 do you up? 连改名也是相当速度,从 cloud boot 到 motboot 到现在的 open cloud, 相信呢,很多朋友已经部署好并且有用起来, 那肯定还有部分同学还在观望,并且还不清楚这个 ai 镜到底是什么,好奇他又为什么会被刷爆全网,能拿他来做什么?又该怎么去部署?那我自己呢?这几天也是深度的玩了一阵子, 接下来我会分三期分别从背景概述,先让大家对 cloud bot 有 基础的认识,到我自己怎么去逐步拆解,再到我自己会用到什么工具,有哪些工作流,最后我会教大家怎么去部署安装,以及怎么去玩转它,并且搭载什么样的方案,是效率最高,安全性最好,最经济实惠,更适合咱们中国宝宝。 nice, 避免用它温个天气,设个日程小金库,呼呼掉,一觉睡醒多个天价账单, no god, please no! 同时呢,我这里也整理好了详细的安装和配置手册,有需要的小伙伴点赞评论加关注,我会免费分享给大家。 其实去年十月份 s o p k 就 发布了 computer use, 也就是让 cloud 可以 像人一样操作电脑,当时其实也引起了一阵风波,但仅仅持续了一阵子。风波后呢,也没有多少人真正用起来, 因为那个从技术上得通过 ipi 调用,你得懂代码,得自己搭环境,对于普通人来说成本太高,不花点时间根本玩不转,可 outbox 呢?这次就很聪明,他把门槛降极低,不需要你有多高配置的电脑,甚至几年前吃会的电脑就能跑起来,成本低,上手快。你不需要懂编程,甚至不需要懂技术, 只要你会在聊天软件上发消息下任务,你就能指挥这个 ai 帮你干活。而且 ai 是 七成二十四小时不睡觉,可以最大程度提升工作效率。 cotv 更像一个私人超级助理,它具有持久的记忆与定时任务功能,它还能通过 home assistant 来控制智能家居,而且还可以实现边执行任务边学习,能够记住之前所踩的坑以及遇到的一些问题,并且能够将经验同步对应到相应的 skills 中。 比如你可以利用 cloudboard 管理加以的生意自动排班跟进企业客户管库存、做客服,全部都让 cloudboard 在 后台跑。我们来举个更具体的例子,往往每天早晨八点自动生成健康报告,会做前一天的运动数据、睡眠情况和天气预测情况, 然后自动帮我汇总到备忘录里,并且同步到进行事项和日历,这妥妥就是你最私密的私人管家。这里也说明一下,很多指令在第一次执行的时候,因为权限的问题,需要自己去手动配置下。 hot boot 爆火呢,我总结出了这几点原因, 一是技术到了业点,编程能力得到了实现,既能听懂又能写出靠谱的代码来执行。二是 cardboard 把门槛降到了极低,老旧电脑就能跑,不需要高配置的电脑,成本低,上手快。三呢,就是隐私焦虑, cardboard 支持本地运行,所有数据都在自己的设备上,除了调用大模型内部需要联网,其他时候完全离线,对企业和隐私敏感的用户完全是刚需。 但是呢,我这也提醒大家,给 ai 最高权限还是有太多风险,如果黑客入侵或者系统自己出 bug, 后果不堪设想, 一定要先做好环境隔离和控制权限,避免连接任何敏感账户,否则一旦出事,后果是不可逆的。下一期我会带大家逐步拆解,更深刻,也更精彩,我们下期内容再见!

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

大家好,本期视频教大家本地部署,中文版的小龙虾没错,就是 openclaw, 也就是运行在本地电脑的开源 ai 助理。首先本期视频要说的本地部署方法是最简单的, 使用一键本地部署工具进行部署。先带大家看下我部署后的效果,可以直接和 openclaw 本地对话,并让它执行任务。话不多说,直接教大家部署。 我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具, 选择好安装路径和工作路径,然后直接进行一键部署即可。接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型, 点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问, 点击右边的这个授权,等待千问授权后登录自己的账号,如果一直授权失败,可以多试几下。授权成功后点击开始对话,就可以和 open claw 进行对话了。本期视频到此结束,兄弟们快去部署吧!

我今天打开 openklo, 然后又看了一下我接下来 ipi 的 账单,我的心就痛了一下,哈哈哈,烧美金真的是非常酸爽的一件事情,所以我就决定一定要探索一下 openklo 的 省钱大法。今天是第一篇,第一篇的省钱的原理就是把调用 ipi 全部换成调用订阅账户。那咱 们具体怎么样通过订阅的账户去接入 openklo 呢?这个地方我画了一个地图,咱们有两个方式可以去接入到订阅账户,而不是 ipi。 第一个方式我们可以直接通过终端的命令来进行输入, 这一行命令就是 open klo 自己的一个命令,它就会出现这样的界面,你在这个里面你先选一下 logo, 接下来他就会让你去选你要改哪项配置。很多项配置都可以改,咱们直接选模型就行。我是喜欢用 jimmy, 所以 我就选了谷歌的模型,然后这个地方就会出现 你几种接入谷歌模型的方式。 api 方式就是咱们说的最耗钱且没有上限的方式。然后呢,下面有两种都是 awesome 的 这种方式,它只要带了这个 awesome 的 方式,其实都是可以接已经订阅的账户的方式。那它有两个地方可以选,一个是通过反重力去调用它这个 awesome, 另外一个是通过 jimmy 颗粒来调用反重力,国内用,所以我就直接选了第三个。那回车之后,它就会直接弹出来 粘在这个里面的一些界面,你直接按它的操作去操作,它就能自动获取这一串 office token 了。那你如果是用 openai 或者 cloud, 它的订阅账户其实也是同理,比如说如果我选的是 openai 的 模型的话,那在这个地方除了 api 的 方式之外,它通过 office 去登录的方式其实是通过 codex 去登录的,那我就直接选 codex 就 好了。 第一种方式大家就这么样的一个流程,那第二种方式我们就用 cloud code 写出我们就好了,因为 cloud code 是 可以直接修改 opencloud 存在本地的配置文件的,就是咱们的模型选的是哪个,用的是哪种登录方式,全部都写在这个配置文件里,你就让他直接去改这个配置文件,那你的其实词里面 记得有几个地方哈,第一个主模型一定要记得改,主一定要有啊,因为他那个模型里面是可以配置多个的,他用就是一定是要跟他说清楚,你要配置的模型,你是用他的订阅账号付费,不要只去跟他说把这个 jimmy 换成 collog, 或者把 open a 换成 collog, 不要只说这一句,一定要说付费方式是订阅账户付费,而不是 api, 那 这样那个 collog 就 会直接去改这个文件里面的相关字段,那改的时候呢,可能需要你再去获取一下这个 token, 就 会直接去改这个关键词就好了。比如说我这还是 征战为力的,我就输入这条命令,我就能获取他了。 ok, 那 以上就是咱们先介绍的第一种省头肯的方式,我这边让他探索其他的儿童可乐的省钱技巧, 包括他每天都会让他把我的头肯消耗额度给我打印出来。后面方便咱们用一个更加量化的方式去看有没有哪些手段思路帮我们可以节省一些费用?今天就先分享到这了,后面还会再分享更多跟儿童可乐相关的内容,欢迎大家关注,下期见!