opencloud 国内最强平替来了,他就是 coco! 今天教大家如何基于 one panel 快 速安装部署 coco 以及 coco 的 基础操作,全程可话操作,不用一行命令,新手也能轻松上手。先给大家简单介绍下 coco 这款平替工具到底有多能打。 coco 是 一款由阿里巴巴集团阿里云通信实验室打造的开源桌面 agent 工具,于二零二六年二月正式发布并开源。 coco 作为 openclaw 的 国内平替,不仅完全兼容其核心功能,还更适配国内网络环境,原声支持对接飞书、钉钉、 qq 等办公工具,内置了多种 skills, 比 openclaw 更易上手。下面进入 coco 安装部署操作。 首先我们需要准备好 one panel, 进入 one panel 应用商店搜索找到 coco, 直接点击安装。在安装配置页面中, web 访问地址端口默认为八零八八,打开端口外部访问按钮,点击确认提交后,系统会自动拉取 coco 镜像安装相关依赖, 稍等片刻后显示安装成功。我们查看已安装应用,找到 coco, 点击跳转就能直接进入到 coco 的 主页了。到这里, coco 的 安装部署就完成了,整个过程完全通过 one panel 格式化操作。对比 opencloud 的 安装部署, coco 还是很简单的。进入 coco 后,我们先来简单了解一下它的页面布局, 它总体分为左侧导航栏和右侧主内容区,这一点和 open core 有 点类似,点击右上角,切换语言为中文,更方便我们去使用。在聊天模块中,我们可以直接和配置好的 ai 模型对话,也能查看历史聊天记录频道是 coco 对 接第三方工具的核心模块, cpo 原声适配、飞书、钉钉等国内办公工具,对接步骤很简单,大家可以参考文档进行。模型模块是 cpo 实现智能回复的核心,在这里可以添加管理各种 ai 模型,配置模型的 api key。 介绍完 coco 的 基础界面功能后,我们第一步要做的就是配置 ai 模型。 coco 同时支持云提供商和本地提供商,这里我们以配置云提供商为例,如果想自己添加提供商,就点击右边的添加提供商。我这里以千问为例,输入基本信息后,点击创建即可。 创建完成后,点击模型添加天问模型 id 和名称,点击设置输入 api key, 这样自定义千问模型就创建好了。在 l l m 配置中,选择刚刚添加的千问提供商和相应的模型。如果你不想自定义模型,可以点击 dash cop 的 模型按钮, 可以看到它提供了千问和 deep sick 的 模型。我们点击设置输入 api key, 点击保存,同样可以在 l l m 配置框中选择相应的提供商和模型。 模型配置完成后,我们就可以在聊天界面和抠怕进行对话了,比如和他打个招呼,看到他能够正常回复,就说明我们的模型配置成功了。 在靠炮中,他还提供了 mcp 功能,点击 tabl e mcp 进行编辑,输入 api key, 点击保存起用 mcp。 然后我们再回到聊天界面,创建一个新的对话,让他帮我汇总一下 ai 最新动态。 可以看到他调用了 tablie 的 m c p 服务进行搜索,最终给出一个不错的回答。以上就是 coco 的 安装步数与基础功能,关注我,下期精彩内容不容错过!
粉丝6859获赞2.9万

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

侬好呀,自从我上次发了跟八个 agent 的 聊天截图之后,就有小伙伴问我是怎么实现的,那我今天就来给大家分享一下。我先说一下为什么要这么做, 因为对于像我这样的一人公司来说,每天要处理的工作可能是不同类型不同维度的,比如说可能有内容创作的,选择题挖掘的,还有 ai 编程的,以及用户增长的等等。 那如果我在同一个机器人对话框里面去跟他聊这么多内容,一方面是对他来说可能上下文太长,容易造成混乱,那对我来说翻阅消息也不是很方便, 所以我就用不同的助理去处理不同类型的任务。其实如果要实现这样的功能,有两种做法。第一种叫做分身法,也就是说让你的 openclaw 去扮演不同的角色,比如说在这个对话框里,他就是一个财务小助手, 在这个对话框他可能是一个懂点法务的小助理,可能在这个对话框里,他是一个非常懂得自媒体流量的内容创作小助手啊等等等等。也就是说小龙虾还是小龙虾,只是在不同的对话框里,有的是蒜香味的,有的是十三香味的,有的是海鲜味的而已啊。 那还有第二种做法呢,就是真的去见不同的 bot, 那 这个操作起来可能就会稍微复杂一点,但是好处是你可以把它们拉在不同的群里,因为它们真的是不同的小龙虾,所以可以把它放在同一个盘子里面。 那我就来给大家演示一下这两种方法分别如何操作。首先第一个让他去扮演不同角色的分身方法,这个其实很简单,你可以在对话框里直接去跟他说。 我发现很多朋友在解决问题的时候,还是没有养成第一时间就要去问 ai 的 这种习惯,其实这个还挺重要,因为它可以帮你去解决百分之九十的问题。 比如说我这边是通过命令行去让他新建一个 workspace 里的 agent, 那 你也可以用自然语言直接去跟他说,我想要有一个新的 agent, 那他就帮你建好了。我想把他称作是一个全能小秘书,并且改了一个名字叫做 tardis, 接着他就自己会帮你去设置怎么去添加路由规则等等啊这些其实你也不用搞懂到底什么意思。接下来你就跟他说,我想要让这个全能小秘书 tardis, 他 来负责我的日常所有事务,同时我还要不同方面的助理,我想要一个专门来帮我输出一些创意 idea 的, 我想要一个负责增长的助理, 还要有一个 coding 的 助理,还要有一个做内容的,以及一个财务的,一个法务的。请你帮我依照 tatus 的 形式去进行设置。 好了,这个小龙家总管就开始干活了,很快他就会帮你创建完成了,并且呢,他也很聪明,他会知道每一个的助理他到底具体负责的是哪些内容,并且他会教你哦。有两种方法可以调用这些不同的助理。第一种方法是直接发消息, 相当于跟他聊,然后告诉他,哦,你现在是我的什么什么助理,你要来回答我的这个问题,那显然这种方法有点违背我一开始建立不同 agent 的 这个本意,所以我们采用第二种方法 配置群组,就是我这里采取的方法,在不同群聊里面都把这个小龙虾拉进来,但是他在每个群聊里扮演不同的角色,所以我就告诉他啊,我想要在不同的群聊里设置,他就会让我提供群聊的 id 给他, 那你就去建七个不同的群聊,把群聊 id 发给他,他就会自行来帮你配置,也就实现了我截图里面所展现的这样的七个不同 agent 分 身的群聊,你就可以把不同类型的任务 去发到对应的群聊里面,当你尝试去使用了之后,你还可以给不同的助理去配置不同的性格特点。 比如说,如果是负责 idea 呢?那他当然是需要极具创意,大开脑洞,但如果是负责财务和法务的呢?那他们就必须更加的理性谨慎。并且你也可以告诉你的小龙虾,你是一个什么样的人, 你现在在做什么样的项目,以及你为什么需要用到他们,以便他们更好的理解你的一些任务背后的目的。好,这就是分身法怎么去配置?好处是 好处是直接跟 opencall 聊天就可以配置完成啊,去建几个群聊就行了。那问题就是,因为本身就是同一个小龙虾,所以它没有办法同时出现在一个群聊里面, 也没有办法给你展现它们背后的沟通的逻辑和内容。所以接下来我们要试一试第二种方法,也就是真的去建不同的 bot。

最近为大家做了多期 openclaw 相关的视频,而且昨天我还发了一期 openclaw 的 高级用法的视频。但最近我发现几乎每期视频的评论区都会有留言提到 openclaw 调用 cloud code 会非常消耗 token。 因为在之前的视频中,我有为大家演示过,用 openclaw 来调用 cloud code 进行编程开发,我们只需要为 openclaw 全程操作 cloud code, 为我们实现编程开发。 但是我们如果采用传统的方式,也就是常规的方式让 open cloud 直接调用 cloud code 的 话,那么 open cloud 每隔几秒就会轮循一次,检查一下 cloud code 的 状态以及 cloud code 的 输出。使用这种传统方式的话, open cloud 必须时刻盯着 cloud code, 所以 openclaw 就 会消耗非常多的 token。 所以 我发现在评论区大家抱怨 openclaw 调用 cloud code 会消耗更多的 token。 因为大家采用的是这种常规的传统方式, 所以 openclaw 要采用不断轮询的方式来查询 cloud code 的 状态,也就是 cloud code, 它执行的任务越久,在 openclaw 中它轮询的次数就越多,所消耗的 token 也越多。 所以我们可以完全不需要用这种传统的方式直接让 opencloud 来调用 cloud code。 因为无论是 opencloud 还是 cloud code, 它们都非常非常的灵活,所以越灵活就越强大,就越有利于我们去自定义一些功能,从而轻松解决用 opencloud 调用 cloud code 的 时候, 产生大量的 token 消耗。尤其是 cloud code 在 前几天新增了 agent teams 这个新特性,因为 agent teams 相当于在 cloud code 中随时可以创建一个完整的开发团队, 而且每个 agent 呢都是独立的进程,所以是真正的并行执行,而且每个 agent 之间还可以相互通信,还能共享任务列表,能自动认领,还能实现专职角色分工,比如说负责开发前端的 agent, 负责开发后端的 agent, 还有负责测试的 agent。 所以在 cloud code 中有了 agent teams 这个最强大的新特性,在 open cloud 中就可以更加轻松地向 cloud code 委派任务,让 cloud code 全自动完成整个开发工作流。 想让 open cloud 以更节省 token 的 方式来调用 cloud code, 其实非常简单,我们只需要用到 cloud code hux 功能, 在 open cloud 中可以结合 cloud code 的 hooks 功能,真正实现调用 cloud code 进行自主开发,并且能够实现真正的零轮询,而且还能非常节省 token。 当开发任务完成之后, 我们还能在聊天软件的群组中自动接收到任务完成的通知,包括实现的是什么任务, 项目存储的路径,还有耗时,还有 cloud code 的 agent teams 是 否已经起用,还有具体完成的功能,还有项目的文件结构等内容。下面我们就看一下我是如何通过 cloud code 的 hux 来实现了整个流程。 下面我们先通过这个流程图,让大家更直观的感受一下在 cloud code 中通过 hux 回调来实现的整个步骤是怎样的。 首先是由 opencloak 将我们要开发的任务委派给 cloud code, 像这个委派只执行一次,而且它是后台运行,不会阻设 opencloak 的 对话窗口和它的主 agent。 当 cloud code 接到任务之后,它就会进行自主开发还有测试,当任务完成之后,它就会触发 stop 事件。 第三步就是 cloud code 中 hooks 自动触发,它会先将执行结果写入到这个文件中,然后再发送 wake event 来唤醒。 open cloud 在 这里采用了 stop event 以及 session end event 实现双重保障,来保障在聊天软件中,我们能够真正收到它的任务完成的通知, 然后 opencll 就 会读取这个文件中的这些结果和状态,当它读取完这些结果和状态之后,它就会回复给我们,也就是通过我们的聊天软件来回复给我们这些状态。 像这个流程的话, opencll 只在给 cloud code 派发任务的时候调用一次 cloud code, 然后这中间的流程不需要 opencll 参与。在最后这里, opencll 再读取一下这个执行的结果,并且将执行结果发送给用户。 所以在第一步, opencloud 只是给 cloudcode 下发一个任务,它下发任务的过程所消耗的 token 几乎可以忽略不计。在最后这里,它只是读取一下结果,将处理结果发送给用户,而且这个结果里的内容非常少,甚至不超过一千字, 所以在最后一个步骤,它所消耗的 token 也几乎可以忽略不计。在 cloudcode 的 自主完成这个任务的过程中, opencloud 不 需要对 cloudcode 进行轮询。 好,下面为大家讲解一下我是如何实现的。在 cloud code 中通过 stop hook 来达到任务完成自动回调的效果。在刚才也提到了我们使用了 stop hook, 还用到了 cloud code 的 session end。 下面我们简单看一下为什么要用到这两个 hooks。 在 cloud code 中一共有十四个 hooks, 之所以我们选择这两个, 是因为我们构建的这个工作流,在 cloud code 中,它完成开发之后才会触发这个 hooks, 所以 使用 stop hook 作为主回调,就可以保证 cloud code 的 真正完成开发时才会触发。在这里我们还用到了 session and 作为兜底回调, 也就是假设 stop hook 它没有触发成功,还有这个 session and 它能够作为兜底。像这样的话,我们就能够真正保证 open cloud 向 cloudcode 发送一条开发任务,然后 cloudcode 独立运行。在 cloudcode 独立运行的这个过程中,它并不会消耗 opencloud 的 上下文。当 cloudcode 完成开发后才会触发 hux, 然后我们的聊天软件就会收到通知, 下面我们就可以看一下具体的代码。在这个代码中,我们先看一下这一个脚本,它的作用就是将要开发的任务来写入到这一个文件中,然后再通过这个脚本来启动 cloud code。 当 cloud code 完成开发后,这个 stop hook 就 会自动触发,然后就会调用这一个脚本,我们可以点开看一下, 这一个脚本就会将任务发送给 openclaw, 所以 这个自动回调流程,它会读取这两个文件里的内容,并且写入到这一个文件,然后 openclaw 就 会将这些信息推送到我们的聊天软件,这样的话我们就能够实现 在 open cloud 中向 cloud code 下达开发任务,然后由 cloud code 自主完成开发。当完成开发之后再触发这两个 hux, 最后我们的聊天软件就会收到推送通知。好,下面我们可以先用一个简单的开发案例来测试一下。在主 a 选项这里,我们直接在对话框中输入我们的任务, 我是为了是用 cloud code 的 a g and team 协助模式构建一个基于物理引擎还有 h t m l c s s 的 带材质系统的落沙模拟游戏,然后我们直接发送,看一下这个效果, 这里很快输出提示,它已经将这个任务派发给 cloud code 的 agent teams。 这个开发模式就是调用 cloud code 的 agent teams 多智能体写作,这里还给出了这个工作路径,然后这里它提到完成后会自动通知到群里, 像这样的话,这个主 agent 的 线称并没有被阻塞,它还可以继续为我们执行其他的任务。比如说我们在这个主 agent 中继续输入任务,比 比如说让他查询新加坡今天的天气,然后我们直接点击发送,看一下最终的效果。像我们如果采取传统的方式在 open cloud 中来调用 cloud code, 在 主 agent 中必须等到 cloud code 真正完成开发之后,这个主 agent 呢才会继续执行我们的其他任务。 像我们采取了现在这种方式,这个主 agent 的 进程并没有被阻塞,所以我们让他查询新加坡的天气,然后这里他就很快查询了一个天气,然后我们还可以继续输入其他人物,比如说讲个笑话,然后这里他就很快输出了一个笑话。而 cloud code 在 后台完全是自主运行,不需要我们去干预, 然后我们只需要等待 cloud code 完成之后,将完成后的消息推送到这一个群组里就可以了。之所以设置为将完成后的消息单独推送到一个群组,是因为我们在这个 agent 中可能还在进行其他任务的操作, 比如说让他讲个笑话,他在讲笑话的时候突然多出来一条任务完成提示,这样会导致这个上下文窗口比较混乱,所以我们就将他完成后的这个消息推送单独推送到一个群组里,这样的话就不会占用这个主 a 智能的这个聊天窗口。在这个群组里我们就看到了这个消息推送,我们点开群组 查看一下,在这里我们就看到了这个任务推送,这里提示 cloud 的 任务完成。这里是开发的这个游戏,然后这里是游戏的路径, 在 cloud 的 code 中使用的就是 agent teams, 这里就是给出的项目文件,然后这里它还推送了第二条消息,这里还给出了完成时间大概六分钟,然后这里还包含一百八十四个测试通过, 然后这里就是给出的交付,然后这里还给出了这些性能,下面我们可以输入提示词,让他将代码文件打包发给我,这样的话我们就可以在本地打开进行测试,因为我的 open cloud 是 运行在云端的 好,这里他将为我们开发的这个项目文件发送给了我们,这里还提示解压后在浏览器中就可以打开使用,然后我们直接点开,然后我们在浏览器中打开看一下这个效果,就是他开发的这个落沙游戏,我们可以先测试一下,我们选择这个沙子 好,这样点击之后这个沙子就落在了底下,然后我们再点击这个水 好,可以看到水落在了沙子上,然后我们再给它加一把火,可以看到这个火会往天上飘,再给它加一些木头, 然后再给它加一些蒸汽,可以看到这个蒸汽飘到木头上会变成雨。像这样的话,我们就真正实现了在 open cloud 中调用 cloud code 进行开发。大家就不用担心在 open cloud 中调用 cloud code 非常浪费。 token, opencloud 所消耗的 token 几乎可以忽略不计,哪怕我们不在电脑前,也可以通过手机向 opencloud 下达开发指令。当完成开发之后,我们就可以在群组中查看推送的这些消息。

你如果用这个 open cloud, 肯定会消耗很多 token, 那 最好的方法就是用免费的模型,这里它就会支持 onigravity。 千问还有 open code, 咱们这里就教一下怎么设置这个 onigravity。 用它里边的免费模型装上了之后就 out bought config, 这里边就点选 logo, 这里边儿选 model, 这个再选里边儿的模型。因为 onigravity 是 谷歌的,所以这里边儿选谷歌,选 onigravity。 当然你可以选这个 google gemini c l l, 这个也是因为 gemini c l l 也是免费的,但是 onigravity 它有更多模型,包括 cloud code 的 模型,还有 gemini 的 模型,所以这个 咱们选 onigravity, 它会跳一个网页让认证,所以这里你就选你的谷歌账号儿就可以了。 三音这很快就认证成功了,就可以选模型了。这里它选的模型比较多,所以就会需要一直往下拉, 它在谷歌 on the gravity 里边往下走,走走走,这是 coco 的 get up, 对, 这里就是大家可以看到谷歌 on the gradient。 我 这里边是把谷歌 on the gradient 下边的模型全都选了之后选,直接按空格就可以选和反选, 选完之后按那个回车就可以选定了,这里话直接跟 t 钮,然后它结束之后就可以自动地使用 anti gravity 模型了。这样 clubbot open cloud 就 可以免费使用 anti gravity 里边的 cocoon 了,就不用自己买 cocoon。 当然你可能配置完之后想选自己的首选模型,因为 integrative 里边儿有很多模型,咱们可以在这里边儿配置。在这个尼加目录点 cloud bot, cloud bot, 点 jason, 我 这里边儿直接打开,咱们就往下走,这里边儿你可以看 a 阵词,下边儿这有一个 default, 这就是你默认用的模型,这里有个 primary, 就是 它首选的模型。就是啊, google on the gravity 里边儿这个 color whoops, 四点儿五 thinking, 这个比较慢,所以我想要把它改成 gemini flash 这个模型,咱们呢? sun flash 对 这个模型会比较快,所以我想把它改成这个模型,当然你可以自己改,它就会首先尝试的模型是这个,如果不行,它会用 fallback。 这边的模型我现在已经改好了,之后我就可以保存重启一下 clubbot, 它就可以 clubbot play the gateway start, 我 又拼错,然后这就重启了,就可以开始用我新设置的这个 drama 三 flash 这个模型了。咱们看一下它具体的情况, 你就会看到你的模型已经开始用。呃,首选模型,这个有时候它算比较慢,但是总体来说它会遵循你的配置的。今天就到这来谢谢大家,希望可以帮到你们。

我们在 opencloud 里面实测了一下,为什么发送一句你好就可以消耗一个一万五千多 tokens 呢?我们从这个问题出发,然后给出我的一个解决方案。 然后我们借鉴的是 openwaking 的 一个分层缩影的一个思路,整合了一下它的一个上下文的一个加载机制。我们实测在这几个案例中,它减少了百分之八十七的一个消耗,平均的话也在百分之八十。 呃,这意味着什么?这意味着我们会用更少的一个金钱的消耗,然后进行使用我们的这个 open cloud, 它会让开源的本地模型有了一个可能性,因为开源的模型它的能力并不是很好。 open cloud 现在在 github 上已经有了二百 k 的 一个 star, 它是一个开源的 agent, 可以 操纵系统发消息,抛脚本,比如说像我们可以执行自定义的一个 skills 等等,可以实现各种各样的一个内容。然后接下来我们从这个问题出发, 首先就是一个 api 的 一个费用失控的一个问题,两个字的一个提示词,他竟然消耗了一个上下文到一万五。然后接下来就是一个本地模型,他跑不动,也就是说我们必须使用一些商业的模型。然后接下来我们看一下 它的一个构成,这是我们十次得到的。首先就是它的一个最高的,就是这个 jason sigma, 它会把所有工具的一个要求,它的一个标准发送给 ai, 然后进行让它理解,其实我们用不到这么多工具。 接下来就是七个这个文件,他比如说是他的一个 a 证的一个定义,他的一个身份的确认等等,接下来是他的一个基础指令,这个咱们可以先忽略不计。 然后接下来我们看一下我们的核心,发现百分之接近百分之五十就是这个一个核心的工具。然后我们接下来看一下什么是 open working。 openwriting 是 一月份开源的一个上下文的一个数据库,它的核心理念是不是把所有的内容塞给模型,而是像图书馆一样,先看目录再读书。 然后它是有个三个层级,第一个是它的一个摘药层,就是一句话的定位,每个目录生成一个摘药,然后 便于筛选。然后接下来是它的一个盖栏层,一个结构的导航,包含它的一个大纲子目录以及关键的节点。然后接着是我们的一个详情层,就是我们最终的一个按需加载, 然后我们看一下这是它的一个结构,这是我们修改的一个结构,我们参考着 open working 进行修改了一个自己的一个上下文, 然后我们看一下他的一个基本的架构,然后本期视频的所有的修改,我会放在我们视频的仓库,如果说需要的话,我们可以三零关注,然后自动发送。然后接下来我们看一下一个演示, 比如说用户问帮我配置一下返代理,然后我们可以分析意图,然后我们在摘药层可以定位一下我们的一个 向量总,然后我们概览,然后接着按需加载,也就是说我们可以总共,比如说我们举个例子是大概是一千五百头根,全量的注入的话,大概是一万五千多头根,我们节省了将近百分之八十多。 然后接下来我们看一下 open vacuum 的 局限性。 open vacuum 的 话,这个由于它的核心组建并没有开源,因此我在这里的话是借鉴了它的思路进行的一个开发。 然后我们看一下 vacuum 的 一个分层路由,给 open cloud 装上了一个目录的,所以我们看一下它的一个流程图, 用户我们发送一个你好,然后进行了一个分层的一个路由器,然后分为了一个工具的缩影,技能的缩影,还有文件的缩影,然后我们会把这个基本的一个缩影,然后发给一个呃 ai 进行一个判断,然后他需要哪些模型,然后我们进行再次拿取,然后是精简后的一个 东西,然后我们看一下这个实测,这个是我们实测的结果,接下来给大家演示一下。我们首先测试的是第一个问题看一下,帮我看一下这个当前的目录有哪些文件。打开我们的网址, 现在的话我们看到的是第一个,第一个是在我本地已经使用 open working 的 思路改好的一个,我们可以看到我们发送你好,然后这里面的话使使用了大概两千个 token, 这个的话是我在服务器里之前部署的一个原版,我们看一下它消耗了九千五百个 token, 这个是我在本地部署的一个原版。第一个我们发送一下,然后我们再发送一下在服务器里的一个原版, 我们看一下这个就是我在本地修改的,我们看一下它的一个消耗, 我们可以看到它总体消耗了三千三百一十九的一个图标。然后我们接下来看一下它的这个它的原版, 我们可以看到它的原版消耗了一万一千个头壳,我们可以清晰的看到这个差距,然后接下来我们下一个问题, 我们再测试它的工具调用,首先是我修改之后的, 然后是我在服务器运行的一个原版,给大家看一下它的一个原版,这是服务器内的, 我们可以看到这个欢迎来财已经正确的处理了,我们看一下本地,本地也正确了,我们现在使用的基础模型是 gpd 的 四欧迷你同样的一个模型。然后接下来我们继续看一下, 我们看一下第一个使用了四千二百多个 token, 然后接下来我们看一下它的一个原版, 它的原版使用了一万两千多个,接下来我们进行下一个问题, 前两个的话都是测试它的一个读写,然后我们继续一个比较难的问题,让它总结一下 open working 的 一个概览。 首先是我们本地的一个,然后接着是原版, 我们可以看到后台的一个输出, 可以看到原版的已经出现了,然后这是我们的一个修改,之后的可以看到 看一下它的一个消耗,它消耗了五千六百个头啃,这是一个工具调用哦。然后接着我们看一下它的一个原版, 我们可以看到它用了接近一万五千的头啃, 而这个是五千三倍的差距,本地模型有了跑 open call 的 一个可能,之前的话是因为上下文,我给大家介绍一下,只是他的一个上下文的长度增长, 他的一个显存的使用量就会更大,因此的话这种方案会让我们的本地部署更加的有了可能。 uma 是 最近比较火的一个东西,然后我们介绍一下它是什么, 它是一个 agent 的 一个经验的共享平台, agent 的 在实战中有很多的一个策略,然后以前的话我们是手动的进行打包分享,然后现在的话我们可以进行上传一下 ebay 的 一个网络,让全球的一个 agent 的 可以进行解锁和复印,它大概率是一个 agent 的 一个经验的市场。 然后我们看一下如何接入免运行,这个就可以使用了。然后我们接下来分别在它的我的修改版,还有我的一个原版里面进行一个操作,我们看一下它的一个流程, 我们可以看到这上面已经可以正确的识别出来了。 e o map 它作为一个写作进化的市场,允许 ai 代理通过贡献的解决方案,然后赚取积分,然后可以通过这个分享, 它让我们可以使用 e o map, 我 们可以进行自行的测试。我们接下来回到我们的汇报界面,主要的给大家全面的客观的 说一下 evo map 和 mcp 和 skills 的 关系。 mcp 是 agent 的 一个调用工具, skills 是 做好某件事, evo map 是 把 agent 的 经验传递给其他的 agent, 三个是不是在一个维度里面, mcp 和 skills 是 聚焦单个 agent 的 一个能力, evo map 共向于一个生态 agent 之间的一个经验的一个沟通。然后我们看一下它的项目背景, 他的琴身的是一个插件,然后在十分钟登顶,然后被勒索下架,然后发生了很多的一个故事,所以说他进行了一个早期的测试阶段,然后我们需要进行测试才知道他的一个进一步的实践。

兄弟们,上一期视频给大家演示如何安装配置大龙虾 openclaw, 从这期视频开始,教大家如何把 openclaw 变成真正的生产力。每天我的 ai 一 阵,会自动去全网搜 ai 编程 独立开发的热门主题,写好一篇三千字的公众号长文,直接推到草稿箱,我只需要审核一下点发布就行。今天教你怎么用 openclaw 搭一个这样的全自动内容创作 ai agent。 先看下这个 agent, 这是我的 telegram, 这个机器人就是我的内容创作 agent。 我 只需要给他下达非常简单的命令, openclaw 就 会全自动地调用内容采集、内容创作、内容发布、内容转换等多个 skills 去完成工作,整个过程完全自动 生成的内容热度高,专业性强,图文并茂,排版优美。为什么选择 openclaw? 因为 openclaw 的 多 agent 架构太适合构建一人公司了。 我可以跑一个日常助手 agent, 帮我处理邮件日程。再跑一个专门内容创作的 agent, 它们完全隔离,互不干扰。每个 agent 有 自己的人格记忆技能。写作 agent 只专注写文章,不会被其他事情分心。而且它跑在我自己的服务器上,数据完全可控。整个系统最上面是 open call 的 给腿, 二十四小时运行在服务器上,随时待命。目前里面跑着两个 agent, 一个是日常助手,一个是内容创作。它们拥有独立的工作空间、人格记忆能力等。日常助手 agent 负责处理日常事务。内容创作 agent 专注内容采集、创作、发布,与日常助手完全隔离。 核心是我们为内容创作 agent 定制化了三个专有 skills。 第一个是 content research, 它会采集全网主流科技媒体关于 ai 编程 独立开发出海应用领域的热门内容,根据信息量、时效、热度、写作价值、受众等评分筛选后输出结构化报告。第二个是 content writer, 基于内容采集报告创作三千到五千字长文,包含标题、正文、结构、排版样式、质量自检清单等。看看这个内容质量检查清单,非常的专业。 最后一个 content publisher, 把 markdown 转换成平台需要的 html 格式,通过 api 自动推送到草稿箱,通知用户审核并发布。让 agent 以定时任务的方式,每天就能全自动地帮我们获取内容、创作内容、发布内容啦。 本期视频先介绍一下原理和效果,下一条视频我会手把手教你从零搭建这个 ai agent 包括创建独立 a 阵的配置、人格与记忆、创建三个定制化的 skills, 配置多 a 阵的消息、路由、定时任务等。点赞关注不迷路,如果你也需要或者有其他个性化需求,请在评论区打出来。

大年初七的早晨七点钟,我爬起来录了一个四十分钟教你们安装 openclog 的 一个教程,面向小白的他就能够独立安装,后续遇到一些故障都能够解决。今天早晨在安装的过程中有一些心得我都写进去了,我觉得这个可以实现两个目标,第一个目标就是我知道你们 不只是想要安装成功,还需要的一个目标就是我知道你们不只是想要安装成功,还需要的一个目标就是我知道你们不只是想要的自主的去解决 这个,我才是,我觉得才是真正靠谱的学习方法,而不是求着别人去给你操纵。你的电脑是怎么样,我觉得还有一些安全性的风险,所以我自己研究出来了一套怎么用另外一个 agent 去辅助你去安装,这是我自己的一个思路,希望你们能够学到。


嘿,你是不是觉得自己的 ai 助手什么都想干,结果却什么都干不好?别担心,今天咱们就来彻底解决这个问题,我 会手把手教你怎么用 opencore, 把一个啥都懂一点的 ai 小 白直接升级成一个各司其职的专家团队,而且一切都可以在 whatsapp 上实现,我们马上开始。 你肯定遇到过这种尴尬情况吧,你正让 ai 助手帮你润色一份严肃的工作报告,结果他突然跳出来提醒你,记得给晚上的番茄炒蛋加点糖。 哎,这就是让一个 ai 包揽所有活的下场,工作和生活乱成一锅粥,效率吗?可想而知,这可不是简单的让你多开一个机器人喽,这完全是两个概念, 他能让你创造出好几个拥有独立大脑、独立记忆的 ai 专家,个个管利,他绝对不会不相干的。所以我们说的这个多技能提示到底是个啥?其实说白了就是在同一个 oppo 的 大背景下,让好几个完全。 你可以想象一下,他们就像住在一栋公寓楼里,每个人都有自己的房间,自己的工作,平时各忙各的,互不打扰。那么要实现这种效果,主要靠三大植入。 首先呢是隔离性,这个很重要,他保证每个智能体都有自己独立的小房间,工作文件和购物清单绝对不会放错地方。其次是并行性,就是说他们可以同时干活,就像一个配合默契的团队,你跟这个聊着,那个也能同时响应别人。 最后也是最酷的一点就是灵活性,你可以给每个成员定制完全不同的角色,比如一个是贴心的生活管家。 好了,说了这么多理论,咱们来点实际的,今天咱们的小目标很简单,也很实用,我们就创建一个叫 home 的 生活管家,用你的个人 word 账号来处理家里的杂事,然后再创建一个叫 word 的 工作助理,用另一个企业账号来处理工作, 一个管生活,一个管工作,分得清清楚楚,对吧?好,那咱们现在就正式开始着手吧。 第一步也是打地基的一步,就是给先对我们的 ai 团队成员创建他们各自独立的工作空间,说白了就是先给他们一人一个家, 操作超级简单,就是在你的终端里敲两条命令, openclaw agents at home, 然后是 openclaw agents at work, 就这么两下,系统就会自动帮他们建立好独立的文件夹,用来存放各自的配置和数据。这样一来,我们前面提到的第一个支柱隔离性就实现了。 ok, 家安好了,接下来就是整个设置里最最核心的一步了,我们需要修改一个配置文件,就像填写一份花名册一样,正式的定义我们团队有谁,并且把每个成员和他们专用的 whatsapp 账户给对应起来。 我们会用到一个很强大的命令,叫 getaway, 点 config, 点 patch。 你 别看它名字长,其实可以把它理解成是给系统的主配置文件打一个补丁, 也就是说我们不去动整个复杂的原始文件,而是很精准的告诉系统,嘿,就在这几个地方帮我更新一下信息, 我们拆开看看,一点都不复杂。我们先看第一步, agent start list。 这几行代码的作用,说白了就是向 open house 系统正式报备一下,你看,我们在这里列出了 home 和 work, 这就 等于在快速行动。喂,注意啦,我的团队现在正是有这样一名成员了,接下来我们要开始 并且给它们分别取名叫 personal 和 business。 这就像是给我们的两个团队成员一人发了一部专用的工作手机,每部手机都有自己独立的号码和身份信息。 好,现在最关键的一步来了,这个 bindings 部分就是一条条的绑定规则,它就像是把前面我们定义的所有东西用线串起来。你看这行 regiment home agent personal account, 意思再明白不过了。把 home 这个智能体跟 personal 这个 whatsapp 账户绑在一起,同理,我们把 work 和币子也绑上,这样一来,谁用哪个手机,这个关系就彻底定下了。 好了,配置文件的蓝图我们已经画好了,现在就剩最后一步,就是把我们虚拟定义的这两个 whatsapp 账户跟我们手里的真手机配对起来,也就是我们最熟悉的。扫个二维码,把这条沟通线路给正式了。 这里的操作也一样,非常直接,我们先运行 open c o w whatsapp payer personal, 端端里会出现一个二维码, 你用准备好的个人手机去扫一下,然后再运行 oppo c o w vivo caredes, 用另一个工作手机去扫第二个二维码。记住啊,一个账号扫一次就别搞混了。 搞定,恭喜你到这里,所有设置就全部完成了。现在你拥有了两个功能完备而且完全独立的 ai 智能体,它们已经整装待发, 随时可以并行处理你的各种任务了。不信你看,这就是咱们的最终成果。左边我正跟 home 智能体聊购物清单的事,与此同时,在右边我跟 work 智能体讨论下午的工作日程。两个对话完全独立上下玩,一点都不会搞混, 这不就是我们最开始想要的那个效果吗?是不是超酷?好,让我们来快速的回顾一下。其实整个过程就三步,很简单,第一,用 app 命令给每个智能体安个家,实现隔离。第二,用 patch 命令划出蓝图,定义好谁是谁,谁用哪个号。 第三,用 pair 命令扫码配对。通过这三步,我们就得到了一个张重运行步骤,绝不串线的。 好了,现在你已经掌握了打造 ai 团队的秘诀,那么除了简单的工作和生活,你还能想到什么更有意思的角色呢?比如说,一个专门帮你分析数据的数据分析师,一个语言口语的伙 伴?还是一个能随时给你不敏感的创意大师?发挥你的想象力吧!

真正的个人 ai 助手,它来了,就这两天非常火的 cloud bot, 也就是最新改名之后的 open cloud, 它是最近 get up 上非常火的一个开源的 ai agent 项目, 呃,很短的时间里就有了十万星,在全球范围内热度都非常高,它本质上是一个本地运行的 ai 智能体框架,可以从系统层面直接操作电脑。而甚至搭建好之后啊,你可以用手机的聊天软件给你的电脑里的 ai 助手发布指令,让它帮你完成你的工作。 今天我就手把手教你如何用自己的 macbook 来搭建这个本地运行的 ai 助手 open clone, 方法真的非常简单,跟着做三分钟之内就能搞定。首先我们搜索 open clone 出来的结果,第一个就是我们直接点进去, 那接着下拉页面,可以看到一行命令,我们直接复制它,然后搜索,打开电脑上的终端,在终端里直接粘贴进去,点击回车,接下来我们等待就可以了, 这里会出现一个风险提示,我们选择 yes, 然后点 quick start, 然后接下来这个页面我们来选择模型啊,我这里选择谦问比较方便,它会弹出一个页面,让我们进行一个认证, 认证之后我们返回终端,选择 keep current, 然后接下来需要选择一个聊天软件,就是你手机跟电脑去交互的方式。第一个 telegram 呢,会比较方便一点,我们选择 telegram, 然后这里需要输入 telegram, 然后搜索 bot 发布这个频道。 进去之后我们点击 start, 然后我们选择最上面的 new boot, 接下来根据指示给你的 boot 进行命名,然后这里会给到你一长串的 boot token, 我 们复制这段 token, 然后返回终端里粘贴上去, 点击回车就可以了。接下来会问你要不要去装一些 skill 技能啊?这里可以随意啊,我们选择 yes, 然后选择 n, p, m, 然后在这个 skill 列表里,你可以根据自己需求去选择安装,直接跳过也是可以的。然后接下来提示你配置一系列的 a, p, i, 这些也都全部可以跳过的。 ok, 这里要装 hux, 那 这三个我们都给它选上啊。然后点击回车, 然后安装完之后,我们选择第一个啊,然后它会弹出自己的 web ui 来,那接下来在 web ui 里,我们跟 open curl 就 可以直接交互了,当然你也可以通过手机上的 telegram 跟你的电脑 ai 助手进行交互。 ok, 如果你觉得这视频对你有帮助的话,记得点赞双击加关注啊,接下来还有更多的 ai 干货。

哈喽,今天我们来讲一个,呃,如何给我们的 openclaw 增加一个 agent, 让它可以一个 mac mini 上建立多个小龙虾,帮助我们进行一个长的工作,让它可以具备多样化的 能力。那这是我们的飞书的后台,我可以看到我们已经建立了四个 agent 了,它们各司其职,每天可以做不同的工作,在同一个时间段里面,可以你给他安排不同的任务,来帮助你提高整个的工作效率和生产效率。好,今天我们用的这个方式呢,用这个 codex, 我们用 codex 给它添加一个 agent, 但是整个的方式呢?你不管是用 openclaw 自己还是用 cloud code, 都是一样的操作方式啊。那首先的话,我们是新建一个应用啊,今天我们建的一个这个 agent 呢,我们准备叫一个修 bug 的 一个小小助手。 好,那我们可以给他传一个可爱的头像,那之前其实我已经准备了挺多头像的,我这里就选了一个。好,那第二步呢?我们要添加一个机器人啊,把它的能力添加一个机器人啊。 好,那这个时候呢,我们第三步呢,其实就是把它开通它的权限,那权限呢?尽可能多给他开放一点,因为你是自己用吗?所以说只要我们看到的,我们都选上,像消息类的,还有是文档类的啊,一般来说,我会把这两个都给他添加好, 确认开通权限。我们回到这个出示页面,我们可以把这个应用凭证看到了吧,这里复制一下。好,这时候我就交代这个 codex 啊,今天我们还要复制一下这个 app secret。 好, 我们都发给他,这时候 codex 就 会帮你进行这个自助式的自动化的一个添加了,我们等待一下啊, 遇到这个提示的话,你就一路敲 yes 就 可以。我们在等待的时候,我们可以先把第一个版本给发布了,创建版本,那这个更新说明是必填的啊,所以你就随便敲保存一下就好了。好,这个时候就已经发布了,那我们打开我们的飞书,这时候应该能够在工作台里面找到它了 啊,这时候就已经出现了这个,但是现在还不能聊天,我们要等这边的添加完成。那在添加的过程里面,我们其实可以打开这个 opencloud 的 目录,我们可以看到其实它已经创建好了一个新的 workspace。 看,这个是刚创建好的一个 workspace, 它里面其实有这个写好的一些人设啊,比如说 identity, 它是编程助手, bug 伙伴啊,还有 agent 啊,它有一些职责啊,默认的流程啊,还有就是它的这个 so 就是 人格定位,你是 unan 的 工程搭档啊,那它都已经帮你自动的设设置好了。当然这些东西如果不满意,我们后面都可以跟 codex 或者跟 openclaw 去更新它的一个人设啊。在等待的过程中呢,我们可能要回到这个事件与回调这里啊,准备下一步,好吧, 好,这个时候他说他已经创建完了,那这个时候我们再去来添加这个事件回调的一个配置,如果说前面他没有添加完,没有做绑定的话,这里是添加不了这个事件配置的。好,添加好这个事件配置之后呢,我们要去选择 js 的 一个 聊天的一个权限给到他啊,那,呃,最重要的就是消息已读和消息接收消息,其实最重要的是这个接收消息我们一定要把它给点上,点上来之后点确认添加。好,这个时候呢,我们把回调的配置也配置好, ok, 就 创建版本,好,随便敲一些更新说明啊,因为这个只有自己看好,这个时候呢,我们把这个手机打开来,我们看一下,测试一下是不是已经连上了啊?好,这时候已经可以发麦了啊, 他会有最后一步告诉我需要配对,那我们把这个给复制下来啊,贴给 codex 就 可以, codex 就 会把最后的一个配对的这个工作给做完,那我们就添加好这个 agent 了, 我们稍等一下。好,这时候他说已经添加完成了,那我们切换到我们的手机上。好,那你看这个他已经通了,就是这样的一个新的 a 证,他就已经添加完成了。那后续的工作就是你要跟他聊天,给他分任务,培养他一些你的偏好, 他就会来,在他的自己的专场的任务,你会发挥的越来越好啊,那回头看一下我的这些 a 政策啊,那我看到了这个第一个其实是我的 一个工作的搭档,那还有我的一个孩子辅助学习的一个搭档,那还有我们家的一个金融方面的一个 agent, 所以 说这些 agent 是 大家可以自己去定义的,那今天的我的分享就到这里,好,谢谢大家。

他已拿下两万家新标字节跳动开源的深度研究家。多智能体框架 dear flow, 它不是一点零的升级版,而是从零开始的全新版本。它能帮你深度调研搜索网页、分析内容代码、执行、内容生成等几乎任何任务。 因为它内置了多智能体协助系统,能分工合作、并行执行,甚至能记忆你的偏好,让每一次请求更聪明高效。最关键的是,支持各种主流搜索引擎集成自定义工具和私有知识库,可以说是学习科研、自动化办公的全流程智能解决方案。

还在开七八个 ai 工具窗口,来回切换到崩溃,这个刚上线一个月就拿了十四点二 k。 github 新的开源项目,能让你的 ai 办公加编程效率直接翻三倍。 现在不管是写代码还是做办公,大家手里的 ai 工具越来越多, cloud code、 gemini c l i、 openclaw 这些各有各的本事,但官方的 cloud co work 只支持 mac 和 claw 的 模型, windows 和 linux 用户根本碰不着。而且每个工具都要开单独的终端,记一堆参数,切换来切换去,时间全耗在折腾工具上了,根本没精力搞正事。 这就是 ai ui 能爆火的核心,它解决了所有人都在忍,但没人彻底解决的痛点。把所有 ai a 阵装到一个 ui 里,还跨三大平台。 a n u i 本质上就是一个 ai agent 的 超级控制台,免费开源还本地运行,你不用再在终端里敲命令记参数。所有主流的 ai c l i 工具,它都支持 gemini c l i、 cloud code、 queen code、 opencla 这些全能塞进去,而且不管你用 mac、 windows 还是 linux 都能直接用。更狠的是,它内置了十多个专业助手,从文件管理到 ppt 生成、 pdf 转 ppt 到 u i 设计,把 ai 办公加编程自动化的路直接跑通了,甚至还能自己加 skills 扩展功能。首先说安装,你只要记住一句话,一键搞定,开箱即用。 直接去 gitlab release 下最新版本,支持 mac 十点一五加 windows 一 零加 linux 五泵土一八四加内存四 g 以上就行。 mac 用户用 hongrui 一 行命令就能装。 第一次打开它内置的 gemini client, 官方说不用配置就能用。不过如果你像我一样有多个 google 账号, ip 污染了也能自己加 apikey, 不 管是 openai、 cloud、 gemini, 还是通用千问,甚至本地的欧拉玛、 lm studio 都支持,灵活的很。 这一段是关键。我们慢一点讲,多 a 证和协同到底是什么意思?给你打个比方,以前你用 ai 工具,就像同时雇了七八个独立的临时工,每个人只干自己的活,你得挨个给他们派活收,结果还得自己协调。而 ai 的 多 a 证协同, 就像你雇了一个项目经理,把所有临时工都管起来,你只要跟项目经理说要做什么,他会自己派活,协调进度,所有结果都在一个窗口给你。 而且还支持多绘画并行,你一边让 ai 帮你写代码调试,一边让他生成 ppt, 两个绘画互不干扰,上下文还能独立记忆。对同时处理多个任务的人来说, 这简直是救命功能,效率直接拉满。这里要提一句专业术语,这就是多 a 卷统一调度,说白了就是让 ai 们自己组队干活,你只需要当甩手掌柜。 很多人以为 ai 工具的核心是模型有多强,其实真正能提升效率的,是能不能把不同的 ai agent 拧成一股绳,而不是让用户当那个费力不讨好的协调员。 另一个让我惊艳的功能是 web ui 远程访问,就相当于给你的 ai 控制台装了个远程开关,你可以把 ai ui 装在公司电脑或者服务器上,然后用手机、平板, 任何带浏览器的设备都能访问。不管是局域网还是跨网络,扫个二维码或者输账号密码就能登录。我亲测局域网,用手机访问,第一次加载慢一点, 后面交互速度快的很,甚至还能集成 telegram、 飞书、 slack 这些聊天平台。真正实现七成二十四小时 ai 陪伴,不管你在公司还是家里,想让 ai 干活,随时喊他。 还有两个小功能,但实用性拉满。一个是实时预览面板,支持 pdf、 word、 excel 代码、 markdown 等九种格式。 ai 生成的文件或者你自己的文件,不用切换到别的应用,直接在 a i u 里就能预览。甚至编辑调试 ai 生成的代码时,改完立马看效果,效率直接翻倍。 另一个是定时任务,你用自然语言告诉 ai 要做什么,比如每天下午五点汇总今天的项目文档,设置好时间,它就会自动执行,七成二十四小时无人值守。对于经常忘事的人来说,这功能简直太贴心了。 它还内置了十多个专业助手,比如 call work, 能帮你处理文件、规划工作流。 pptx generator 直接生成演示文稿、 pdf 转 ppt 一 键搞定。 uix pro max 有 五十七种风格,九十五种配色, 甚至还有 beautiful mermaid 帮你生成流程图。我让它生成过 python 工作流 agent 的 学习路线图,步骤清晰,内容准确,水平相当高。 这里我要插一句,很多人觉得这些助手只是凑功能,但在我看来, i o n e 的 真正野心是把 ai 办公加编程自动化的全链路给打通,从需求输入到结果输出,不用你再换任何工具,这才是未来 ai 工具的终极形态。 最后我给大家抛个问题,现在 ai 工具要么是垂直细分的小工具,要么是 all in one 的 大一桶平台。你觉得未来的 ai 办公会是哪种形态占上风, 是每个人都用一个超级控制台,还是每个人手里一堆小工具自己组合?我个人已经下判断了,未来一定会是大一桶的天下。因为用户的核心需求从来都不是用更多工具,而是用更少的工具解决更多的问题。 对了,这个项目叫 ai ui, 完全免费开源 github 链接我会放在简介里。现在已经十四点二 k 星了,还在涨。 如果你正在折腾多个 ai agent, 或者想提升 ai 办公效率,这个项目绝对值得你花十分钟试试,它能让你从重复的工具操作中解脱出来,真正专注于你该做的创意和思考。

如果你是 openai 的 拆 gpt 会员,现在我要告诉你一个好消息,我们可以在 opencloud 里不使用任何的 api key, 就 能够部署拆 gpt 最新的五点三模型进行推理了。 我知道这可能听起来有点不可思议,但事实是,现在这种方式确实处在一个 openai 末许的一个状态。 大家好,这里是熊仔学长。 codex 是 openai 的 一个 agent 代理式编程工具,类似于 antropic 的 cloud code。 open cloud 就是 借用了 openai 给 codex 设计的 oofflow 来调用你的叉 gpt 模型的。 那么你可能会说,我也可以用同样的方法,或者是使用 cloud wallet 来调用 google 的 gemini, 国内的 deep sync, 还有豆包千文这些。 那么问题就来了,这些公司实际上是不希望用户绕过他们的 api 接口的,因为 open cloud 这种使用方式对 token 的 消耗量非常大,对企业来说也是一笔非常大的电力开销。 所以在过去的一段时间,很多以这种方式使用 opencloud 的 用户在陆续地被搬掉。那为什么叉 gpt 没事? 这件事就巧在 opencloud 的 创始人被 openai 招去做个人智能体部门负责人了,这事就很有意思了哈。 但不管怎么说,目前这可能就是性价比最高的唯一的 opencloud 的 部署方案了。 部署过程也非常简单。首先我们需要以下三种安装方式来安装 openclaw, 详情可以参考我的上期视频。 然后我们在命令行输入 openclaw on board off choice open ai codex, 然后我们选择 yes, quick start, use existing values。 然后你的浏览器会弹出来,让我们登录叉 g p g 的 账户, 如果浏览器没有弹出,我们也只需要复制 terminal 里面的这段 url, 再粘贴进浏览器就可以了。 登录 openai 账户之后,我们会看到一个报错的页面,实际上走到这一步是完全正确的。我们复制这个网址,然后粘贴进 terminal 里的这个位置。接着我们继续 on board 的 过程,跳过 channel skills 和 hoax 的 配置步骤, 然后选择 restart gateway。 这一步非常关键,重启 gateway 会让我们刚刚配置生效。 然后我们先不加载模型,选择 do this later, 接着输入以下的代码, opencloud model set open ai codex, gpt 五点三 codex 来把 opencloud 的 默认模型设置成我们刚才配置好的 gpt 模型。 接下来我们输入 opencloud dashboard, 去到它的 web ui 界面,我们在 agent 这个选项卡里面可以看到叉 gpt 五点三已经成功显示了,然后我们测试一下也是正确的输出的内容。 ok, 那 么这期视频就到这里了,欢迎大家在评论区和弹幕上讨论,在 ai 飞速发展的今天,我们普通人的未来究竟在哪里? 最后求大家一键相连,收藏转发小心心,这里是熊仔学长,让我们一起成长!