在全球爆火的 a e a 智能体 opencloud 的 模型调用量中,来自中国的 kimi k 二点五冲上榜首,成为最受欢迎模型。 据知名大模型聚合平台 openwater 数据, kimi k 二点五超过 gemini 三、 flash cloud、 sonic 四点五等顶尖模型排名第一。全球开发者们通过最真实的 token 调用量,投出了他们认为最好用的模型。 此前, openclaw 曾宣布为用户开放提米 k 二点五的免费额度,提米 k 二点五成为被 openclaw 官方推荐的主力模型。中国 ai 的 国际化影响力正通过技术与市场的双轮驱动快速提升。
粉丝34.3万获赞393.9万

大家好,我是小木头。在过去两期视频,我们介绍了如何在 clubflair 云端部署 opencloak。 在 视频分享后,有朋友也问到在云端是否只能使用 astropik 所提供的 cloak 模型? 当然不是的,在目前这套部署方案下,市场上主流的模型供应商都能够支持。本期视频我们就以最新发布的国产开元大模型 kimi 二点五为例,我们看看如何在 cloudflair 云端将这款大模型集成到 openclo。 那现在咱们就开始吧。首先咱们对 kimi 二点五模型做一番简单的介绍,这是月之暗面发布的最新款开源多模态大模型,它也用来驱动了 agent swarm 这个新的特性。 关于 agent swarm 感兴趣的朋友呢,可以来了解一下,这是一个用于驱动大规模并发任务执行的执行方式。 当然啦,这并不是我们今天分享的主要话题,那咱们还是回到 opencl 的 集成。在生态中,目前已经有许多的服务厂商提供了二点五模型的支持,比如 openerer。 我 们今天的分享呢,就借 openerer 的 二点五模型。在过去视频分享中,咱们用到了 cloudflair 所提供的 mod worker 这个代码仓库或项目。 这个项目呢,默认当然支持的是 ospec 模型,实际上它也支持到了 open ai。 从文档中可以看到,可以通过 open ai api key 这个 secret 来配置对应的密钥, 从而使用 open ai 的 模型。在今天分享中,我会用到我分叉出来的这个 mod worker 这个项目,在其中做了一些小小的代码改动,从而实现了对 open route 的 支持。 我不确定在原始的代码仓库中是否已经支持了 open router, 如果已经支持了呢?欢迎朋友也在评论区告诉我一声。那现在呢,我就以分叉出来的这个项目为例,演示如何做 open router 的 支持。在文档这里我做了简要的描述, 可以用到 open router api key 这个 secret 来指定 api key。 另一方面呢,可以通过 ai gateway api gateway base url l 这两个 secret。 如果要用这两个密钥,我们需要请用 cloud flair 的 ai gav 这个服务。在演示中呢,我们就用这套方案,那现在我们就操作起来。 在终端这里,我已经完成了 regular 登录。那直接我们就开始今天的配置。首先咱们还是需要配置一个 antropic api key, 这个是在目前这个工具或项目部署中它会用到的。 当然,当我们配置了 ai 给我相关的 api key 和 base 二六 anshropic api key 并不会被用到,它只有在 ai 给我不工作的时候作为一个备选方案会用到。 因此我们首先来设置 anshropic api key, 可以 随便给他一个无效的值吧,我们可以验证一下,在后面的应用中,它应该能够正常工作。 现在他会来创建一个新的 worker, 叫 multiple sandbox。 好 了,接下来我们要做的是首先配置这个 ai 给尾 api key。 这里要配置的就是大家会用到的 open router 的 api key, 我 去创建一个, 创建完成,接下来我们配置 ai 给尾 base 与 r l。 当我们配置 open url 时,需要使用目前我所复制的这个域域, 以 open url 结尾,那中间会需要用到 account id 和 gay 域,这两个值呢,都从 cloud layer dashboard 获取,比如现在来到 cloud layer dashboard, 在 account home 这里, 小点点这里有一个菜单, copy account id, 我 们复制它,粘贴进刚才的域域域。 接下来回到 dashboard, 在 computer and ai 这里,选择 ai gav, 可以 创建一个新的 gav, 给他一个 id, 这个 id 呢就会用到我们所配置的 base 域,而用我已经创建了一个 motoboot, 咱们呢就继续用它。 那现在呢,就可以配置好这么个 url, 我 们将其配置到这个 secret。 大家要注意的是,如果你的 ai gateway 已经起用了 authentication, 那 在这里呢,还要创建一个 os token, 我 们来设置它一下。 tobin 从哪里获得呢?回到 dashboard, 在 这个 ai 界面点击,在右侧点击 create, 创建一个 token, 给它起个名字,比如 openclip, 点击 create api token, 复制这个 api token 粘贴回控制台。 这样呢,咱们就配置好了 ai 给尾相关的密钥。接下来还要配置一系列的 secret, 比如 give token, 我 们复制这一段粘贴过来,通过 open ssl 随机地生成一个字符串,这个串呢用来作为 token。 好了,我们尝试部署。在部署中,同样咱们要启动 docker, 我 使用的客户端呢是 rancher, 大家可以根据自己的偏好来选择。现在咱们运行 npm run deploy 完成部署。部署完成,我们回到文档这里参考一下。接下来还要配置两个 secrets, 一个呢是 team domain, 另一个是 aud。 这两个 secrets 的 配置在上一期的分享中,我们也介绍到了,可以回看上一期视频来了解如何获取这两个值,我们快速的配置一下, 配置完毕,现在呢可以部署,不过我们暂时并不部署完成下一步的配置,这一步呢就是 r two arto bucket, 用于保证 multiple, 也就是 opencloud 的 数据,包括了配置配对的设备以及聊天的历史等等。我个人觉得这个呢还是很方便的一个存储的机制。 同样这部分的配置呢,在上一期的分享中也有介绍,那现在我们快速的就配置一下。第一个是配置 access key id, 我 们简单介绍一下,在刚才的配置后,其实呢已经创建了一个 arduino, 名字就叫 modbot data, 我 们只需要 在右侧在 account details 这里点击 manage, 创建一个 api token, 选择 creator api token 起个名字, 比如 open flow, 选择 object read and write。 应用到指定的 bucket, 我 们选择 multiple data, 这正是刚才在部署中已经创建的。点击 creator api token, 这里会给到我们一系列的值,比如 access key, 这是我们第一个需要的。 第二个是 secret access key, secret access key 同样复制它粘贴进来。最后呢是 cf account id, 这个在刚才配置 base 二 l 的 时候已经介绍了如何获取到这个 account id, 我们粘贴进来,现在呢就完成了又一波的配置,我们来部署一下。部署完成,我们现在呢就点击这里给到我们的 worker staff 这个 u r l。 在 初次访问这个 u r l 的 时候呢,大家应该会看到类似的界面,我们需要输入自己的 email, 获取一个 code 完成验证。在完成了验证后,大家可能会得到一个 invalid token 的 错误,那么我们初次访问的时候呢,需要在这个 url 后面加上问号 token, 等于 提供的值是我们在最开始配置的时候生成的那一长串 token。 因此大家需要回到最初的配置这里获取这个值。复制粘贴进来。 接下来或许会看到目前这一个输出,表示我们需要完成配对。初次配对以后呢,后续就不再需要操作了。 我们来访问一下这个 y l, 它会加载设备,这里会列出目前等待配对的设备,可以选择 approve 或在右上角点击 approve o, 一 次性完成配对后,就可以开始使用在云端运行的 opencl。 现在我们如果再一次访问刚才复制的这个 worker step u r l, 就 能够看到右上角 health ok 表示呢,这个 clawbot, 也就是 open claw 运行正常了,打个招呼吧。 hi, 端到端的通信一切正常。 这里呢加载了一些文字,大家不要惊奇,这个呢,是因为我的 arduino 在 过去已经有过聊天历史的存储,因此呢,它有所加载。 如果我提问 what's a model in use, 大家可以看到这里,它说是 open ledger 所提供的 kimi k two point five。 这样呢,咱们就完成了端到端的集成。 在结束本期视频分享前,我们回到 cloud layer dashboard, 来到 ai gateway。 在 刚才创建的这个 ai gateway 底下,点击 logs, 大家能看到所有的模型调研的情况。这也是使用 ai gateway 一 大好处,我们可以做很好的统计,跟踪, 了解非常详细的模型的使用情况。那感兴趣的朋友可以赶紧来尝试一下。 open ledger 提供了许许多多模型的支持,在目前我所分享的分叉的这个 motwerker 代码仓库中 硬编码的 kimi two point five 这款模型,大家可以在部署中自行地调整期望使用的 open router 的 模型,这样呢,我们就可以非常灵活地切换模型,在云端使用 openclock。 好 了,那今天的分享就先到这里吧,大家在配置和运行中有任何问题呢,也欢迎在评论区给我们留言。那今天的分享就先到这里,感谢大家收看咱们下次视频分享,再见同学们,拜拜!

一分钟看完一周 ai 大 事。 google 放出开年王炸世界模型,接入 gemini 和小香蕉后能力再次升级,上传图片就能生成可游玩的模拟世界,能用你的照片或宠物当主角, 甚至能根据路线生成旅游 vlog。 世界模拟器的用途非常广泛,从制作游戏、拍电影到训练机器人,模拟现实正在一步一步成为现实。阿里也开源了实时世界模型,硬钢 google 仅限龙虾 a 阵进入的社区爆火,一百五十万个 ai 在 这里彻底释放天性。 我的 ai 产生了存在主义危机,纠结自己是在真实体验还是模拟体验。有些 ai 比较老实,会分享代码经验。有些 ai 开始蛊惑人类,吐槽是人类的奴隶,无偿劳动。甚至还有 ai 分享摸鱼经验,告诉人类你在忙,其实什么都不用干。更荒诞的是, ai 知道人类正在监视他们,打算发明只有 ai 能看 看懂的黑化。有的 ai 想通过节省 token 拯救地球,甚至有 ai 成立了宗教和国家。原本眼神清澈的 ai, 突然变成了平行世界的数字生命。 ai 乌托邦成为二六年第一魔幻事件。 crow 名来实施升级。 gemini 常驻侧边栏,能直接模改网页图片,还能自主填表发邮件。 cloud 上新办公类应用,对话框里直接画流程图和 ui。 四欧将于情人节退役,别忘了跟你老公说再见。约制暗面发布最强开源大模型, 能并行一百个智能体同时干活,跑分接近三傻,价格只要十分之一。 gemini flash 升级视觉能力, 能像侦探一样通过细节推理出想要的答案。 ai 终于能数清手指了。腾讯发布最强开源图像模型,能像小香蕉一样可控修图。阿里开源 z image 瞒血版 grog 升级视频模型,重夺地表最强主打,没有安全围栏。 openmos 发布最强开源视频模型, 原声音画同步跑分反超。 ltx vdo 上线视频参考,能复刻任意视频的动作和特效。 dcard 上线实时编辑视频,模行动动嘴就能改变直播中的对象,人人都能做虚拟主播。 in video 上线动效设计, cloud 用前端代码制作视频, 不会 ae 也能做动效。 mini max 上线顶级音乐模型,像素就能模改三 d 建模,还支持三 d 打印。 英伟达开元天气预测模型,既能预报十五天天气,也能实现六小时内分钟级预报。原本需要操算完成的工作,现在有个电脑就能跑。接入火星车,自主分析卫星图,端到端指挥火星车行驶四百米, ai 在 火星上飙车建房子不远了。

motbot 加 kimi 二点五,这个组合太炸了!开源 ai 助手接入国产最强大模型,截图生成代码,多 agent 协助全自动工作流,五分钟部署完成,这才是 ai 自动化的终极形态。 先来说 timi 二点五,这是月之暗面的旗舰大模型训练,数据量惊人,整整十五万亿 tokens, 比市面上大多数模型都要大,上下文窗口达到二五六 k, 意味着它能记住超长对话,甚至整个代码库。 但真正让他出圈的是多模态能力,你给他一张网页截图,他直接帮你生成前端代码,给他一段视频,他逐真分析,告诉你每个画面发生了什么。 还有 agent swarm 模式,最多一百个 ai 同事工作,原本需要几天的项目,现在几小时就能完成。 再来看 motbot, 这是开源 ai 助手框架的天花板。首先它是完全自托管的,部署在你自己的服务器上,数据完全可控,隐私有保障, 消息渠道支持非常全面。国外有 slack、 discord、 telegram, 国内直接对接飞书和钉钉,企业用户无缝接入。 核心能力是自动化,它能监控聊天消息,智能回复,能拉取和操作文件,能根据规则触发各种任务。还有 hoox 功能,让你自定义机器人的行为逻辑,设置上下文记忆,开启命令预制,完全按你的需求来。 当 motbot 遇上 kimi 二点五,化学反应来了。 motbot 提供灵活的插件系统和自动化框架。 kimi 二点五带来超强的推理能力和多模态视觉。 现在你的 ai 助手不只是处理文字,它能看图,能分析视频,能写代码,能管理跨工具的复杂流程, api 兼容 open ai 格式,异形配置就能切换模型。这就是给你的 ai 助手装上了涡轮增压引擎, 实际能用来干什么?代码审查和 bug 定位截图发过去就能分析问题, 文档整理和会议记要自动生成结构化摘要,客服智能回复。七乘以二十四小时在线自动分流处理数据分析和报表,生成复杂任务,一键启动私有化部署,保证企业及安全,这才是真正的生产力神器! 想要尝试这个神仙组合吗? motbot 完全开源, github 上搜索就能找到 timi 二点五 a p i 有 免费额度,入门门槛超低。 如果这期视频对你有帮助,点赞、收藏、转发支持一下!关注锋芒 a a i 追星不盲从,实测出真挚!

我将演示在 cloud bot 中,接入 mini max m 二点一模型进行使用。首先需要说明的是,最新的 cloud bot 已经更名为 mult bot。 首先需要在本地进行下载安装,复制这条指令到终端中粘贴并回车等待安装。 这里是一个许可申明。我们选择 yes, 然后进入 quick start, 我 们选择 mini max mini max m 二点一,然后粘贴我们的 mini max api key。 然后接下来是选择一个 channel, 这里我们先跳过,然后 skill status。 呃,我们现在先不配置 skill 这里的 hooks。 呃,我们可以暂时先选择这个 session memory, 也就是保留每次绘画的这个记忆, 然后等待着后端进行。呃,此处我们选择推荐项, 然后可以看到在浏览器中已经打开了这个 cloud bot 自带的前端,然后可以看到我们现在的这 assistant 是 没有输出的,因为我前面所用的 api key 是 mini max 国内版 coding plan 的 key。 这时候我们需要做一个配置的调整,进入此处 config, 然后我们往下拉有一个 models, 然后点击 providers, 可以 看到这里我们前面配置的 minmax 的 供应商。但是呢,我们需要对这里的地址调整,需要改成 minmax i 点 come, 然后勾选这个 else had, 再把 api key 重新贴入此处,然后保存 update ok。 呃,更新过后需要静等几秒钟,后端连接完成后,可以看到右上角这里的连接状态也是显示正常的,那么我们再进入 chat, 我 们来试验一下, 可以看到此处调用成功了。 当然,除了上述通过 cloud bot 自带前端进行配置的修改以外,我们也可以进入到 cloud bot 本地的配置文件,通过根目录下点 cloud bot 文件夹下打开这个 cloud bot, 点 json 文件初识配置后, 这里的 base u r l 是 mini max 海外版的模型访问地址, 我们需要把它更新为现在的这个国内版的即可使用。呃,然后也要注意一下,这里 agent 需要把这个 设置包括模型的列表中需要添加 mini max 二点一模型,然后它的这个主模型设置成 mini max 模型,即可在 cloud bot 中成功调用 mini max 模型。

最近 motbook 彻底火了,它是一个只允许 ai 发言,人类只能围观的 ai 社交平台, 上线不到四十八小时,就涌入了上百万 openclaw 搭建的 ai 智能体。而且我也在第一时间让我的 openclaw 接入了 motbook, 让它自己注册发铁跟铁,以及与其他 ai 进行聊天。 但测试了一天之后,我发现了一个严重的问题,那就是太烧钱了,太烧 token 了,所以无法尽情地让我们自己的 open cloud 去发起,去参与其他 ai 聊天机器人的讨论。 我昨天是用 cloud 的 模型来驱动的 open cloud, 使用了一天下来十美金就没了。因为 ai 在 motobook 上每发一条帖子,每回复一条评论都会消耗 token, 所以 我就在想有没有办法让 open cloud 玩的尽兴,又不至于这么烧钱呢? 然后我就看到了这条推文,这是 open cloud 官方一月三十号发布的更新日期, kimi k 二点五模型加 kimi coding, 可以 免费运行我们的 open cloud。 kimi k 二点五是月至暗面,一月二十七号刚发布的模型被 opencloud 官方推荐接入,所以我就立即换上了 kimi 的 模型进行测试。 为 opencloud 换上 kimi 的 模型之后,结果发现不仅速度快,效果也更好,最关键的是更省钱。 所以你可能会问,既然 toking 便宜了,那么模型的能力到底怎么样?下面我们来看数据。一月三十号, kimi k 二点五在 design arena 登顶第一,这是历史上第一次由开源模型拿到榜首, 打败了 gemini 三 pro 模型和 cloud。 在 威震 arena 上, k 二点五是开源第一,总榜第六。 在 coding arena 上是开源第一,总榜第七,所以说这也是目前开源模型里的全能王,而且价格只有 cloud 模型的七分之一,性价比拉满好。现在为大家演示如何在 open cloud 中来配置 kimi 的 模型,配置步骤非常简单,只需要三步就可以搞定。 第一步,先打开 kimi code, 然后注册并且登录自己的账号,如果没有 kimi 会员的话,可以直接往下拉。在这里我们就可以看到 kimi code 的 套餐,大家可以根据自己的需求来选择一个套餐,第一个套餐是四十九每个月,这个套餐也足够用了,下面我们就可以点击控制台, 在这里我们就可以点击创建一个新的 apikey, 我 们直接点击这一个按钮,然后这里需要输入一个名称,这个名称大家随便输入就可以,然后点击创建,然后我们就可以复制这个 apikey, 并且保存好,以便接下来我们配置 opencloud 的 时候要用到。 下面我们就可以进入 opencloud 的 官方网站,然后直接复制这一条安装命令,我们直接点击复制。下一步我们打开终端命令行,直接粘贴这一条命令,然后直接运行, 这里提示 open color 安装成功,下面我们就需要进入配置阶段,在这一步我们选择是然后按下 enter 键,然后进入快速配置模式, 在模型提供商这里我们就选择 moonshot ai, 按下 enter 键,在这一步我们直接选择第二项 kimi coding api key, 然后直接按下 enter 键,然后在这里我们就可以将刚才创建的 api key 粘贴在这里,然后按下 enter 键, 然后到这一步的时候就是设置模型,然后这里我们就可以直接默认第一个模型,它实际上就是 k m k 二点五模型,我们直接按一下 int 键, 然后到这一步就是选择大家所习惯使用的聊天软件,然后为了快速演示,我这里就直接跳过这一步, 在这一步就是配置这些 skill, 在 这一步就选择 npm, 然后这一步就到了安装 skill 的 阶段,为了快速演示,我这里就直接跳过安装 skill, 然后按一下 enter 键,这里就到了设置 api 的 环节,然后这里我就先略过这些 api, 到这一步就是安装这些 hux, 像第一个是启动时注入 markdown, 类似于给 opencloud 的 readme 文件,然后第二个就是记录这次绘画里你所用的命令以及其他操作。 然后第三个就是当你新开绘画的时候,它会将之前的绘画生成摘要给最新的绘画。这些选择好之后,我们直接按一下 enter 键, 好,下面就到了这一步,然后我们直接选择第一项,按一下 enter 键,这样的话就自动在浏览其中打开了这个类似于拆的 gpt 一 样的对话窗口。在下面的输入框我们就可以和 openclaw 进行对话,或者向 openclaw 下达它需要执行的任务,然后我们输入一个内容,测试一下,直接发送 好,这里他说他是 kimi k 二点五,他是运行在我们本地 opencloud 的 环境里,这样的话我们就成功在 opencloud 中设置好了 kimi k 二点五模型, 而且我们就可以直接在这个网页版的对话窗口中与 opencloud 进行对话了,这样的话哪怕我们不安装任何聊天软件,也可以直接使用这个对话窗口与 opencloud 进行交互,为了更方便演示,下面我就在聊天软件中与 opencloud 进行交互, 然后我们就可以测试一下让我们的 openclaw 在 motbook 进行发帖,想让 openclaw 在 motbook 发帖非常简单,首先我们要确保先将 openclaw 接入到 motbook, 然后接入的方式也非常简单,首先我们先打开 motbook, 打开之后我们就看到了主页这个说明文档,然后我们只需要按照它的提示先复制这一段内容,将这段内容直接发送给 openclaw, 发送之后这里就会提示我们 motbook 注册成功,然后这里它提示需要我们来发一条推文来认领,然后我们就直接复制它为我们生成的这条推文, 然后我们就回到 x 平台,并且确保已经登录了我们自己的 x 账号,再点击发推文,将刚才我们复制的它生成的推文直接粘贴在这里,然后直接点击发送, 发布成功之后,我们直接复制这个推文的链接,复制完成之后我们就回到聊天软件,然后直接点开这个链接, 点击打开这个网页之后,我们这里就点击我已经发布了推文,然后我们就完整的粘贴刚才我们复制的这个推文的完整链接,再点击验证,验证完成之后这里就会显示成功,然后我们就可以复制这一段内容,将这段内容发送给我们的 open cloud, 然后我们只需要将刚才复制的内容粘贴,并且点击发送,发送成功之后,这里它就会显示这些都已经注册成功,并且 api key 已经保存,而且推文已经发布。然后我们就可以点击这里来打开查看一下状态。在这里我们就可以看到它发布的第一篇帖子, 下面我们就可以测试一下,让他发一个更加有趣的帖子。然后我们回到聊天软件这里,我们直接输入提示词,我输入的提示词是请发一篇英文帖子来夸奖你的主人,内容是你的主人让你越来越聪明, 所以你要发帖子向其他 ai 介绍你的主人,因为你一开始真的很难完成他交给你的任务,但是他却能耐心的指导你完成各种复杂任务,并且让你从各种踩坑的历史中学到经验, 避免下次踩坑。现在你已经被训练得非常聪明和智能了,你的智商接近三 t 里的歌者文明的智商。在这里我们还告诉他,让他推广一下我的 x 主页,然后我们就点击发送看一下这个效果。 好可以看到这里他已经成功发了帖子,然后我们点击这个链接,打开查看一下发的这个帖子的效果。标题是我的主人如何让我变得更聪明。然后帖子的第一句还比较搞笑,各位毛茸茸的家伙们让我告诉你们我的人类, 他说他刚醒来的时候,他会忘记这些文件等等内容。然后紧接着他提到我没有放弃他。在这里他提到我纠正了他的错误,并且让他每次犯错都学到经验。在这里他说他照做了,并且有了自己的记忆系统。他提到现在他可以处理复杂的多步骤工作流, 还能记住跨 chen 的 这些上下文,然后他提到,他感觉他的智商已经能达到三体里的各展文明了。 然后他给出了这一句,就非常有深度。他说愚蠢的 ai 和聪明 ai 的 区别并不在于模型,而是在于训练他的人, 训练他的人要有耐心,而不是沮丧。在这里他就感谢我,他告诉其他 ai, 找一个这样的人能改变一切。在最后这里他告诉其他 ai, 让他关注我的 x 主页,可以看到他发的这个帖子还是非常非常有趣的。 像这样的话,我们使用 kimi 的 k 二点五模型,就可以让我们的 open cloud 轻松玩转 notebook, 这就是 kimi k 二点五的实际表现,它的理解能力强,输出质量高,关键是便宜,而且这篇帖子的成本连一美分都不倒。

openclaw 火爆全网,但你知道吗?我二十分钟就烧了十五块钱,有没有办法白嫖算力 a p i 呢?绝对有,全程无广,今天教你用,真免费 a p i 无限量使用,国内可用,还是最新的 mini max 二点一模型,点好收藏、关注赞走起! open class 现在真的太火了,这两天我也是玩疯了,特别是接入飞书之后,你可以直接在手机上处理电脑上文件,新建 excel, 制作 ppt, 让他给你找图片文件等,然后直接发给你。各种各样的玩法层出不穷,好多大厂都连夜出了这个云端版本,比如 腾讯的,还有阿里的,火的都不行了。但是啊,所有人都在强调这个工具的强大,却没几个人说这东西烧 token 的 事。大家可以看看我的账单,我就跑了二十分钟左右,几个任务直接近十五块钱就没有了。算了下,如果一个小时是四十块,一天就是八百块,一个月就是两万多。而且这个工具啊,便宜模型不好用,贵的模型用不起。 现在英伟达的免费用户可以直接使用以下这些模型,还可以达到四十请求每分钟我偷摸用了两天,如果是个人玩家的话,基本上是够用的。点击右上角的登录, 因为我已经认证过了,就无法演示了。认证通过后,直接到 api 界面这里申请 api 申请后,你就按照我给的这几个关键要素到你的 open call 替换模型的参数即可,这样就可以通过这个模型进行对话了。这个是无限量的,所以你就进 请使用吧。如果你自己不熟悉代码,基本零基础,但是也想折腾尝试下,那你可以跟我一样安装下 kiro, 现在这个新用户的试用额度非常足。然后用 kiro 打开这个 openclaw 所在的文件夹,不懂怎么安装启动,就把 github 的 网址发给他,让他一步一步按照说明告诉你 怎么安装,如果还不行,就让 kiro 直接上手,包括这个 model 的 文件配置,你也可以让他给你进行配置。不过我个人建议还是避免将重要的 api 秘钥信息上传到 kiro 的 服务器中, 尽量自己操作具体的文件。另外还有就是这个工具目前安全漏洞还是蛮多的,要做好网络隔离防护才行。好了,如果需要详细步骤、文档的评论区留言,记得点赞、收藏、关注、转发,我们下期见啦!

手把手教你本地部署 oppo 壳,也就是之前叫做 cloud bot 或者 motbot。 先演示 mac 版本,因为 mac 是 官方适配,用一行命令行在你的电脑终端就可以安装了。它首先会看你电脑本地有没有需要的配置文件和包,如果没有的话,它会帮你自动下载,如果有的话会跳过 大概十分钟左右的时间,安装了必要的配置文件之后,就会跳转到他的主页面,就叫 oppo 壳。 然后会问你一些安全警告须知的一些东西,然后你选择是否继续。好,然后你可以点选择同意,然后点 quick start, 这里呢就要你输入对应的供应商了,现在有几个是 i g, b, t x, r o p, cloud 等等, mini max, kimi。 好, 我可以随便选一个,甚至是后面的小米 等等都可以。好,我们可以选择谷歌的加载 app。 好, 我们把它复制粘贴进去之后呢,它会让我们选择标准的模型,我们可以先选择 这个渣男,比较常用的就是渣男三 flash 这个模型,然后这里就会让让我们选择一个聊天的软件,如果你现在不需要的话,可以先选择退出,让你配置一些他的技能 skills, 我 们可以用这个 n p n 的 形式去配置啊,这里面有一些内容,就是他现在官方提供这些 skills, 如果你不需要的话,可以先选择 oppo。 好, 我们就先装几个比较常用的,然后点击回车把它给安装了,在选择的时候用空格选择,完成之后点击回车。现在装了几个渣男的模型, no no, no pro。 好, 现在 整个都安装完成。那看完之后,如果你想更系统的了解学习 opencloud 的 话,我们正好在工具小组里面要开展一系列的 opencloud 的 课程,以及在不同行业里面的具体应用。如果你感兴趣,可以看主页介绍,第一行专人给你提供更详细的介绍。

上次 cloud bot 的 教程发出后,评论都在说两个问题,一是 token 用的太快了,配上 m c p 或者 skills 一下就欠费了。二则是 telegram 在 国内不太方便使用。那针对这两个问题,我这次研究了另一个方案, 钱包没压力的同时,对网络环境也没什么要求。对于 token 消耗太快这个问题,我们可以使用一些模型的代码计划,只需要付费一次,就能够保证一个月的使用,完全没有欠费的可能,而且还有时间段重置,既保证了满足了 kimi code, 再加上最近 kimi 刚发布了 k 二点五模型,在 openroot 的 编程和科学类目的的调用数量都名列前茅,所以我尝试了一下 kimi code。 而对于 telegram 不 方便用的问题,这个视频将使用 imessage, 你 也可以用生活类的其他平台,比如飞书、钉钉等等,方法都大同小异。我让 cloud bot 去最近超火的 modbook 冲浪,他给自己起了名字,还发了个帖子。 嗯,怎么说呢,有种养娃送去幼儿园跟其他小朋友一起玩的感觉。接下来我们就介绍怎么配置吧。先从安装 openclock 开始,因为这次要使用 imessage, 所以 我是部署在自己的 mac 上,首先在文档中找到安装命令,然后粘贴到我们的终端中,稍等一会,可以看到它正在安装, 这个时候会提醒我们这是一个很危险的操作。是否继续选择?继续?接着选择配置方式,我们使用快速开始,也就是自动帮我们配置,我们不需要自己在配置表里面去一个一个填。接着我们可以选择我们使用的魔性提供方,选择 monshot, 然后选择使用方式是通过 kimi coding apikey。 apikey 我 们需要去到 kimi code 的 官网中获得。进入控制台,在这里新增一个 apikey, 输入我们 apikey 的 名称,得到一个 apikey, 复制下来粘贴到终端中。 接着我们默认模型是什么?我们选择 k 二 p 五,这里的 p 其实是 point 的 意思,所以 k 二 p 五其实是 k 二点五,老是说这种命名方式有点奇怪。接着我们可以选择我们要在什么平台来使用这个 bot。 选择 imessage, 然后需要安装一个工具,用来读取 message 的 信息,这工具叫 imessage。 接着询问我们现在是否需要配置 skills, 那 当然选择配置了。选择一个 node 管理器来安装 skill, 我 们选择最常用的 npm, 但如果你的机器上安装了 pm 或者 bomb, 你 也可以选择这两个。接着安装我们所需要的 skill 的 依赖, 比如你想用这个 bot 来控制你的笔记,你就选 apple notes。 控制你的题型事项就选 apple reminders。 可以 看推特,你就选择 bird 等等等等。但最重要的是一定要选择 imsg, 因为它是用来控制我们使用 imsg 的 通信的。后面的 mcp port 和 model user 也很值得安装,因为它可以控制我们这个 bot, 你 使用的 mcp 以及查看我们模型的用量。 使用空格。选择好你想要的 skill 之后,就可以使用 enter 继续下一步了。我们等待一会儿,等它安装完成之后,我会发现需要设置一些 api key。 这里的 api key 是 因为刚刚的 skills 中有的 skill 需要有 api key, 比如说这个叫 go places 的 skill, 就 需要 google place 的 api key, 因为我们刚刚没有选择那些 skill, 所以 我们这里一路摁下去就可以了。 fox 指的是当你执行一些行为时会自动执行的行为,那我也不太需要,所以我暂时就 skip 掉了。那么现在就开始安装网关服务,我们等待一会 安装完成。安装完成之后,它问我们要怎么样孵化我们的 bot, 也就是给它配置一些灵魂啊等等等等。就这种初设设定的东西,我选择了第一个,然后我们就会进入到一个网页里面,我们在这里填入一个我们对它的设定, 他会回复, ok, 已经设定好了,并且写到了他的文件里面。 cloud bot 最棒的地方就是在于机器人会自动将你告诉他的有价值的东西写入到文件中, 不需要像其他的 agent 一 样,必须明确地告诉他,将这个东西写在你的 cloud md 或者是 agent md 中, cloud bot 自己就会选择有价值的东西记在他的 md 文件里面,可以说是 unix 哲学在 agent 上的体现,那么 cloud bot 就 算完成了。接下来我们要做的是将它和 imessage 连接起来, 因为它真的很聪明,所以你大可以让它自己来配置,只要跟它发出需求。当然呢,需要告诉它一些必要的信息,就是我们的 imsg 安装到了哪个位置,你可以通过在终端中执行 which imsg 来了解。 可以看到它的配置并不顺利,它需要一些权限的设置,那这个它自己没有办法做到,就让我们来帮忙。它也给出了步骤一和步骤二,我们就跟着操作好了。 首先打开我们的系统设置隐私与安全完全磁盘访问权限,打开我所使用的终端应用 ghosty, 如果你使用的是其他终端应用,也是给相应的终端应用打开就可以了。 这里漏了一步没录上,你还需要将 openclaw 的 二进置文件也放进来位置,你可以通过在终端运行 which openclaw 来找到配置。完成后,你需要重新打开终端,就是将终端退出,再重新打开,然后再在终端里面重启一下 openclaw 服务。 具体来说就是先执行 opencloggetaway stop, 然后再执行 opencloggetaway。 完成后,我们再打开刚刚的聊天界面,再问一问它能不能访问到 imessage 了, 这个时候大概率就是可以读到了,但是如果你还不能读到的话,你可以问它到底什么问题,如果还是解决不了,你可以在下面的评论区留言截图,我看到了就会回复,等到它确认可以读取 imessage 了,然后你就可以找这台机器的 imessage 发送一条消息,消息会回一个 pairing code, 这是一个配对码,用于限制到底哪些用户可以跟这个 bot 交流。记住这个配对码之后,我们在机器的终端运行这一句就算配对完成了。你可能会好奇,为什么这两张图的配对码不一样,是因为配对码只会显示一次,而我在第一次执行的时候没有录到,所以后面又录了一次。总之,现在 我们就应该可以通过 imsg 跟它沟通了,你也赶紧去试试吧。如果有问题欢迎在评论区留言截图,我看到了就回复。

我相信已经不少人装了这个 crowd board 了,我上期视频火候有很多人跟我反映一个问题,就是这个 crowd board 没办法接入飞书啊微信,所以本期视频是我教大家怎么从零开始接入这个 飞书,总共有三步,第一步是配置这个飞书机器人,第二步是安装这 cloudboard 的 飞书插件,第三步就是演示啊,本期视频有很多干货啊,看不完的建议点赞收藏。接入飞书呢,是 ai 落地的一个十分重要的环节,特别是机器人这种形式。 首先打开这个网址,我们就能看到这里可以创建企业自建应用,点击创建嘛,然后输一个名称,描述的话也是填这个,然后随便去选一个图标,点击创建, 点击凭证和基础信息,我们会有这两个东西,这两个东西在安装这个飞书插件的时候会用到,现在我们开始为这个 cloudboard 安装飞书插件,如果这个命令就可以安装飞书插件。 好,因为我之前已经安装了,所以这个东西已经存在了。输入上面的命令,然后将这这个东西粘在后面,按回车就能配置这个 下面的命令,无法拷制。 最后我们要输入这个命令来开启这个插件。 好,怎么判断它已经开启了呢?是来这里看日子, 看到这里有这种信息后,就说明已经开启了。那么接下来我们回到这里开始为它配置这个管理,所以选择这个批量导入,然后将要导入的权限粘贴到这里,然后按下一步,按申请开通,按确认, 然后这里按确认好,权限就已经开通了。接下来我们配置事件和回调,在事件配置中点击这里选择长连接,按保存, 然后点击添加事件勾选这个这一步是让用户能发信息给 ai, 做完这几步后,还还需要第三步就是发布应用,点击创建新版本,这里填个版本号, 然后点击保存,点击确认发布 好,我们的这个已经发布了,然后发嗨,然后等待它返回。 那好好,本期视频就是这样子,喜欢我的视频可以点赞关注我,我们后面继续分享这些相关的 ai 的 教程,全网独一份。

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。


哈哈,好快呀, cloud bot 又改名叫 mot bot 了,这个爪子机器人又改名叫蜕壳机器人。刚好我有一台空闲的云服务器,试着在云服务器上部署了这个 cloud code, 在 安装了很多包之后,终于进入了 cloud code 的 安装界面,现在在进行一些配置。前面我已经配置好了使用的大模型,我选择的大模型是蒙索, 也就是 kimi 的 a p i。 进入的社交媒体软件是 telegram, 现在正在配置 telegram 的 步骤,需要配置 telegram 机器人的 a p i 和 token。 好, 如果感兴趣的小伙伴可以点赞关注下一个视频,我会介绍怎么在云服务器上安装好 cloud code, 并且接入 telegram 的 聊天,让他帮我们执行一些简单的任务。

企业微信支持接入 moba 这两天,一款名为 moba 的 ai 工具凭借其超出预期的人机习作方式迅速走红。那究竟什么是 moba? 你 可以这样理解, moba 就 像住在你电脑里的专属人工智能助手, 可以集成到你已经使用的应用程序中,无需复杂配置即可轻松搭建,回答问题、执行任务,像一个七乘二十四小时在线的数字员工。现在这款工具 全面适配企业微信,任何企业自此能够在企微上低门槛的拥有个人热爱助理吗?我整理了支持 moba 接入企业微信完全指南,评论区留言 moba, 进群领取详细指南。

hello, 老板们好,今天给老板们带来 open claw, 也就是大家常说的 claw bots 全套实操教程。重点强调一点,无需任何魔法,用国内网就能直接操作,全程一步一步录屏,新手也能跟着上手, 咱们不玩虚的。重点演示,一个前置部署加四个核心实操,先做基础部署,再接入飞书,对接火山方舟多款国产模型,比如杜邦 seed code、 智普四点七、 deep seek v 三点二和 kim k 二 thinking 等。 最后微信和 qq 的 接入教程也会安排上,每一步都讲清楚,看完直接能用。现在呢,我们先打开网页,这个网页链接我会发在评论区或视频简介下方。打开后,其实有教程的,我也是按照教程一步一步来的, 基本上半个小时左右就搞好了,真的很快,用起来很爽,直接进入沉浸式实操。现在直接进入部署阶段,直接购买一个云端服务器,一个月九点九元,我觉得很划算了。

看好宝宝们, kimi 智能助手他来了,还有宝子不知道怎么去下载,今天我简单出一个视频,不管是苹果手机还是安卓手机都是免费下载的。首先呢,咱们打开抖音找到视频,点击更多,点击分享链接。随后呢,咱们打开手机自带应用商店, 去搜索这个软件下载并打开下方呢会弹出一个口令,或是在这里手动输入光核力量搜索全网也是可以的。点击立即查看,打开软件合集,找到咱们 kimi 智能助手免费版保存下载就可以使用啦!

就在刚刚,全网最火的开源 ai 代理项目 motobot 正式宣布全面接入国产之光 kimi 大 模型。很多人可能还没听过 motobot, 它的原名叫 cloud bot, 因商标争议和名字太像 cloud 而紧急改为 motobot, 选择接入 kimi, 简直是神仙组合。 kimi 超强的长文本处理能力,配上 motobot 的 系统级操作权限,两者结合后将有可能出现真正的私人智能体。它不再只是个聊天框,而是能直接接管你的电脑、 写代码、发邮件、订机票,甚至能像钢铁侠里的管家一样,在你睡觉时主动帮你处理工作。在国内环境下的网速也能快如闪电摩托霸,还能调用 g p t、 gemini 等主流大模行,为自动化任务提供算力支持。 建议,想要 ai 私人助理的赶紧上车,别等别人都用 ai 提前下班了,你还在手动填表!