粉丝114获赞680

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

我差不多一年没上班了,但是前两天又把飞书装了回来,就为了使用 kimi claw。 它是 kimi 出的新产品,云端托管版的 open claw。 有 了它之后,我的 ai 操作系统的最后一块拼图终于补上了。打个比方啊,我之前介绍过的 ai 操作系统,就好比是本土,必须保证足够的安全和稳定。 而 kimi klaw 的 云端虚拟机,就好比是海外的生产链,海外的市场那些繁重的工作都可以交给外部来处理,不管它怎么折腾,花多少时间,只要它能把结果给我拿回来就行。 我还是先说下 openclaw, 它是第一款火遍全球的个人 a 卷系统,也是却 gpt 出现之后第二款现象级的 ai 产品。 它让很多人第一次感受到 ai 在 终端落地之后是什么样子的。虽说这只龙虾很火,但我之前一直没有出视频讲它, 因为我非常不认同为了跑这个而专门去买一台 mac mini 的 做法。这完全没有逻辑啊。你想想,从顺利的角度来看,你会在 mac mini 上跑大模型来驱动 openclock 吗?不会啊,你买的是 mini 又不是 studio, 不还是通过 api 来调用吗?不还是要付一份 api 的 钱吗?从数据的角度来看,你之所以会另外再买一台 mac mini, 正是因为你不敢在自己的主力机上部署,怕泄露隐私,也怕他把不该删的给删了,所以才用一台新的机子来作为隔离,对吧? 那这么看下来,为什么不直接部署在云端呢?之前确实有不少厂商出过云端托管的方案,但一般来说都存在两个问题,第一,配置太麻烦。我试过在 cloudfly 上部署,真的太痛苦了,我搞了一个小时还是不行,只能放弃。 第二,模型的性价比不够高, openclaw 的 token 消耗远比之前的任何 ai 工具都要高,所以一款既能打又足够便宜的模型就成为必须成为 must。 所以 看来看去,我最后选定了这次新出的 kimclaw。 说真的,我就喜欢这种一键部署的产品,真的太省事了,一分钟就搞定。只需要到 kimi 点 com 斜杠 bot 这个链接,点一下按钮,然后它就会自动配置,包括算力和四十 g 存储空间的分配。 如果你想在飞书里使用,可以像我这样到飞书开放平台去创建一个应用,然后添加机器人的能力,把权限都开起来,添加接收消息的事件,把 app id 和 secret 告诉 kim kong, 最后把应用发布就搞定了。 整个逻辑跟连接 disco 差不多,很好理解。如果你不想配置飞书,直接用 kimi 的 app 也行。现在海外版的 app 已经更新了,在输入框的上方你就能看到 kimi claw 的 入口。当你正式上手使用之后,就会发现 kimi claw 跟你之前使用的 kimi 很 不一样, 看起来还是对话,还是一问一答。但是啊,这只龙虾好像更会自己找事干了。他会自主分析任务,找到解决办法,甚至还能最多在后台运行八个子代理并行处理任务。 这一切都要归功于 kimi 前段时间推出的 k 二点五模型,这个模型专门为多 a 卷的而生,我之前还专门出了一期视频,介绍过他的 a 卷集群功能。 到了 open core 这边,如果你是用国外那些模型的 api 的 话,运行的子弹力一多,很容易就触发 too many request 错误,导致任务的中断。而在 kimi core 这边就没事儿,因为 k 二点五天生就是干这个的。另外 k 二点五的性价比非常高,特别适合跑多 a 卷系统。 你其实用一段时间的 openclaw 就 会发现 token 的 消耗真的是指数级的增长,所以长期使用的话, k 二点五这种模型最合适。 timmy claw 除了本身性能强大之外,还可以根据你的需求进行完全的定制化。比如你如果要添加某一项能力的话,可以让他去 clawhub 里边搜索和安装。 clawhub 就是 面向 agent 的 app store, 里边已经有五千多个技能了,从开发到办公都有, 你不用自己动手让 kimi klaw 去做就是。比如我让他安装了小红书的技能,装上之后他就知道典型的小红书文案该怎么写。 这些都是基础用法。不多说了,我来分享一个进阶的用法。我在前面说过,把所有外部信息的获取都交给 kimi klaw 来做,指的就是让他定时去获取信息。比如每八个小时收集一次 ai 的 新闻, 那这些内容都保存在云端,保存在云端的虚拟机里边,如果想在本地进一步处理这些内容的话,我还得手动复制粘贴下来,那这个就太麻烦了,对吧? 要解决这个问题,就需要一个中转站,去联通云端的虚拟机和本地的文件夹。这个时候我想到了一个好的办法,邮件。 首先我让 kim kong 安装轻量级的邮件发送工具,我把 qq 邮箱的 smtp 密码告诉他,那这么做的目的是当有新的内容之后,他可以自动发送邮件。接着我在 opc 点上安装接收邮件的插件, 这个插件会提供一个特定的邮箱地址,一切发送到这个邮箱地址的邮件都会被自动保存到 obsidian 里边。最后,我把这个特定的邮箱地址告诉 kimi ko, 让他把定时任务的结果以邮件的形式发送出去。 你看, obsidian 里边多了一条笔记,就是 kimi ko 收集的 ai 新闻。通过这种方法,你既可以继续享受云端虚拟机所带来的安全隔离,又可以把需要的数据自动同步到本地的文件夹。 这个就是我说的让 kim klaw 作为 ai 操作系统的补充的原因。到这里,我的 ai 操作系统就形成了一个闭环,本地的 open code 负责深度创作和知识管理, 云端的 kimiclaw 负责信息的收集和自动化,那中间用邮件来打通内外分工,各司其职。 openclaw 确实是非常重要的产品,但是考虑到安全隐私问题和使用成本,我推荐使用 kimiclaw 这种云端托管的解决方案,使用 k 二点五来长期驱动, 我相信这一定是性价比最高的做法。目前 kimiclaw 还是贝塔版首批开放给了会员使用, 对于普通用户来说,这个绝对比你买了硬件然后再花一份算力的钱更加划算,大家可以试一试。 ok, 以上就是本期内容,想了解 ai, 想成为超级个体,想找到志同道合的人,就来我们 newtype 社群,那咱们下期见。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

二十分钟搭建性价比最高的 open clock 组合,厉害!哈喽大家好,我是姚路星。 最近 open clock 可太火了,但各种配置教程都太复杂了,今天给大家来一个最简版,上手指难教你用火山云服务器加上 k m k 二点五大模型,加上飞速机器人,二十分钟快速搭建一个属于自己的 ai 智能助手 open clock。 为什么选择火山云加上 k m k 二点五加上飞书呢?火山云是自觉云服务信任优惠力度大且配置简单,两盒两 g 云服务器,每个月九块九够用了,一年也才不过四十八块。 无需自主安装 opencloud 云服务,直接就安装好了 opencloud, 你 只需要配置渠道和模型即可。预制二面出品的 kimi k 二点五专门针对代码和技术场景优化,不仅代码理解和生成能力强,而且便宜,性价比非常高,速度也很快。 飞书办公场景完美集成,创建机器人简单,全线清晰,而且火山云和飞书都是字节系的,配合更顺,套餐直接打通。 接下来我来讲一下如何搭建。步骤一,购买火山云服务器一点一注册账号,如果已有账号可以跳过这步,地址如下,一点二,购买云服务器 ecs open cloud 套餐直达地址如下, 地域的话可以选择离自己近的,如果想买海外的云服务,也可以选择雅加达,如果预优惠价受庆,可以尝试切换其他地域。规格的话,两盒两 g 就 够用,两盒四 g 也可以,会更加流畅一些。 接下来设置好 root 密码,这个自己要记住,后面要用。接下来就是购买支付,如果账户里没钱的话,要充值一下,等待触视话即可。 步骤二,配置 kimi k 二点五和飞书二点一,获取 kimi api 蜜柚,打开 kimi code 注册登录账号买包月套餐,四块九毛九就可以试用七天。地址如下, 进入 api 蜜柚界面,点击创建新蜜柚,复制 api key, 注意 api key 只显示一次,复制保存到安全的地方后面也要用。 二点二,创建飞速机器人打开飞速开放平台,点击创建企业自建应用,填写应用名称和描述地址如下, 添加应用能力找到机器人添加有些权限依赖机器人能力。进入凭证和基础信息页面,复制凭证 app id 和 app secret。 二点三,配置 open cloud 因为云服务套餐已经安装并启动好 open cloud 的 服务,我们只需要将 kimi 和飞速的配置接入即可。我们先远程连接云服务,这个时候就用上了上面的一个 root 密码,地址如下, 可以更换区域,找到自己的一个服务器地址,运行以下命令进入配置界面。接着我们先配置一下 kimi coding 模型,选择 moonshot ai, 选 kimi code api key 套餐配置的是这个, 将刚才的 key 贴进去即可。配置完成 kimi 后呢,我们继续执行配置飞书,选择 channels 找到飞书,找到飞书,配置好 app id 和 app secret, 然后按照流程完成配置即可。二点四,配置飞书权限接着我们在应用后台进入权限管理界面,搜索并开通以下权限。 二点五,配置事件订阅这里非常重要,这里为什么先配置 open cloud 再配置事件呢?因为如果不先配置 open cloud 的 话,无法配置飞速机器人长连接事件,进入事件和回调页面。事件和回调配置方式选择使用长连接接收事件, 添加事件,订阅搜索并开通以下事件,如果漏掉这一步,机器人能发消息,但接收不到消息。 步骤三,可以开始使用了。方式一,飞叔私聊也更推荐这种方式。方式二,飞叔群聊艾特机器人发消息。 总结一下,先分析一下实际成本,大概也就一杯奶茶钱不需要你是技术大牛,不需要你花大价钱,只需要二十分钟加二十元试错成本加一颗愿意尝试的心, 快去试试搭建你的专属助理吧!感谢大家!三连谢谢大家,记得关注再走!

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

oppo klo 这一个月啊,两件事让我打开了眼界。第一件事,第一家靠 oppo klo 赚翻的公司出现了。 timi 过去二十天的收入超过了二零二五年全年 strife 支付订单数一个月暴涨了八十二倍。噗,这也是应该的呀, timi 算是最早上线 klo 的 云端部署解决了第一步安装难的问题, 全球龙虾类产品访问量排第二,连 oppo klo 的 创始人 peter 都转发点赞了。第二件事是,我在 x 上看到了一个叹为观止的 oppo klo 赚钱方法, rapper, 也就是预配置好的 open club 套装,把原本要人做几周的事,拆成了一套自动化的流程,配置好交付给客户,直接跑这个生意。性感的地方就在于,他洞悉了消费者购买的本质,他们不想学过程,只想要结果。 一共五个预制方向,截图保存。我用 kimi club 实操了第一个内容,机器核心体验呢,是每天晚上手机上都会收到一条消息,内容已经排好了。 首先打开网页,点击创建云端,已经帮你部署好了一个 open core, 接好 kimi k 二点五模型了,先把它跟飞书打通,这个过程已经有太多的视频教了, 我,简单还是给你们带一下。在飞书开放平台创建企业自建应用,然后开通权限,再把 app id 和 secret 告诉 kimi core, 之后再返回去进行事件配置,选择长链接添加事件,点击发布飞书跟 kimi core 就 连接好了。我开始给 kimi core 下来了四轮指令。第一步啊,基于我过去发布的三到五篇作品, 续我的写作风格,常用词汇库,输出一个结构化的 jason, 以后所有的内容生成都要调用这个文件作为 base。 这一步呢,让他学会我的风格,你看他是不是学会了我的风格,内容公式, 并且固定下来了。第二步,每天帮我抓取 x 和 ready 上跟 ai 相关的内容作为创作的材料。第三步,建立四条并行的管线,分别生成 x 的 七条内容, music 两篇长文,视频脚本和配图。 在这个过程中啊,我发现他没有给我图片,怎么办?就像你教学生一样教他呀, kimi klo 接入了 klo hop 上的五千个 skills, 缺什么你就让他学什么,看现在图片也配好了。第四步,设置定时。这一套流程下来,体验很棒,一切都是在云端跑的,不过我本地文件更关键的是性价比,一百九十九块一个月,得到的是什么呀? 四十 g 的 云端存储,四 gb 的 运行内存,还有云端服务器,二十四小时待命。最后呢,把上面的四步封装成一个 rapper, 目标买家就是每天做内容生产的人。 rapper 生意的本质啊,就是一个简单好用的 klo, 加上一个你能够深刻理解的细分领域,我觉得这件事是有非常大机会的。其余的四个方向也很炸,特别是第五个,最野心勃勃的留给你,快使用 kimi! klo 跑起来!

终于把我的个人 ai 助理 openclaw 搞定了,考虑到安全性,我的安装方法是把它装在了我的 mac 电脑的刀口里面,通过刀口去隔离一下安全性,又考虑它跑起来比较吃头坑,所以我选择的是 kimi 的 k 二点五 a p i 接口。那具体是怎么安装呢?第一步,需要你自己在 mac 电脑上下载一个 dawg。 第二步,你要在 dawg 里面去安装这个 openclaw。 第三步呢,会启动一个 quickslot 的 向导, 在向导里面选 kimi 模型,把你申请的 kimi 的 api 接口输入进去,一定要手动修改一下 kimi 的 api 的 地址, 未默认的地址是点 ai 的 地址,这是国外的 kimi 的 地址,我们一般在国内申请到的都是国内的 kimi 的 api 地址,在配置文件里面要把点 ai 变成点 c n, 这样 kimi 就 配置好了。第四步呢,要启动这个 open call, 启动的时候一定要给它挂在一个具体的文件目录, 因为现在的 open class 是 装在 doc 里面的,如果没有具体的文件目录,你一关闭它就所有东西都消失了。第五步,通过 mac 的 终端 就可以去连接这个 open class 了,连好之后呢,你就可以通过命令行去给他下一些命令,让他去帮你做一些操作了。如果你是程序员的话,其实到这一步就可以了, 主人呢,其实还是想在有界面的浏览器里面去操作。所以呢,第六步,你需要先把 doc 电脑能访问的这个地址, 然后呢,再通过 cloudfire 的 隧道机制,建立一个你手机和你 mac 电脑的一个隧道,这样在你手机上就可以直接访问到这个 opencloud 了,当然在电脑上也可以访问到,这样整个安装环境就搞定了。接下来就安装一些你常用的 skills, 比如让 kimi 能够联网搜索,让 opencloud 能够查找 skills, 这个非常重要,要让他遇到错误的时候去纠错,去试错,去自己解决问题的这个 skills。 这样呢,一个个人的 ai 助理就这样搭建完成了。我把整个过程用到的这些安装指令都放在了评论区需要的支取。

别再瞎用 openclaw 了,别人用 ai 啊,一分钱不花,你却在疯狂地烧 talk。 今天一条视频告诉你, openclaw 到底能连哪些大模型, talk 又该怎么薅?哪几个模型便宜又好用? openclaw 能连的模型啊,就三类, 国际大厂 g b t cloud, 国产头部空一千万 g l m kimi, mini max, 还有本地的 alama 开源模型,零成本啊,随便跑,想省 talk 啊?记住三招, 第一,新用户免费额度全领一遍。 deepseek 百链智普注册呢,就能白拿几百万的 token, 每月还有赠送的额度。第二,简单任务,用低价模型,复杂任务呢,再上高端。 第三,本地跑开元模型,一分钱不花,如果追求性价比,日常清量啊,用 deepseek 加千万 flash 免费额度就够你用了。中等任务呢,选 mini max g o m 四点五,便宜又稳,复杂推理直接上 cloud, 索尼 g p 四 o 迷你效果顶价格还不心疼?逻辑通了,你一个人就是一家二十四小时无人公司,关注我带你用 ai 早点下班!

大叔今天带大家看一下办公室养龙虾,大叔在二月初就开始购买了,硬件设备比麦克 mini 强了 不少,这里有一台神秘设备,有没有认识的小伙伴?大叔在二月初的时候就开始在尝试,一路走来说实话坑非常多,几乎是每天一个大的版本升级,在不断的掠夺,很多想要尝试的小伙伴通常在第一步就被劝退了, 就是安装和维护,所以现在也发展成了一门生意。今天大叔用一个月的总结来帮大家把坑全闭掉。首先这个安装很简单,一个工具搞定, 你到 kimi 的 官方下载一个 kimi code, 打开你的终端,然后输入这行命令就可以安装好。接下来看大叔的号 很简单,在 kimi 的 编程系统里面直接给他下达指令,帮我安装 opencloud 就 搞定了。记住下面大叔说的两句话,第一句话叫帮我安装 opencloud 并测试运行,安装好以后还需要做很多的配置,告诉他帮我配置好 opencloud 的 通道和模型。大龙虾在日常使用过程当中,实际上也有非常多的坑,在一开始你如果不懂的情况下,它用起来是很傻的,所以还是继续利用 kimi ai 打法, 当你的龙虾卡住了,告诉 kimi, 帮我检查我的 opencloud 的 运行状态,让它运行更稳定搞定。所以各位想要用 opencloud 的 小伙伴今天赶紧动起来,下一期呢,大叔会跟大家详细讲讲,在这个龙虾的主机的选择上,怎么样去选择,怎么样去配置,下期见!

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

翻出了闲置很久的笔记本电脑,本来打算闲鱼出钓或者专门用来打游戏,刚好这不就是派上用场了吗?最近很火的这个 open call 可以 本地部署 呃,我根据这么拿的推荐,呃。他说根据电脑配置,呃。我适合装这个模型, dipstick r e 什么七 b 的。 然后我现在还在下载当中,很奇怪,就是快下好的时候它网速突然变慢了, 呃。所以就刚好录个视频,也向大家请教一下。嗯,大家用下来哪个模型好用?我今天看到那个必安的 c e 说他觉得 kimi 很 不错呃。但是我搜了一下又有很多人说 kimi, 呃。不怎么样呃。所以我就纠结了。我优先选呃。这么奶推荐的这个模型吧。嗯,我还有一个诉求就是,呃,不要太吃偷啃的,因为我估计会不停的倒腾这些东西。呃。 就希望推荐一些好用的,速度快的,性价比高的,既要又要的,谢谢大家。

只需三分钟即可搞定。整体分为三步。第一步,在 kimi klo 构建云端 open klo。 为什么选择 kimi klo? 之前我是单独配置 open klo 加单独配置模型的方式,对信手来说步骤比较繁琐。现在可以通过 kimi klo 一 站式将模型和 open klo 配齐。 只需一分钟,在 kimiclock 的 控制台点击 create 按钮,一分钟就可以配置成功,无需额外的复杂设置,非常方便。第二步,现在你已经是个初级老板了,现在给你的 kimiclock 赋予牛马使命。在 linux 中,我们可以使用 cron 来设定, cron 就是 linux 中用来定时自动执行特定命令或脚本的工具,因此这个指令最基本的版本可以是,你可以基于这个命令进行衍生。这儿给大家一个小技巧,本质上 color 运行在一个 linux 环境中, 因此如果你不熟悉一些 skill, 你 完全可以直接让克拉模仿你平时的动作。因为四 q 本身也是工作流。例如分析任务,你就可以改成设定一个空,让任务每隔二次时间打开浏览器,输入网址, 查看网站上的数据,形成数据分析报告,看完之后关掉浏览器。当你知道这件事之后,你完全可以忘记原来对于电脑操作的理解,享受老板的工作方式。假设安装一个软件, 可以说使用并搜索 wps 并且安装。第三步,将你的工作流与 kimi quir 沟通并固化为 skill。 我 们直接跟 kimi quir 沟通,我们可以根据 kimi quir 的 回复选定一个方向,让它给我们整理出完整的交易工作流程。你看这段 pro 是不是 p u a l 拉满,如果你觉得没有位,可能你已经是老板了。 kimi kala 会返回一个任务列表,这时克洛还不知道这些任务其实是他要执行的。我们接着让 kimi kala 把这些内容做成固定的 skill, 这样可以稳定方便地嵌入到矿例行任务中。 你可以让 kimi kala 打印出来具体的 skill 内容进行检查并叠代,最终固化的 skill 如视频所展示。当然,你也可以直接使用 kimi kala 官方哈布里现成的四 skill。 自己封装 skill 是为了让大家更好地理解什么是 skill 以及如何创建。如果你会建立自己的 skill, 那 么使用别人的 skill 也就轻而易举了。现在我们就可以修改第二部中的 chrome 命令,让它定时执行我们刚创建的这个 skill。 整个能够自动钉盘分析的框就配置完成了修改。 chrome 的 执行时间可以定时给你提醒。