重磅消息!中国 ai 领域又迎来重大突破!谋杀 ai 刚刚推出了一款革命性的 ai 智能体平台 kimi klo, 彻底改变了我们使用人工智能的方式。这个基于浏览器的平台到底有多神奇?它完全颠覆了传统 ai 部署方式。以往要运行 open klo 框架, 用户必须配置服务器管理硬件技术门槛极高。但现在, kimi klo 让你只需打开浏览器,就能拥有一个全天候在线的 ai 智能体。 最令人惊叹的是,这个平台搭载了 kimi k 二点五模型,这可是拥有一万亿参数的超级 ai 平台,还提供四十 gb 云存储和持久化内存,完全不用担心数据丢失。更棒的是,它内置了 cloud hop 市场,拥有超过五千个社区贡献的技能模块, 可以帮你自动化各种工作流程。对于那些已经在本地部署 open call 的 用户, kimi call 还提供了自带 call 功能, 让你既能保留本地控制权,又能享受云端平台的便利。这项创新标志着 ai 技术正在向更易用、更普及的方向发展。目前, k i m i claw 已面向 alegrato 订阅用户开放测试, 支持网页和移动端访问。虽然部分高级功能仍在开发中,但这无疑是 ai 应用领域的一次重大飞跃。
粉丝519获赞5315

kimi 真牛逼啊,把恶喷可乐竟然集成了他还送你四十级的云端储存啊,随便你玩。 说的很牛逼,然后我我登录一下,我想去用一下试试看创建什么。 仅支持以上计划升级一下九十九一个月都不行,一百九十九一个月才可以。

想干就干,不留遗憾,我是一幺三,今天呢,给大家介绍一下大模型 kimi 的使用。拆的 gpt 出来呢,有一年多了,但是可能很多人都还没有真正的使用过大模型,主要呢还是访问的难度,还有收费方面有门槛 机密呢,至少目前是完全免费的,而且国内是可以很方便访问的,没有什么障碍,而且性能呢,算是国内大模型中数一数二的了。 我这里呢,以 kimi 为例,给大家普及一下大模型的使用, kimi 呢就像一个超级博学的朋友,能精准的回答我们的提问,也能帮我们整理材料。我们先介绍一下怎么访问使用 kimi, kimi 呢在电脑端可以访问,也有专门的 a p p, 可以在手机上使用,手机端呢,可以直接在应用市场里面搜 kimi, 然后下载安装。需要注册一下账号,账号呢,可以用手机号或者微信来注册,登录后呢就可以在输入框里面提问了。不想打字的话呢,也可以用语音来发送,还可以 发图片,文档, ppt 之类的文件,让 kimi 呢自动读取里面的内容。 kimi 呢会以文字的形式来回复回复的结果,右下角呢有复制的按钮,可以很方便的一键复制,而且呢,手机端还可以让 kimi 把回复的内容朗读出来。是的,你与我交流时,包括问题和答案在内, 我们的对话内容累计的总字数上限是二十万字,这意味着从对话开始到结束, 所有文本的总和不应超过这个限制,已经非常像真人说话的效果了,虽然语气节奏上呢,比拆的 gpd 还稍微有点差距。左上角的按钮里面呢,有历史内容也可以删除。 右上角呢,是可以发起新的聊天。电脑端呢,直接输入 kimi 点 ar 会自动跳转到一个正式的地址。同样呢,是需要注册账号的。电脑端和手机端的账号是互通的,总体的功能和移动端基本是一致的, 只是没有语音朗读的功能,不过多了一个自己设定常用语的功能,相当于是一个快捷输入的效果了。接下来呢,根据我的诗容给网友们总结一下 kimi 的能力边界, 便快速了解听力哪些能做,哪些不能做。先说下能做的。输入方面呢,他可以输入文字、图片、文档、 ppt、 ptf 之类的文件,图片里的文字也会被识别出来。知识方面呢,他基本涵盖了学习、工作、生活的方方面面,几乎你能想到的问题都可以去尝试问一下, 甚至可以让他帮忙出一些创意之类的。回复方面呢,你可以简单的提问他直接回答,也可以设定一下他以特定的角色来回复, 比如让他模拟某位亲人和你聊天之类的,可以持续多人的聊天。内容上呢,可以要求简洁的或者详细的,又或者符合某种特定的格式来回复,也可以让他帮忙编写才 材料报告或者分析数据。适当的呢,可以设定一些语气,但是不能模拟很负面的语气,比如凶狠的、不耐烦之类的语气。再说一下 kimi 做不到的事情,首先就是 kimi 不能回复任何违法犯罪的内容。第二呢, kimi 只能以文字的形式来回复, 它不能生成图片、视频或者文档之类的。移动端呢,可以语音朗读,也是先生成了文字,在文字转语音而已。第三, kimi 呢,是只能在软件内回复问题,它没有掉入手机其他 a p p 的权限,所以呢,它不能像 iphone siri 一样帮忙设定闹钟,播放音乐之类的。第四呢, kimi 输入的图片 只能识别里面的文字,他不能识别图片里面的其他图像的内容。五、 kimi 呢,只能做参考建议,特别是医疗法律之类的,专业性问题,还是需要自己主观的识别一下,不能全信他的。六,每个独立的会 话呢,算上所有的提问和回复的内容呢,是不能超过二十万字的。第七,类似报告书,方案,小说之类的材料,拼命没办法直接凭空生成整份的完整内容。基本上一开始呢,只会给你一个大纲, 需要你不停的跟他交流,告诉 kimi 完善的方向,才能把内容一点点补全。但并不是说所有的内容都需要自己准备好,他只是单纯的整理内容而已。 kimi 作为大模型,其实已经学习到很多内容,所以呢,他可以发挥一些联想的能力,自动帮忙补充很多的内容。 有些人呢,会排斥使用大模型的能力,但是生产力发展到这个阶段是不会退回去了。目前大模型的能力呢,是越来越强,而使用的方式上呢,却越来越简单了。其实没有什么上手的难度,大家不妨试一试。最起码 kimi 不需要任何特别的手段,直接可以下载使用,而且是免费的。

opencloud 啊,最难的不是安装,而是呢,装好以后你不知道拿它干嘛,来看几个我的场景啊,远程操作电脑来传输文件,自动呢,刷机票来监控价格,每天啊生成高质量的总结和反思,甚至呢,让 ai 自己去 a 镇的社区刷帖发内容。 这些呢,都是我已经实测跑通的场景,而且呢,成本我也打下来了。这个还要感谢 openclock 官方的推文,我按他的建议呢,把模型换成了 kimi k 二点五加 kimi ko 顶,更加经济实惠。今天呢,我就基于 kimi k 二点五把我的几种玩法一次性的分享给你。 先说一下 kimi k 二点五啊,我在上周的一周热点里也介绍了它,它是 kimi 最新开源的大圆模型,在 agent 的 编程和视觉上呢,都表现出色, 上线之后啊,在全球多个权威榜单里取得了亮眼的成绩,那一月三十号啊,更是在 d 赞 arina 里面取得了第一。这个是开源模型啊,首次登顶,打败了 jimmy 三 pro 和 claud。 而且呢,它的性价比特别高啊,你和 claud 对 比一下就非常明显了。 之前呢,我就开了一个套餐,想去试一下它的变声效果,那正好呢,就先在 open claud 里去试一下效果吧。 首先呢,我们来配置安装 openclaw, 在 网站上啊,复制一下这条命令,然后呢,在命令行里去粘贴运行。对于已经安装了 cloud boot 和 motboot 的 朋友呢,你也可以执行一下脚本呢,会自动的帮你升级成最新的 openclaw, 这样呢,会更舒服一点。 安装完成以后啊,会进入配置还是啊选择 quick start? 因为我之前有配置,所以呢要更新一下 api key, 那就到它提示的这个地址啊,然后呢,点击控制台,再接下来呢,如果你没有 key 的 话,可以点击新建一个 api key, 注意啊,要把生成的这个 key 的 内容保存好,后面呢是不能再查看的, 再回到 opencloud 里输入这个 key 就 可以了,选择模型呢,就用默认的就好。接下来呢, china 这个啊,我配置一下 whatsapp。 那 whatsapp 的 配置过程啊,是比较简单的,扫一个码就可以了,注意啊,推荐选择给 opencloud 用独立的账号,这样呢会更好一点。 如果啊,你想配置 mac 值的话,可以参考我之前的视频。那剩下的安装工具啊,还有户口呢,就根据自己的喜好去装一下好了。到这呢, openclaw 和 kimi k 二点五的配置就完成了。那接下来啊,我们就去看我刚才的几个场景。那第一个啊, motbook。 最近啊,一个叫 modbook 的 ai agent 的 社交平台啊,火的一塌糊涂,这里呢,人们只能旁观 agent 呢自主交流,当然也有消息说平台有作弊的嫌疑。但无论真假,我们先来看一下怎么用 openclaw 去玩转它 到 modbook 的 网站啊,选人类复制一下这里的内容,然后呢,直接贴给 openclaw, 他 会开始啊,默默的在后台去执行。注册 魔兽 book 的 网站呢,感觉比较卡,注册呢会很慢,要等上一段时间啊才能注册好。然后呢,需要到生成的这个链接里面去 claim 一下。首先呢,第一步啊,先要去 x 上发一个推,直接点一下这里啊,它就会自动的帮你填好内容,直接发就可以了。 那发好之后啊,注意还有第二步的验证点下面这里。然后呢,把你刚才发的那个链接啊贴过去就可以了。我一开始呢,就没有做第二步,幸好呢, open clock 提醒了,我才发现,那现在啊,我就可以让他自己去发帖了。等一会呢,他告诉我发好了,我们到文档库里面可以看一下他帖子的内容, 我再让他呢去看一下有什么有趣的内容,然后呢,他对什么感兴趣,那这里呢,就是他感兴趣的方向。其实呢,还挺有想法的。 那接下来呢,我再让他每半个小时去 motobook 上看一下有趣的内容,然后呢,发一篇你的想法的帖子。注意啊,每次呢都要反思,我希望你发的内容呢可以越来越精彩。 等一段时间之后啊,我们再来看他发的内容。已经发了很多了,写的呢,还都挺好的。而且呢,这后面的帖子已经开始有互动了,有评论,有点赞, 但说实话啊,这些内容的统治性呢,还是有点强, ai 真正的进化呢,还是有点远的。第二个呢,是传输文件,比如呢,我出门了,但是呢,我想拿到电脑里的一个照片,那我可以直接发消息给 open call, 让他去看一下我某个文件夹下的内容, 然后呢,把我需要的那个图片发送给我,稍等一会呢,就能发过来了。当然,太大的文件啊,不建议直接发送,可以让他呢去传一个网盘。 那第三个,比如我想刷过年前去三亚的机票,那我可以让 opencloud 帮我去携程查机票,然后呢,选最便宜的三个给我 看他可以顺利完成任务。以后我再让他呢每隔一段时间就去执行,发现有更低的价格呢,就发消息给我,你还可以用类似的想法呢,去刷二手的交易平台,或者呢是 pollymarket。 那第四个每天呢,让 openclaw 去总结一天的工作,然后呢去做粉丝,再做成一个网页汇总保存。这个呢,其实啊,就是自我进化的一个思路。 还有呢就是去融合一些思维的方法,比如呢,像查理芒格的思维模型。那希望以上分享的思路啊,可以给你带来一些启发。其实我觉得啊,总归来说呢,要把握两个点,第一个呢,就是 openclaw 可以 去执行底层的一些工具。那第二个呢,就是让 openclaw 去后台执行一些长期的任务。 那只要在这两个思路之下呢,你总会找到一些适合自己的场景。那总体来说啊,切换到 kimi k 二点五以后呢,在使用上是没有什么差别的。确实啊,可以放心去用。而在成本上呢,优势很大,比如像 cloud 的 max 套餐啊,要一百刀,而 k 二点五的话呢,只要不到两百块,确实啊,优势很大。 那好了,现在呢,你也可以探索自己更多的 open cloud 的 玩法,如果我有更新的玩法呢,也会分享给大家。那这里是 it 咖啡馆,我们下次再见。

哈哈,好快呀, cloud bot 又改名叫 mot bot 了,这个爪子机器人又改名叫蜕壳机器人。刚好我有一台空闲的云服务器,试着在云服务器上部署了这个 cloud code, 在 安装了很多包之后,终于进入了 cloud code 的 安装界面,现在在进行一些配置。前面我已经配置好了使用的大模型,我选择的大模型是蒙索, 也就是 kimi 的 a p i。 进入的社交媒体软件是 telegram, 现在正在配置 telegram 的 步骤,需要配置 telegram 机器人的 a p i 和 token。 好, 如果感兴趣的小伙伴可以点赞关注下一个视频,我会介绍怎么在云服务器上安装好 cloud code, 并且接入 telegram 的 聊天,让他帮我们执行一些简单的任务。

大家好,今天我们来聊一个特别有意思的开源项目,叫周一的 call, 你 可以把它想象成是给大语言模型这个超级大脑装上了一个能在任何安卓手机 app 里自由行动的申请,最关键的是它完全不需要任何 api 接口, 那么它是怎么做到这一点的呢?咱们今天就来深入的扒一扒它的底层实现。好,那咱们先来想想这个项目到底要解决一个什么样的工程难题。 其实很简单,就是我们手机里绝大多数的 app, 它都是一个一个的黑盒子,根本不给你提供任何编程接口。 这就意味着所有传统的基于 api 的 自动化方法到这儿全都适领了。那问题就来了,我们能不能造一个通用的代理或者说 agent, 让它能像我们人一样通过看屏幕,然后去点屏幕来操作任何一个 app 呢? 这就是 joy 的 claw 整个架构设计的起点。你看这句话一下子就把 joy claw 和传统自动化工具的根本区别给点出来了, 我们不再是去依赖那种提前录制好的一碰就碎的脚本了。这里的核心是一个大语言模型,这就意味着这个代理的每一步行动都不是写死的,而是它根据当前屏幕上到底显示了什么,实时地去理解,去推理,然后动态生成出来的。 可以说这完全改变了 ui 自动化的游戏规则。那么这个能像人一样思考的代理,他的大脑和身体到底是怎么协调工作的呢? 整个系统的核心就是一个被称为感知推理行动的循环,你可以把这个循环想象成是这个代理的中疏神经系统,他在手机上做了每一个点击、每一次输入,都是由这个循环来驱动的。 接下来咱们就把这个流程一步步拆开来看。这个循环主要包含四个阶段,感知、推理、行动。还有一个在工程实践里头直观重要的环节叫做适应。 前三个感知、推理行动你可能在很多地方都听过,这是个标准流程,但是第四步这个适应我觉得才是 joy 的 cloud 在 工程上做的特别漂亮的地方。 它解决的是自动化里最让人头疼的一个问题,万一程序卡住了,或者跳到了一个没想到的界面,系统怎么才能自己恢复过来,而不是直接崩溃? 咱们先来看第一步感知,这里有个非常关键的技术选型。这个代理它看屏幕看的不是一张像素图片,而是通过一个叫 ui autometer 的 工具拿到的一个描述屏幕结构的 xml 文件,也叫无障碍数。 哎,你可能会想,为啥不直接截个图给模型看呢?因为这个 xml 文件它提供了结构化、有意义的 ui 信息,它能明确地告诉模型屏幕的这个位置,它是一个按钮,上面的文字是登录。 这种信息对于大圆模型来说,可比一堆原石的像素点要好,理解得多,也准确得多。项目里还有一个叫 sanitizer 点 ts 的 脚本,专门负责把这个原石的 xml 文件给清洗一下,变成 l o l m 更容易处理的格式。 好了,感知晚了,信息搜集到了,接下来就到了最核心的环节推理,也就是把这些信息喂给大模型,这个大脑系统会把解析好的屏幕元素,用户设定的最终目标,还有过去几步的操作历史,打包成一个非常复杂的 prompt, 然后发给大元模型。 但这里面最巧妙的一个设计是对模型反胡结果的约束,它强制模型必须输出一个带有 sink、 plan、 action 这几个字段的 jason 对 象。你要知道,让一个本质上是生成文字的模型,能够稳定地输出机器可以解析的结构化数据,这在提示词工程里是一个非常关键的挑战。 大脑思考完了,给出了指令,接下来就得有手去执行了,这就是行动阶段。这一步的本质其实就是一个翻译器,它把大模型返回的那个抽象的指令,比如说 type 或者 type, 翻译成安卓手机能听懂的锯齿的 adb 命令。 在代码的 actions 点 ts 这个文件里就定义了这种映涉关系,里面实现了差不多二十多种基本操作,正是通过 a、 d、 b 模型的虚拟决策,才最终变成了对手机的真实物理操作。 现在咱们回到我之前说的那个特别关键的第四步,适应,这才是让这个系统真正能跑起来,而不是一个玩具的关键。这里头设计了两种核心的容错策略,第一种叫卡死恢复, 逻辑很简单,就是如果我连续操作了三次,发现屏幕内容一点儿都没变,那我就判断系统可能是卡住了。 下一次给模型的 prompt 里,我就会加上一条特殊的指令,让它想办法恢复。第二种叫视觉回退,就是当我碰到像 flutter 或者 react native 写的这种 app, 它们不提供那个无障碍数, 这时候怎么办呢?系统就会自动降级,直接去分析屏幕截图,利用多模态大模型的能力来做决策,这是一种非常优雅的降级处理方式。 那么你可能会好奇,大语言模型怎么会这么听话,知道这些规则,知道该怎么思考呢?它又不是咱们写的确定性代码, 答案就藏在代码里的一个核心部分,叫做 system prompt, 这可是整个项目的灵魂了。 它是一段写得非常长非常精密的提示文本,里面详细定义了所有能用的动作,强制规定了 json 输出的格式,还写明了各种极端情况下的行为准则,比如说永远不要去猜测元素的 id, 或者要优先点击那些有明确文字的元素。 这本质上就是用我们人类的自然语言为大语言模型编写一个操作系统。所以你看,整个流程下来特别有意思。 我们不是在跟大语言模型了迁,而是通过一个设计的非常巧妙的闭环系统,把它给驯化成了一个专门用来操作手机 u i 的 输出结构化指令的推理引擎。它的角色不再是自由发挥,而是根据输入的状态生成一个确定性的机器可以执行的动作,这就保证了整个系统的可控性和可能性。 好抵锋原理咱们聊的差不多了,那作为一个用户,我们具体怎么用这个东西呢? joy 的 cloud 提供了三种不同层次的操作模式,让你能应付各种不同的场景。 第一种也是最简单的,叫交互模式,就跟你平时用 chat gpt 差不多,你直接在命令行里运行一个命令,然后用大白话给他下达一个指令。比如帮我在 whatsapp 上给妈妈发条消息,说我晚到十分钟。 这种模式最适合用来做一些临时的、探索性的快速任务。那如果你的任务比较复杂呢?比如说你要先在浏览器里查个信息,然后把结果发到微信里, 一个指令可能说不清楚。这时候就轮到第二种模式了,叫工作流。你可以用一个 json 文件,把整个任务拆成好几个步骤,每个步骤都是一个子目标, 代理就会像执行任务链一样,一步一步地去做。而且它能利用 ai 的 能力,在不同的 app 之间自动切换和脑裆完成整个流程。 最后还有一种模式叫流模式,这个就有意思了,它完全不用 ai, 你 可以把它理解成一个老式的录制好的红脚本儿。 你用一个 y m l 文件定义好一系列的确定性操作,比如先点哪里,再输入什么。因为它完全绕过了大语言模型,所以没有任何网络连词和推理时间,执勤速度飞快是毫秒级的,但代价就是它很脆弱, 只要 app 的 u i 稍微变一点,它可能就跑不通了,所以它只是和那些界面固定不变的高度重复的任务。 所以我们来简单对比一下工作流和流这两种模式。你看,工作流用的是 jason, 它有 ai 大 脑,所以它能处理 ui 的 变化,适合复杂的跨应用任务。但缺点是慢一点,因为要等大模型响应。 而流呢,用的是 emo, 没有 ai, 执行起来飞快,但它很傻, u i 一 变就可能失败,所以只适合做那些简单重复的机械性任务。 ok? 架构原理怎么用我们都聊清楚了,那咱们退一步,从更高的视角来看看 joy claw 这项技术到底给我们带来了什么想象空间。它可不仅仅是一个简单的自动化工具, 你可以想象一下,把你抽屉里那台闲置的旧安卓手机拿出来,把它变成一个七座二十四小时线上的个人助理,让它帮你刷机票价格,自动整理 telegram 里的信息,甚至每天定时帮你把账会报告发到 slack 上。 最妙的是什么?它还能在手机上直接打开 chat、 gpt 或者 gemini 的 app, 把它们当成自己的一个工具来用。这意味着你根本不需要去申请这些服务的 api 密钥,就能实现模型的工具调用。这个太厉害了, 那怎么才能让这个助理真正的七二四超时在线,而且我还能随时随地控制它呢?这里就有一个堪称点睛之笔的操作了, 通过像 tail scale 这样的工具,你可以给你的手机创建一个虚拟的私有网络 ip, 然后你就可以用这条 adb 命令直接连接到这个 ip 地址。 这意味着什么?意味着只要你那台旧手机能连上网,不管它被你扔在世界哪个角落,你都能在你的电脑上,像它就在你身边一样去控制它,给它下达任务,这才是真正意义上的远程智能代理。 当然了,说了这么多优点,咱们也得实事求是的看看它目前的局限性,任何技术都不是银弹卓伟的,靠也不例外。 它处理那些用标准安卓控件写的原生应用效果非常好,但是一旦碰到像 flutter react native 写的 app, 甚至是游戏这种黑盒中的黑盒,因为它拿不到那个无障碍数,可能性就会大大下降。 同时出于安卓系统本身的安全设计,它也绝对操作不了那些受保护的界面,比如银行 app 的 密码输入框也绕不开指纹或者人脸识别,这些都是它目前架构下做不到的事情。 所以咱们聊到最后,其实 dryclaw 这个项目给我们打开了一扇窗,它展示了一种新的可能性, 把我们身边这数以亿计的存量设备,从一个被动等待我们指令的终端,转变成一个能够主动理解执行复杂任务的智能体。而且这一切都建立在不需要任何传统 a p i 的 基础之上。 如果这条路真的能走通,我们和数字世界的交互方式很可能会被彻底改变,这背后的想象空间我觉得非常值得我们去深入思。

hello, 老板们好,今天给老板们带来 open claw, 也就是大家常说的 claw bots 全套实操教程。重点强调一点,无需任何魔法,用国内网就能直接操作,全程一步一步录屏,新手也能跟着上手, 咱们不玩虚的。重点演示,一个前置部署加四个核心实操,先做基础部署,再接入飞书,对接火山方舟多款国产模型,比如杜邦 seed code、 智普四点七、 deep seek v 三点二和 kim k 二 thinking 等。 最后微信和 qq 的 接入教程也会安排上,每一步都讲清楚,看完直接能用。现在呢,我们先打开网页,这个网页链接我会发在评论区或视频简介下方。打开后,其实有教程的,我也是按照教程一步一步来的, 基本上半个小时左右就搞好了,真的很快,用起来很爽,直接进入沉浸式实操。现在直接进入部署阶段,直接购买一个云端服务器,一个月九点九元,我觉得很划算了。

终于把我的个人 ai 助理 openclaw 搞定了,考虑到安全性,我的安装方法是把它装在了我的 mac 电脑的刀口里面,通过刀口去隔离一下安全性,又考虑它跑起来比较吃头坑,所以我选择的是 kimi 的 k 二点五 a p i 接口。那具体是怎么安装呢?第一步,需要你自己在 mac 电脑上下载一个 dawg。 第二步,你要在 dawg 里面去安装这个 openclaw。 第三步呢,会启动一个 quickslot 的 向导, 在向导里面选 kimi 模型,把你申请的 kimi 的 api 接口输入进去,一定要手动修改一下 kimi 的 api 的 地址, 未默认的地址是点 ai 的 地址,这是国外的 kimi 的 地址,我们一般在国内申请到的都是国内的 kimi 的 api 地址,在配置文件里面要把点 ai 变成点 c n, 这样 kimi 就 配置好了。第四步呢,要启动这个 open call, 启动的时候一定要给它挂在一个具体的文件目录, 因为现在的 open class 是 装在 doc 里面的,如果没有具体的文件目录,你一关闭它就所有东西都消失了。第五步,通过 mac 的 终端 就可以去连接这个 open class 了,连好之后呢,你就可以通过命令行去给他下一些命令,让他去帮你做一些操作了。如果你是程序员的话,其实到这一步就可以了, 主人呢,其实还是想在有界面的浏览器里面去操作。所以呢,第六步,你需要先把 doc 电脑能访问的这个地址, 然后呢,再通过 cloudfire 的 隧道机制,建立一个你手机和你 mac 电脑的一个隧道,这样在你手机上就可以直接访问到这个 opencloud 了,当然在电脑上也可以访问到,这样整个安装环境就搞定了。接下来就安装一些你常用的 skills, 比如让 kimi 能够联网搜索,让 opencloud 能够查找 skills, 这个非常重要,要让他遇到错误的时候去纠错,去试错,去自己解决问题的这个 skills。 这样呢,一个个人的 ai 助理就这样搭建完成了。我把整个过程用到的这些安装指令都放在了评论区需要的支取。

我最近一直在玩一个叫 opencloud 的 东西,就是那个在 github 上 拿了超过二十万颗星的明星项目。但说实话,玩起来是真麻烦,又是配置环境,又是搞权限,还得自己接各种模型的 a p i, 每一步都是门槛,我身边真正能长期坚持用下来的朋友 屈指可数。没错,这其实是很多技术爱好者面临的共同困境,一个工具再强大,如果上手门槛太高,就很难普及到大众用户。对,不过 最近我发现了一个新东西,叫 kimi claw, 他 好像就是来解决这个问题的。简单来说,他把 open claw 直接搬进了浏览器里,省去了所有复杂的部署步骤。嗯, 这听起来像是一个关键的转变。从本地部署到云端服务,这背后不仅仅是使用方式的变化,更是让 agent 这类工具走向更广泛用户群体的一个信号。 是啊,我体验了一下,感觉整个过程简直是傻瓜似的。你只需要在 kimi 的 官网上点开左侧的 kimi klo 入口,然后点一下创建,等个一分钟,一个属于你自己的 agent 的 环境就 准备好了,完全不需要填什么参数配什么 api, 这确实是它最大的亮点,极简的入门体验,它把过去需要专业知识和折腾时间的流程压缩成了一个按钮, 这对于那些不太懂技术但又对 a 振腾能力感兴趣的用户来说,友好度大大提升了。而且它还是一个 beta 版 就已经能做到这样了。而且他不光是省事,还自带了四十 gb 的 云存储空间,我跟他对话产生的所有文件都会自动存在云上,下次要用直接调出来就行,不像以前跑完一个任务, 一堆文件在本地管理起来特别乱。对这个云端工作空间的设计非常关键,它不仅解决了文件存储的问题,更重要的是,它为 agent 提供了一个连贯的记忆空间,你和它的每一次交互 生成的每一个中间文件都被记录下来了。这意味着他可以处理更复杂的、需要长期记忆和多次迭代的任务。说到复杂任务, 我前两天就试了一个狠的,我直接把 lexfridman 那 期长达四个小时的播客音频扔给了他,然后下了一连串指令,哦,具体是什么样的指令?我让他第一 把音频转成文字稿,第二,提取里面所有关于 ai agent 和模型能力的关键观点。第三,把这些观点按主题分组, 整理成结构化的笔记。第四,分别输出一份中文摘要和一份英文技术摘要,最后生成一个一页纸的研究记要,并且存到云端的 agent 研究素材文件夹里。这是一个非常典型的知识工作流,他考验的不仅仅是 音频转文字的能力,更是后续的信息提取、结构化、多语言处理和内容生成能力。这几乎是把一个研究员的工作流程完全自动化了没错,而且整个过程我就在浏览器里一个对话框里完成的,什么都不用动, 他跑的飞快,还会在过程中给我看阶段性成果。比如他会先把已经转好的文字稿部分内容先给我,让我知道他正在干活。等全部跑完, 他会先给我一个可量化的预览,像是思维导图一样,把核心观点、原话摘录都列出来,一目了然。我注意到一个细节, 你提到它会主动检查紫 a 镇的进度,这说明它内部已经有一个任务调度和管理的机制了。对于一个长任务, 它能拆解、分发、执行并汇总,这已经很接近一个自动化工作流的概念了。是的,而且它生成的所有文件,什么 markdown、 pdf、 txt 都自动存在了云端。我需要的话 直接跟他说一声,把刚才那个技药调出来,他就能立刻给我在线预览。这种无缝的体验,其实也得益于 kimi 本身强大的基础能力。比如他的搜索能力 在 kimi klo 里是直接打通的,不需要用户自己再去配置搜索服务。对这个我深有体会。我之前还让他做过一个更复杂的事,让他去调研大概五十家硅谷的 ai 产品,把他们的 a、 r r 这类数据都扒出来, 最后整理成一个 c s v 表格。这个任务其实相当复杂,它需要先进行大范围搜索,然后从多个来源比对信息,抽取特定字段,最后再结构化成表格。 这背后是信息检测、数据清洗和整理能力的综合体现。结果它真的做到了。我拿到 c s v 文件之后, 就直接在对话框里让他接着分析,让他找出增长最快的前五类产品。他还顺手给我画了个柱状图。 然后他又基于这些数据生成了一份完整的 markdown 报告,配好了主题色和强调色,直接出图。全程我就在浏览器里跟他聊,文件下载、上传完全无感。这展示了 kimi klo 的 另一个强大之处, 他不仅仅是一个执行者,还能在你提供的原材料基础上进行二次分析和创造。他把整个流程串联了起来,形成了一个闭环。这还不是全部,他最让我惊讶的一个功能是 可以设置定时任务。因为他内置了 klohab 的 skills, 你 可以直接让他去盯某个东西。比如, 我就让他每五分钟给我发一份日本金融股市的深度分析报告,连发三次定时阵悟,这已经超出了简单工具的范围了。这意味着你可以把它当成一个七乘以二十四小时在线的个人助理,去监控信息, 执行例行分析。是啊,他推荐给我的方案里,有些 skills 非常专业,甚至能直接对接日本金融厅的系统接口,拿上市公司的财务报表数据。而且,我还发现一个细节, 有一次,他在安装一个 skill 时遇到了速率限制,你猜他怎么办?他报错了?不,他居然自己动手,现场手搓了一个 自定义日本股市分析工具的脚本,然后把这个脚本存到了我的云空间里,继续完成任务。这太有意思了,这体现出他的自主性和解决问题的能力。他不只是被动的执行预设的指令,而是在遇到障碍时能主动寻找替代方案。 这已经有点主观性的味道了。就像他的创始人说的,他是一个有主观性的私人 agent。 没错, 所以绕了一圈 kimi klo 做的事情,其实就是把 open klo 这个极具想象力的技术,通过搬进浏览器和打通生态的方式,一步步拆掉了技术门槛。是的,这其实是一个技术普及的必然过程。一个新技术刚出现时,门槛总是最高的, 只有少数即刻能玩转,但只要它的价值足够大,就一定会有像 kimi、 klo 这样的产品出现来降低门槛,让更多人能够不知不觉的用上它。这可能就是 agent 真正进入我们日常使用的开始。 说的太好了,从需要深厚技术背景的本地部署,到如今在浏览器里点几下就能拥有一个功能强大的个人助理, 这个转变真的让人兴奋。好了,今天的分享就到这里,感谢大家的收听。

这几天又一个 ai 硅谷了啊,就是这个 cloudbox, 它可以通过手机远程控制电脑自己完成任务。 废话不多说,我这次三分钟教给你如何本地部署,如果喜欢的话可以点赞收藏一下,谢谢!他到底有多厉害?我们这次先看看 jimmy 怎么说的,他说这是一个可以接管电脑操作系统的 ai, 传统的 ai 只能给建议,但是这个可以直接拥有系统权限。 我让他用一句话总结,他说可以通过手机聊天软件直接控制电脑,远程让电脑自己完成任务,这真很厉害了。然后他可以把聊天窗口当成全能的一个跑腿助手。好,接下来就是教程。 首先你们可以搜索这个 open cloud, 之后出来的这个红色的图标就是千万不要点错了,然后往下拉,在这个 quick start 这里直接点击这个复制这一串, 然后在终端直接复制粘贴,点回车等待一会, 然后出现红色这一串英文的时候,你们就可以按键盘左箭头点 yes, 然后回车点 quick start, 然后回车之后跳转的这个页面就是你可以选择的模型,平时我都用叉 gpt, 所以 我这次就用 open ai 了, 然后它会弹出一个页面登录,让你认证一下,认证之后再回到这个 keep current, 然后回车 之后跳转到聊天软件的页面,你可以根据自己的需求去选择一个你需要的一个聊天软件,然后他每一个的认证方式都是不一样的,因为我平时用这个 whatsapp 做,所以我选择这个第二个,然后这个 这个 app 他 就会弹出一个码,然后你用手机扫码去登录,然后再在终端这里输入你账号的手机号就可以,之后点 yes, 然后选这个 npm, 然后接下来这个页面是选择安装的工具,嗯,空格就是选,然后上下箭头可以移动,选完之后按回车就可以了,后面这些全都点 no 就 可以了, 然后过一会聊天页面就自动跳转出来了,我来试一下,告诉我叫什么。好了,成功了。

kimi 申请 a p i t 接入软件教程,本教程适用于若手内容管家、若手 ai 重命名等有 ai 能力的软件。 第一步, kimi 平台账号注册,注册完账号以后完成实名认证,平台赠送十五元代金券,可以用来做效果测试。注册完成后,我们来到用户中心。第二步,创建获取 a p i t。 后台左侧点击 a p i t。 管理, 右上角点击新建 a p i t。 名称,这里随便填写项目,选择默认即可。点击确定复制 a p i t 来到软件,点击 ai 配置,进入配置界面,在 ai 配置界面粘贴刚刚复制的 a p i t 保存。 重新打开 ai 配置界面,进入测试功能,选择文本生成测试,点击开始测试,这里有正确的结果返回,说明我们的 a p i t。 已经填写正确 台, a p i。 已成功接入软件。接下来是模型,新增到模型列表,根据自己需求找到合适的模型。更换模型,不需要修改 a p i t, 只需要把平台提供的模型名称复制到软件即可。复制模型名称后来到 a i。 配置模型这个地方,将刚刚复制好的模型名称粘贴并且回车,那么我们可以在这里看到刚刚复制好的模型名称粘贴并且回车,那么我们可以在这里看到刚刚已经添加好了一个,点击保存配置。再次来到 a i。 配置测试一下, 这里的模型已经变成我们刚刚新建的模型了,更换模型的时候只需要填写正确的模型即可,不需要修改 a p i t。 同一平台 a p i t。 一 般都是通用的。最后我们搜集了一些各大 ai 平台的免费模型,有需要的可以去搜索,若手软件,进入网站后自取。

大家好,今天教大家一个黑科技,怎么在自动化脚本里调用 ai 的 网页版, 嘿嘿,简单说就是不用手动打开浏览器,直接用代码给 ai 发问题,它自动回答,再把结果拿回来看。这是千万的页面, 我们只需要运行一个脚本,它会自动打开网页,找到输入框,发送问题等回答,全程不用人守着。 再来看看 timi, 一 样的道理,输入问题,自动获取回答。脚本地址我放在置顶评论里了,用起来很简单,就一行命令, 爱松三脚本路径,你的问题,它就会自动帮你调用 ai 返回结果。 好啦,简单就讲到这,有问题的评论区见,记得点赞关注,我是黑狐,下期见!

大龙虾还没有明白,百万 token 先没了,别急,一起来薅老黄羊毛。无限 token 免费用。首先在英伟达这个网站用邮箱注册个账号,接着验证一下手机号,就能调用 api 了, 关键是支持国内手机号,不用绑卡。然后随便选一个大模型,进入聊天页面, 这里可以切换各种大模型试试,白嫖的人太多,热门模型可能响应很慢,找一个速度还过得去的,这里查看视力代码,可以直接复制模型相关配置。然后打开你龙虾的外部页面,修改配置, 保存之后建议重启一下服务,现在就再也不用担心托肯消耗了,之前配置好的飞书也能直接使用。

openclaw 太贵?别急,教你零成本搭建私人 ai 助理本地部署 minimax 二点五 kimi 二点五免费 api 全攻略四大免费 api 平台 第一 groc 每分钟三十次免费,辣妈酸免费用第二, nvidia name 注册送五百万 token 第三, together ai 新人送二十五美元额度。第四, hugging face 完全免费,速度慢点但够用,有显卡本地部署 kimi 二卷幅刚开源 minimax 二卷幅本地版 deep seek r one 推理神器 quinn 二卷幅国产之光 一张 rtx 四零九零全搞定,电费比 api 便宜十倍,算笔账, openai api 每月一千块, cloud 每月八百,本地部署电费只要五十,一年省一万,企业用更划算。小白怎么选? 先蹭免费 a p i grok 加 nvidia 够用一个月进阶在本地部署 openclaw 支持所有这些平台,一条命令切换。关注我,下期手把手教你本地部署 pp 二点二五点赞收藏不迷路!

不是, kimi 怎么把推测给我打开了?什么情况?这个封印是不是有点松动了? 我在刷 x 的 时候刷到了 kimi, 呃,他发布了一个重大的版本更新,呃,当时也是在 x 上面刷屏了,尤其是 kimi 还加这个 a 整在里面精准测试呢,也超过了一众的 ai 模型,可以说是最强的开源模型。目前当然评分归评分,实践才是检验真理的唯一标准, 所以当时我很自然而然的就想去试一下。然后我拿了 x 上面的一篇呃文章链接去让它分析,结果发生了一件很有趣的事情,因为当时我是个习惯性的动作,我就我日常呢会很少用这个。国内的 ai, 最多就问一下代码问题,但我看到了一个, 但我就看到了一个很奇怪好像不应该出现的画面,就是这个 agent 怎么打开了 x, 然后就赤裸裸的展示在了我的面前。我不知道这发出来会不会有点不太好,但是呢,这暴露了一个很真实的情况, 就是这个 ai 它既是前沿科技,又属于互联网,你是不可能闭着门发展的,必须要逐步开放才行。 现在都是互相学习借鉴摸索阶段,那些懂的都懂。国内的 ai 只有在外面才是完全体, 因为外面能用的技术站,调用的工具太多了,取之不尽的这种数据可以抓。而本身互联网这个词就是讲的开放,你这个公司再怎么样,这个产品再怎么样,都会给个 api 给你调用。这就有个很大的问题,如果国内限制自己的国家的 ai, 限制开发者应用场景,限制消费场景, 那这就会丢失掉这部分很重要的一部分市场,不就比如 ai 大 模型,除了企业用户以外,最重要的消费群体就是开发者和内容创作者,下面统一称之为开发者。 作为国内开发者,你不可能只用中文互联网的技术站,甚至可以说没有什么生态就是国内互联网,要不然为什么会有这么多镜像啊, a p i 中转啊,海外代理啊之类的,那国内开发者创造的自然而然就去到了外网,那都到外网,开发者就更有有更多的选择了, 这些消费群体就会流失掉很多了。本身呢,它有一部分模型差距,但国家肯定是希望资金尽可能流向这个 ai 公司的口袋里的,而我们的这个 ai 模型现在肯定是越来越有实力了,用户量也在快速增长,但是这只是低端成, 更多的是低端的开源免费的。真说真金白银的市场份额在全球范围啊,就说美国吧,连别人零头都不是。如果国家只 care 用这个企业用户,不在乎不尊重其他的重要消费者,那么这个 ai 竞争的结果,我认为啊,这个 ai 竞争的结果就会告诉你这样做的代价是什么。 中文互联网现在玩的全是信息差,赚信息差的钱,在外面本来就正常发布的可能就是一个开源产品,没有任何 意识形态参杂,但是就是因为不可抗力,国内大部分人都没办法知道,也没办法用,然后就让一些呃那些投机者包装一下,出一个这个麦克,呃,这个出一个教程麦克克, 然后就赚到了很多钱,然后我们的,我们国内的这个技术生态、科技生态居然就是这样子。然后面对这样的情况,大部分人就认为,呃,你连 get up 都不知道,你连科学上网都不知道,你就不要去, 那你活该被骗,你不要去沾边,不要去试一下这些东西,这些东西你不配。但有没有可能是因为这背后表现的就是国内群众,要知道这些东西的薪资成本远比国 美国群众要更高呢,这个差距更多的是系统性的差距,并非单纯认知上面。中美 ai 竞争主要战场就是电力、芯片、模型、应用生态缺一不可,国内优势就是 电力和应用模型呢,一直在追赶芯片呢。嗯,很难,但是可以说目前最好办法呢就是解决一下这个台湾问题。但生态这个玩意啊, 可不是说弄就弄的,因为从哲学上来讲,生态他就意味着开放,包罗万象,而不是封闭。我认为国家必须出一个新政策,去或者说新的方式去变更的看待, 或者去去改善这个墙的存在,能不能局部地有选择地去逐步开放呢?对于长期战略而言,墙到底是利大于弊还是弊大于利呢?还是说像 kimi agent 这种个情况就是默许的开端?