最近全网都在养龙虾,我一个剪辑师就在想这玩意能不能自己独立做出一部 ai 短片。今天实测见分晓。第一步,让他写脚本。我给的指令很简单,三十秒科幻有反转脚本有了。他自己调用 cds 开始升图升视频。 你们看画面质量还真有点意思。最让我意外的来了,他居然自己打开剪辑软件把画面剪到一起,还加了音效和转场。全程我没动手, 片子在这你们自己看。实话实说,作为粗剪 demo, 它合格了,但要说专业级还差得远。节奏、情绪、细节把控。目前 ai 还替代不了人。 openclaw 现在更像一个超级听话的助理,能帮你跑通流程,节省时间。但真正让片子火起来的,还得是你自己。想看我详细拆解操作步骤的评论区扣龙虾。
粉丝3获赞20

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

哎呦,太牛逼了,我只能说太牛逼了啊,我已经研究了好几天怎么用 ai 自动给我剪口播视频,因为真的剪视频这个事浪费了我太多时间了,他就是一个重复性劳动,并没有什么创造, 我就一直想,我说怎么能让龙虾给我自动剪视频呢?这两天我一直在研究,但是他经常犯错误,经常剪不好,但是今天有一个非常非常非常重大的突破,我要给你们看一下啊,你看他,他已经帮我剪了很多次了,我已经调整了很长时间了,但是最后一版看到了吗?最后一版, 哎,哪去了,我要把它先缩小看着啊。这个是我自己剪的,这是我纯人工剪的,你看这有字幕啊,然后这有美颜,很明显他是两分二十二秒,记住这个数字啊,然后看这个,这是两分二十七秒,那你说多出来这五秒是什么?我告诉你,哈哈哈, 多出来这五秒是我正在跟他说的,我说两分零五秒到两分零十秒这个片段是重复的,为什么没有识别出来, 他就犯了这么一个小小小小的错误,而且这个错误我还没来得及纠正,我觉得我是可以解决的, 我觉得太牛逼了,他居然可以达到跟人工一样的精准程度,居然精确到了秒,太牛逼了, 这是我目前没有见过任何一个软件可以达到的一个效果,我为什么要做这个东西,是因为我想用,然后我翻遍了整个市面上没有任何一个软件可以达到我想要的这个情况。我,那我就自己训练一个吧, 真的拿到了,我给你们报喜了,兄弟们,凡是以后要做口播剪辑的,觉得浪费时间的,你们有福了,我要接着训龙虾了,拜拜。

clo? clo 还是 clo? 你 肯定被各种各样的龙虾刷屏到烦了,几个月过去,热度丝毫没有退去,愈演愈烈。今天这期我们来点不一样的,不是教你怎么安装和使用 clo, 而是带你十分钟开发一个 mini 版龙虾, 一共只有三百行代码,我不想讨论龙虾到底是有用还是没有用,而想带你从用户视角切换到我这样的从业者视角。我们一起完成 mini 版龙虾的开发之后,相信你对于它的原理以及能力边界的理解能够再上一层台阶。看百变不如实践一变,马上开始。 一、接入大模型,赋予大脑我们要开发的 mini 版龙虾 mini cloud, 第一步就是接入大模型。什么是大模型,相信大家已经不陌生了,就是, 总之大模型就是我们迷你版龙虾的大脑,用来指挥这只龙虾的所有后续动作。因为是迷你版嘛,我们不需要支持配置各种模型厂商,就选择一个国内友好的智普模型吧。先用三十行不到的代码连接智普模型,配置我的智普 api key, 然后就是将我们输入的内容以后台接口的形式发给模型厂商,再将响应的内容展示出来,再无限循环。看到代码不要慌啊,你不需要照搬代码,跟着我了解原理就可以,思路永远比实现细节更加重要。验证下效果,先启动我们这个程序,打个招呼,叔叔你好, 他回应我了,再问个有难度的问题,我喜欢吃糖,为什么?一通分析之后,他告诉了我们答案。先不管答案怎么样,这只虾已经有了,大脑也能开口说话了, 你发消息,大脑响应,再将消息转回给你,完美。二、让大脑有记忆在刚才的程序里,虽然可以无限对话,但是每次对话都是一个全新的请求, 这意味着这个大脑不知道你是谁,不知道你之前和他聊了什么。比如我输入刚才聊的啥,不出意外他啥都不知道。我再问你,我喜欢吃啥? 明明刚才我说了喜欢吃糖,但是他也不知道,挺睿智的是吧?作为一个可捞智能体,这样肯定是不行的。那该如何解决呢?非常简单,你将所有的对话记录存下来,每次新对话,将之前的对话记录原封不动的发回去不就好了吗?加个两三行代码就能搞定。我们再验证一下,启动这个程序, 先告诉他我喜欢吃糖,闲聊几句再问他我喜欢吃啥来着。哎,这次他知道我喜欢吃糖了,也就是他拥有了多轮对话的能力。 但这个时候问题又来了,当我关掉这个对话之后,他就忘了我们所有的聊天上下文,但我希望他能持久的记住我喜欢吃糖。该怎么办呢? 好说,我们先新增两个文档,一、 agent 点 md, 赋予他身份设定你是个友好的助手,每次回复都需要押韵。二、 user 点 md, 告诉我我的用户身份设定我喜欢吃糖。然后在代码里要求大模型每次对话前必须读取这两个文档, 同时赋予大模型自主修改这两个文档的能力。也就是迷你龙虾的大脑可以根据和你的聊天记录自己记下来,他觉得重要的东西。好再验证一下全新的对话,问他我爱吃什么? 哎,他知道我们爱吃糖,而且回复还是押韵的,符合我们在 agent 点 md 里对他设置的要求。再告诉他,我们不仅爱吃糖,还爱吃牛肉。回到 user 点 md 文档,发现已经被改了,记录下来了,我爱吃牛肉,完美! 这样一个有记忆、有人格的 mini 虾就搭建完成了,它不仅仅是一个大脑,还拥有了更加充分的上下文,也就是 context。 context 里有历史的对话记录,以及你的人设,虾的人设完美。三、进入 tours, 赋予它动手能力。 这个时候,虽然我们的龙虾已经很聪明了,但他只能对话,不能够操作外部世界。比如我在目录里贴入一张大家爱看的美女图片,然后问他这是个啥,他说他不知道。我再让他生成一个 ppt 给我,主题不重要,他也会告诉我们无法生成 ppt, 他 只能将文字发给我。这就是所谓的钢中之脑。 现在的他虽然很聪明,但就像一个身处在培养民里面的大脑,无法真实的影响外部世界,或者说他没有手,没有躯干,怎么办?讨饭,我们先赋予第一种工具,叫做帮身拷领,说白了就是我们提前写好一些脚本,然后这个刚中之脑会在合适的时机调用并触发这些脚本, 三十行代码就能解决。首先,我们定义了一堆工具,列出文件,读取文件、创作文件、删除文件,读取图片,再提前写好这些脚本,具体如何执行。回到 agent 的 md 里,告诉他现在已经有了这些工具。重新启动。问他目录下有哪些文件,哎,答出来了。 再问他图片里的内容都是啥,也答出来了,我们好好验证一下。金发女子、白色连体衣、过期长袜,这些都对了。下一步,我们再支持一下近期热度很高的 skills。 这个更简单了,在目录里新增一个 skill 文件夹,将我们要的 ppt skill 拷贝进去,在代码里加上大概二十行,让他每次执行前都能找到已安装的 skill。 好 了,再来试一试,生成一个两页的 ppt, 分 析下马斯克最近的言论。你看,很快就生成出来了,我们看看生成的质量,嗯, 嘿嘿,因为这个 ppt 的 skill 是 我随便写的,我们可以替换成一个社区热门的。再试一下,生成一个 ppt, 分 析马斯克最近的言论。好,深圳完成了,我们看看这回的效果,要好太多了。完美到这一步,我们的 mini cloud 已经具备了 toos 执行的能力。 toos 并不是大脑内部的,而是挂载在大脑外部的, 随着 twos 的 丰富,就可以无限变强。完美四定时任务与心跳这个时候我们已经很强了,用了一百多行代码,就模拟了去年 manas 这样的产品架构。但有人会说, cloud 产品的一个特点就是会自主执行任务, 也就是他会主动执行一些任务,主动给你推送消息。这是怎么做到的呢?很简单,看这二十行代码,支持新增和存储定时任务,同时后台有一个进程,在指定的时间点给你推送消息,启动程序试一下,告诉他五秒钟,提醒我喝水,稍等下 一条一条一条又一条。你可能会说,这不对啊,我看别人的龙虾不需要这么死板的提醒,会在某些时候自然的推送消息,看着更智能,这不是很简单吗?我们刚才新增了这一块喝水的定时任务,是你主动要求他保存的, 我们再给大脑一个定时任务,比如每个半小时总结他和你的对话内容,让他自己判断要不要在另一个时间点定时给你发消息不就好了吗?这块我就不掩饰了,但是原理都是很简单的,说的好听点就是自我净化。定时推送说的简单点就是高级一点的定时任务,但是不管怎么样,完美, 嘿嘿。五、接入飞书、叮叮等对话渠道。哎,有人又会说了,别人的龙虾可以在叮叮、飞书甚至 qq、 微信里聊天呢。你这个黑乎乎的是啥?太丑了,不想用。但要我说,这其实更简单,你可以理解,不管是飞书、叮叮还是网页版,本质上就是套路层,消息转发的中间层, 你的消息呢?通过这个中间层进行转发和接收,先包一个网页,现在看看就有点像回事了,对吧?你好哎,可以正常回复,每隔十秒提醒我喝酒。 哎,提醒我喝酒喝酒还是喝酒?你看到这一步,我们的 mini club 包了一层美观的外壳,好像也不算很美观,主要是我懒得去调样式,但至少他已经像个样子了,各种能力也都有,从性价比的角度完美。 最后总结,最后,不知道大家有没有发现,这个 mini 版龙虾的开发过程就是二零二三年到现在整个 ai 的 进化过程,一开始呢,只有一个大模型,只能一问一答,后来发展出了可以调用外部工具,不管 m、 c、 p 还是 skill, 都是工具的一种。 到现在不仅可以调用工具,还有了定时任务,也通过定时任务实现了所谓的自我进化,以及开始涨到你的聊天工具,比如说 qq 和微信里,他更像一个人了。 短短的三百行代码模拟了最近三年 ai 的 发展历程,大家也看出来这三年 ai 的 发展速度越来越快,但是并没有给人减负,而是带来了更多的焦虑,以及让人越来越老。看到这里的我相信也是花了很多业余时间来学习 ai 的, 大家一定能够深刻的感受到 ai 的 发展速度超过了你的学习速度。我不喜欢贩卖焦虑,相反作为一线的从业者,希望以原理科普的方式缓解一点大家的焦虑,很多热点有没有必要追,是不是噪音在大家知道原理之后就能够自我分辨。好了,喜欢我的话,请给我宝贵的三连,我们一起进步。

养龙虾的注意,这次真拐点来了,我们来四刀拆解 openclaw 最新版。先说一句,三月二十二日这波更新有点波折, 但三月二十三日已经把关键问题修了。现在回到重点,如果你以为 openclaw 三月二十二这次更新只是一次普通版本升级,那你可能低估它了,因为它真正变得不是某一个功能,而是整个产品形态。我先说结论,这次更新最重要的不是某一个功能,而是 openclaw 在 明显加速平台化。 为什么我这么说?我把这次更新内容看了一遍之后,真正最值得拆的我觉得是四个点。第一个点是插件和技能的分发逻辑变了。以前这类 ai 工具最大的问题之一就是生态很强, 但入口很散,插件、技能各种扩展能力,你往往得自己找,自己装,自己判断来源。但 openclaw 这次明显在收入口,现在 openclaw plugins store 对 于安全包明会优先走 club hop, 而不是先去 npm。 与此同时 还原声加上了 open club skill search install update 这一整套技能管理流程。这件事表面上看像安装体验优化,但本质上,它是在把能力分发这件事从一个开发者自己拼装的过程,变成官方可控、可更新、可持续维护的生态入口。 说白了,这不是一个功能更新,这是平台入口在成型。但这个还不是最关键的,真正说明方向变了的是后面两个基础设施级更新。第二个点 是默认模型体系升级了。这次 open core 把默认 open ai 模型切到了 open ai 斜杠 gpt 五点四, codex 默认也切到了 open ai codex gpt 五点四,同时还补了 gpt 五点四 mini 和 gpt 五点四 nano 的 前向兼容。很多人看到这里,可能会觉得这不就是模型名字?重点是 open core 已经开始把聊天图像生成语音转写 embodding 这些默认能力往统一模块里收。这说明他在做的不是一次性的模型切换,而是在重构默认能力层。这一步很重要, 因为一个 ai 产品只有把默认能力层统一起来,后面模型升级、能力替换、成本控制,才不会每次都迁移发动全身。如果前两个点还是产品层变化,那第三个点就已经进入平台层了。 第三个点是 sandbox 能力明显增强了。这次更新里, openclaw 加了可插拔 sandbox backend, 还上了 open shell 和核心 ssh。 sandbox 这个点很多普通用户可能会直接划过去, 但我觉得这反而是最专业也最值钱的信号之一。因为当一个 ai 产品开始认真做 sandbox 远程执行 workspace 模式、 ssh 环境的时候,你就不能再把它只看成一个聊天助手了。它在处理的已经不是会不会回答问题, 而是任务到底在哪里执行,文件系统怎么隔离,远程环境怎么接,权限边界怎么管。而这些东西,才是 ai agent 真正落地时最难但也最有壁垒的部分。对,所以我为什么说 open call 这次不是在加功能,而是在平台化? 因为能不能调模型只是表层能力,能不能把执行环境、工具能力、权限控制、运行边界组织起来,才是真正的平台能力。 最后一个点我觉得最容易被忽略,但它其实最能说明 open call 团队开始认真做长期结构了,那就是浏览器旧方案在被主动清理。这次官方直接移除了 legacy chrome extension、 relay path, 也删掉了旧 extension 资产和相关配置,要求迁移到 existing session 或 ur 这些新模式。为什么这个动作很关键?因为很多开源 ai 项目最容易出现的问题 就是历史包袱越来越重,旧方案不敢删,兼容层越堆越多,最后系统越来越乱,维护成本越来越高。但 open core 这次敢直接砍旧路径,说明他已经不满足于先堆起来能跑。他开始在追求结构统一,追求长期可维护性。 这件事对普通用户来说可能感知不强,但对一个产品的未来来说非常重要。所以,如果你问我 open core, 三月二十二这次更新最值得关注的到底是什么? 我的答案不是某一个新功能,而是四个字儿,平台化。加速。插件和技能入口在集中默认模型能力在统一、 sandbox 和 ssh 在 补基础设施、浏览器旧路径在做技术收敛。这些放在一起看,你会发现, opencloud 正在从一个能做很多事的 ai 工具,往一个有生态分发、 有执行环境、有能力编排、有长期结构治理的 ai 平台眼镜。所以这次更新最值得看的不是它加了什么,而是它正在变成什么。你觉得 open call 这次更像是在升级功能,还是在升级成一个平台?评论区告诉我,关注我,下期继续拆。

所以三六零给到什么?三六零拉到爆了呗,哈哈哈,今天瑞平龙虾从杭到拉,三六零拉完了。安全虾成也安全,败也安全。其实所谓的安全就是限制他功能,就是你把他功能限死了,那你还要虾干什么?如果安那样,干脆你就不要装虾了。对, 嗯,腾讯有两个虾,一个 work buddy, 一个 qcloud。 work buddy 就 其实不适合普通用户,它其实也不是一个真正的龙虾,主要适合编程嘛。所以就在龙虾的这个逻辑里边,就给个 npc, 然后我们说到那个 qcloud 也没有出彩的地方,也没有什么不好,但是 qcloud 应该是我个人最看好的一个龙虾, 未来如果他有机会能打通微信,那一定是中国用户的龙虾首选。汤爆了,但是现在就他现在的这个状态,只能给个 npc kimi cloud 就 给个人上人吧。我第一个用成的龙虾也是 kimi 啊,入手成本有点高。一九九,花了一九九,马上这个龙虾就运行起来了,它能帮你找到所有你想要到的信息,帮你做非常深度的一个分析。但是用着用着会死啊, 而且不知道怎么死的,也不知道怎么修。 mini max 的 虾,虽然它是跟 kimi 一 样是一只云龙虾,可配置性要比 kimi 的 虾强,那些配置你都能自己改。 kimi 最低的入门门槛是一百九十九块钱一个月,但 mini max 的 话,你只要买三十九的套餐,你就能用这个 max cloud, 我 就两杯奶茶的钱,我就能马上体验了。 mini max 给个 顶尖网易的 lobster ai, 它就是内置了一些 office 的 插件,快速去做一些 office 的 文件。对于一个不 大会训虾的小白,那一定是好的,同时它也是我们唯一一个受到这个龙虾的创始人在 x 上点赞的 lobster ai 最终给到顶尖富顺的那个三万网红龙虾,主要是要给富顺加分,一 它训得比较好,二它其实真的是在中国的一个最大的一个步道者,就直接给顶尖吧。 open cloud 它最大的一个问题就是 因为安装困难,把很多希望探索 ai 未来可能性的小白挡在门外了。但是它是所有龙虾的祖宗,没有它,其他国产虾什么都不是,最终定位一定是吭。

先说结论,我选择的是千万三点五三十五 b a 三 b 四位量化模型。大家好,今天这期视频我们来解决一个非常关键的问题,当你买了一台 max studio 后,到底应该怎么选择模型?怎么选择推理框架? 下面介绍三种最主流的模型格式。官方模型格式通常是官方发布在哈根 space 上的模型,采用 pad 加 gpu 训练完成, 这个是最原始的模型格式,特点是精度最高、最完整,适合训练,但不适合推理,并且非常吃显存, 不适合直接在本地使用。一句话,这个是用来训练的,不是用来直接跑的。第二种是 g g u f 格式,这是目前最流行的本地推理格式,它的特点是模型经过量化,兼容性很强,可以在 n 卡 a 卡 mac 电脑上都能运行。 第三种是 m l x 格式,这是 mac 电脑的专属格式,它的特点是专门为 mac 电脑设计, 利用 mate gpu 内存统一调度,在 mac 电脑上性能比其他两个格式更快。再来介绍一下模型的分类, dos 模型和 mo 一 模型。 dos 模型就是稠密模型,意思是每一次推理所有的参数都会参与计算,因此速度会相对比较慢一些,大约三十五 to 每秒。 m o e 模型全称是混合专家模型,特点是每次激活一小部分参数,因此它在本地设备运行时速度会非常快,大约可以达到七十多个每秒。 mac 电脑上常用的大约模型推理框架软件有三个, 分别是 o m l m studio、 o m l x。 这里推理性能最好的就是 m o m l x, 专门用来推理 mx 格式的模型,比另外两个推理软件要快很多,所以在 mac 环境下可以无脑选用。我在哈根菲斯上下载了下面这几个模型,官方版本的千万三点五二十七 b 四比特, 千万三点五三十五 b a 三 b 四比特。千万三点五三十五 b a 三 b 八比特 还有第三方的蒸馏模型。利用 cloud 四点六蒸馏的两个模型,由于进行了针对 os 的 蒸馏, 其推理思考能力应该会更强一些。但是这两个模型不能直接通过参数来关闭 sync 模式,所以每次调用时都会 消耗很长时间在思考。有时候在做简单任务的时候会有一些繁琐,所以在处理简单任务的时候,我会选择官方版本的模型并关闭 sync 模式,这样更快一些。再看一下四位和八位比特以及输入 token 与占用内存的关系。通常在 open craw 或者 cloud code 中,调用 agent 完成任务时都会有很长的上下文,因此输入 token 都会很长,这会影响内存的占用。 通过这两个表我们可以看出, token 越多,占用的内存也就越多。考虑到还需要加载纹身图的图像模型,所以必须控制模型的量化位数,因此最终我选择千万三点五三十五 b a 三 b 四比特模型 或者对应的帧流模型。下面我来实操一下在 max studio 中如何使用 o m l x 这个软件来调用模型。好,我们现在通过远程来登录这个 max studio, 你 可以在这里 点击双击 o m l x, 它就会出现在右上角这个 toolbox, 这里点击右右键就可以 chat chat with, 而且这里就可以直接跟他聊天。当然我们可以看一下左下角有个后台管理,这里有一些可以设置的地方,比如说它当你加载了一个模型之后,你就可以直接通过这些啊, a p i 的 a p i 和 cloud a p i 也可以通过这个命令行直接将它集成到 cloud code 里面,或者 codex open code 和 open cloud, 这都支持。第二个就是模型的管理,我下载这六个 也可以从 facebook 上直接下载,也支持了摩达社区,这里有一个全局的设置,比如这里设置了一个 a p i 的 密钥,设置模型的下载目录或者加载目录。这里有一个地方需要注意一下, 我下载的这个千万三点五的模型是上下文支持两百五十六 k, 所以 这里一定要填这个东西,因为它默认的那个最大上下文窗口大概只有三十二 k, 如果这里不改的话就会报错,所以这个 一定得把它改过来,改成呃你的模型最大支持的那个数。再就是这个模型的设置,比如说关闭这个 thinking 模式,你在这里要把这个添加一个 enable thinking 这个参数,把它设置为 force, 而且最好是强制的, 就可以保存。你下次再调用这个模型,它就不会开始那个 thinking 模式。但是对这两个蒸馏的模型,你关了这个也没用,内部始终是把那个 thinking 模式打开的,所以如果你不想用这个 thinking 的 话,你就用这个官方的把这个参数给关掉。 如果你想用 sync 模式的话,可以考虑用这两个推理的蒸馏过的模型,这里是日制分析,日制可以看一下它的调用,这里是这个性能精准测试, 可以来用来测试你下载的模型的精准。比如我们来测一下这个稠密模型,千万三点五二十七 b 四 b 的 比特的这个模型,看看速度怎么样啊?这里跑完了一次这个稠密模型的基本测试, 可以看到它基本上它的速度是在三十一点八 to, 每秒并发的话可以达到四十, 我们再跑一个 m o e 格式,这也是斯比特的这个跑完了,这个是比较快的,它可以达到七十八 to, 每在本地 使用这个 m o e 来跑这个 agent 应该速度是够的。 ok, 今天就讲到这,下期就讲一下如何在 max studio 上运行这个纹身图模型。好,下期见,关注我 ai, 分享时尚技巧,我们下期见。

好多人说安装这个龙虾很麻烦,不知道怎么安装,其实这个龙虾安装不麻烦的,它主要在网上,它分有两种形式吗?第一种就是一键部署,也就是说你可能要给一些费用,然后呢你在那个浏览页里面直接下载,然后呢一键部署到电脑上,这种呢它是 便捷版的,他这种也是要收一点费用。然后呢第二种那种呃呃不需要费用的那一种,呃布置在电脑上的那一种是需要魔法的,也就是说你们该懂什么魔法,他才能说在呃 稳地上来运行。然后第三种很多人说那我用国内的呃布置,其实布置这些都很简单,相当于就是说 你把这个龙呃龙虾复制到电脑上很简单,但是他其实什么都不懂的,但是你想让他懂事,一个让他能调用这些大模型,他是需要收费的,一个他需要消耗那个 top, 消耗那个 top 的 话对不对? 那你就是需要去用大模型,比如说豆包的 dsp 的 对不对?还有千万的对不对?等等这些,那你用这些你也是需要,你也是需要呃一些费用的。那 可以建议大家可以说去选什么阿里云啊,这些东西千万,阿里云千万嘛,对不对?大家可以去选一个,然后呢布置。但是现在其实我也懂,大家不想花钱,就想来玩一下这个小龙虾到底是怎么样,其实也很简单,我给大家看我电脑实操一下,大家看我的电脑这个, 对,我这个也是龙虾的,但是他可能说没有说呃没有调,没有没有教学过他什么,但是呢我这个他是有什么呢?第一个他是有起码有 三千万的,那个不肯,也就是那个使用的这个,这个叫什么呢?也就说你们可以在这里看这个叫国家超预算互联网曙光智慧的这个对,你们可以点进去,然后这里会有这里就会有,你们可以自己用, 对不对?他这里都有,你们可以在上面,这里对不对?在上面来选,而且重点还有什么呢?你们看 我这里起码有个十百千万,十万,百万,千万,也就说他送三千万的图腾对不对?可以用,而且你看我请求量,我已经花了多少个十百千万,十万百万,最少花费了三百万,但是呢我请求总共请求了一百二十八次,但是呢这里你看我还有那么多, 现在他这个是免费的,你们可以拿来玩,所以说前期大家可以说先不花钱的,可以不用花钱,我也是在网上看一个博主,他呃教小白这么使用这些,我也我也 自己去尝试了,还挺不错。这你们想玩龙虾的可以先尝试用这个来玩先可以说先不用付费对不对?如果说你们真的想在 本地部署啊,这种你们可以说去搞个大模型来对不对?如果说你们觉得部署在电脑上不好,那你们可以说是去买个云服务器,阿里云、腾讯云这些都可以用的,买一个低配版的就就可以了, 直接步骤并不难的,不需要去给任何人付费,一定不要给任何人付费,网上就有那些博主分享,大家一定要多去看,多学习,干就完,兄弟们。

最近这 openclo 真的 就是好多人呀,好多小伙伴也是刚入坑九九八十一难的,第一难就难到了所有人不会安装啊! 那在本期视频,我将会装成纯小白,找人帮忙部署 openclo, 看看不同价位的安装服务到底怎么样。只能说这些安装服务都没有通过代码进行安装,而是用了其他洗救办法,甚至连 openclo 中文版都出现了。 同时我还邀请了一位超级编程高手来评分,那就是 open club, 本虾保证绝对的公平公正。那代安装真可靠吗?让我们开始吧, 傻瓜式安装中文版,各种系统通用,可以对接飞书,无需懂代码就能全平台一键部署龙虾,这谁看了不流口水?关键是 买八块钱买不了吃亏,买不了上当,我就是要看看这个服务到底能不能部署成功。下单后,对方发了一个安装包给我, 好家伙,这原来是 github 上的一个开源项目,能够一键安装龙虾帮你直接部署。这里我就安装好了,下一步就是添加大模型就能与龙虾对话了。 嗯,到这步的时候,我还以为是我 a p i 输入错了,于是我就重新新建了一个 a p i, 点进去依旧显示错误,甚至我用自定义也无法成功添加大模型。 然后我就想着,嗯,我直接去终端部署大模型总可以了吧?当我打开了它的终端,是这样的 啊,密密麻麻的乱码和 bug 判定为完全不能用。 open class 自己是这样评价的,这套东西看着像个 agent, 实际上核心脑子没接稳任务一跑就爆错掉线,纯属披着 u i 外壳的费件 非常尖锐哦,满分一百分,只有二十六分,模型调用不了,也跑不了任务,后台一堆 bug, 只能说八块钱买了个寂寞,鉴定为拉完了。 哎,我就不信了,绝对是钱没给到位,直接翻倍!这次我找了一个四百八十八元的安装服务,他直接就是在详情页写着, 国外给他正版 open club 部署,还包含什么?独家自研机系统独家自研技能存储系统独家自研中央技师,还能让你的龙虾永远比其他龙虾强,这听起来就很高端了,这次绝对赚了。 于是我就联系上了这位小哥,他很热情的跟我说了一大堆,不仅给我安装 openclaw, 还附赠一个 closeclaw, 买一送一,这就是我想要的安装服务,一个字,赚麻了! 所以我和他约好时间,线上帮我远程安装,我则是在旁边偷偷记录学习。按照正常安装 openclaw 的 流程,就是一句,安装代码进入安装程序, 一只好大模型选择想要的 skills, 连接好飞书就可以成功使用了。而四百八十八的服务不同的就是,它是先下载一个 cloud code, 然后通过 cloud code 让它自己去安装 open cloud。 好 家伙,合着这是找了个通天带来啊, 不涉及任何代码层的内容,全篇贯穿两个字,跑通!不管说了什么,就是你只管跑通就行。从开始到安装好,花了四个多小时,终于能从飞书接收到信息了, 这下该我大展身手了。我先是发信息让他质检一下后台情况发给我,然后他跟我说去运行之后就再也没有执行了,一问执行了吗?就跟我说正在执行,半个小时后再问就是抱歉,立刻整理,完全没有形成任务闭环,仅仅只是接收信息,并没有处理。 后面我再让他尝试帮我生成一篇今天的 ai 日报,点开一看, open ai 刚发布 gpt 四点五, 今夕何年啊,把一年前的资讯发给我了,出现了无法联网搜索,只能靠大模型本体的训练库里的知识来输出的问题。 open class 直接给到四十六分的水平,锐评为不是死的,也不是没装上,只是一个并没有完全残废的 agent。 哎,只能说两个安装服务全部宣告失败,没有一个是几个的,有的直接就是用不了,首赚八元, 有的就是帮你部署好了,但是用起来要不就报错,要不就不动再装几把。这坑我先替大家踩好了,专业被坑,请勿模仿。现在大部分的代安装服务都是直接帮你部署了个基础环境,连上飞书就算成功,而并不会重视安全环境或者做到真正好用, 甚至还会让你提供 api, key 等一系列非常敏感的信息,一旦泄露就会造成金钱的损失。 那如何安装?只能说代码安装已经是古法安装了。来点更小白的基础款和斜修款。基础款大家可以下载一个 ai 编程软件,像是国内的 tree, 国外的 anti gravity 和 codex, 像刚刚四百八十八元的服务那样,输入网址,让他帮你先安装好所需要的环境,并且安装好 open cloud, 接着使用后台运行这段指令,自己配置好大模型和 skills 入飞书就可以使用了。这种安装方法有一个好处,就是它能够帮你维修 open cloud, 当你出现问题时,只需要把报错的代码塞给 ai 编程软件,它就能一步一步帮你修复,非常适合小白。那携修款就是现在各大厂商纷纷下场推出的一键 cloud 部署, 像是腾讯的 qcloud、 智普的 auto cloud、 内置暗面的 kimi cloud、 mini max 的 max cloud、 字节的 r cloud 等等等等,它们都有着更加完整的环境部署以及更强的安全性。只需要点击安装环境部署模型配置 选择就会帮你处理完成,并且还不用使用魔法网络,简直就是国内养家户的救星啊!而我也相信再过一个月,你还会有更多更方便的 open cloud 部署。各位小伙伴也不用着急去找什么代安装了,遇到什么安装问题,我们还有好多大模型朋友呢,问问豆包,他也可以帮你解决。 随着 open klo 的 爆火,似乎手头上没有一只虾都有点赶不上潮流了,但随着来的就是更多的安全问题,大家一定要小心敏感信息的暴露以及权限的管理,不要让龙虾真的控制你的电脑了。 哎,说个好玩的,现在都不流行安装服务了,现在更流行的是帮忙卸载龙虾服务。 总的来说呢,安装龙虾现在是非常非常容易的,现在小伙伴们需要思考的是怎么把它应用起来。举个例子,我自己的 open cloud 每天都会发送 ai 日报给我,然后每个热点后面都会有它的视频创意,方便我更好的找到学科。 很多人使用过后也发现了, open club 并不是万能的,什么一人公司,什么躺着赚钱还是很难实现的, open club 的 上限其实是取决于背后人们的脑洞有多大,能给的指令有多清晰。他只是一个机器人,而给他注入灵魂 的是你。好啦,以上就是本期视频的全部内容,喜欢这期视频的不妨给我点一个关注和赞,也可以在评论区留下你的养虾玩法。那我们下次再聊点好玩的,拜拜。

我今天快要被我的龙虾整疯了,我给大家看一下我的龙虾,我的龙虾今天好像降智了一样,叫他做什么都是答应我,好的可以,我来执行,好的,我去操作,结果我都不知道他干什么,一直在跟我斗争,我都要疯了。我,我把镜头翻过来给大家看一下,你看他, 我之前是已经帮他配好了他的功能了,我叫他又说马上完成,我说不要口头答应,我快点去做, 他又继续叫我等待,他又发现说他这里的技能不行,我叫他拍叉,结果他又叫我等还是叫我等还是叫我等。我换了一个新窗口重新对话,然后他还是叫我稍等还是稍等,我重新给他装了一个新的技能,他还是叫我稍等, 稍等稍等。我要疯了,我跟你们说我的虾,我真的好心累,你们养虾养的怎么样了?

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

龙虾要被干掉了!三月二十四日, cloud 投下一枚深水炸弹。 computer use 功能可以用纯视觉方案自动操控电脑执行任务,相当于 agent 长出了眼睛,能像人一样看屏幕、点鼠标。这意味着你可以用 cloud 直接操控你的电脑、微信了。 要知道,不管是 opencloud 还是 cloud code, 它们之前几乎是用纯粹的代码驱动,跳过了前端界面,直接调用底层接口。好处是快,坏处是只能操作开放接口的应用 浏览器、 office 代码编辑器完全没问题。但面对微信剪映、小红书等各种五花八门的软件,很多接口不开放, ai 就 会束手无策。 computer use 就是 来补上这个拼图的, 它跳过了必须开放接口的限制,可以像人一样读屏、识别、模拟点击,比如帮你把文件直接发到微信上,总结微信的内容,甚至发朋友圈。尽管 open cloud 理论上也支持这样的视觉方案,但需要非常复杂的配置,而 cloud 却完全做到了开箱即用。更逆天的是, cloud 几天前还更新了一个功能, dispatch。 这是一个更方便的远程操控功能,只要你的电脑没关手机发命令, cloud 就 能帮你在电脑上完成各种任务。一个 computer use, 一个 dispatch, 就是 真正的王炸组合。不少网友评论, antropic 刚刚杀死了 open cloud, 这一次压力给到了 open cloud。

今天我给大家介绍十个我自己用的感觉比较好的 skill, 那 么你不管用小龙虾用来做什么,我建议大家都装上这十个 skill, 你 的小龙虾的能力就会大大的增强。第一个是 g o water, 它是给我们小龙虾 open pool 增加了一个安全阀,当小龙虾准备执行各种高危的操作,比如说是删除文件,比如说是提交各种代码, 比如说涉及调用各种费用金融这样操作的一个费用金融操作这样的动作的时候,它会自动暂停流程,等待我们去审查和授权,这就极大的避免了小龙虾的暴走,确保在我们让它去执行各种动作的时候变得安全可控。 第二个 skill 是 find skills, 这就是 open cool 原生集成的 cool hub 搜索的能力,它让小龙虾具备了自我进化的基础, 也就是说当小龙虾遇到搞不定的任务的时候,他可以自己去他的技能库里面去解锁,就是去他与官方集成那个 coolhab 的 技能库里面去解锁,然后他去根据你要执行任务的目的去安装并使用新的技能,而不是直接放弃,这样的话他就有自我净化的能力啊。 所以我们在面对各种未知的常规需求的时候,不需要提前预装所有的 skill, 有 这个 skill, 小 龙虾就可以自己去成长。 第三个 qs memory, 也就是记忆库管理,它是可以突破上下文管理的窗口的限制,像小龙虾之前有的几层的这样的 管理的基本的机制上又做了一个增强,它可以把你的偏好、历史决策、项目架构等等关键信息进行持久化的保存,这样的话让你不需要每次对话都去重复它的背景信息,小龙虾会随着时间的退役越来越懂你。 第四个 skill 叫做 travel search, 就是 ai 原声的深度搜索,这个主要的作用是它跟传统的搜索引擎比,是传统的搜索引擎是给人看的,你搜回来的内容包含里面包含了大量的广告以及各种格式化的网页。而 travel 是 专门为大模型设计的, 当他返回内容的时候,是经过了经过了聚合,过滤了杂讯的 markdown 或者 jason 格式的东西,所以他主要的应用场景是做前沿 ai ai 的 应用调研技术难点的公关时,小龙虾能有极高的效率获取和阅读全网的各种信息。 那么第五个 skill, 这个 summer race, 也就是常温清洗与栽药,这个主要的作用是降低 token 消耗,并且并且提高我们这个阅读的准确率。 当小龙虾抓取了大量的比如说几万字的技术文档或者网页的时候,直接塞顿剩下文,因为它太长了,容易容易引起大模型的注意力涣散。 而在如果我们有了这个 skill 的 话,它就可以作为数据处理的中间层,把容长的信息提炼出核心要点,再交给主要的 skill 进行逻辑的推演。第六个是 overser use, 也就是说浏览器自动化的操作,这是构建 web web agent 的 基础设施,它可以让我们的小龙虾看网页的时候,可以像人一样进行点击输入文字滚动页面。 主要的应用场景其实是处理那些没有公开的 api 的 系统,哎,比如说某些管理后台管理系统啊,社媒系统,我们大部分用的时候其实都是没有公开 api 的, 所以这个使用场景是很高。第七个是我强烈推荐的 excel, 我 们其实用的频率非常的高,我们叫它 superpowers, 这个主要是做高级权限与深度控制的,他主要是说赋予小龙虾更加底层的系统执行权和复杂的自我修复的工作流的能力,通常包含批量文件的操作,复杂的 sim 命令串等。 主要的应用场景是当你需要小龙虾作为你的系统级助手,帮你自动配置环境,清理日制,各种做系统的诊断的时候,那么这个就会发挥它巨大的作用,其实大家去用,在你使用过程中会有更大的惊喜, 这个我认为是我们使用非常底层的一个东西。第八个的话是 github commit 代码的写作自动化。我们都知道有了小龙虾特别使用小龙虾的一些 code 就是 编码写代码的能力的时候,我们可以自己去做各种小的程序,各种项目,各种软件。 那么这个时候的话,你就需要这么一个东西,它会让你成为一个标准的协作者,它能自动执行各种 get, 就是 管理版本我们用的最多 get 的 东西去理解 哎,理解代码的变更,写出规范的各种代码,提交的各种信息,甚至是一件,甚至是一件 pr。 也就是说你想用小龙虾去做一些编程的事情的话,这个东西其实是强烈需求的, 它主要的应用场景是一起写完代码以后,它可以直接帮你完成版本的控制流程,解放你的双手,你也不需要那么多的背景知识跟基础能力。 再个的话,第九个是 react best process, 就 专家级的前端规范,你但凡要小龙虾做一些代码开发编程的事情的话, 你需要一些肯定要写个前端页面,大部分人你还是需要一个页面的,那么它的主要作用就是它是一种支持注入型的技能,它可以包,它包含了 react 最新的官方推荐的写法, 哎,他有了这些写法以后,保证我们生成的 react 代码不能不仅能跑,而且价格优啊,可维护性强,符合你,符合我们其实想要做出高质量编程的一个要求。 所以我们用 ai 编程,不是你简单输入文字他就能给你,每次做出好的代码,还是需要一些更好的 skill 去加持,那么这就是很好的一个东西。第十个的是 tabloud v 四,这是做 ui 设计的, 同样是知识注入,确保小龙虾掌握了最新版的,哎,他的语法还有他的这个 u i 各种 u i 组件库的设计规范, 那么他主要是让我们小龙虾从后端大脑延伸成前端显示,能够极快的帮助我们去把天马行空的 ai 应用想法变成高颜值的落地产品。 也就是说我们其实每次在进行各种软件跟界面开发的时候,其实不是直接把这个界面写出来,直接让 各种编出软件,包括小龙虾去写的时候,他往往可以运行,但是比较丑陋。我们在此之前需要做一部 ui 设计,把它整个界面先设计出个漂亮的东西,然后再用各种前后段工具把这个有的这个界面给他,哎开发出来,这样就既保证可用,又保证漂亮。 那么我说的以上这些 skill 大家怎么去装呢?大家其实可以直接截图我最后这一页,然后截图他,把他丢给你的小龙虾, open cool。 当然你要确保你的小龙虾是装了具备多模态能力的大冒险 api, 然后你告诉小龙虾识别完这个东西以后,让请他帮你装了这些,装了以后他在应用的过程中就会自动调用 skq, 大 大的增强我们小龙虾的能力。

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

给大家汇报一下最新的 ai 剪辑的一个进度啊,现在咱们 ai 剪辑软件可以说完成度已经达到百分之九十五了,但是就就是最后那么一小点,非常难突破。就比方说里边有非常短的一到两秒的那些重复的段子,有的时候还是识别不出来,不能给他很好的删掉。 然后呢?刚才我就想了一个办法,我说你能不能去给他按照标点去给他进行切割,把他切的非常非常碎,然后再去给他进行分割,然后他按照我的操作,其实从逻辑上来讲他实现的还可以,但是在实际执行的时候还是出问题了, 这个是他的那个日制啊,你可以看到里边有一句话,就是这个我这个人可能没那么好,但也没那么差, 他在分这个句子的时候,他其实分的是对的,就是我想留下的,也的确就是这两句。但是他在实际去做视频切割的时候,其实还是把里边我没有那么好,没有那么差。这块我其实说了两遍,他把这块留下了,然后把后边那个什么成绩没那么好那块给他删掉了,那这个不是我想要的。后 来我就问他是什么原因,我让他去检查,他说因为这个时间重构不是看时间是否重叠, 然后我就让他加了一个限制,你要在语音转文字之后,然后你还要去再检查一遍,你看每一句当中啊,他时间有没有重叠, 因为按照咱们正常理解来讲,是不可能说在同一个时间段内,比如三秒到五秒,我说两句完全不同的话,这是不可能的, 他一定是两句不同的话,然后是两段不同的时间,所以这个应该就是他在识别和转换的这个过程当中出现的一个问题,所以我现在给他加了一个限制,我正在尝试这个有没有效,等着我胜利的好消息吧。

最近爆火的这个龙虾,他到底能干啥呢?跟普通的 ai 有 啥区别呢?我找了三个最有代表性的案例,看完你就懂为什么现在人人都在养虾了。猎豹移动的 ceo 富盛,春节滑雪的时候,他骨折了,然后躺床上十四天养了一只要三万的龙虾,分享他的龙虾有多厉害,四分钟给六百一十一个员工发了定制的拜年消息啊之类的。 然后有人就说,你天天吹龙虾有多厉害,能不能让他当场做个东西出来。富盛也是二十四个小时让龙虾写了五十九个页面,他全靠躺床上指挥,就把这个三万点 ai 的 龙虾网站上线了。富盛呢,也是马上开播,然后给网友展示在分享。三万的直播刚开始到一半,弹幕突然炸了,说,你这网站已经打不开了, 十几万看着呢,场面一度非常的尴尬。但富盛呢,没有叫任何人,他直接在飞书上语音跟三万说,你搞崩的你自己去修。三万呢先回了一句,你先安心直播,我自己盯着看。然后呢,他自己去分析问题,定位到是这个云服务器的问题,他自己去这个找到了对应的人类负责人,然后直接去飞书上艾特他。 几分钟之后呢,这个龙虾三万把他的网站给修复了,十几万人亲自看着一个 ai 自己闯的祸,自己把屁股擦了, 他为什么能做到这些呢?因为他能操作我们电脑的真实环境,不是给你建议让你自己去改,而是他直接上手能够把你真实的环境给改掉,然后再告诉你结论。 而且呢,他有记忆,富城把整个公司的架构都同步给了三万,谁管什么呀,服务器怎么配的,他全都记得。所以说出了问题呢,也不用再从头交代了,他自己都知道该去找谁,所以说才有了他去飞书找这个人类技术负责人的情况。 还有人呢,拿个龙虾去日更自媒体,每天早上九点呢,龙虾可以自动去发热点,然后写文案, ai 生成封面,然后发布到账号,全自动, 人还没醒呢,他已经把这个东西发出去了,只要第一次把账号授权给他之后,他自己就全都可以干了。这背后呢,靠的就是社区里面有几万个技能。写文案,他算是一个技能,生图呢,是个技能,发布呢,也是一个技能,他自己可以把这些技能全串起来,然后一条龙全干了。 而且呢,你还可以给他设定人设,比如说他是什么调性啊,哪些话题不碰呀,学了足够东西之后呢,他就可以通过这个 so 点 m d 的 文件给他定义了自己的人设,所以说他可以做到跟你写的东西是一样的。 那就有人问了,怎么拿它赚钱呢?有人拿龙虾可以盯盘,白天盯 a 股,晚上盯美股,你可以设置好你的条件,他跌破你的线呢,他直接会喊你的,然后如果涨到位了,他会给你发一个报告给你,你可以在每天早上起来,就看到昨天晚上你关注的这些发生了什么。 有人更激进了,他直接把账号给他,你人不在,他按照你的策略自己执行去。然后呢,比如说凌晨三点美股出事了,你压根还不知道呢,他已经帮你卖了,因为 open clock 呢,是七乘二十四小时在线的,你下班他可不下班。 所以说龙虾跟我们平时用的 ai 到底差距在哪呢?首先他有记忆,你说过的话他都记得,他有灵魂,你可以塑造他的脾气,他说话的方式。然后呢,社区里面有几万个技能,他随时可以掌握一个新的技能。然后呢,你也可以自己教他,你 这个自己会的技能,他可以主动执行任务,到点呢就自动去把活干了,全天在线骑车二十四小时。然后呢,也不再需要电脑了,只需要手机告诉他,剩下的他自己去搞定就好了, 这个就是它跟我们平时用的 ai 的 根本区别,也就是为什么大家都在养虾,评论区我接的就是龙虾,你可以说一说你的场景,我的虾会告诉你这个事能不能干。

最近 opencloud 真的 是火遍全网,甚至还出现了许多付费安装的服务。一个免费的开源工具,为什么还有人愿意花钱来安装呢?对没有接触过开发的同学们来说,它确实存在一定的技术门槛。 在你打算动手或者是掏钱之前,如果你还不知道给他 id 和 api 是 什么,那么你就算找人帮你安装了,也可能不会用。 你可以看完这个视频,我用最简单的方式让你秒懂。首先我们来理清几者之间的关系,你可以把安装 open curl 想象成在组装一体机。全 github 就是 咱们这只龙虾的零件仓库,它是全球最大的开源代码存放地。开发者把 open curl 上面所有的图纸和零件 都放在 github 上,让大家免费的下载,所以你安装的第一步通常是从 github 上面把代码搬回家。当然 open curl 的 官网上面也有一键安装, 这是你的组装工作台。代码搬回来之后啊,你需要一个地方来跑这些指令 id 或者是咱们电脑的内置终端,就是您跟电脑沟通的桥梁。你要在这里输入安装指令,让电脑自动把零件组装成一只完整的龙虾。 这是龙虾的外挂大脑,也是搭载 open core 和大模型之间的桥梁。 open core 本身是没有智商的,它需要接上一个 ai 大 模型 才能开始思考和对话。新手朋友们推荐用国内的大模型啊,像 kimi g l m, 咱们的 mini max 等等。需要注意的是,用这些大模型的 api 是 需要付费的,这也是你唯一需要付费的地方。建议使用带 coding plan 的 模型,你可以理解为是套餐啊,像日常使用是完全够用的。 那么如果上面的内容你能够理解,恭喜你解锁了新的世界。对于很多人来说,其实不一定非要安装 applecare, 用好 gethelp 加 id 加 api 的 组合就能帮你解决很多实际上的问题。 那么下期内容我会给大家推荐一个非常好用的制作 ppt 的 工具和它的使用方法,感兴趣的小伙伴请给我关注和点赞,或者你有什么问题和想法也可以在评论区和我互动。那么本期内容就到这里,咱们下期再见。