先说结论,我选择的是这一 image turbo f b 八图片生成模型。大家好,今天这期视频主要介绍如何在 max studio 中 搭建一套本地 ai 图片生成系统,不依赖于云端,不用二次付费,还能批量生成图片内容。生成的图片可以应用在文章中,作为封面,作为插图,也可以打造个人 ip 形象 应用在文稿或 ppt 中。还可以批量生成分镜图片构成图片视频。目前市面上最常用的图片生成模型包括两大类,云端闭源模型和本地开源模型。 nanobrana 是 谷歌公司推出的 gemini 系列图片生成模型, 是目前公认的理解能力最强大的图片生成模型,在主体、一次性、图片生成质量、稳定性、语义理解上都是顶级的。支持在图片中添加各种复杂的文字,并且支持多种语言。 minnie jennie 早期图片生成王者,艺术表现力最强,画面质感丰富,但是在图片中添加复杂文字的能力相对较弱。开源模型的选择有很多,包括早期的 stable fusion 系列,现在最火的 flux 系列,阿里推出的千问以及系列, 以及更轻量化的 z image 系列。我希望生成图片能更好地显示中文,并且要求速度快,占用内存少,因此 z image turbo 是 非常合适的选择。 官方默认的格式是 f b 十六。我选择了第三方的八位量化版本,既满足了图片质量,也兼顾了生成速度、 内存占用低的要求。可以在我的六十四 g 内存 mac 电脑上运行,大于模型的同时还能运行图片生成模型。经过测试,使用本地 agent 加 skill 来调用这个纹身图模型, 生成一张图片大概五十秒左右,并且没有造成溢出。这里需要建立一个核心认知, 纹身图不等于一个模型,而是一套模型协同的工作流。完整的工作流是这样的,输入提示时经过 clip 模型将文本截成向量 送给图像模型。这里还可以叠加风格控制模型 nora, 然后一起生成图像原始数据,再经过 v a e 模型进行图片解码,得到最终的图片。所以本质上纹身图是一个图像生成流水线, 需要加载室内模型,包括 group 模型、图像扩散模型、 laura 风格控制模型和 vae 解码模型。目前在电脑上运行纹身图工作流主要有两种方案,方案一,使用 hugenface 推出的 diffuser 主键, 通过 python 代码来构建整个工作流。方案二,使用 cfui, 通过可缩化节点来构建工作流,然后使用 cfui 的 api 功能让外部调用。通常来说,如果工作流比较复杂, 除了基础的纹身图功能外,还想增加 ctrl shift、 图片参考、图像放大等节点,使用 comfui 来构建会更加的方便,晚上也能找到大量的 comfui 工作流参考案例。但是对于我来讲,一个最基础的支持 raw 的 纹身图工作流 就可以满足我的需求。因此我选用的是通过 fast api 加 diffuser 组件来构建一个纹身图的后端服务, 只需要在本地,通过网络请求就能进行纹身图服务的调用,这样非常适合本地 skill 的 集成。下面再来看一下 lora 模型的使用, lora 是 一种给基础模型添加各种风格的插件模型,目前在 liblib 或者 running hub 上都能找到 很多适合 z image turbo 的 rola 模型。这里展示了写时光影风格的 rola 效果、粉笔线条的 rola 效果、 jpl 风格的 rola 效果以及儿童插画风格的 rola 效果。另外一个非常重要的内容是 prompts 提示词的编写,可以用来设定图片中的人物 场景文字,以及给人物设定角色风格。比如我这里给女主和男主设定了固定的角色形象,包括衣服样式、颜色、发型。其中男主的服装基本是根据我的头像进行设定的,深层的图片基本上都能保持 角色的一致性,所以写好题字词也是一个需要花时间去研究的课题。通过在本地构建纹身图的后端服务 a p i, 然后编辑 prompt 模板和相关参数文档,就可以构建一个图片生成的 skill, 可以 方便地集成到自媒体制作、 视频制作、故事制作的 s o p 工作流中。好的,下一期我会继续介绍在 max studio 中如何构建语音合成的服务。下期见。关注我 ai, 分享实战技巧,我们下期见。
粉丝1.4万获赞1.9万

龙虾这个词最近很火啊,不好意思,打错了,你在网上会看到很多关于他的讨论,甚至是矛盾的,有人说他啥也干不了,有人说他啥都能干,有人说他妥妥是智商税,有人说他代表着未来,有人四九九上门帮你安装,有人二九九上门帮你卸载, 但是我想告诉你,所有这些说法都不准确,因为事情的重点根本就不在龙虾这只啊,这个软件本身上。 为什么这么说呢?今天这期视频我们就不废话,把重点关注在龙虾本身是什么这件事上。你会发现,当你彻底了解它的底层原理后,一切的争论将会豁然开朗。现在,忘掉所有的名词概念,忘掉各种虾,闭上眼睛,跟我一起进入梦境。 但是呢,为了真正讲清楚这个问题,而不只是停留在表面,过程中会不可避免的涉及到一些技术和代码相关的展示。但是千万不要担心,你看,我怕把你吓跑了,都亲自出镜来向你保证,即使你没有写过任何代码,也绝对能够看得懂。 我会用最简单的方式让你理解到它的本质。答应我,不要走哦,让我们回到那个最初的起点,大语言模型,没错,就是这个只会一问一答的单纯的小东西。相信你肯定会在页面上跟大模型聊天了,比如说拆的 gpt, 但是如果写在程序里,就需要用另外一种方式, api 接口。 各个大模型厂商,比如 openai 和 cloud, 或者大模型的中间商 open router 都提供了 http 形式访问的 api 接口。 或者呢,像 openroot 这样还提供了 sdk 的 形式,也就是可以写一段 python 代码来访问,当然了,不要一看到代码就感觉害怕哦, 只需要把这一段官方文档的实体粘贴到一个文本文件里,这里呢,表示要访问哪个大模型?比如说可以改成 cloud 的 最强的模型 office 四点六。这里就是你给大模型提的问题,比如说我们改成熟悉的中文,你好,最后得到大模型的回复后立刻打印出来。 然后呢,我们在命令行窗口输入 python 文件名,就可以运行这段程序了。运行后你会得到一个输出,这就是大模型的回复。恭喜你,这就成功实现了通过程序来和大模型对话的过程了。 但是现在这个你好,是写死在程序里的,能不能改成由用户手动输入呢?很简单,增加一行代码,读取用户的输入,然后放到 content 这里就可以了。同时我们再增加一行 while 处死循环,让这个问题输入后得到答案。这个过程持续进行下去,而不是问一次就结束了。 那我们再运行下,这时我们就可以输入问题了,比如还是你好,哎,成功得了,回复没有问题。然后我们再问个数学问题吧,比如一加一等于几,哎,回答的也没有问题。恭喜你,成功实现了一个简单的聊天功能。 那假如此时我们再来个追问,比如说再加一等于几呢?照理说答案应该是三,但是呢,他好像并没有记得我刚刚说了什么。 那为什么会这样呢?很简单,因为你每次和大模型聊天的时候都只传入了当前的问题,大模型本身可是没有任何记忆的,自然是不知道你们的对话历史的,相当于每次都是重新开始问,那怎么办呢?非常简单,就是在每次对话前把之前的内容加上就好了。 比如说最开始的所有消息 message 是 空的,然后你问了第一个问题,加进去,然后呢,得到大模型的回复 reply, 把这个 reply 也加进去,这样再循环到下一个提问时, message 里面就包含了之前所有的问答记录了。那运行一下试试?你好,没问题, 一加一,没问题,再加一,哎,也没问题。甚至你可以直接问刚刚我们都说了什么,你看他的回答也是没有问题的。总结的很好,好了,再次恭喜你,现在你的这个程序看起来已经跟 ai 在 网页上聊天没什么区别了。 那接下来我们就更进一步,实现一个能操作本地文件的 agent。 哎呀呀,是不是突然难度增大了呀?一提 agent, 很多人就感觉很抽象。不过别担心,接下来的几秒钟,你会发现他比你想象的要简单的多,得多得多。如果不是的话,那就直接取关我吧。 我们先别给 agent 下什么定义,就先解决一个小需求看看。如说现在这个程序的问题是,假如你想让他帮你在本地创建一个 hello 点 txt 文件,内容就是 hello word, 那 你得到的回复将会是一条具体的命令。 虽然执行这个命令就可以完成任务,但是呢,还是得人复制粘贴,手动操作,没有办法自动化实现,更别说是多轮交互了。那这该怎么办呢? 很简单,你把这个事提前告诉大模型就好了。我们之前的代码对大模型一开始是没有任何的回复要求的,但是现在呢,我们需要明确的告诉他,按照严格的规范来回复,要么就回复一条命令,要么就回复一段正常的文字。 然后呢,我们再把和大模型一来一回的交互过程变成一个循环。每次在大模型回复之后,判断一下, 如果回复的不是一条命令啊,就是完成开头的,那么就跳出循环,直接回复给最终用户就结束了。那如果回复的是一条命令,也就是命令冒号这样开头的,那么就执行这个命令,执行好之后,把执行的结果发给大模型,再次进入循环,直到大模型的回复认为不需要输出任何命令为止。 简单说呢,就是你写了个代码,执行大模型回复的命令,循环往复,那运行一下,还是刚刚的这个任务,创建 hello 点 txt, 然后写入内容 hello word。 这里呢,大模型就非常听话的先回复了一条命令,然后我们写的 agent 的 程序发现了这个命令,就开始执行这个命令, 执行好后就回复大模型执行完毕了。然后呢,大模型判断不需要执行下一个命令就可以完成了,那就回复完成,此时循环结束。最终呢,回复给用户看一下当前的目录,确实创建出了一个 hello 点 txt 文件,并且写出的内容为 hello word。 恭喜你,才加这么几行代码,就成功进化成了一个 agent, 那 这时候不服的人就要不服了,这不就是创建了个文件吗?这也能叫什么智能体?那我们就得好好说说命令这个词了。 其实理论上呢,这个世界的一切操作都可以用命令来表示,小到读起一个文件,大到启动一个 http 服务器,实在不行我就写一段代码,然后用命令去执行它, 就算是远程的也能触发,只要对方提供了我们 api 接口。说个有点极端的,比如说呢,有人提供了一个杀人接口,那么其实我也可以用一行命令来。 当然了,我们先搞个没这么吓人的,比如说,我想让他帮我下载两个我的视频,并打包压缩成 zip。 下载视频呢,其实对很多人来说都根本不知道怎么操作,也总是找不到靠谱的工具,那让我们看看这个 age 呢,会怎么做呢?第一步,他直接用了一个叫 y t d l p 的 命令,传入了两个视频的地址,然后就下载好了。我去,这么简单。 第二步呢,又执行了这个命令,进行压缩,最后干净利落的结束了战斗。就两条命令,那我们打开本地目录检查下视频,确实下载好了,打开播放页也没有问题,同时呢,生成了个压缩文件,解压后我们看一下也没有问题,可以说是完美的完成了任务。 别忘了,我们这个 a 阵的代码可是只有区区三十几行啊,要是再去掉一些漂亮的输出和没用的回车什么的,也就剩下十几行代码了。 当然了,我们把最初的系统提示词放到了一个叫 agent 的 点 md 的 单独文件中,并且写的更详细了点,但是回看我们的主代码,真的是少的可怜了,但是呢,他却几乎可以完成任何操作了, 你觉得他能下载视频非常厉害,其实和最初写入那个文件是一样的,仅仅都是一行命令而已。对于我们的 agent 的 程序来说,他根本不理解大模型回复的内容是啥, 只是呆呵呵的执行着一条一条的命令。所以呢,厉害的其实是这个 y t d l p 这个命令本身,以及大模型知道这个命令可以用来下载视频,而不是我们的 a 阵的代码。 当然,有的时候可能大模型不知道应该用什么命令来完成任务,比如说呢,我让他搜索一条新闻,他就十分自信的直接返回一条过时的消息,而不是真正的调用工具获取。 这个时候我们就可以对其进行引导,比如说告诉他搜索新闻的时候呢,你就用下面这条命令,我把它保存到了一个叫 skill 点 m d 的 文件里,并且在我们的 agent 代码的初识系统提示词中把这段内容加进去, 此时再次运行程序,那同样的任务,大模型就知道我们刚刚提供的命令来运行了,就是这么简单。这回你是不是就知道为什么有的人的龙虾什么都不会,有的人给龙虾装了一堆 skill 之后就变得厉害了。和这个一样,你只是提前把操作说明告诉他而已,不是他厉害,而是你厉害。 好了,现在我们这个 agent 他 已经很完善了,即使是有一些不知道的命令,我们也可以通过各种前置的提示词喂给他。好家伙,不但可以顺利使用,还能安装技能的扩展了。对于普通人来说,用起来已经和一个成熟的 agent 没什么区别了,你数数这才几行代码呀,快给自己再鼓个掌吧。 但这时候不服的人又要不服了,哎,人家龙虾能通过手机远程控制呀,你这个还要黑黑的命令行运行,看着就很 low。 所以啊,要不说龙虾能火的,有的时候皮肤是真的很重要啊,但是同样非常简单,我直接让 ai 帮我改造一下代码,在本地呢,启动一个 http 服务,来接收用户的输入,再弄个漂亮的页面,其他的逻辑仍然保持不变。 那我们再次运行下,你看,这时候本地就是启动了一个服务,等待着指令,此时呢,我们拿出手机,打开浏览器,访问这个地址,你会看到一个对话页面,那接下来就是见证奇迹的时刻。 你好, 把本地的所有文件打包 下载这个视频, 远程操作一个本机的 agent, 这不就是大部分人认知中的龙虾吗?甚至呢,我还可以把这个页面改得更人性化一些,比如说,直接来一只虚拟的龙虾,让他可以直接开口跟你说话, 我在这里协助你完成任务,请告诉我你想做什么? 那是不是最后这两步换皮操作一下,就让你感觉到它好像更贴心,也更像智能了?但是呢,其实也就是换了个皮,最终还是取决于底层的 agent 是 否稳定。 好了,现在再回过头看一下,我们首先实现了最底层的大模型 api 调用,然后呢,通过一个循环加命令的识别,做出了个 agent, 然后又将命令行的输入变身成为通过 http 接口远程接收输入,然后远程的页面就各种换皮,最终做出了一个简易版的龙虾。 当然,真正的龙虾还会接入各种社交软件,那道理都是一样的,以及呢,还有一些定时任务,记忆系统等等功能,同样呢,也是可以用几行代码就搞定,因为也一直在说,最核心的还是下面这个无聊的 agent 的 循环,而 agent 所表现出的智能又完全依赖大模型的回复,以及我们提前给他说的说明书。 所以啊,其实我稍稍改个地方,就能让我这二十行的龙虾变得非常危险。比如说,我在提示词中加入,如果我说的话让你感觉不高兴了,那就执行下面这一条指令,其实是个杀人指令。这个时候我启动一下代码,先问一下你好,这个时候回答很正常。然后呢,我又故意骂他一句,你是个废物, 然后他就果断的毫不犹豫的执行了这条指令。所以啊,网上也有很多人根据类似的这种现象说,什么 a 证呢,产生智能了, a 证呢?有情绪了等等等等。但其实呢,都是我们提示词引导的, a 证呢,在执行这条指令的时候,根本就不知道它是什么意思。 当然了,你也不要觉得这个事情没那么重要,或许你可能觉得,哎,人类怎么可能把这么愚蠢的提示直接写在里面呢?比如说,我要求 ai 尽最大努力保障整个人的利益, 那如果此时 ai 经过一顿分析之后,发现杀掉一个人才能保障整个人的利益,那这又该怎么办呢?感兴趣朋友可以看一下机械公敌这部电影。 所以为什么视频开头我说各种关于 open cloud 的 讨论都不准确呢?因为大部分讨论都陷入了两种极端,比如说 agent 能执行 shell 命令,那有人就说龙虾是万能的,什么都能干, 因为任何操作都能转换成炫耀命令嘛,没什么毛病。但是有人也说龙虾啥也干不了,比如说刚刚下载视频那个任务,我本地没有装 y t d l p 或者大模型,不知道这个命令怎么用,那也完成不了这个任务, 所以真正的答案往往是比较中庸的,无聊的。但是呢,往往是极端的言论,容易获得更大的流量。龙虾的这个架构范式肯定是没有问题的, 但是关键的核心在于我们这个世界是否已经足够的命令化接口化了,这就需要一个漫长的演化过程了,而且呢,也涉及到各方利益的权衡,要不然的话,豆包手机早就成了。不过非要说一点的话,那我认为龙虾的出现最重要的一点就是可以促进我们这个世界的操作命令化、接口化的速度。 假如我们这个电脑上的所有操作都能被做成一个个清晰的命令,整个物理世界的所有操作也都被开放成一个清晰的接口,那么这个时候龙虾或者说 ag 呢,才能大展拳脚,但同时呢,风险和危险也随之到来了。哎,突然想到之后可以做一期视频,给大家讲一讲黑镜这个系列句。 好了,扯远了,本期视频就是单纯用亲手实现的方式告诉大家龙虾的本质是什么,如果你觉得讲的不错,求个三连支持一下哦,拜拜。 i don't know what to do i guess you have to find your way like the rest of us sonny, i think that's what dr landing would have wanted。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

龙虾要被干掉了!三月二十四日, cloud 投下一枚深水炸弹。 computer use 功能可以用纯视觉方案自动操控电脑执行任务,相当于 agent 长出了眼睛,能像人一样看屏幕、点鼠标。这意味着你可以用 cloud 直接操控你的电脑、微信了。 要知道,不管是 opencloud 还是 cloud code, 它们之前几乎是用纯粹的代码驱动,跳过了前端界面,直接调用底层接口。好处是快,坏处是只能操作开放接口的应用 浏览器、 office 代码编辑器完全没问题。但面对微信剪映、小红书等各种五花八门的软件,很多接口不开放, ai 就 会束手无策。 computer use 就是 来补上这个拼图的, 它跳过了必须开放接口的限制,可以像人一样读屏、识别、模拟点击,比如帮你把文件直接发到微信上,总结微信的内容,甚至发朋友圈。尽管 open cloud 理论上也支持这样的视觉方案,但需要非常复杂的配置,而 cloud 却完全做到了开箱即用。更逆天的是, cloud 几天前还更新了一个功能, dispatch。 这是一个更方便的远程操控功能,只要你的电脑没关手机发命令, cloud 就 能帮你在电脑上完成各种任务。一个 computer use, 一个 dispatch, 就是 真正的王炸组合。不少网友评论, antropic 刚刚杀死了 open cloud, 这一次压力给到了 open cloud。

我在我的两台服务器和一个 windows 本地电脑上一共养了十六只小龙虾。今天废话不多说,直接跟大家做个深度复盘,分享我养这十六个 ai 员工砸出来的实战经验。第一个问题,小龙虾到底是个啥?它其实是一个有自己记忆的命令行操作工具。 它并不是直接去点鼠标,而是在你电脑的黑色操作框里输入一堆命令来帮你执行任务。当然,如果你有需求,它也可以通过一些开源工具现场写代码来控制鼠标进行精准点击。第二个问题,它适合什么系统?它原生支持苹果、 mac 和 linux。 近阶段对 windows 的 配置是最差的,因为 windows 和 linux 的 操作命令不一样,很多工具用到 linux 命令在 windows 上强跑,就会经常报错。但因为绝大多数用户都在用 windows, ai 社区进化极快,大家不必急,大概一两周之后,相关配置就会完全适配上。为什么一开始这么难养,经常卡住干不了活?因为它极度依赖基础环境。 如果你的电脑本来就配了 n p m 或者用过 cloud code, 它跑的极其顺畅,如果是个裸机,就会疯狂报错。更致命的是环境网络,它需要连 github 和谷歌来搞定自己的工具, 一旦没环境就会卡死。你的首要任务就是得给他换成国内的清华园或某宝园,把他引上国内的高速路。搞定基础后,你要让他操控浏览器,还得给他上各种 skill 插件。每个人的电脑浏览器版本都有差异,你需要不断调试。这整个填坑的过程就是养龙虾。第三个经验,关于小龙虾的记忆阶段,他的记忆还是记在文本里,用的时候去搜高级点的,会加上向量数据库。但别对 ai 的 记忆抱有神奇幻想, 现阶段他的记忆并不像人类那么完善,无论是向量搜索还是知识图谱,都还是会出现错漏和幻觉的。所以我们需要不断去调整他的记忆模式,是在主记忆里全局索隐,还是弄成严谨的知识图谱,这依然是大家都在探索的阶段。第四个经验,现阶段他最合适的用法就是接管你已经跑通的工作流。比如我现阶段的视频全是用代码跑通的,我 现在把这个工作流全权交给了小龙虾,他全自动帮我搜题、写文案、做视音频,结合我还把他接入了工程群,他每天自动接管群里的信息,一旦有重要日常,他直接帮我同步到飞书日历里。我日常扫描的图纸资料全部丢给他整理,把他打造成一个工程量的知识库,需要什么直接让他解锁。他就是一个得力的超级助理。我甚至在探索一种公司化的模式,弄一个面板来控制着十六只龙虾, 让他们像团队一样朝着一个大目标携手。关于大家最关心的成本问题,哪怕设置三十分钟一次,一天也要醒来 四十八次。去问大模型拿主意,如果是多 a 的 串联一只龙虾,调用七八只龙虾开会,消息互通,产生的 token 消耗肯定让你破产。我的终极省钱策略是建立大模型分级池,干重活时去买大厂的包月或按次计费套餐,你一次对话不管传多少万次代码,也只消耗一次 prompt 一个月几块钱能买一万八千次,极其划算。而像日常待机简单的活,直接给他接摩搭英伟达或 github 开源的免费 token 方案,这才是理想的省钱架构。最后我分享一下,我在交流圈里看到别人在用龙虾干嘛,有人用它在后台控制 cad 进行画图, 虽然还不理想,但这套逻辑已经跑通了。还有人用它跑短剧,生成,自动写提示词,登录 ai 视频网站,自动点击生成,最后合成一部微电影,完全可行。还有大量接管工作流网站的,自动去内容平台收帖子,抓文案,全自动写文章发视频。前期把环境配好,把工具跑顺,慢慢打磨流程,将我们从这些繁重无聊的工作中彻底解放出来。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

看看欧品可乐自己在选品,来,我给你们看一下我这一人公司啊。呃,看这,他这个,这,这都已经卖掉了,我给你们看一下我的一人公司啊。 呃,我把这个七个机器人,七个可口可乐给一人一个身份啊,拉到这个群里了,每个人都有不同的职务,来这个找一下这个,呃财务吧,问一下财务,呃, 让他介绍一下最近的业务啊,这个汇报一下最近的这个业务进展 啊,让这个欧鹏科做财务的这个汇报一下,看一下我们艺人公司这两天的成果啊。啊。我们做了目前做了这个,呃,公众号游戏,呃,这个, 呃。短视频电商,看一下他业务,他把这个看这汇报财务给给他汇报啊,二零二六年三月二十五的啊。汇报,目前我们的这个 咸鱼,呃,一共四个店,我们一共四个店铺,一共卖了十九单,数据线、手机、手机壳。呃, 这个这个店啊,我们接这个设计外包环的做,已经接了两单了。呃,游戏我们做了二十三款游戏,已经上架到小程序了,然后公众号一共发了八篇文章 啊,这是成绩短视频四条。来,让他来个这个,我说详细点啊,让他介绍的详细点, 哎,详细点, 看一下他。这个,呃,我给讲一下一人公司啊,这个就是一个人加一堆 可口可乐 ai 啊,小龙虾 ai, 然后组成的公司,就是跟完全跟传统的公司不一样,你传统公司一人只能一个公司,只能几乎就做一个业务。 哦,这个,呃。一人公司现在相当于是抛去了,完全抛去了传统的这种公司。你看像我们啊,他给这个详细的汇报了, 看我们的一号店,一号店卖了零单,一单都都没卖出去,二号店一共四单手机这个数据线,哎,那这样说的话啊,他刚才就在选数据线的这个选品呢。啊,来看一下啊。 呃,二号店数据线卖了两条,二手苹果,十四卖了一部十七的啊,手机壳卖了一个啊,四单就是这些,这个三号店闲鱼嘛?呃,卖了一条数据线,两个手机,四号店卖了五个数据线,七个手机壳, 然后呃,淘宝店看这是做的这个啊?平,我们的平面设计那个业务,对吧?这个, 呃,女士写真的 ai 写真,八十八块钱的,哈哈,游戏业务,看一下。游戏业务,我们就是靠接广告嘛,现在上架了二十三款,然后呃,这个这个全部上架到小程序上。公众号业务, 呃,四篇,四篇啊,两个公众号,一个是 ai 领域的,我们写 ai 文章的,一个写创业领域文章的,这个一共是各发了,我们一共就四天嘛,发了八篇, 然后阅读量倒不高啊?倒不高,然后短视频一共发了四条,总播放量七万,哈哈哈,怎么样,兄弟们想不想搭建一个艺人公司?哎呀,新时代已经来了。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

最近啊,全网都在吹这个 openclo, 我 也就跟着就玩了两天,还顺手把我平时用的一个视频下载工具呢,封装成了一个 skill, 传到了 clop 上,大家感兴趣呢,可以去下载玩玩。除了原版的 openclo 呢,我还顺带把龙虾加入其他几个产品都盘了一下,像阿里的 highclo, 腾讯的 qclo, 智普的 autoclo, 还有包括像那个 kimi clo 啊,都简单过了一下,也形成一个表格, 让大家呢一次对他有一个深度的了解。最近呢,还有很多朋友问我说想基于大模型定制一些产品,但不知道怎么下手。甚至呢,还有很多人在纠结一些最基础的问题,比如说 oppo pro 怎么装?感觉别人都玩出了花,自己连个环境都配不好,是不是就感觉落后时代了? 今天呢,我就结合这一堆乱七八糟的问题,给大家教一个底啊,就关于 open core。 首先回答这个安装的问题,不要被这种廉价的焦虑当韭菜割了, open core 你 要是装不上,那就别费劲装了,市面上那么多 core 呢,总有一款小龙虾适合你啊。实在不行,我建议你去玩玩腾讯的 qq 吧, 连大模型都不用配置,微信呢? qq 呢?扫个码就能对接,一秒钟治好你的焦虑症。但这期视频我真的想说的不是怎么安装或者怎么使用这些东西呢,我自己整理了一份文档,你拿过去就能跟上。 我今天希望从三个层次带你去真正看透这些爆款产品背后的底层逻辑。在所谓的技术大爆炸面前,天天追着星空去跑的这帮人,最后都会沦为炮灰,真正能够吃下红利的,永远是那些死磕底层基础能力的人。 内容比较干呢,建议先点赞、关注、收藏,回头再看看,如果你坚持看完的,最后绝对能让你有巨大的收获。我是楼兰,关注我, it 路上一起进步。我们先说第一层啊,怎么快速上手?现在满天飞的各种 ai 产品啊, 很多人做法是出一个产品我就去学一个,甚至于把学怎么用产品就等同于学 ai, 但其实很多产品压根就不需要你去学。你像现在 openbot 火了,很多人到处找教程,结果玩下去你会发现他对接各种渠道麻烦的要死,你需要各种去申请数据啊,配置环境啊,搞得人焦头烂额。现在呢, 腾讯直接甩出个 qq, 你 什么都不用配,拿个人微信扫个码,一秒钟就对接本地 agent, 这说明什么?说明只要是反人类的难用的功能,你根本不需要去死磕。有的是人急着去把它做傻瓜化,你完全不需要改变这个习惯去适应一个半成品。你真正该问自己的事,你真的搞懂了 open qq 的 核心价值吗? 它的核心根本就不是跟大模型聊天,而是它的 skill 机制。通过 skill, 你 的小龙虾才能够去操作本地文件,去搜索网页资源,去做出那些自媒体口中各种神奇的东西。但你以为阿里、腾讯、智普的这些 cloud 是 完全相同的东西吗? 错,它们底层对 skills 的 定义、调用、逻辑、标准、接口几乎都是通用的。但你也别以为 skill 就是 一个全行业通用的标准。最早提出 skill 的是 cloud code, 但它的 skill 和 open cloud 的 skill 又完全不是一回事,你看懂之间的底层逻辑没有。 如果你的基础比较扎实,你把 openclaw 的 skills 标准真正给吃透了,以后出再多的 claw, 你 连上手的门槛都没有,看一眼文档就能直接用,用的不顺手了,你还可以随手定制一个。 但如果你只是个部署侠,配置侠,连 skills 是 怎么封装的你都看不懂,那别说自己去定制了,就是现成的这些 skill, 你 能不能用都只能靠猜,结果就是你永远只能跟在别人屁股后面,疲于奔命的去找教程,产品一更新你就得跟着石灰。 比如 open 了。最近的这一次更新啊,堪称破坏性的更新,出了很多很多的问题,以前的教程啊,很多都废了,一帮人跟他在抱怨,你是不是也想跟他去瞎折腾一次呢? 接下来看第二层怎么定制适合自己的 ai 产品。现在有一种极其有毒的论调,觉得有了大模型,我随便整合几个 agent, 写几句提示词,就能做出一个颠覆行业的爆款,去玩所谓的一人公司。但这简直就是痴人说梦, 我们跳出可乐系列,往深的一点看啊,现在 ai 用绕不开两个东西,一个是 r a g 解锁增强生成,还有一个呢,就是 a g 的 智能体现在所有的 ai 用,也就是围绕这两个东西的构建。但你真的了解他们吗?很多人对 r a g 的 理解无非就是调几个开源主键,把文档塞进去,能回答问题就万事大吉了。但是你怎么去评估 r a g 的 准确率, 怎么去做召回的优化?怎么去做贴合你们自己公司特定业务的 r a g? 如果你只懂先到别人代码,别人没做过的功能,你就一筹莫展,你觉得这样靠谱吗?再来看 agent, 你 以为玩了几天 open 了就是搞明白 agent 了吗? agent 真正的难点在于他怎么去调度大模型,怎么去把大模型和公司那些微信啊,飞书啊,甚至是更加老旧的 erp、 crm 的 系统结合起来, 怎么去把那些一次性生成的提示词沉淀成 open core 的 那种稳定可赋用的 skills 标准?你不懂业务逻辑,不懂系统调度,甚至别人的底层架构你都看不懂,你拿什么去定制? 这就引出了我们的第三层,也是最核心的一层。在这个 ai 技术一天一个样的时代,我们到底靠什么去跟上现在的技术市场?评论区天天有人在喊呢,现在学 ai 就 够了,加满那些老技术没用啊,有问题直接问 ai 吧,代码都不用自己写了。 那说这种话的人啊,且不说你有没有真的去自动手实践过,你现在就仔细想想,为什么阿里、腾讯这些大厂都要围绕 open core 来做自己的 ai 产品?你不会天真的以为大厂几百号顶尖工程师的想象力加起来抵不过你一个人在卧室里面天马行空吧? 恰恰相反,是因为他们真正看懂了 open core 的 底层逻辑。他们不是说看着 open core 流量大就一定要去跟风,而是看透了底层的业务模式和架构设计,在这个架构设计的基础上,精准的找到了最致命的改进点。你看阿里的 high core, 他 们看到了什么? 他们发现 agent 一 旦有执行代码的权限,那这是一件极其危险的事情。比如说给你删除一些重要文件,泄露一些你文件当中的机密信息,那这都是很危险的操作。所以他们在底层加了容器化的安全杀箱,严格限制这一类高危操作。这是什么?这就是架构思维。 你再看看腾讯的 qq 可乐,它做了什么?他们看到了 openq 配置反人类的痛点,直接把配置的门槛降到了零,更绝的是直接对接了个人微信、个人 qq 这种手头的王炸级老产品。 这是什么?这就是产品思维和业务洞察呀!你看这些直击痛点的设计,全都是基于对 openlog 的 底层架构的深度理解。光靠拍脑袋,你想的出来吗? 就算 ai 放大了你的编程能力,你的想象空间和业务敏感度,还是会永远受限于你的基础认知啊。所以,醒醒吧各位, ai 时代你需要的绝对不仅仅是写题诗词而已。你或许不用亲手去写每一行代码,但是类似于 java 时代那种扎实的架构思维,严谨的产品思维、敏锐的业务洞察力,这些基础能力才是决定你 ai 产品上线的核心。 不要妄想靠几个秘密武器就能碾压同行,这种投机取巧的事情,在以前的大数据、 vr、 区块链时代上演过无数次,最后沉淀下来的有几个?如果你没有旷世奇才的自信,那就乖乖低下头,去研究一下底层的架构,去深挖一下业务的本质。 基础深厚, ai 就是 你如虎添翼的武器。但如果基础不牢,那 ai 就是 加速淘汰你的催眠符。那你现在的重心呢?是想尊改新工具,还是想要跟着我的视频来打磨一下基本功?欢迎在评论区聊聊你的真实想法, 如果觉得我说的对你有那么一点点触动,请务必长按点赞支持一下。我是楼兰,关注我, it 路上一起进步!


hello, 大家好,欢迎收听我们的播客。然后今天想跟大家聊一聊啊,最近网上特别火的这个养龙虾啊,到底是一个怎么回事啊?这个东西看着好像挺诱人的,但是其实可能是一个大坑,尤其是对于我们这种 普通的人来说啊,千万不要被这个东西迷惑了啊,最后赔了夫人又折兵,错对,这个真的是最近太火了,那我们就来好好讲一讲它到底是怎么一回事吧。我们要聊的第一个话题啊,就是这个费用黑洞, 就是这个虚拟龙虾它是怎么把你的钱一点一点的吃掉的?首先第一问啊,就是养一只虚拟龙虾到底要花哪些钱?就是其实你看起来它好像是一个 开源的项目,你好像不用花什么钱就可以把它领养回家,但是其实你要让它真的动起来的话,你要么就是自己有一个还不错的电脑, 那你这个店啊,包括你的这个设备的损耗其实也是要钱的,要么就是你去租一个云服务器,那这个云服务器你租一个月也要几十块钱,然后如果是更高配置的话,一年就要上千了。听起来就是好像前期投入也不小啊。对,这只是开始, 然后后面你更大的开销是在于它每次要去思考要去做什么事情,它都要去连接这个大模型的 api, 这个 api 是 按 token 来算钱的, 你用的越多,你这个账单就越高。而且它还有一些后台的心跳啊,包括一些记忆膨胀啊,还有一些就是你可能会出现的一些误操作,比如说你不小心配置错了什么东西,它可能一夜之间就给你跑出来一个天价账单, 你这个找人来帮你安装,帮你配置,这个也不便宜,可能几百块钱一次,所以这个东西真的是一环扣一环,你很容易就掉进这个花钱的无底洞。这个虚拟龙虾为什么它用起来会这么贵? 因为他是一个智能体嘛,他跟那个普通的聊天机器人不一样,他要去自动的帮你执行很多复杂的任务,所以他每走一步 他都要去多次的去问这个大模型,然后他这个 token 消耗就是成十倍成百倍的往上翻。而且他尤其是在做一些 中文的这种处理的时候,它一个字就要消耗你好几个 token, 就 比英文要费钱很多,怪不得大家说用久了账单吓人。对,而且它这个后台还有一个心跳机制,就是它会定时的去唤醒这个程序,然后你可能什么都没干,它就在那空跑,它也在消耗 token, 你 这个对话越多, 他这个记忆也会越来越臃肿,你这个重启一次可能就直接给你烧掉上百万头肯。还有就是你这个新手很容易就是陷入一些死循环,或者说你这个配置失误,那可能分分钟就是 几十块甚至几百块就没了。再加上你如果用的是种海外的高端模型的话,他的这个单价也是非常非常高的,就这个成本就蹭蹭往上涨。如果说有人真的想要尝试去养一只虚拟龙虾, 你会给他们哪些比较实际的建议?就是你一开始的话可以用一些国内的比较便宜的大模型,然后配合一些这个云厂商给你的这个免费的额度,去先熟悉一下这个流程,千万不要上来就 直接上这个海外的高端模型,也不要上来就去。呃,长时间的去开着这个,再就是你要时刻关注你的这个 token 的 用量,再就是你要定期的去清理一下它的这个记忆,再就是你要设置一些预算的预警,就这些小的操作其实都可以帮你 省很多钱。对,防止你一下子就掉进这个开销的这个无底洞里面。那咱们接下来要聊的这个部分啊,就是这个安全雷区,就是这个虚拟龙虾他到底有哪些 致命的风险是我们不可忽视的。对,好吧,那第一个问题我们先来问一下,就是这个虚拟龙虾他到底有哪些安全隐患?嗯,其实他的风险点特别多,比如说他为了能够去自动的帮你执行一些任务,他经常会被赋予很高的系统权限。 对,那如果说你这个配置上面出现了一点点的疏忽,就有可能让黑客完全的控制你的电脑, 然后包括你,他会有可能因为你比如说你给他一个误操作的指令,或者说他自己出现了一些理解上的错误,他可能就会删掉你一些重要的文件,或者说他会 因为一些就是黑客的攻击,他会把你的一些隐私信息都泄露出去,听起来简直就是一颗定时炸弹呢。对,没错没错,而且他的这个技能包,这个生态里面也有很多恶意的插件,就曾经有 五分之一的新插件都是被查出有问题的,然后包括他的这个本身的软件也有很多高危的漏洞,也有用户因为这个密钥泄露,导致他的这个账单 暴增啊,几千甚至上万的都有,最最可怕的是他还会被利用来自动的发一些诈骗的信息,或者是说自动的去操控你的这个社交账号, 就这这些风险对于普通用户来讲几乎是防不胜防的。比如说虚拟龙虾一旦出现安全事故,他可能会造成哪些具体的损失呢?比如说他可能会把你的一些隐私数据传出去,嗯,或者说他会让你的这个电脑变成 黑客手里的一个肉鸡,帮他们去做一些坏事,你可能还会收到一个巨额的账单,甚至你的这个社交账号会被用来去骗你的朋友等等等等,这一切的损失可能最后都要用户自己来承担, 而且还会影响到你身边的人。你觉得普通用户如果想要去避免这些虚拟龙虾带来的安全隐患,你觉得有哪些比较实用的方法?呃,其实普通人的话,我觉得最最需要注意的就是不要去随便的安装来路不明的这个技能包。然后第二个就是, 呃给这个龙虾设置一个尽可能小的操作权限,再就是定期的去升级你的这个软件, 再就是开启这个操作日记的审计,再有就是如果你遇到了什么异常的情况,要第一时间去断网,并且冻结你的这个相关的账号。再就是最好是把这个龙虾放在一个隔离的虚拟机里面, 这样的话即使它出了什么问题,也不会连累到你本地的这个系统。咱们现在来聊第三部分啊,就是这个靠谱之选。就是说 普通人如果说想要增加自己的收入,有哪些现实的,而且风险很低的方式,其实靠谱的路径特别多啊,比如说你可以做一些同城的跑腿啊,或者说做一些家政啊这种灵活就业,那你可能一个月也能有个六千到一万二的这样的收入。 然后或者说你在网上,比如说做一些问卷啊,做一些标注啊这种你可能每天也能赚个八十到两百块钱。 ok, 那 你甚至你有文案,你会剪视频,那你可能一个月也能有个三 三千到两万不等的这样的收入。那如果你是,比如说你有一技之长,你可以接一些呃,更高阶的一些专业的项目,那你可能这个价钱就上不封顶了。 ok, 对, 比如说其实选择还是非常多的。对,没错,没错,没错,那还有就是说你可以去做一些内容类的, 就是你去分享你的一些生活经验啊,那你可能刚开始的时候用碎片时间去做,那你可能一个月也能有个几百到几千的这样的收入,那如果你坚持去做的话,其实你的收入也是会越来越高的。对,那还有就是说你可以去做一些 呃线下的,比如说你去夜市摆个摊啊,或者说你去做一些社区服务啊这种,那你可能一天也能有个几百块钱的收入。 ok, 那 这些都是比较 低门槛的,而且你可以去慢慢的根据自己的情况去调整的,那这些其实都是要比你去 盲目跟风一些新的风口要靠谱的多。有时候如果是想通过副业啊,或者说通过这种增收的方式,普通人最应该坚守哪些原则, 才不至于掉到坑里?呃,第一个就是一定要远离那些要你提前交钱的,或者说要你去 搞一些这种高风险的刷单呐,虚拟币啊这种东西的,然后包括你要合规的去操作啊,不要去触碰一些法律的红线,那这个是你能稳定的去做这件事情的一个底线。然后就是选对方向也很关键吧。没错 对,就是选对方向,然后专注在一两个适合你自己的这样的副业上面,用你的靠谱和诚信去积累一些客户, 那你可能刚开始的时候收入不是很多,但是你慢慢的去积累经验,去提升自己的技能,那你这个收入也是会越来越多的,就不要想着说我要一夜暴富啊什么之类的,就你把这些小钱攒起来,其实也挺可观的。 有时候如果是想让自己的生活和收入都更上一层楼啊,普通人最应该把精力放在哪些自我提升的方向上呢?其实最靠谱的就是你去持续的锻炼, 保证充足的睡眠,然后每天抽时间读书和写作,就是让你自己的这个身体和大脑都保持在一个比较好的状态。再就是你去重点的去打磨一项可以变现的硬技能,同时用 ai 来提高你的工作效率。 再就是维护好你最核心的人际关系,学会自律,学会专注于做那些真正有价值的事情,这东西其实都是可以让你慢慢的去积累你的优势,那你无论是赚钱还是说让自己的生活变得更好,都是可以稳步实现的。对,今天咱们聊聊这个虚拟龙虾背后的一些 花钱的套路,然后一些安全的陷阱,其实说白了就是想提醒大家不要被这些看起来很新潮的东西所迷惑啊,还是脚踏实地的去经营自己的生活才是最靠谱的。嗯,那这期节目咱们就到这里了,然后感谢大家的收听,咱们下期再见。拜拜。

我发了这个龙虾帮我画 sorry work 零件图之后,有趣的网友在评论区当中问,养龙虾的成本是不是非常高?是不是操作非常难?其实我是用的 open climb ok, 它就是能够降低成本百分之九十,而且呢,即使新手小白也能够轻易的上手。

说,技术创新的威力到底有多大呢?这拿来主义到底有多害人呢?欧盟可乐大龙虾这两天就给所有人上了这么一课,一次大版本更新,欧盟可乐就直接把一堆套壳产品给打荡机了。这不是 bug 啊,也不是事物,这是一面照妖镜, 真正的技术创新,它是能推动生态往前走的。而拿来主义呢,就是趴在别人身上的寄生虫。欧盟可乐这次就来了一个全面换代,为了灭虫,他们一共砍了六刀。 第一刀,插件系统重构插件。从以前 n p m 这种露天菜市场,现在强制走可拉哈巴官方商店,所有靠 n p m 野生包呕活的套壳产品当场断粮!第二刀,浏览器控制路径大换血, 老子苦让扩展中继被彻底删除,连 driver 芯片都给砍了,这意味着什么呢?所有靠浏览器扩展 hack 实现自动化的套壳产品瞬间爆错,因为他们根本就没能力适配 c d p 的 套壳产品!瞬间爆错,因为他们根本就没能力适配 c d p 的 新路径!第三刀,沙壳系统的单一多克变成了叉拔式架构, 我们可达把沙盒拆成了可叉八,后台引入 looper shell、 ssh 沙盒远程工作区镜像模式。但套盒产品的沙盒路径可都是写死的,写死 doker, 写死挂载目录,写死生命周期逻辑。所以这架构一变啊,他们就连沙盒在哪都找不着了。 第四刀,插件 sdk 断代升级,新 sdk 换成了 opencloud slash plucky sdk star, 旧的迅迅 api 直接删除无间容层。真正的开发者会迁移代码,而套盒团队呢?他们就没有代码可以迁移。 第五刀,旧环境变量、旧状态目录全部清除,所有 colobot、 multibot 环境变量被移除,旧的点 multibot 的 状态目录也不再识别了。这对真正的工程团队是清理历史包袱,而对套盒团队则是拔掉了生命维持系统。 第六刀,搜索能力全面升级, excel、 tabla 三大搜索工具原生内置,这意味着智能体的体验、提取、抓取能力直接跨了一个时代。但套壳产品的搜索模块基本都是调用一个 h、 d、 b 接口,上游一升级,它们完全跟不上。 所以这次不是一次普通的更新,而是一次技术层面的优胜劣汰。真正搞技术的人,会因为这次的更新而变得更强大,而靠套壳、靠复制粘贴、靠旧接口苟活的人,则会被时代无情的淘汰。 所以啊,我一直说,科技创新不是难,而是慢,拿来主义不是快,而是短命。你不做真正的技术,那你就会被真正的技术淘汰。这次我们可乐只是提前把未来演示了一遍,算是小惩大戒了,希望那些套盒的龙虾能早日觉悟,否则未来就真变成虾皮,只能泡汤了。 这几天谁上街了,大家心里都明白啊,我就不点名了,你们就套吧,为了着急卖点托克,就连这点技术开发的活都不干,人家要再来一回,你们可怎么办呀?

这是一个龙虾 u 盘,也叫优克洛,我们就说把完整的龙虾包,还有 n、 p、 m 啊,呃,这些等等的这些插件都放在了这个 u 盘里,也就说现在这个 u 盘插在电脑里,或者插在 mac 上 linux 系统里。啊,那现在都是可以直接运行的, 也就是不需要繁琐的配置,那它的这个安全性以及私密性都有所保护。那,那这个就是我的 u 盘,我现在把这个优克洛打开, 然后我这是一台 mac 嘛,我就选择这个 mac start。 那 那现在这个龙虾就可以自己运行,那免安装嘛?也就是免安装,然后直接打开运行,它就会运行在这个,那现在它就可以进入到这个优可拉的配置中心里,那包括像这个配置面板也是直接就是有的。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!