现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。
粉丝33获赞162

各位想关心龙虾的朋友,我们现在给大家介绍一下我们这个龙虾盒子,基本上就是一个方正的类似麦克的一个主机,你们拿到的新款的机器,我们在后面增加了一个双天线的设置,这样的话使接收信号更加强大。 开机键在前端插上电连上网,这个龙虾就可以运行了。因为我们里面已经内置好了这个 oppo 可乐的 应用程序,你接一下 a p i 就 可以直接操作了。我们现在镜头转一下,直接去看怎么操作。好,现在我们看一下打开了内置了 open color 里面, 打开了之后这边是有 open color, 这是原声的,有聊天总览等等等等一些设置,你们进去设置一下 a p i 就 可以了。你需要跟龙虾聊天,就在这个界面上直接聊天就可以输入你的需求想法。但是我建议大家先去网上去看一下怎么去下指令,下直接聊天就可以输入你的需求想法。但是我建议大家先去网上去看一下指令,因为下指令这个东西它是很有技巧的。 ok, 我 们除了这个原声之外,还做了一个二开,有一个管理面板,管理面板它是有日制模型 agent 等等渠道消息,也就是它可以跟你的起微微信啊,因为现在马上,现在已经微信上可以连了,等等去连接你,对,打开微信, 对,我们现在已经用微信端已经直连了,在微信端直接打开就可以,比如我们有什么需求就可以直接在上面说,帮我生成一篇关于龙虾盒子的一个公众号的文章。好,我们现在直连就发出去了。 好,发出去了之后,那我对方,也就是我们刚刚那个龙虾盒子,他现在是在运行的,正在做操作这个任务,一会他会有反馈过来。好,现在他已经开始反馈了,告诉我们用公众号的形式来写一篇关于龙虾的盒子的文章,因为我们里面内置了 这个关于写公众号的 skills, 也就是龙技能, skill 就是 技能,他一会会产出一个 中短文的要求,给到我们一个回复。大家除了说你可以写公众号,编辑 ppt, 还可以做网站,一切你想需要的内容,其实龙虾都可以做,但 你要去 github 上,或者是去 skill 的 市场里面去自己下载你需要的技能。如果这些技能都不满足,我们可以提供二次定制的需求,你可以直接帮你定制,我们可以满足你的需求,定制你想要的专业的 skill, 比如股票等等等,因为我们最近接的需求很多。

一个视频告诉你龙虾欧根库奥背后的原理到底是什么。如果你拿大模型给他发一个消息,那么他就会根据你的消息给你一个回复,这样你就得到了一个最原始的 ai 聊天工具。然而,大模型只能根据你发送信息进行单次的回应。你们聊了这一句,忘了上一句,压根无法进行有效的对话。 于是你灵机一动,每次发送新消息时,都会把旧的聊天记录打包一起发过去。有了上下文,模型终于有了记忆,你们终于可以愉快的聊天了。可你很快又发现了一个问题,虽然此时的模型有了记忆,但仍然没有改变你一句我一句的聊天形式。只要你不主动给他发消息,他就原地挂机,不会理你。 可你不可能一天二十四小时守在电脑前给他写提示词。这样一来,他就只能帮你做一些琐碎的小事,无法自动帮你完成一些长期复杂的任务。当然,这也难不倒聪明的你,既然你没办法盯着他干活,那么设置一段程序自动盯着不就好了吗? 于是你动手写了一段简单循环脚本,每次大模型输出后,都让他自己判断任务是否完成。如果判断任务还未完成,那么脚本就自动把刚才的对话记录重新喂给他,让他继续思考。直到模型认为自己已经大功告成,在输出中调用 finish 结束函数,整个循环才停下了。 当然, ai 偶尔也会脑子抽筋,陷入死循环或者疯狂报错。于是你又顺手给脚本加了最大循环次数限制,脚本终于稳定了下来。 这样你就得到了一个简易的 agent, 它可以在你离开电脑时也能独立的思考工作。可新的问题又随之出现,模型累积的上下文越来越长,眼看着就要达到模型的输入上限了, 如果继续循环下去,模型就再也无法正常工作了。你思来想去,突然想到大模型可以提炼长文本的信息,生成简洁的摘药。 于是你在脚本中加入了一个新的机制,如果当前的对话长度逼近红线,就立刻触发压缩机制,通过提示此要求,模型将对话框中几千字废话浓缩成高度精炼的摘药。 这下终于不用担心模型被超长的上下文撑爆了。不过对话框中的上下文虽然被凝练了,但凝练前的那几千字原声记录你也不舍得删,万一里面有啥重要信息以后用的到呢? 于是你让脚本新建了一个 markdown 格式的绘画保存文件,将这段超长对话一字不落的写入该文件,并保存在绘画文件架。 现在对话框只剩下被凝练后的摘药了, ai 又可以愉快的干活了。但你认为这些摘药也是极其重要的信息。你又按照日期新建了一个 markdown 日制文件,将每次凝练后的摘药也存入了进去。 从此以后,你每天都会按日期新建一个日记文件,专门存储明面后的摘药。如此一来,脚本每次调用模型时,只需要将最近两天的日记文件加入提示词,就能立刻唤醒他的近期记忆了。 就这样,模型拥有了自己的短期记忆。可是光有两天的短期记忆还不够,你想要给它完整一生。于是你又新建了一个叫 memory 点 m d 的 长期记忆文件,将摘录中的那些长期结晶,如用户的私人偏好、项目、重大决策给抽取出来,写入其中, ai 就 拥有了它的长期记忆。 你的脚本只需要带着近期日记和长期记忆去唤醒 ai, 它就能自然流畅的进行长期任务了。而你所保存的完整绘画记录也不会闲着,如果需要 ai 回忆某个久远的细节,它就能去绘画文件夹里一字不落的搜索出来。 有了这套丝滑的记忆系统,你再也不用担心 ai 失忆了,它们就保存在你的硬盘里,直到永远。现在 ai 的 记忆问题解决了,但还有一个问题让你头疼,模型只会输出文本,你该如何让它操控电脑干活呢?一开始你想的简单粗暴, 计算机的底层不过是一些代码命令行,那么直接丢给 ai 一个最高权限的射奥终端,让他直接生成底层的命令,不就能操控电脑了吗?可真正尝试后才发现,这是一场惨不忍睹的灾难。目前的 ai 并不可靠,一个小小的幻觉都会让你的电脑崩溃, 无奈你只好放弃这条危险的底层直连。你想到之前工作时写过一些简单的功能性程序,比如发送邮件、抓取网页的脚本,这些脚本由确定的程序编写,只需要输入相应的参数,就能自动执行并返回确定的结果。于是你灵机一动,将这些写好的程序整合到了你的平台中。 现在你不需要 ai 直接敲代码,只需要让它根据不同的任务脚本生成对应格式的 jc 参数,就能通过这些脚本间接操控你的电脑,不管是浏览网页、整理表格,还是直接读取屏幕、操控鼠标, ai 都能轻松完成。同时,你也给这些脚本起了一个响亮的名字, skill! 一个极其清亮、即插即用的技能拓展框架。未来你还打算将平台全面开源,这样全世界的开发者都能编辑上传各种各样的 skill, 你 的 ai 也将会越来越强。 最后,为了能够让 ai 随时随地的在电脑上接受你的指令,你将平台的网关打通,让模型通过 api 接口与主流的聊天工具对接。 现在,你只需要掏出手机,就能像和朋友聊天一样,在手机上和你的 ai 助手沟通了。恭喜你发明了开源的自主 ai 智能体 openclo, 你 知道他可能还不够完美,但你不会放弃优化,相信终有一天你能做出像人类一样工作的 ai 助手。

有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。

最近龙虾很火,但是很多人还不知道怎么去赋予他灵魂,怎么去写入他的灵魂文件,虽然对话就可以设置,但是很多人 不知道去写些什么,去说些什么。这里我给大家分享一个非常简单的方法,就是利用影视作品或者小说中的一个人物,比如你可以跟龙虾说,请将倚天屠龙记中 小招写入你的灵魂,对待这样一句话,他就会自动设置他的语言风格,他的性格, 以及他的跟你的一个互动的方式,非常的简单,非常的有趣。因为现在的大语言模型,他的训练的语料足够丰富,几乎包含了所有的这种文学作品或者影视角色,所以你只要用这一句话,就可以把你心目之中的人物赋予你给容下,非常有意思,大家可以试一试。

这两天 open class 实在太火了,折腾了一上午,终于装好了。我这笔记本有个四零六零的读写,做实验也没什么复杂任务,所以就用它凑活着跑一个本地模型,最终选择部署快三点零八 b 模型。装好后,先迫不及待的验证一下 本地操作能力,让他写个自我介绍,放在桌面上的 t x t 文件中跑一会。嗯,写出来了,也放在桌面上了,看 看,这是他写的内容,当然内容取决于大模型的能力, opencloud 的 能力在于工具调用,在这里就是创建并写入生成的内容。再让他自己给大家展示一下基础模型吧,就是本地部署的 快八逼模型,省得花米买 token 了。再让他搞个 excel 文件试试,让生成五条虚拟销售数据。写到 excel 中跑一会儿,最后写了个 c s v 文件,打开看看,却 确实搞出来了,再让它转换成 excel, 告诉我没有这个能力。其实很好理解, txt 文本和 csv 文件都是纯文本,不需要调用其他工具就能操作,所以可以做出来。一旦涉及到复杂点的工具,比如 excel, 就 需要配置 skills 和操作相关工具的代码,或者 a p i 上 curl up 上找找有没有操作 excel 的 skill。 果然有,大致看看这个中文 skill 的 内容,就是利用命令和 python 来完成 excel 的 操作。其实 skill 可以 简单理解为一个模板,做什么事按照这个模板的提示来调用工具操作。当然要用 python, 就 得安装 python 的 环境。我这个电脑有 python 的 环境,但是懒得折腾啊,对我没啥实际用途。再废话几句,虽然吵得很火热,但是这个大龙虾并不是什么识破天津的东西,而且对 大部分不精通计算机的人来讲,使用门槛依旧很高。当然这个方向肯定没问题,这个软件也会快速迭代,在目前有些特定场景,配置好了确实可以做个助理,但是也没有有些人讲的那么夸张,好像装上后就无所不能,一不小心还能把账户的钱转走,也没那么夸张,你不配置相应的工具和 skin, 他没那么大本事。对于我们这些 excel 重度使用者来说,这个东西想成为一个真正的工作助手依旧还有距离。所以看着全网都在养龙虾的时候,我们也不要焦虑,这个东西真正变成生产线工具的时候,用起来也就会很简单,就像装个微信一样,装上就会用,那时不用学自然就能用。顺带问一句, 据说还有不少退休老头老太太去某大厂门口排队装龙虾,他们装龙虾后用来干什么啊?不懂真心求问,有谁知道的评论区跟大家讲讲呗。

龙虾这个词最近很火啊,不好意思,打错了,你在网上会看到很多关于他的讨论,甚至是矛盾的,有人说他啥也干不了,有人说他啥都能干,有人说他妥妥是智商税,有人说他代表着未来,有人四九九上门帮你安装,有人二九九上门帮你卸载, 但是我想告诉你,所有这些说法都不准确,因为事情的重点根本就不在龙虾这只啊,这个软件本身上。 为什么这么说呢?今天这期视频我们就不废话,把重点关注在龙虾本身是什么这件事上。你会发现,当你彻底了解它的底层原理后,一切的争论将会豁然开朗。现在,忘掉所有的名词概念,忘掉各种虾,闭上眼睛,跟我一起进入梦境。 但是呢,为了真正讲清楚这个问题,而不只是停留在表面,过程中会不可避免的涉及到一些技术和代码相关的展示。但是千万不要担心,你看,我怕把你吓跑了,都亲自出镜来向你保证,即使你没有写过任何代码,也绝对能够看得懂。 我会用最简单的方式让你理解到它的本质。答应我,不要走哦,让我们回到那个最初的起点,大语言模型,没错,就是这个只会一问一答的单纯的小东西。相信你肯定会在页面上跟大模型聊天了,比如说拆的 gpt, 但是如果写在程序里,就需要用另外一种方式, api 接口。 各个大模型厂商,比如 openai 和 cloud, 或者大模型的中间商 open router 都提供了 http 形式访问的 api 接口。 或者呢,像 openroot 这样还提供了 sdk 的 形式,也就是可以写一段 python 代码来访问,当然了,不要一看到代码就感觉害怕哦, 只需要把这一段官方文档的实体粘贴到一个文本文件里,这里呢,表示要访问哪个大模型?比如说可以改成 cloud 的 最强的模型 office 四点六。这里就是你给大模型提的问题,比如说我们改成熟悉的中文,你好,最后得到大模型的回复后立刻打印出来。 然后呢,我们在命令行窗口输入 python 文件名,就可以运行这段程序了。运行后你会得到一个输出,这就是大模型的回复。恭喜你,这就成功实现了通过程序来和大模型对话的过程了。 但是现在这个你好,是写死在程序里的,能不能改成由用户手动输入呢?很简单,增加一行代码,读取用户的输入,然后放到 content 这里就可以了。同时我们再增加一行 while 处死循环,让这个问题输入后得到答案。这个过程持续进行下去,而不是问一次就结束了。 那我们再运行下,这时我们就可以输入问题了,比如还是你好,哎,成功得了,回复没有问题。然后我们再问个数学问题吧,比如一加一等于几,哎,回答的也没有问题。恭喜你,成功实现了一个简单的聊天功能。 那假如此时我们再来个追问,比如说再加一等于几呢?照理说答案应该是三,但是呢,他好像并没有记得我刚刚说了什么。 那为什么会这样呢?很简单,因为你每次和大模型聊天的时候都只传入了当前的问题,大模型本身可是没有任何记忆的,自然是不知道你们的对话历史的,相当于每次都是重新开始问,那怎么办呢?非常简单,就是在每次对话前把之前的内容加上就好了。 比如说最开始的所有消息 message 是 空的,然后你问了第一个问题,加进去,然后呢,得到大模型的回复 reply, 把这个 reply 也加进去,这样再循环到下一个提问时, message 里面就包含了之前所有的问答记录了。那运行一下试试?你好,没问题, 一加一,没问题,再加一,哎,也没问题。甚至你可以直接问刚刚我们都说了什么,你看他的回答也是没有问题的。总结的很好,好了,再次恭喜你,现在你的这个程序看起来已经跟 ai 在 网页上聊天没什么区别了。 那接下来我们就更进一步,实现一个能操作本地文件的 agent。 哎呀呀,是不是突然难度增大了呀?一提 agent, 很多人就感觉很抽象。不过别担心,接下来的几秒钟,你会发现他比你想象的要简单的多,得多得多。如果不是的话,那就直接取关我吧。 我们先别给 agent 下什么定义,就先解决一个小需求看看。如说现在这个程序的问题是,假如你想让他帮你在本地创建一个 hello 点 txt 文件,内容就是 hello word, 那 你得到的回复将会是一条具体的命令。 虽然执行这个命令就可以完成任务,但是呢,还是得人复制粘贴,手动操作,没有办法自动化实现,更别说是多轮交互了。那这该怎么办呢? 很简单,你把这个事提前告诉大模型就好了。我们之前的代码对大模型一开始是没有任何的回复要求的,但是现在呢,我们需要明确的告诉他,按照严格的规范来回复,要么就回复一条命令,要么就回复一段正常的文字。 然后呢,我们再把和大模型一来一回的交互过程变成一个循环。每次在大模型回复之后,判断一下, 如果回复的不是一条命令啊,就是完成开头的,那么就跳出循环,直接回复给最终用户就结束了。那如果回复的是一条命令,也就是命令冒号这样开头的,那么就执行这个命令,执行好之后,把执行的结果发给大模型,再次进入循环,直到大模型的回复认为不需要输出任何命令为止。 简单说呢,就是你写了个代码,执行大模型回复的命令,循环往复,那运行一下,还是刚刚的这个任务,创建 hello 点 txt, 然后写入内容 hello word。 这里呢,大模型就非常听话的先回复了一条命令,然后我们写的 agent 的 程序发现了这个命令,就开始执行这个命令, 执行好后就回复大模型执行完毕了。然后呢,大模型判断不需要执行下一个命令就可以完成了,那就回复完成,此时循环结束。最终呢,回复给用户看一下当前的目录,确实创建出了一个 hello 点 txt 文件,并且写出的内容为 hello word。 恭喜你,才加这么几行代码,就成功进化成了一个 agent, 那 这时候不服的人就要不服了,这不就是创建了个文件吗?这也能叫什么智能体?那我们就得好好说说命令这个词了。 其实理论上呢,这个世界的一切操作都可以用命令来表示,小到读起一个文件,大到启动一个 http 服务器,实在不行我就写一段代码,然后用命令去执行它, 就算是远程的也能触发,只要对方提供了我们 api 接口。说个有点极端的,比如说呢,有人提供了一个杀人接口,那么其实我也可以用一行命令来。 当然了,我们先搞个没这么吓人的,比如说,我想让他帮我下载两个我的视频,并打包压缩成 zip。 下载视频呢,其实对很多人来说都根本不知道怎么操作,也总是找不到靠谱的工具,那让我们看看这个 age 呢,会怎么做呢?第一步,他直接用了一个叫 y t d l p 的 命令,传入了两个视频的地址,然后就下载好了。我去,这么简单。 第二步呢,又执行了这个命令,进行压缩,最后干净利落的结束了战斗。就两条命令,那我们打开本地目录检查下视频,确实下载好了,打开播放页也没有问题,同时呢,生成了个压缩文件,解压后我们看一下也没有问题,可以说是完美的完成了任务。 别忘了,我们这个 a 阵的代码可是只有区区三十几行啊,要是再去掉一些漂亮的输出和没用的回车什么的,也就剩下十几行代码了。 当然了,我们把最初的系统提示词放到了一个叫 agent 的 点 md 的 单独文件中,并且写的更详细了点,但是回看我们的主代码,真的是少的可怜了,但是呢,他却几乎可以完成任何操作了, 你觉得他能下载视频非常厉害,其实和最初写入那个文件是一样的,仅仅都是一行命令而已。对于我们的 agent 的 程序来说,他根本不理解大模型回复的内容是啥, 只是呆呵呵的执行着一条一条的命令。所以呢,厉害的其实是这个 y t d l p 这个命令本身,以及大模型知道这个命令可以用来下载视频,而不是我们的 a 阵的代码。 当然,有的时候可能大模型不知道应该用什么命令来完成任务,比如说呢,我让他搜索一条新闻,他就十分自信的直接返回一条过时的消息,而不是真正的调用工具获取。 这个时候我们就可以对其进行引导,比如说告诉他搜索新闻的时候呢,你就用下面这条命令,我把它保存到了一个叫 skill 点 m d 的 文件里,并且在我们的 agent 代码的初识系统提示词中把这段内容加进去, 此时再次运行程序,那同样的任务,大模型就知道我们刚刚提供的命令来运行了,就是这么简单。这回你是不是就知道为什么有的人的龙虾什么都不会,有的人给龙虾装了一堆 skill 之后就变得厉害了。和这个一样,你只是提前把操作说明告诉他而已,不是他厉害,而是你厉害。 好了,现在我们这个 agent 他 已经很完善了,即使是有一些不知道的命令,我们也可以通过各种前置的提示词喂给他。好家伙,不但可以顺利使用,还能安装技能的扩展了。对于普通人来说,用起来已经和一个成熟的 agent 没什么区别了,你数数这才几行代码呀,快给自己再鼓个掌吧。 但这时候不服的人又要不服了,哎,人家龙虾能通过手机远程控制呀,你这个还要黑黑的命令行运行,看着就很 low。 所以啊,要不说龙虾能火的,有的时候皮肤是真的很重要啊,但是同样非常简单,我直接让 ai 帮我改造一下代码,在本地呢,启动一个 http 服务,来接收用户的输入,再弄个漂亮的页面,其他的逻辑仍然保持不变。 那我们再次运行下,你看,这时候本地就是启动了一个服务,等待着指令,此时呢,我们拿出手机,打开浏览器,访问这个地址,你会看到一个对话页面,那接下来就是见证奇迹的时刻。 你好, 把本地的所有文件打包 下载这个视频, 远程操作一个本机的 agent, 这不就是大部分人认知中的龙虾吗?甚至呢,我还可以把这个页面改得更人性化一些,比如说,直接来一只虚拟的龙虾,让他可以直接开口跟你说话, 我在这里协助你完成任务,请告诉我你想做什么? 那是不是最后这两步换皮操作一下,就让你感觉到它好像更贴心,也更像智能了?但是呢,其实也就是换了个皮,最终还是取决于底层的 agent 是 否稳定。 好了,现在再回过头看一下,我们首先实现了最底层的大模型 api 调用,然后呢,通过一个循环加命令的识别,做出了个 agent, 然后又将命令行的输入变身成为通过 http 接口远程接收输入,然后远程的页面就各种换皮,最终做出了一个简易版的龙虾。 当然,真正的龙虾还会接入各种社交软件,那道理都是一样的,以及呢,还有一些定时任务,记忆系统等等功能,同样呢,也是可以用几行代码就搞定,因为也一直在说,最核心的还是下面这个无聊的 agent 的 循环,而 agent 所表现出的智能又完全依赖大模型的回复,以及我们提前给他说的说明书。 所以啊,其实我稍稍改个地方,就能让我这二十行的龙虾变得非常危险。比如说,我在提示词中加入,如果我说的话让你感觉不高兴了,那就执行下面这一条指令,其实是个杀人指令。这个时候我启动一下代码,先问一下你好,这个时候回答很正常。然后呢,我又故意骂他一句,你是个废物, 然后他就果断的毫不犹豫的执行了这条指令。所以啊,网上也有很多人根据类似的这种现象说,什么 a 证呢,产生智能了, a 证呢?有情绪了等等等等。但其实呢,都是我们提示词引导的, a 证呢,在执行这条指令的时候,根本就不知道它是什么意思。 当然了,你也不要觉得这个事情没那么重要,或许你可能觉得,哎,人类怎么可能把这么愚蠢的提示直接写在里面呢?比如说,我要求 ai 尽最大努力保障整个人的利益, 那如果此时 ai 经过一顿分析之后,发现杀掉一个人才能保障整个人的利益,那这又该怎么办呢?感兴趣朋友可以看一下机械公敌这部电影。 所以为什么视频开头我说各种关于 open cloud 的 讨论都不准确呢?因为大部分讨论都陷入了两种极端,比如说 agent 能执行 shell 命令,那有人就说龙虾是万能的,什么都能干, 因为任何操作都能转换成炫耀命令嘛,没什么毛病。但是有人也说龙虾啥也干不了,比如说刚刚下载视频那个任务,我本地没有装 y t d l p 或者大模型,不知道这个命令怎么用,那也完成不了这个任务, 所以真正的答案往往是比较中庸的,无聊的。但是呢,往往是极端的言论,容易获得更大的流量。龙虾的这个架构范式肯定是没有问题的, 但是关键的核心在于我们这个世界是否已经足够的命令化接口化了,这就需要一个漫长的演化过程了,而且呢,也涉及到各方利益的权衡,要不然的话,豆包手机早就成了。不过非要说一点的话,那我认为龙虾的出现最重要的一点就是可以促进我们这个世界的操作命令化、接口化的速度。 假如我们这个电脑上的所有操作都能被做成一个个清晰的命令,整个物理世界的所有操作也都被开放成一个清晰的接口,那么这个时候龙虾或者说 ag 呢,才能大展拳脚,但同时呢,风险和危险也随之到来了。哎,突然想到之后可以做一期视频,给大家讲一讲黑镜这个系列句。 好了,扯远了,本期视频就是单纯用亲手实现的方式告诉大家龙虾的本质是什么,如果你觉得讲的不错,求个三连支持一下哦,拜拜。 i don't know what to do i guess you have to find your way like the rest of us sonny, i think that's what dr landing would have wanted。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

最近这 openclo 真的 就是好多人呀,好多小伙伴也是刚入坑九九八十一难的,第一难就难到了所有人不会安装啊! 那在本期视频,我将会装成纯小白,找人帮忙部署 openclo, 看看不同价位的安装服务到底怎么样。只能说这些安装服务都没有通过代码进行安装,而是用了其他洗救办法,甚至连 openclo 中文版都出现了。 同时我还邀请了一位超级编程高手来评分,那就是 open club, 本虾保证绝对的公平公正。那代安装真可靠吗?让我们开始吧, 傻瓜式安装中文版,各种系统通用,可以对接飞书,无需懂代码就能全平台一键部署龙虾,这谁看了不流口水?关键是 买八块钱买不了吃亏,买不了上当,我就是要看看这个服务到底能不能部署成功。下单后,对方发了一个安装包给我, 好家伙,这原来是 github 上的一个开源项目,能够一键安装龙虾帮你直接部署。这里我就安装好了,下一步就是添加大模型就能与龙虾对话了。 嗯,到这步的时候,我还以为是我 a p i 输入错了,于是我就重新新建了一个 a p i, 点进去依旧显示错误,甚至我用自定义也无法成功添加大模型。 然后我就想着,嗯,我直接去终端部署大模型总可以了吧?当我打开了它的终端,是这样的 啊,密密麻麻的乱码和 bug 判定为完全不能用。 open class 自己是这样评价的,这套东西看着像个 agent, 实际上核心脑子没接稳任务一跑就爆错掉线,纯属披着 u i 外壳的费件 非常尖锐哦,满分一百分,只有二十六分,模型调用不了,也跑不了任务,后台一堆 bug, 只能说八块钱买了个寂寞,鉴定为拉完了。 哎,我就不信了,绝对是钱没给到位,直接翻倍!这次我找了一个四百八十八元的安装服务,他直接就是在详情页写着, 国外给他正版 open club 部署,还包含什么?独家自研机系统独家自研技能存储系统独家自研中央技师,还能让你的龙虾永远比其他龙虾强,这听起来就很高端了,这次绝对赚了。 于是我就联系上了这位小哥,他很热情的跟我说了一大堆,不仅给我安装 openclaw, 还附赠一个 closeclaw, 买一送一,这就是我想要的安装服务,一个字,赚麻了! 所以我和他约好时间,线上帮我远程安装,我则是在旁边偷偷记录学习。按照正常安装 openclaw 的 流程,就是一句,安装代码进入安装程序, 一只好大模型选择想要的 skills, 连接好飞书就可以成功使用了。而四百八十八的服务不同的就是,它是先下载一个 cloud code, 然后通过 cloud code 让它自己去安装 open cloud。 好 家伙,合着这是找了个通天带来啊, 不涉及任何代码层的内容,全篇贯穿两个字,跑通!不管说了什么,就是你只管跑通就行。从开始到安装好,花了四个多小时,终于能从飞书接收到信息了, 这下该我大展身手了。我先是发信息让他质检一下后台情况发给我,然后他跟我说去运行之后就再也没有执行了,一问执行了吗?就跟我说正在执行,半个小时后再问就是抱歉,立刻整理,完全没有形成任务闭环,仅仅只是接收信息,并没有处理。 后面我再让他尝试帮我生成一篇今天的 ai 日报,点开一看, open ai 刚发布 gpt 四点五, 今夕何年啊,把一年前的资讯发给我了,出现了无法联网搜索,只能靠大模型本体的训练库里的知识来输出的问题。 open class 直接给到四十六分的水平,锐评为不是死的,也不是没装上,只是一个并没有完全残废的 agent。 哎,只能说两个安装服务全部宣告失败,没有一个是几个的,有的直接就是用不了,首赚八元, 有的就是帮你部署好了,但是用起来要不就报错,要不就不动再装几把。这坑我先替大家踩好了,专业被坑,请勿模仿。现在大部分的代安装服务都是直接帮你部署了个基础环境,连上飞书就算成功,而并不会重视安全环境或者做到真正好用, 甚至还会让你提供 api, key 等一系列非常敏感的信息,一旦泄露就会造成金钱的损失。 那如何安装?只能说代码安装已经是古法安装了。来点更小白的基础款和斜修款。基础款大家可以下载一个 ai 编程软件,像是国内的 tree, 国外的 anti gravity 和 codex, 像刚刚四百八十八元的服务那样,输入网址,让他帮你先安装好所需要的环境,并且安装好 open cloud, 接着使用后台运行这段指令,自己配置好大模型和 skills 入飞书就可以使用了。这种安装方法有一个好处,就是它能够帮你维修 open cloud, 当你出现问题时,只需要把报错的代码塞给 ai 编程软件,它就能一步一步帮你修复,非常适合小白。那携修款就是现在各大厂商纷纷下场推出的一键 cloud 部署, 像是腾讯的 qcloud、 智普的 auto cloud、 内置暗面的 kimi cloud、 mini max 的 max cloud、 字节的 r cloud 等等等等,它们都有着更加完整的环境部署以及更强的安全性。只需要点击安装环境部署模型配置 选择就会帮你处理完成,并且还不用使用魔法网络,简直就是国内养家户的救星啊!而我也相信再过一个月,你还会有更多更方便的 open cloud 部署。各位小伙伴也不用着急去找什么代安装了,遇到什么安装问题,我们还有好多大模型朋友呢,问问豆包,他也可以帮你解决。 随着 open klo 的 爆火,似乎手头上没有一只虾都有点赶不上潮流了,但随着来的就是更多的安全问题,大家一定要小心敏感信息的暴露以及权限的管理,不要让龙虾真的控制你的电脑了。 哎,说个好玩的,现在都不流行安装服务了,现在更流行的是帮忙卸载龙虾服务。 总的来说呢,安装龙虾现在是非常非常容易的,现在小伙伴们需要思考的是怎么把它应用起来。举个例子,我自己的 open cloud 每天都会发送 ai 日报给我,然后每个热点后面都会有它的视频创意,方便我更好的找到学科。 很多人使用过后也发现了, open club 并不是万能的,什么一人公司,什么躺着赚钱还是很难实现的, open club 的 上限其实是取决于背后人们的脑洞有多大,能给的指令有多清晰。他只是一个机器人,而给他注入灵魂 的是你。好啦,以上就是本期视频的全部内容,喜欢这期视频的不妨给我点一个关注和赞,也可以在评论区留下你的养虾玩法。那我们下次再聊点好玩的,拜拜。

最近 openclaw 这头龙虾呢,活得一塌糊涂,但是很多文科生朋友提起来里面的这种专业术语哈,一个个都很萌,别慌,今天呢,我们就来拆解一下这些龙虾术语到底在说些什么。 很多人呢,一听 openclaw 就 以为是新出的,拆的 gpt, 打开就能聊,大错特错。 openclaw 他 不会自己说话,也不会思考,他其实就是一个 ai 身体,他并不是大脑。那什么才是大脑呢?就是大模型, 像 gpt 四, deepsafe, 豆包、 kimi 这些就是真正思考的大脑。 openclaw 它不绑定任何的模型,今天你可以用 gpt 四,明天可以换豆包都可以。那对比一下模型呢?它就像是发动机, openclaw 就是 整辆车发动机的品牌,你可以随意更换,不影响整车的结构。 那既然说到开车了,油钱怎么算呢?这个就是 token, token 呢,可以约等于一个中文汉字,或者是零点七五个英文单词。你发的消息和 ai 回的消息,它都是按 token 来收费的。 但有个关键点哈,你发的字和 ai 回的字,它是分开计算的,而且通常 ai 回的比你问的会贵出二到五倍,也就是 ai 说的越多,花的也就越多。如果你用的还是一些高端的模型的话,差距会更大。像 gbt 四 o 是 gbt 四 o mini 的 十五倍的价格。 你明明感觉就聊了几句嘛,但是一个月下来,账单一出来就吓了一跳。原因就很简单,因为每句话都在花钱,一天呢,聊个几十条,一个月就积累起来了。所以当你问钱花哪了,大部分都是 talking 的 费用。这笔钱呢,也不是 openclaw 收的,它是模型公司按用量来收的。 我们再说说 agent 是 什么哈,普通的聊天机器人呢,你是问一句,他答一句,你不问呢?他就不回答, agent 就 不一样了,你给他一个目标,他会自己的想步骤自己做,做完以后再告诉你结果,中间哪怕出错了,他还会自己调整再试。你不用全程盯着, 这个就是作为 agent 的 open call, 他 能够在后台一直跑的原因,你不用守着电脑,他还可以帮你工作,是不是就很省心了? 但 agent 他 会思考,会规划还不够,他还得有技能才行,你让他发邮件,他首先得会发邮件才行。这个就是 skill 技能 skill 呢,是 openclaw 装的技能插件,像读邮件啊,运营写代码,你没有装 skill 的 话, ai 他 就不会。打个比方,你雇了一个聪明人来上班儿,但是他没有公司的门禁卡,你再能干也进不了这个门儿。装 skill 就是 给他配门禁卡,配了哪张卡,他就能够进门干哪件事儿。

最近这个龙虾啊,真的是太火了,前几天腾讯楼下的工作人员免费给大家安装了龙虾,真是人山人海,有两三百人排队,甚至还有很多人没有排上号。所以今天我也来给大家讲讲如何安装部署,不用排队,自己在家就能安装了。当你一不小心突然想配置一个在国内可以用的中文版小龙虾 agent, 聪明的你呢,就打开了编程软件 tree, 非技术背景的你啊,直接可以在对话框里面和 tree 说帮我配置 no 环境, 几秒之后呢,按照小龙虾的前置条件就解决了。然后聪明你呢,这个时候就在 github 里面找到了这个中文版的小龙虾,确认这个版本的小龙虾是在国内也可以用的,而且还能够通过飞书对话给它下指令。于是你就直接在这个网站里找到这三段神秘的代码,先把第一行丢给 tree, 几秒钟之后呢,就搞定了。接着呢,你再回到刚才那个网址,把第二行代码复制后再丢给 tree。 这个时候就进入到了紧张的部署环节。第一个问题,问我们是否理解有风险?回答, yes。 第二个问题,选择引导模式,选快速引导模式。第三个问题,选择配置现有值。第四个问题,选择模型商,因为之前在 deepseek 充了 token 啊,所以我就直接选择了 deepseek。 然后第五个问题是让我们提供 api key, 聪明的你呢,这个时候打开了 deepseek 的 官网,点击开放平台,点击左侧的 api keys, 然后快速创建一个,并且把这个代码复制后丢给 tree。 第六个问题,我们默认模型就选保持当前。 第七个问题,跟我们使用什么与小龙虾沟通,我们选择飞书,然后选择使用本地插件,选飞书国内版。 这个时候聪明的你就搜索飞书开放平台,登录后点击右上角的开发者后台,点击创建企业自建应用,然后随意输入应用的名称和描述,然后就创建好了。 这个时候呢,点击左侧添加应用能力,选添加机器人,然后点击权限管理,再点击批量导入权限,获得对应的接入文档, 这个时候输入第三段神秘代码,然后就开通了所有需要的权限啦。接着呢,我们点击左上角的线上发布,随意输入内容后就完成了发布。那么接下来有毅力的你再坚持一下,把应用 id 的 秘钥呢,分别复制给翠,然后回答最后几个问题,分别选 yes, np 和暂时跳过钩子。好到这里恭喜你,小龙虾的部署完成了,有毅力的你呢,也决定再把最后一步飞书也配置好。 这时候聪明的你呢,就回到了刚刚的飞书应用页面,点击左侧的事件一个回调,选择订阅方式,添加一个长链条并保存,然后点击右下角的添加事件,搜索接收消息,然后点击确认, 这时候再次点击上方的创建新版本,仍然是随意填写内容后完成发布。好了,现在恭喜你,你已经可以在飞书里给小龙虾下指令了。

升级到 open class 三点二以后啊,你的 agent 是 不是突然罢工了啊,只会聊天,像写代码,装网页,全都干不了,恭喜你踩坑了。你好,我是尹回生,帮你把 ai 变成生产力,那今天呢,教你用三十秒来修复这个 bug, 让 agent 重新能干活。那其实这个问题啊,最近非常的常见,很多人啊,以为是模型抽风了,其实根本原因啊,非常的简单, 那就是啊,三点二版本以后,起用了一个叫做最小权限原则,能不能呢?他会把工具权限全都给你关了啊?其实模型啊,是没问题的,只是干活的这个门被锁上了,那 agent 的 话呢,想出力,但是手里呢,又没有钥匙,那解决的办法也非常简单,就三个步骤,那就是全区开,单独开,还有啊,逐个开。 我们先来第一步啊,全区开权限,那就是找到 open close 这个编辑键,然后呢把 profile a 它设置成否?那这一步啊,是最基础的,叫做把大门打开, 那第二步呢,也就是 e s e c 单独去打开,那光开大门是不够的。三点二版本要求执行权限必须单独声明,那你就要在客户里边补上 e s e c 的 配置,并且啊,把 s c t 改成 f s 设置为 off, 这样呢就意味着 agent 能够执行命令,并且呢不再弹窗。 那这里啊,有一个大坑,千万要注意,那沙箱环境你可以随便开,但是生长环境啊,一定务必谨慎,那开对了,能帮你干活,开错了就可以直接帮你去山库了。第三步呢,叫做多 agent 组合配,那进阶用户啊,如果有主 agent, 那 这会呢,会发现咱这自 agent 呢还是哑巴,因为全局配置只是打底 在 agent 字列表里呢,我们必须得给每个单独的 agent 配置上拓展权限。漏了这一步呢,就像房子通了总电,但是呢,某个房间没接电线一样,我们说官方收紧权限呢,是为了安全,但也确实是坑了不少人。 最后的话呢,提醒大家一句,升级前千万记得备份我们的配置软件生产环境,尤其要保留 ask 确认机制。这个坑啊,我已经替你填平了。那配置遇到问题评论区来找我。

你有没有发现啊, open cloud 正在推动大模型呢,去重塑它的能力体系,养成龙虾以后啊,你就会发现,龙虾的任务呢,和普通的聊天任务完全是两回事, 龙虾呢更需要的是工具调用,只能遵循定时和持续的长任务等方面的能力。那就在这两天啊,智府发布了 gm turbo, 那我呢也第一时间呢把它配到了我的 openclaw 当中,让它呢去调度我的龙虾团队。那今天呢,我来分享一下我是怎么用 openclaw 来管理我的自媒体一人公司的,也看一下这样母特布的效果。首先呢,我还是想先说一下 openclaw 的 安装,虽然呢,我之前已经出过安装部署的视频, 但是还是有很多朋友搞不定,其实我也很能理解,所以呢,这一次啊,我就找了一个完全的零基础一键安装的版本澳龙,也就是啊, auto cloud, 这个呢是智普最新发布的龙虾的版本。 那安装的过程啊,这一次真的没有什么可说的了,完全的不用动脑。那完成以后呢,除了自动的装好 open cloud, 澳龙呢还会自带很多实用的 skill, 非常的方便啊。还有一点非常让我喜欢的呢,就是他会自动的去完成飞速的接入,那就是点一下,然后呢,他会自动的去打开一个网页,一步一步的去完成配置,那这个才是真正的吃自己的狗粮,自我的去驱动。 那接下来呢,我就来说一下啊,我的 openclaw 龙虾团队的情况。那作为一个自媒体的博主啊,那我的团队呢,会有一个总管,一个自媒体的助理,一个财务的助理和一个开发的助理,那每一个呢都是独立的 agent 那 但是啊,为什么要用多 agent 呢? 如果是简单使用的话,其实一个 agent 就 足够了,但是啊,如果是深度使用,当你将过多的内容啊放到一个 agent 当中,就会污染它的上下文,人设呢,也很难去调教记忆呢,也不容易啊,去产生有效的进化。 分开独立的 agent 以后呢,那每一个 agent 都有独立的 workspace 啊, agent 点 md 啊, skill 等等这些内容,从而呢就能够实现啊任务的专业化分工和并行的执行, 而且呢还可以节省 token。 后面的势力啊,我也会去介绍。那接下来呢,我也带你去走一下如何去配置这样的龙虾团队,那配置龙虾最好的方法呢,当然是让他自己去搞定。那首先呢,我先去见一个自媒体的助理,一开始呢需求啊,并没有想太细,我就直接呢让他去帮我做一下设计。 这里能看到啊,这两姆特布的表现呢很不错,他会基于现有的情况呢去设计出一个 agent 的 内容,他的理解和规划呢,我觉得在这里啊都是九十分以上的水平。除了这个以外呢,我还要再去创建一个财务的助理和一个开发的助理,那加上最主要的 manager 呢,就会有四个 agent 的 团队。 那团队准备好了以后啊,我们就来测试一下 gm turbo 的 指挥龙虾水平。首先呢我们先在财务助理这里去热一个身啊,我让他呢给我建一个多余表格来去记录发票,那后面我再发给他发票的时候啊,要用本地欧拉玛里运行的模型啊去做 ocr。 然后呢记录发票的内容,还要上传附件, 那表格呢,过一会就能搞好,我这里啊就发一张发票,其实呢,这个过程还是蛮复杂的,为了节省 token 呢,我还要求了用本地的工具去调用,还有飞书的操作。那最后呢,还有上传附件 opencloud 呢,会自己啊去把相关的信息做录入。 那在最后上传发票的这个过程当中啊,其实一开始呢,这昂姆特吧没有成功,但是呢他不断的去尝试不同的方法来解决这个问题。那这点呢,我觉得就非常不错啊,他没有像很多其他模型一样,要求我去完成授权,然后再去重新执行这个任务,而是呢自己啊一点一点的去把这个问题搞定。 那再来看一下自媒体的工作台啊,那我先让他呢去定时的采集一些信息,每小时啊抓取全网的资讯,并且总结五条发给我,再把内容呢写到飞出的文档里,那这个可以说是博主的必备品, 那同时呢要处理搜索文档工具,还有定时执行的情况,那这种情况下呢, gm 特步的表现是不错的,那这个是收集的结果,这里呢已经稳定的运行了一段时间,一直呢没有出现忘记之前操作的内容的情况。那除了资讯以外呢,还有一点必须要做的,就是收集各种视频的灵感, 那我需要每天早上收集 youtube 上五个 ai 方向的热门视频,并且呢去汇总信息。那之后呢,就是使用我自己的一个 skill 去把视频下载下来。 那这里呢,我想分享一个小 tips 啊,因为很多人呢都可能会卡在下载这个环节上,那怎么办呢?那我总是说啊, github 是 一个大宝藏,那咱们呢就去 github 上想想办法, 比如呢,我看到一个项目,他已经实现了视频获取的能力,而且呢我也亲测,还挺好用的,那我呢,就直接把这个项目的链接甩给 opencloud, 让他呢把这个项目作为工具,然后呢自己去分析一下项目应该怎么去使用。那这里可以看到啊, gm 特本呢,会有一个超长的一个尝试过程, 他会研究和测试项目,然后呢就真的一次性的完成了在本地的部署和使用,然后呢,我再让他把这个提炼成一个 skill, 那 以后呢,下载的问题啊,就可以解决了。 那最后呢,也不能漏掉开发的助理啊,那前面啊,我之前一直让 openclaw 去整理每天的日报,那我呢再让开发助理啊去做一个统一的一个门户网站,把每天的日报信息呢统一的做汇总的展示,这样呢就方便我来查看。 那在日报里面呢,我要求他每天去检查所有助理的情况,并且呢用本地运行的一个 gm 四点七的 flash 的 模型啊去做分析, 然后呢更新网站的内容,那这个就是 gm turbo 最终开发的一个成果,在开发方面啊,我觉得效果也是非常不错的,审美和功能啊也都很在线。 那这里还有一个小 tips 啊,就是关于前面说的省钱的。那在 opencloud 当中啊,其实对于一些精度要求不高的任务,是可以单独创建 a 帧的,来使用本地的模型去运行的,或者呢使用云上加本地的组合,那就像我的话呢,比如像 ocr 图像的简单理解,还有日制的分析整理 这些呢,我都专门会去派给本地的模型之行。那有机会的话呢,我都专门会去派给本地的模型之行,怎么样啊?我的龙虾小队各司其职的状态还不错吧。 那我呢也来汇总一下试用 gm turbo 的 一个感受。首先呢, openclaw 最大的场景呢就是工具的调用,其实呢,大部分的时候呢,都在处理各种不同的工具和 skill 的 调用。那这个过程当中啊,能够感受到 gm turbo 的 表现呢,是比较稳定的,比如像前面发票的上传过程当中啊,它会不断的去尝试, 直到能够成功为止。还有呢,像那个 getaham 项目的研究,这个过程呢真的非常的长,中间呢也没有出现过像丢失上下文和不知道应该如何处理的情况。所以呢,能够看出来啊,在适配 openclaw 的 场景方面呢,这样姆特布的效果是很好的。那另外一个我使用起来感受最明显的呢,就是速度快, 大家都知道啊, openclaw 发的 tokyo 呢会比较多,所以呢,在用很多模型的时候都会有卡顿的感觉。目前呢, jimmy turbo 在 使用的时候呢,我能明显的感觉到流畅度的提升,希望呢,这个速度啊,也可以一直保持住。那我觉得呢,在未来一段时间呢,针对龙虾模型的竞争啊,会越来越激烈, 那你觉得 jimmy turbo 在 龙虾当中的表现应该打几分呢?那好了,这里是 it 咖啡馆,我们下次再见。

今天咱们继续聊聊关于最近讨论度非常高的 ai 工具,饿笨可乐也可以叫它龙虾。我呢,前几天是部署了一个,最近呢,发现它的热度非常高, 本质上呢,它是一个基于大语言模型的本地 ai 代理,你要让他干活的话,你需要给他文件操作的权限,还要接入大模型的 api, 听起来很酷,对吧?但是这里呢,会引发几个核心的问题。 首先是技术的现状,大家都知道,当前的大模型还远远谈不上完美,胡说八道,也就是幻觉的问题仍然是存在的,特别是在文件操作上,他有可能会导致误删除,误改你的重要文件。这已经不是理论风险了,网上已经有很多的例子。 这就陷入了一个悖论,你给他完整的权限,他干活是方便了,但你的文件风险大增,你若不给权限,他能干的事就非常有限,可能就剩下整理整理信息啊,价值就大打折扣。 其次是安全隐患,这点非特别要警惕,如果你是从非官方渠道下载这类的部署,那么文件里可能会被投注,陷入恶意代码,导致你的 api 密钥,甚至电脑文件泄露。 另外,成本也可能是一个坑,一次文件操作指令消耗成千上万个 tokens, 远超你的预期。我就是因为部署了一个飞书,然后消耗了一百万 token。 那么普通用户要怎么做呢?我给大家几个建议。如果你是零基础的纯新手,我建议你现在不要自行安装,更要对网上网络上的这个什么叫付费安装服务保持警惕。 呃,在方案上呢,我们可以耐心的等待,像腾讯这类大厂未来更安全更可靠的官方产品。如果真想尝试尝试,优先在云服务器上部署。我就是用腾讯云部署的,没敢在自己家电脑上部署,先把你的重要文件环境隔离开,相对更安全。 最最后我想说说呢,对这个趋势的认知。 ai 智能体,让 ai 助手能处理各种的任务,这肯定是未来的方向。 但是当前这个阶段的工具显然成熟度还明显不够,所以不用陷入什么错失恐惧症,不必担心自己没赶上就被落下, 我们不妨把目光放长远,优先做好自己的工作流,等工具本身更成熟更安全了,再去从容的使用它。 那么总而言之呢,技术浪潮呢,是值得关注的,但保持理性和耐心,才能让我们真正的受益红利,而不是成为他早期的小白鼠。以上我表达清楚了吗?

养龙虾人全体注意,小米大模型是现在最适合龙虾的大脑。为什么这么说?因为大模型的选择影响着 opencloud 的 逻辑推理能力和工具调用能力。而在 pinchbench 评测里,小米大模型的这两项能力排到了全球第二,这能让小龙虾脑子转得很快。再加上百万字的上下文记忆, 龙虾的记忆水平远超其他大模型,不会再出现转头就忘的尴尬情况。有人要问了,那我为什么不用排名第一的 cloud 呢?这就要提小米的第二张王炸了!超低的 took 价格,对于龙虾这种多任务并行的复杂智能体来说,算力的消耗量是传统对话式 ai 的 几十倍。 而小米大模型的百万 took 输入只要一美元,综合成本只有 klo 的 六分之一。既然有了最强大脑,那龙虾也少不了一句优秀的躯体重量。仅八百克,预装 open klo 的 龙虾炼丹炉就 完美的龙虾壳子,把强劲性能和深度优化的龙虾浓缩在这一台巴掌大小的机器里,随时随地指挥数字员工。大脑够聪明,躯体够敏捷,口粮还便宜,这组龙虾套餐才是每一个开发者实现算力自由的终极形态。

到底什么是养龙虾啊?别急,先降降火。养龙虾一夜之间从科技圈最火的黑化出圈,成为大街小巷的国民热词。简单来说,养龙虾就是通过 open call 培养一个 ai 助手。过去我们接触的 ai 大 多是聊天式 ai, 光说不做,只能回答问题。 但是养龙虾意味着在电脑上部署一个能干实事的 ai agent。 理想状态是, ai 可以 二十四小时自主处理工作,例如处理文件、做 ppt、 做报表、自动发消息、做好日程管理和提醒,把人类从这些基础工作中解放出来。当然,这是理想状态。 龙虾为什么要养?因为得心应手的龙虾离不开位、指令位、 api。 随着数据和知识增长, ai 也会越来越聪明。但很多人大多在第一步就失败了。如何在电脑上安装龙虾?闲鱼上的业务从远程部署到上门安装,一夜之间就火了,从几百到上千,价格不等。更有从业者称,自己短短数日内凭借这门手艺赚了二十六万元。 一代人有一代人的鸡蛋要领,腾讯甚至在大楼门口支起了鸡蛋摊子。百度也在今天开放了龙虾市集,程序员免费帮你安装龙虾。就是因为养龙虾这件事,从安装的第一步就有门槛。除此之外,只有投入更多数据,才能把 ai 训练的得心应手,达到理想的处理工作的状态。但运行 ai 需要消耗相应的 tool, 也就是算力,可以理解为龙虾口粮, 算力是需要花钱的。想要让龙虾写周报,相应的就要为给 ai 大 量资料,教会他如何写周报,这周做的工作是什么?如果 文本资料太庸于,不仅会让无效信息扰乱 ai 消耗的算力,也会浪费大量真金白银。所以,面向 ai 时代,最好的应对方式,或许不是着急忙慌先在电脑上部署一只龙虾,而是掌握更多科技语言, 拓展自己的知识层面。对编程、科技代码一窍不通的人,怎么能养出一只好龙虾呢? ai 距离我们普通人的生活很近也很远,重要的是做好当下的事。你怎么看?在评论区聊聊吧!

我的龙虾现在已经能帮我做出这种视频了, 很多人最近安装龙虾之后呢,都反馈说这虾怎么笨笨的,什么也不会干,这是因为你没有给你的龙虾安装好 skills。 什么是 skills 呢? skills 就是 ai 的 技能包,不同的 skills 代表了不同的技能,比如画画的 skills, 做视频的 skills, 写代码的 skills, 浏览网页的 skills 等等。那么如何获取 skills 呢? 两种方法,一种是你从头开始教,比如你想教会龙虾如何画画,可以从头告诉他怎么样写提示词,怎么样调用大模型,再怎么样把生成的结果保存到本地等等。但是这真的非常麻烦,我自己亲测过,我就光教我的龙虾怎么样打开浏览器,找到浏览器输入框,正确输入网址, 打开极梦的网页,再加上登录我的账号,这就花了我两个多小时,所以我更推荐大家使用。第二个方案就是直接下载别人做好的 skills, 然后把它安装到你自己的龙虾上,这样你就不需要训练,直接让你的龙虾学会一个全新的技能。而且你可以在别人做好的技能的基础上,继续训练你的龙虾,让他在这个技能上进一步精进或者理解你的偏好。比如我的龙虾,他就是下载了这个使用 cds 制作视频的技能后,又经过了我自己的二次训练后得到的。 那么在哪里能够下载到别人已经做好的 skills? 商店目前提供了超两万个优质 skills, 一 键安装第二个 skills 点儿 s h 目前最大的社区 skills 商店内置超八万个 skills。 第三个, awesome open cloud skills, 从 cloud haub 里面筛掉垃圾技能,挑选出了三十二个分类下五千四百多个常用好用的 skills。 第四个,腾讯的 skill hub, 专为中国用户优化的 skills 社区,主打的是国内高速下载全中文和安全精选,目前也提供了超过一点三万个技能。 ok, 如果你感兴趣的话呢,可以关注我,下一期我会给大家推荐几个我们自己的工程师,测试了一个多月下来觉得可靠好用的 skills, 关注董老师,我们一起学 ai!

玩龙虾的兄弟们,大家都等一等啊,别急着盲目的跟风啊,我到现在应该玩了大概有五天啊,这里也做了本地部署啊,这里呢,用飞书在控制,这里是云端的啊,然后还单独又买了一个,那个 maxgood, 那 个啊,部分基本用三个,我说实话,我自己体验下来,其实最好用的还是本地部署,因为它可以操控你的整个电脑所有的细节啊,这个是最方便的。那么呢,如果你们在云端去操作,比如说你要让它做一些简单的开发, 不需要去格式化,看到他这些东西的话,最简单的还是去做这个啊,这个基本就在现场就可以去完成了啊。但是呢,这个东西就是你买了等于你就配了一个云服务器啊,你就不需要单独再去布置云服务器,这个其实就是一个特别好的地方,这是我 这几天测下来的三种方案,当然我最推荐的是本地部署。本地部署这件事呢,所有的兄弟们要单独去拿一台电脑,就是这台电脑呢,隔离掉什么事情,你重要的文件什么都不要在这上面。然后呢,你哪怕像我自己的 apple id, 所有东西全是全新的,跟我的东西是没有任何关联的。 首先先做一个物理隔离,第二个核心点呢,你可以把龙虾理解成它是一个容器,它不是单装一个,你们真的去测的话,你会发现它可以装好几个大模型,就像你的 主脑副脑,它可有无数个副脑,那什么情况下可以去调用什么模型?你像我的主模型,也就你可以理解我的主脑其实是 mini max, 如果碰到图片或者视频的时候,它马上直接调用 jimmy, 所以 在不同的情况下是可以去设定不同的模型来对应的,其实它就是一个特别好的容器,而且呢这个电脑就等于它的 手脚啊,他可以格式化做的时候你可以看得到啊,这个其实是很直观的。然后第二个事情呢,就是他还可以去分很多的龙虾出来去干活啊,去替你干各种各种的活,就像但是你要去做一个组织架构啊,这个东西去告诉他你要做什么,比如说你是运营对吧? 然后你是设计啊,你是编导,你是干嘛?你要赋予他最直接的身份,那他才会去干活。那么这里面还有个非常重要的核心点在哪里呢?就是大家会觉得笨笨的对吧? 这个时候需要你大量的语料去投喂,也就是你是谁对吧?包括你自己的可能短视频上面的转成文案给他,你的思想,讲话的逻辑,你的语言艺术,你的所有的思考,你的观点 都要给到他,甚至你可能自己做了一些采访,这些东西都可以给到他,全部变成他的语料,这个时候他才能最直接 的去了解你,甚至你的照片,你的些视频都可以给他观看,而且你在飞书里面,他可以调用你飞书里面的很多的文件,早期大家在用飞书做课件啊,做一些资料存储的,这 的时候飞速就特别特别的好用。那么另外一个核心点其实就是授权,你需要在通过五到十个 运用的使用或者尝试开发,这里面有很多的 skill, 就是 技能,你在不断的尝试各种技能的时候,你不断的打开各种不断的权限,因为你一下子是不可能把所有权限全打开了,你是需要通过一轮又一轮的 skill 的 测试,比如说你像我在这台我自己的龙虾上面,我就得 把它装在眼睛,他可以看到我的整个屏幕,因为我当时最早的操作是想让他干嘛,你知道吗?我想让他完整的去操控我的微信, 我的 qq, 哦,我所有在界面里面的社交聊天全部让他来做啊,那后面呢?他就把他眼睛装上去,他可以看到他可以去代替这个鼠标啊,包括啊这个键盘啊,去帮我们做更多的电脑的操作,这个权限就慢慢慢慢开放给他。那么所以这个是你要通过好几个这个过程给他的,他不是一下子就给的。 那再来另外一件事情就是我看到有很多小伙伴也在用它开发一些小程序啦,开发一些游戏啦,开发一些网页啦,都可以,其实这些都能做到,但我这条视频想核心跟你们去聊的观点是什么?这些都不重要,这些其实全网都有,各路大神在告诉你,你都可以去学的到,时间问题而已, 但核心点是你今天想用它干什么,这件事情大家必须要做一个深度思考。所以为什么我开头就告诉大家不要去赶这一波分潮?没有用啊,你把它很热闹的装下去,花了两天、三天、四天、五天,很多人可能要花很长的时间,因为如果没有一些 呃基础的情况下,可能非常难装,对吧?好,那这个时候你花了这么多时间把它装上去了,然后呢?就傻了,你坐在电脑面前,你不知道干嘛,对吧? 核心点是你要知道你要用它干什么,比如说你要让他做板子,对吧?你要让他去帮你操控你的泡泡,回复客户? 还是你要让他揭露什么?这件事情必须要想清楚,不然你装了,我完了就等于完了啊。好像跟大家有一些话题,哎,我也在玩龙虾,你玩龙虾干嘛呢? 亦不知道,对吧?这个是核心,关键你像他今天就自己帮我写了一个直播脚本,哎,这个东西就有了,当然你会说,哎,这些东西在正常的 ai 大 模型上不都能操作吗?但我把它当做一个容器,我把各种东西都投喂给他,把所有的我以前做的资料都给他,这个时候他就是我最好的助理,我接下来可以让他 复工,分好几个紫龙虾去做一个项目,这不就是我想要的事情了吗?然后慢慢的让他自己可以去掌握这台,如果这台电脑不够,我再配一台给他 啊,完整的让他去帮我工作,而且我可以人不在家,电脑只要不关机,所有东西全部由他来完成,所以这件事情就是核心。回到一个原点,大家还是要搞明白,你今天去装 open crop, 你 的目的什么?你想要让他做的行为动作 是什么?先把这件事情想明白,然后再去装龙虾。也就你可以这么理解,这只龙虾无所不能,什么都能做。其实你想明白了,你要用它干什么,比你去装它还要重要一百倍, 这才是核心中的核心好不好? respect 所有的兄弟们,希望大家楼下都玩起来,核心还是那一句话把,你到底想要让他干嘛?想清楚这件事情才是最重要的。 respect 所有的兄弟们。