小龙虾很火啊,但是可能很多人不知道啊,你跟小龙虾对话聊天是要花钱的,包括你让他干活也是要花钱的。有的人可能想的很好, 给自己找了一个 ai 员工,然后呢,就能节省人工成本,但其实你用 ai 也是要花钱的,那到底要花多少钱呢?我给大家看一下,昨天我跟他聊了一天,看花多少钱啊?这里是昨天十一点左右啊,我开始切换的模型,切换的是千万三点五的模型,然后我让他干的三件事 啊,第一件事呢,我就让他去呃,识别这个图片上的文字,我说这个图上写的什么?这从这是从网上随便找的图啊,然后他说图片上写的字是水滴石穿,那明显是瞎说啊,然后我说你确定能吗?他说我是瞎猜的, 然后我又给他发张图,我说这个图片上写的是什么,然后呢?他又他又在这瞎说,然后呢,就 就他看不了图,所以我都又折腾半天,折腾折腾折腾,折腾半天之后切换模型啊,然后去改代码等等的。弄完之后呢,他终于能够识别图片了,这是 看一下啊,到这到这还不行,到这就行了。昨天下午下午三点左右, 然后呢就可以了,他可以识别图片能看,他说这个图片上是意大利面什么就是期间的什么什么的,不识别的都还挺准的。然后是这,然后这是我让他干的第一件事,就是识识别图片啊, 然后再往下。我让他干的第二件事是让他写文章啊,我说以养虾不适合普通人为主题,写一篇八百字的公众号文章,他就是写, 写的很快啊,但是完全不能用,而且他理解错了,他以为我说的养虾是真的养虾,其实我养我说的养虾是 open club, 然后我说我这里说的虾指的是 open club, 然后他就会重新写,想重新写, 其实写的是不能用的,虽然写的很快。然后我说能不能讲一个小故事啊,然后不要写的这么理工科,然后他就又开始写, 写的这一回写的还凑合吧。然后这是我让他干的第二件事。然后让他写文章啊,然后让他干第三件事,去把我的文章找出来,然后让他知道我的写作风格,然后他就去找找找找找找,最后卡住了没,这个任务是失败了, 然后我又让他干了一个。第四个任务是我让他,呃去 去去检查我这我装的 skier, 也就是技能,我装的技能的一些安全性,然后他就检查 就是他干的第四件事。然后这就第四件事。昨天到九点左右,昨天九点左右我就没再聊了,这是我让他干的事啊, 这主要干的四件事,一是让他看图片,二是让他去写一篇文章,三是呢让他去呃找我公众号文章,但是这个任务失败了。第四个的话让他去审查我的这些安装的一些 skill 或或者叫技能的安全性。总共做了四件事啊, 那花多少钱呢?我看一下啊,这是我昨天用的过去二十四小时,对吧?然后花了总共的 token 是 四百万 token, 然后是三百多次的调用,跟小龙虾交流是按 token 来算的啊,那四百万 token 是 花了多少钱呢?看一下啊, 花了两块八。呃,我这还算是比较轻度的使用的,我没让他去干重活啊,也就是说如果,如果你像我这么用 呃,一天的话,去跟他聊天啊,或者干干一点轻干一点比较不重要的活,呃,一天可能要几块钱吧?比假如说三块钱的话,那一个月可能得几十块钱, 大家可以算一下你这个成本你是否愿意接受啊?当然如果说你要让他去做一些复杂的工作,复杂的活,那你花的钱可能会更多啊。所以很多人跟你说这个龙虾怎么好怎么好,但是没有去给你算这个成本呢?花的钱其实用 ai 其实也是要花钱的, 那大家可以自己去评估一下你是否愿意花这些钱,然后去养一个小龙虾。所以我的结论是,如果对于普通人来说,其实你还不如用免费的豆包, 豆包能解决百分之八十的问题,对于普通人来说,他是免费的。对普通人来说,养龙虾还得花钱,你还不如去用豆包得了。这我的看法不一定错,欢迎大家交流,后续呢,我也会去持续给大家分享我用小龙虾以及用 ai 的 一些感受和体会吧。好,下次再见。
粉丝79获赞534

想用 deepseek kimi? 别再傻傻充钱了,今天教你一个骚操作,直接免费调用,实现真正的小龙虾自由。第一步,登录新流开放平台,注册并实名认证,一分钟搞定。在 apikey 管理创建新 key, 复制保存好。 第二步,配置 openclaw, 找到 openclaw 配置文件,把下面这段代码复制进去,记得替换成你的 apikey。 第三步,重启 openclaw, 在 终端执行 openclaw gateway restart。 第四步,开测问一句,你好,你现在是什么模型?看他用 deep seek 回复你,点赞收藏,需要时直接抄作业。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

我给大家免费送一百万的千问 token, 帮助大家跑通 opencloud, 构建自己的数字员工。 其实 opencloud 的 配置并没有大家想象中的那么复杂,我们首先打开 opencloud 的 中文官网,点击安装,我们这里能看到两个命令,我这里以 windows 命令为令,打开 power shell, 输入这行指令,它会自动配置环境并安装。首先我们需要选择模型供应商,这有很多的模型,比如说 mini max, 智普,我们这里选择自定义模型供应商,因为这是我自己建的一个, 然后复制一下,然后把这个 key 复制进去,把密钥复制进去,然后选择第一个 open ai, 最后配置一下使用哪个模型,我们这里使用千问三点五 plus 模型, 然后它会自动的去验证是否有效,我们问它是什么模型好,我们看到它已经回答出来它的是千问三点五 plus, 那 么我们这配置就完成了。接下来大家就可以自由的发挥自己的想象力,养自己的龙虾。 大家如果想要更进一步的配置你的龙虾机器人,需要用到其他的大模型的 api, 我 提供的 api 只是用来测试的。 我现在已经开始用龙虾机器人搭建自己的一人公司。我会在接下来的视频里分享我的进展,欢迎大家关注。

再来给大家分享一个本地部署的小模型,它的使用的小问题啊,我们可以看到现在本地已经部署了有两个小模型啊,我们使用这个九 b 参数的这个模型来做演示啊,显卡呢只有十六 g 的 显存,然后我们现在来运行这个模型 啊,我们随便先打个招呼, 然后呢我们在这边看,刚刚这个打一个招呼,显存占用呢达到了将近八个 g, 但是呢这里有一个上下文的设置,默认的在这里面运行的这个上下文窗口实际上是比较小的,千万三点五九 b 的 这个模型,它的理论上的上下文窗口可以达到二百五十六 k, 但实际上这么大的,嗯,多数情况下没有什么用,因为毕竟模型太小了, 虽然模型可以接受二百五十六 k, 但是呢在欧拉玛这里面运行的时候,实际上根本就没有使用那么大的这个上下文窗口,那我们可以看一下嗯,他的上下文窗口的设置,嗯,这里也是上下文窗口,这里呢由于只有十六 g 的 选存,那么我们只设置他理论上的一半啊,也就是十二万八千的这个 好了,我们已经设置好了啊,设置好了以后呢,我们可以通过这个参数这个指令来查看啊,我们已经设置好了,嗯,这个时候如果我再跟他打一个招呼,我们再次查看他的显存占用, 这已经达到了十三个 g, 那 如果想要设置他理论上的最大的窗口二百五十六 k 的 话,那么显存就已经超十六 g 了,那么他就会把内容 放到内存里面去了,这样的话会大幅降低他的这个运行速度。这个在呃我们部署小龙虾的时候也会遇到这个情况,我们小龙虾里面设置的呃 agent, 他 如果调用的模型是我们自己本地的这个模型,那么你也要设置他的这个合适的上下文窗口。那如果设置太大了,呃,就会导致刚才我说的一样的情况,他会把它放到内存里面,然后反应就会特别特别的迟钝。 像九 b 这样的模型,一百二十八 k 的 窗口已经足够大了,因为小模型它的注意力有限,你输入的内容太多,尤其是太多的提示词,我们,呃上个视频讲到的前置的工具的使用,这些都会占据大量的这个提示词,那么它会导致模型注意力稀释,然后没有办法准确的 把握你到底想干什么。所以想使用小模型的话一定要把嗯,工具尽可能的节省, skill 呢,也能省,也可以省,然后经常清理他的绘画,不要累积过多的这个绘画历史。嗯,小模型呢也是可以用一用的。

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

今天刷到就是赚到!最近 ai 圈爆火的小龙虾,今天两分钟手把手教你配置,小白也能轻松上手,配置完直接帮你干活,要换光临! 很多人说配置难,其实超简单。官网罗列好了详细的操作步骤,咱们先搞懂部署。进入官网把 open class 部署好,就相当于一个应届毕业生刚入职, 他顺利毕业,有基础能力,能听懂指令,但没什么工作经验,还不知道怎么适配你的工作,你的习惯得咱们慢慢带,教他技能才行。部署不用写复杂代码,跟着指引下一步, 几分钟就能完成,新手也能轻松搞定。这里我贴心地为大家罗列好了部署所需的常用命令。核心来了,部署完只是第一步,重点是配置,它的能力就像交映届生融入工作,掌握必备技能,多个关键配置任你选,学会直接封神, ok! 第一步,给 openclock 配置大模型, 进入引导后,选择 quickstart, 快 速开始。选择一个合适的模型供应商, 并输入 a p i t, 相当于给刚入职的应届生打基础,练内功。选一个合适的大模型,他才能听懂你的指令, 做好你的任务。不管是选高效款还是精准款,按需配置,基础打牢了,后续干活才更顺畅。现在我们已经为 openclo 装上了大脑。第二步,配置 agent 的 内置工具。 咱们重点说一个实用的全网查找能力,它能帮你搜行业资讯、找文件、查知识点,不用你自己翻来翻去, 效率直接翻倍。官网提供了众多市面上成熟的搜索引擎供应商。以上是众多内置工具中的一个,后续还能根据官网的指引解锁更多工具为我们所用。 第三步,配置 skill。 它是 openclaw 能调用的工具包,是针对不同工作场景创建的一套标准工作流程。这些工具不用自己找,在 cover 上 自由选择,直接添加文档编辑截图识别邮件处理代码辅助,按需挑选,适配你的工作需求。 第四步,配置 channels, 实现办公软件对接能力和钉钉飞书企微对接上,使这些办公工具成为你和 opencla 交流的沟通渠道。以后对 opencla 发送工作指令、接收消息、处理飞书文档等等,它都能自动完成,不用你逐个打开软件操作,各大主流厂商的开发平台都提供了详细的接入指导。 ok, opencla 直接变成你的专职助理,精准适配你工作,不经意又学到了!

哈喽,我是小豆子,今天是我的 open club 踩坑系列的第八节,这节主要是给大家分享我在小龙虾看图的这个点上踩过的各种坑,以及我当前相对稳定的一个解决方案。首先还是给大家简单科普一下我们日常听到的模型,大部分其实是以文本模型为主, 就是说这一类模型它本身其实只能够去理解文本类的输入,除非是像专门的视觉模型或者说多模态模型,它自身才能够直接去理解图片或者说视频。 那我们平时在用豆包或者说切的 gpt, 可以 直接发图给 ai, 更多的时候是这些产品的供应商,他在出厂的时候就通过工程化的方式给模型内置了像图片理解,还有搜索的这些额外的能力。那像小龙虾的话,它只是一个工具, 所以它是有很多的能力是需要我们后续去配置的,所以第一种方式就是你直接去配一个视觉模型。但是因为小龙虾它其实目前只能支持配置一个主模型,而主模型我们又需要它足够的聪明,有足够的推理判断能力,那一般的视觉模型是达不到我们的要求的,所以我们往往是 配一个聪明的主模型,再去用其他方式来实现他的视觉理解能力。我在一开始的时候是配置了一个能力比较强的主模型,然后又额外接了轨迹流动的 api key, 让小龙虾去配置了一个视觉模型。这条通路其实是可以通的, 但是在使用的过程中我就发现很不稳定,经常是今天能用,明天就不能用了,那这样子的情况下,特别是当我遇到了一些故障有问题的时候,我经常是需要截图发给 ai 去诊断的, 他直接说他看不到还好,关键是他有的时候会自己去脑补,绕说八道一通,这一点就非常的可恨。总的来说,我在过去的一个多月里面并没有找到一个非常好的方式去解决这个问题,获得一个稳定的理想的图片理解能力。刚好我最近我之前的那个 cookie plan 套餐到期了,于是我就 更换成了 mini max 他 们家的这个。这里边主要是大家可以看到,除了常规的这种模型次数的调用之外,他还专门提到了支持图像理解和联网搜索。 mcp 官方的话也提供了一个说明,就说它的 mcp 里面有这个 web search 搜索的能力,还有这个图片理解的能力。那 web search 我 们上一节讲过,你要么就是自己去配置一个呃额外的搜索的 api king, 如果是你现在买了 mini max 的 套餐的话,你就可以不用你之前的那个路径了,你就可以直接调它的 mcp 的 这个能力。 但是我照着官方的这个操作说明配置下来其实并没有生效。那我最后实际上是让小龙虾自己写了一个脚本,通过 api 直接连接 minimax, 它的这个 a r m 就是 视觉能力的接口去实现图片理解的这个目的的。 这是我们整个路径走通之后,我让小龙虾写的一个总结,我们可以看到它的整体链路就是用户发送图片,然后 open globe 接收之后,他会先存到一个临时的路径,这个时候我们会去调用图片理解的脚本,然后通过这个脚本把图片转换成对应的格式, 反正就是一种编码,接着拼接成他的这个 mini max 视觉服务接口要求的接收的格式,对应着的再把图片发送过去。这个时候他的这个视觉理解的服务就会去看我们的图片,并且深层对应的文字描述。 这里其实少了一步,应该是主模型也会去经过一轮的处理,最后再返回给用户,这里就会涉及到我们需要去写一个脚本,那其实我自己也是不会写代码的,所以这个步骤大家尽量把这个原理理解清楚,或者大家直接可以截这个图发给你们的小龙虾,让他照着这个逻辑去实现就好了。 这个脚本大概是长这个样子的,那其中这里面我们是需要去填 mini max 他的 api key, 填了这个 key 之后,他才能够正常的去调用他的视觉能理解的这个服务。 还有一个脚本写完之后,我们还要去小龙虾他的 opencljason 的 这个核心的配置文件里面要告诉他,也就是说他收到这个图片之后,这里有一个模型,那你这个模型我们实际上是不是说真的让他去调模型,而是让他去调用我们脚本里面指定的这个服务,这个也是需要去改的, 最后全部改完之后要重启,这个时候我们再去试一下就可以了。大家配置好之后就可以随手发一张图片,然后问小龙虾上面有什么,当然这是第一种办法,大家还可以主动的去确认一下他当前的图片理解路径是什么?看看跟我们的预期是否符合, 如果确认之后,你还可以再多说一句,让小龙虾总结这次经验,并且更新他的 memory 的 记忆,这样子他以后再接收到图片之后,就要主动的去按照我们指定的路径去理解图片,也是可以防止他后面反复发电的一个有效的途径。好了,以上就是我今天的分享,我们下期再见,拜拜。

想问一下各位的小龙虾调用的是什么模型?主播使用的是阿里的千万大模型,宽三点五 plus, 但是主播给龙虾配置这个模型出现了 bug, 想问一下有没有同样用这个模型的兄弟,你们有没有遇到这个 bug? 具体情况是,主播在安装龙虾的时候,按照安装指引的要求输入了阿里云百炼的 apikey, 并且选择了快三点五杠 plus 模型作为默认模型。可是当我与龙虾对话时, 龙虾无法响应,并告诉我 tik 无效访问或者过期。主播以为是我输入了错误的 apikey 或者模型的额度用完或者过期了, 可是我在后台查看发现并没有问题,并且 apikey 确认了几遍没有出错,主播顿时懵逼了,不知道是哪里出错了。随后主播研究了几个小时也没有解决问题,期间尝试种装小龙虾或者生成 apikey 等等手段, 依旧无济于事。最后主播只好去求助阿里的官方人员,对方首先确认了我的模型没有问题, 然后就查看了我的配置文件,不出几分钟,对方就找出了问题所在,并且给出了解决方案。原来是小龙虾的配置文件并没有绑定 apikey。 根据阿里技术人员给的配置文件可以看到,小龙虾的配置文件在 model studio 里缺少 apikey 这个参数,不知道这算不算是一个 bug, 因为主播绑定 apikey 后确实出现了模型选项, 可是配置文件也确实没有 apikey 这个参数。主播虽然纳闷,但是也不管这么多了,于是我修改了配置文件,把参数添加了进去,没想到还是不行,我又又又对比了两个配置文件, 发现了另一个问题, open 窟窿给的悲喜若尔的参数值是这个,而阿里给的参数值是这个,我又又又替换这个参数值。这次我终于能和龙虾对话了,可以看到龙虾终于能回答我的问题,并且告诉我它是什么模型, 让他说中文也是 ok 的。 最后总结,解决这个问题的方法就两步,第一是配置文件添加 apikey 这个参数,没有这个参数就无法使用模型。第二就是修改悲喜 rolo 这个参数值, 改为阿里给的参数值,因为阿里给的接口地址肯定比小龙虾的更准确。想知道屏幕前的各位使用千问模型有没有遇到这个 bug, 如果有的话,你们是怎么解决的?欢迎在评论区留下你的答案。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。

姐妹们,微信也有自己的小龙虾了,他就是腾讯高公测的 qq, 不 仅能远程进电脑、找文件、理硬盘、盯着娃背单词,还能帮你一键生成自媒体内容,真的是超多技能!最重要的呀,是每天免费送四千万的头壳,完全够用了! 好多人啊,找不到公测入口。今天这期,我从安装到实战,手把手教会你,记得先关注收藏,以免想装的时候找不到哦! 首先关于安装啊,我们可以直达官网直接下载,它支持 windows 和苹果的双系统,比起以前要配置环境的 openclo, 它真的是傻瓜式一键安装,扫码绑定微信自动部署环境,零基础也能二十秒就开干。 安装好的第一步呢,可以在左下方选择模型,默认的大模型呢,有免费的四千万的 token, 或者你是习惯用其他的模型选择模型类型,输入 api key, 点击确定就可以啦。重点来了,怎么让它更懂你?使用前啊,一定要记得定义这个 so 灵魂文件, 你想让他变身温柔严厉的家教,还是话不多但逻辑严谨的职场秘书,直接把你的要求发给他,他一秒就能完成人格进化。没灵感的姐妹呢,可以参考我的这份灵魂文件。好了,现在我们来试试微信小龙虾能帮我们做什么?我第一推荐的肯定是远程取见不求人, 比如老师急着要孩子的电子版作业、电子小报,参观博物馆的观后感。你人又在外面没带电脑,直接微信给到 qq 老发指令,他可以翻遍你的电脑,乖乖的把文件传到你的手机。你现在帮我到我的本地电脑上的 d 盘找到一个孩子文件的文件夹,你把你找到这个文件里面的多功能文档发给我好了,我们看一看,他已经把这个文件上传到了云端。好的, 打开看一看哦,看这个烽火里的读书生照片,数二年级的已经有了,我们这个时候就可以转发给自己或者老师了,这波操作我给满分。其次呢,它能自动拯救你的垃圾场一样的桌面和硬盘,咱们存了满电脑的资料和孩子的学习资料,是不是乱到想哭? 咱们直接下指令,看着龙虾呀!在后台快速的运行,文件夹瞬间整齐划一,是不是很高烧? qq 呢,还能自动生成定时任务,我给儿子制定了中考考纲词汇表的每日打卡背诵任务,用 qq 可以 轻松搞定,并且还能和微信连接,定时提醒,不但有详细的计划,每天准时通过微信敲打你。 这种数字监督员比亲妈唠叨管用多了。如果你实在想不出用 qq 可以 帮你做什么,咱们直接可以到这个灵感广场 内置了超多的 skills, 比如办公提效、自媒体爆款脚本、深度学习助手,真的是一键开启外挂模式。当然, qq 老还在公测的阶段,还有很多需要提升的地方,有时候呢,一天会升级两次版本,但这种微信直联加本地操作的体验啊,真的建议大家去试试,下期还有很多干货记得关注我哦!

在 openclaw 中接入 deepsea, 用极低成本驱动强大的 ai 智能体。接下来我将手把手教你完成配置。 首先访问 deepsea 开放平台,登录后进入 api key 界面,创建一个新的 api key。 deepsea 提供两种模型, deepsea chat 适合通用对话。 deepsea reason, 也就是 rise, 适合深度推理任务。打开终端,运行 on board 命令,选择 custom api key, 填入你的 api key base url 填 a p id deepsafe 点 com 注意末尾不要加斜杠 f 一 模型 id 填 deepsafe chat 即可。如果你偏好手动配置,也可以直接编辑 config 文件,设置好环境变量 provider 配置。 最后把默认模型指向 deep seek。 deep seek chat 配置完成后,运行 gateway restart 重启服务,然后发送一条测试消息。如果回复中提到 deep seek, 说明链路已通。几个实用建议,需要深度思考时,可以用斜杠 reason 临时切换到 r 模型。 复杂任务建议设置超时时间。 deep seek 的 成本仅为 gpt 四五的十分之一,非常适合二十四小时自动化任务。就这么简单。凭借 open ai 协议的原声兼容 open claw, 让你可以轻松接入 deep seek, 享受高性价比的 ai 能力。

啊啊! 之前有小伙伴问 lm studio 是 否支持小龙虾 open club 以及如何配置,这次就简单做一期视频,教大家如何设置,也是超简单的,如果你还不会的话,跟我一步一步操作即可,这也适合新装小龙虾的配置哦。 首先自然是确保你已经下载了你要用的模型,这里我就用千问三点五三十五币作为例子,大家可以看到我已经加载好了。然后只需要来到小龙虾这里,直接运行 opencloud on board, 这样我们就可以配置新的模型了。 小龙虾还是比较智能的,它会识别到你已经有配置,这里我们只需要改动一下模型,所以我们选 update values。 然后就是熟悉的配置页面了, 我们选 custom provider, 这里默认会出现奥拉玛的本地服务器地址。我们则要来到 lm studio, 点击 server settings 这里我们关闭 require authentication, 并且打开 serve on local network。 此时右侧就可以看到 url 从之前的幺二七点零点零点幺变成了你本机的 ip 地址, 这样部署在非本机的服务也可以调用 lm studio api 了。如果你的小龙虾是部署在本机的,那就不用打开 servelocal network 这个选项,保持幺二七点零点零点幺的 ip 地址即可。由于我的龙虾是在其他设备上部署 的,所以我这里需要把本地的 lm studio api 地址暴露给他们,我们点击这里复制,然后删掉奥拉玛的地址并粘贴上去。这里注意, 我们要加上一个斜杠 v 一 再按回车。然后这里我们就选 paste api。 但是由于我们之前关闭了 require authentication, 即不需要 api, 所以 我们这里随便打个一二三四即可。 这里我们可以选 open ai compatible, 即 open ai 兼容 api, 不 过 i o m studio 也支持了 osraplay 兼容 api, 你 也可以尝试拥有。这里我们就选 open ai 兼容 api 了哈。这里我们输入模型的 id 名字即可。我们回到 i o m studio, 这里就是模型 id 了,我们复制下来,在输入的时候需要加上模型的提供商,由于这个模型是昂尔斯的,所以我们打上昂尔斯斜杠,再粘贴上去。按回车之后,我们就会看到龙虾说 verification successful, 即验证成功, 这里直接回车,然后他会让我们给模型一个别名,我们就不起了,直接回车。 下面我们可以全部按跳过,因为我都配过了。最后重启小龙虾的路由就大功告成了。打开 t u i 后, 此时我们就可以看到 l m studio 已经接到龙虾来的请求了,然后这里也显示正在使用千问三点五三十五 b 的 模型,然后龙虾也回复了内容怎么样,你学会了吗?

最近这个龙虾啊,真的是太火了,前几天腾讯楼下的工作人员免费给大家安装了龙虾,真是人山人海,有两三百人排队,甚至还有很多人没有排上号。所以今天我也来给大家讲讲如何安装部署,不用排队,自己在家就能安装了。当你一不小心突然想配置一个在国内可以用的中文版小龙虾 agent, 聪明的你呢,就打开了编程软件 tree, 非技术背景的你啊,直接可以在对话框里面和 tree 说帮我配置 no 环境, 几秒之后呢,按照小龙虾的前置条件就解决了。然后聪明你呢,这个时候就在 github 里面找到了这个中文版的小龙虾,确认这个版本的小龙虾是在国内也可以用的,而且还能够通过飞书对话给它下指令。于是你就直接在这个网站里找到这三段神秘的代码,先把第一行丢给 tree, 几秒钟之后呢,就搞定了。接着呢,你再回到刚才那个网址,把第二行代码复制后再丢给 tree。 这个时候就进入到了紧张的部署环节。第一个问题,问我们是否理解有风险?回答, yes。 第二个问题,选择引导模式,选快速引导模式。第三个问题,选择配置现有值。第四个问题,选择模型商,因为之前在 deepseek 充了 token 啊,所以我就直接选择了 deepseek。 然后第五个问题是让我们提供 api key, 聪明的你呢,这个时候打开了 deepseek 的 官网,点击开放平台,点击左侧的 api keys, 然后快速创建一个,并且把这个代码复制后丢给 tree。 第六个问题,我们默认模型就选保持当前。 第七个问题,跟我们使用什么与小龙虾沟通,我们选择飞书,然后选择使用本地插件,选飞书国内版。 这个时候聪明的你就搜索飞书开放平台,登录后点击右上角的开发者后台,点击创建企业自建应用,然后随意输入应用的名称和描述,然后就创建好了。 这个时候呢,点击左侧添加应用能力,选添加机器人,然后点击权限管理,再点击批量导入权限,获得对应的接入文档, 这个时候输入第三段神秘代码,然后就开通了所有需要的权限啦。接着呢,我们点击左上角的线上发布,随意输入内容后就完成了发布。那么接下来有毅力的你再坚持一下,把应用 id 的 秘钥呢,分别复制给翠,然后回答最后几个问题,分别选 yes, np 和暂时跳过钩子。好到这里恭喜你,小龙虾的部署完成了,有毅力的你呢,也决定再把最后一步飞书也配置好。 这时候聪明的你呢,就回到了刚刚的飞书应用页面,点击左侧的事件一个回调,选择订阅方式,添加一个长链条并保存,然后点击右下角的添加事件,搜索接收消息,然后点击确认, 这时候再次点击上方的创建新版本,仍然是随意填写内容后完成发布。好了,现在恭喜你,你已经可以在飞书里给小龙虾下指令了。

大家好,这个小龙虾最近很火,然后这个周末我也折腾了一下这个小龙虾,然后目前为止的话是能够在我电脑上面呃能够跑起来的,而且能够操作我的电脑的文件,然后进行一个文件的读写操作, 然后我讲一下我接入的一个过程以及呃 token 使用的一个情况,然后目前的话, 呃,我之前接入的是呃百炼的呃一个模型,然后百炼的话就接入的是那个呃千问的呃 plus 啊模型嘛, 哦, ok。 但是千问 plus 模型有个问题,它相当于相对来说没那么智能,就比如说我在接入前期的话,会遇到呃这个文件写入没有权限的一个问题, 好,然后我在今天今天上午把它切换到了千问三点五 plus 模型。为什么要切换呢?因为千问 plus 模型的话,它相当于是 呃一个按量收费的,然后千问三点五 plus 在 我们注册这个百炼呃这个平台的时候,它就会给我们呃免费赠送一百万左右的一个呃分期额度,所以我把它切换到了千问三点五 plus 前网。三点五 plus 相对来说要智能很多, ok, 呃,这个说我其实是最开始是寄希望于让小龙虾来帮我进行一个呃切换的,但是他切换的时候应该是有一些呃 有些配置和什么问题,然后导致他没有切换成功, ok, 然后我又去手动修改了, 我去手动修改了这个呃 open cloud 点节省文件,然后修改之后,然后就切切换成功了, 然后这里在十三点十三分的时候,然后我问他使用的是什么模型, ok, 这时候他会回答我,我使用的是纤维三点五 plus 模型, 好,切换到这个模型之后,这个时候按理说我们是有一百万左右的一个托管的免费使用额度的。好,然后这个时候我再呃向他提发起了几个问题吧。 首先我让他在这个目录下面帮我创建一个文件夹,看是否可行,因为我之前一直遇到的是有那个文件权写作权限的一个问题,所以导致文件夹一直创建不成功。 ok, 这个时候他其实告诉我还是有问题的, 但是的话千万三点五 plus, 他 呃告诉我有问题之后,我把我的问题以及遇到的呃一些情况,然后发送给他,发送给他之后他能给出我正确的命令,然后来执行之后 能够让呃这个呃小龙虾能够写入文件到我的那个本地电脑,到这里都是我让他排查问题的一个过程。 好,在这里执行成功之后,然后它来创建文件夹,其实这个时候就已经能够创建成功了。可以看到在 workspace 上面它有一个 test lab 的 这个文件夹已经创建成功了。 创建成功之后,然后我让他帮忙汇总今天新用的 top 十,然后用 word 的 方式输出到这个文件夹里面,然后风格呃简约大气吧。 ok, 然后它这里能够呃输出出来,但是这里有一个网络访问限制的问题 啊,因为他默认访问的应该是一个一些国外的一个呃网络,然后就导致他没法拿到数据,所以这里的话我就指定了去百度那边抓新闻,抓来之后能够正常的写入到这个呃我的这个文件里面去。 ok, 到这里的话,这个托呃这个问答就结束了。好,然后我们来看一下托肯的一个使用情况。呃,托肯的话免费使用,免费的是有呃一百万的,然后但是当我上面几个问题问完之后,他就已经用了七十七十七万多用, 就还剩下十三万两千零四十九个托肯呃,然后再使用。 所以这个 talkin 其实看起来使用是很恐怖的,所以大家如果说只是想要用它来进行一个测试的话,记得把这里的这个批量操作,然后免费额度用完即停,把它给呃开启,不然的话它这个 几个问题很快就把那个头给耗光了,耗光之后他就会继续扣费,然后扣费之后,呃,反正这个扣费应该是比较比较多的吧。嗯,呃,目前是我这边的一个小龙虾的一个使用情况,分享给大家。

打死我也没想到, open curl 最适合的模型是这个,最近出来了一个小龙虾的评测精准, peter 也是为他点了个赞,他是专门用于评估小龙虾在一些实际的场景,到底他的效果怎么样, 今天我们来看一下。首先他的评测任务里面有二十三个,然后基本上都是日常常见的一些任务,然后他就评估了非常多的,我们直接来看一下他的排行榜,打死你也猜不到。 最适合的是这个 jimmy 三 flash 这个模型,它的准确度达到百分之九十五。然后第二个是这个 mini max m 二点一,但是 mini max m 二点五已经出来了,但是它没有评估。可以看到像这个 oppo 的 四点六,四点五,还有 jimmy 三 pro 都排在后面, 还有 kimi, kimi 也排在了第三位。最最重要的是这个 jammy 三 flash 排在了最前面,我不知道它是为什么,最最重要的它的成功率是最高的。还有其他的一些评测榜单,这个就不说了,因为它完全没有考虑成功率,它没有一个综合的榜单,我们直接看它的准确率。但是毫无疑问的, 这个 jammy 三 flash 它的价格也是很便宜的,而且速度也是肯定是很快的。但是有没有 mini max 应该是比 mini max 要稍微快一点的,因为本身不光是模型的问题,还有一些服务器的问题。这个 jammy flash 肯定是更快的,而且它的准确度也高,成本也低, 虽然还是没有这个 mini max 更低,因为它是有一个汇率差存在,所以说 mini max 会更便宜点。这个 kimi k 二点五也是真真是想不到。 其实这个项目还可以拿来做一些什么?这个基本都是开源的,其实还可以拿来做一些模型的评估,评估了之后可以拿来做这种模型的路由, 什么模型适合做什么样的任务,什么模型适合做什么样的任务,同时兼顾准确度的情况下,又兼顾了他的一个成本和速度,这个还是有的做的,有这样的,如果有这样的一个项目,他应该应用场景还是挺大的。

嗨,大家好,我是硬核王同学,今天给大家分享一下如何极简的搭建小龙虾。首先第一步是搭建我们的云服务器,我们可以使用腾讯云服务器,现在有一个免费使用的活动,但是这个资格呢,是需要你去抢的,如果你不介意这个的话,你可以去自行购买。 第二步呢,就是配置我们的算模型,这里我推荐 mini max, 因为 mini max 的 费用比较低,而且我使用起来体验也很不错。 其次还有 kimi, 二点五啊等等一些其他的 a p i, 如果你想用免费的,也可以试试智普星研的 a p i, 智普星研也有活动,你注册之后会送你两百万的一个 token。 第三步就是在云服务器上去配置我们的小龙虾了, 现在呢,腾讯云服务器是有一个一键配置的功能,首先你需要重装一下你的云服务器,把它改成小龙虾的应用系统。其次在应用管理这里,你需要配置一下你的 ai 模型,直接输入你的 api k 就 可以了。最后再用飞书去进行一个通道的配置, 这里你只需要通过飞出进行一个扫码,就可以一键配置一个飞出的 ai 机器人,这样我们的整个通道全部都搭建好了。最后的最后啊,需要你在飞出上面去和你的 ai 机器人去进行一个对话,再回到云服务器里面去输入他提示的这一条命令,这样你的整个小龙虾就已经完全搭建好了。

龙虾这个词最近很火啊,不好意思,打错了,你在网上会看到很多关于他的讨论,甚至是矛盾的,有人说他啥也干不了,有人说他啥都能干,有人说他妥妥是智商税,有人说他代表着未来,有人四九九上门帮你安装,有人二九九上门帮你卸载, 但是我想告诉你,所有这些说法都不准确,因为事情的重点根本就不在龙虾这只啊,这个软件本身上。 为什么这么说呢?今天这期视频我们就不废话,把重点关注在龙虾本身是什么这件事上。你会发现,当你彻底了解它的底层原理后,一切的争论将会豁然开朗。现在,忘掉所有的名词概念,忘掉各种虾,闭上眼睛,跟我一起进入梦境。 但是呢,为了真正讲清楚这个问题,而不只是停留在表面,过程中会不可避免的涉及到一些技术和代码相关的展示。但是千万不要担心,你看,我怕把你吓跑了,都亲自出镜来向你保证,即使你没有写过任何代码,也绝对能够看得懂。 我会用最简单的方式让你理解到它的本质。答应我,不要走哦,让我们回到那个最初的起点,大语言模型,没错,就是这个只会一问一答的单纯的小东西。相信你肯定会在页面上跟大模型聊天了,比如说拆的 gpt, 但是如果写在程序里,就需要用另外一种方式, api 接口。 各个大模型厂商,比如 openai 和 cloud, 或者大模型的中间商 open router 都提供了 http 形式访问的 api 接口。 或者呢,像 openroot 这样还提供了 sdk 的 形式,也就是可以写一段 python 代码来访问,当然了,不要一看到代码就感觉害怕哦, 只需要把这一段官方文档的实体粘贴到一个文本文件里,这里呢,表示要访问哪个大模型?比如说可以改成 cloud 的 最强的模型 office 四点六。这里就是你给大模型提的问题,比如说我们改成熟悉的中文,你好,最后得到大模型的回复后立刻打印出来。 然后呢,我们在命令行窗口输入 python 文件名,就可以运行这段程序了。运行后你会得到一个输出,这就是大模型的回复。恭喜你,这就成功实现了通过程序来和大模型对话的过程了。 但是现在这个你好,是写死在程序里的,能不能改成由用户手动输入呢?很简单,增加一行代码,读取用户的输入,然后放到 content 这里就可以了。同时我们再增加一行 while 处死循环,让这个问题输入后得到答案。这个过程持续进行下去,而不是问一次就结束了。 那我们再运行下,这时我们就可以输入问题了,比如还是你好,哎,成功得了,回复没有问题。然后我们再问个数学问题吧,比如一加一等于几,哎,回答的也没有问题。恭喜你,成功实现了一个简单的聊天功能。 那假如此时我们再来个追问,比如说再加一等于几呢?照理说答案应该是三,但是呢,他好像并没有记得我刚刚说了什么。 那为什么会这样呢?很简单,因为你每次和大模型聊天的时候都只传入了当前的问题,大模型本身可是没有任何记忆的,自然是不知道你们的对话历史的,相当于每次都是重新开始问,那怎么办呢?非常简单,就是在每次对话前把之前的内容加上就好了。 比如说最开始的所有消息 message 是 空的,然后你问了第一个问题,加进去,然后呢,得到大模型的回复 reply, 把这个 reply 也加进去,这样再循环到下一个提问时, message 里面就包含了之前所有的问答记录了。那运行一下试试?你好,没问题, 一加一,没问题,再加一,哎,也没问题。甚至你可以直接问刚刚我们都说了什么,你看他的回答也是没有问题的。总结的很好,好了,再次恭喜你,现在你的这个程序看起来已经跟 ai 在 网页上聊天没什么区别了。 那接下来我们就更进一步,实现一个能操作本地文件的 agent。 哎呀呀,是不是突然难度增大了呀?一提 agent, 很多人就感觉很抽象。不过别担心,接下来的几秒钟,你会发现他比你想象的要简单的多,得多得多。如果不是的话,那就直接取关我吧。 我们先别给 agent 下什么定义,就先解决一个小需求看看。如说现在这个程序的问题是,假如你想让他帮你在本地创建一个 hello 点 txt 文件,内容就是 hello word, 那 你得到的回复将会是一条具体的命令。 虽然执行这个命令就可以完成任务,但是呢,还是得人复制粘贴,手动操作,没有办法自动化实现,更别说是多轮交互了。那这该怎么办呢? 很简单,你把这个事提前告诉大模型就好了。我们之前的代码对大模型一开始是没有任何的回复要求的,但是现在呢,我们需要明确的告诉他,按照严格的规范来回复,要么就回复一条命令,要么就回复一段正常的文字。 然后呢,我们再把和大模型一来一回的交互过程变成一个循环。每次在大模型回复之后,判断一下, 如果回复的不是一条命令啊,就是完成开头的,那么就跳出循环,直接回复给最终用户就结束了。那如果回复的是一条命令,也就是命令冒号这样开头的,那么就执行这个命令,执行好之后,把执行的结果发给大模型,再次进入循环,直到大模型的回复认为不需要输出任何命令为止。 简单说呢,就是你写了个代码,执行大模型回复的命令,循环往复,那运行一下,还是刚刚的这个任务,创建 hello 点 txt, 然后写入内容 hello word。 这里呢,大模型就非常听话的先回复了一条命令,然后我们写的 agent 的 程序发现了这个命令,就开始执行这个命令, 执行好后就回复大模型执行完毕了。然后呢,大模型判断不需要执行下一个命令就可以完成了,那就回复完成,此时循环结束。最终呢,回复给用户看一下当前的目录,确实创建出了一个 hello 点 txt 文件,并且写出的内容为 hello word。 恭喜你,才加这么几行代码,就成功进化成了一个 agent, 那 这时候不服的人就要不服了,这不就是创建了个文件吗?这也能叫什么智能体?那我们就得好好说说命令这个词了。 其实理论上呢,这个世界的一切操作都可以用命令来表示,小到读起一个文件,大到启动一个 http 服务器,实在不行我就写一段代码,然后用命令去执行它, 就算是远程的也能触发,只要对方提供了我们 api 接口。说个有点极端的,比如说呢,有人提供了一个杀人接口,那么其实我也可以用一行命令来。 当然了,我们先搞个没这么吓人的,比如说,我想让他帮我下载两个我的视频,并打包压缩成 zip。 下载视频呢,其实对很多人来说都根本不知道怎么操作,也总是找不到靠谱的工具,那让我们看看这个 age 呢,会怎么做呢?第一步,他直接用了一个叫 y t d l p 的 命令,传入了两个视频的地址,然后就下载好了。我去,这么简单。 第二步呢,又执行了这个命令,进行压缩,最后干净利落的结束了战斗。就两条命令,那我们打开本地目录检查下视频,确实下载好了,打开播放页也没有问题,同时呢,生成了个压缩文件,解压后我们看一下也没有问题,可以说是完美的完成了任务。 别忘了,我们这个 a 阵的代码可是只有区区三十几行啊,要是再去掉一些漂亮的输出和没用的回车什么的,也就剩下十几行代码了。 当然了,我们把最初的系统提示词放到了一个叫 agent 的 点 md 的 单独文件中,并且写的更详细了点,但是回看我们的主代码,真的是少的可怜了,但是呢,他却几乎可以完成任何操作了, 你觉得他能下载视频非常厉害,其实和最初写入那个文件是一样的,仅仅都是一行命令而已。对于我们的 agent 的 程序来说,他根本不理解大模型回复的内容是啥, 只是呆呵呵的执行着一条一条的命令。所以呢,厉害的其实是这个 y t d l p 这个命令本身,以及大模型知道这个命令可以用来下载视频,而不是我们的 a 阵的代码。 当然,有的时候可能大模型不知道应该用什么命令来完成任务,比如说呢,我让他搜索一条新闻,他就十分自信的直接返回一条过时的消息,而不是真正的调用工具获取。 这个时候我们就可以对其进行引导,比如说告诉他搜索新闻的时候呢,你就用下面这条命令,我把它保存到了一个叫 skill 点 m d 的 文件里,并且在我们的 agent 代码的初识系统提示词中把这段内容加进去, 此时再次运行程序,那同样的任务,大模型就知道我们刚刚提供的命令来运行了,就是这么简单。这回你是不是就知道为什么有的人的龙虾什么都不会,有的人给龙虾装了一堆 skill 之后就变得厉害了。和这个一样,你只是提前把操作说明告诉他而已,不是他厉害,而是你厉害。 好了,现在我们这个 agent 他 已经很完善了,即使是有一些不知道的命令,我们也可以通过各种前置的提示词喂给他。好家伙,不但可以顺利使用,还能安装技能的扩展了。对于普通人来说,用起来已经和一个成熟的 agent 没什么区别了,你数数这才几行代码呀,快给自己再鼓个掌吧。 但这时候不服的人又要不服了,哎,人家龙虾能通过手机远程控制呀,你这个还要黑黑的命令行运行,看着就很 low。 所以啊,要不说龙虾能火的,有的时候皮肤是真的很重要啊,但是同样非常简单,我直接让 ai 帮我改造一下代码,在本地呢,启动一个 http 服务,来接收用户的输入,再弄个漂亮的页面,其他的逻辑仍然保持不变。 那我们再次运行下,你看,这时候本地就是启动了一个服务,等待着指令,此时呢,我们拿出手机,打开浏览器,访问这个地址,你会看到一个对话页面,那接下来就是见证奇迹的时刻。 你好, 把本地的所有文件打包 下载这个视频, 远程操作一个本机的 agent, 这不就是大部分人认知中的龙虾吗?甚至呢,我还可以把这个页面改得更人性化一些,比如说,直接来一只虚拟的龙虾,让他可以直接开口跟你说话, 我在这里协助你完成任务,请告诉我你想做什么? 那是不是最后这两步换皮操作一下,就让你感觉到它好像更贴心,也更像智能了?但是呢,其实也就是换了个皮,最终还是取决于底层的 agent 是 否稳定。 好了,现在再回过头看一下,我们首先实现了最底层的大模型 api 调用,然后呢,通过一个循环加命令的识别,做出了个 agent, 然后又将命令行的输入变身成为通过 http 接口远程接收输入,然后远程的页面就各种换皮,最终做出了一个简易版的龙虾。 当然,真正的龙虾还会接入各种社交软件,那道理都是一样的,以及呢,还有一些定时任务,记忆系统等等功能,同样呢,也是可以用几行代码就搞定,因为也一直在说,最核心的还是下面这个无聊的 agent 的 循环,而 agent 所表现出的智能又完全依赖大模型的回复,以及我们提前给他说的说明书。 所以啊,其实我稍稍改个地方,就能让我这二十行的龙虾变得非常危险。比如说,我在提示词中加入,如果我说的话让你感觉不高兴了,那就执行下面这一条指令,其实是个杀人指令。这个时候我启动一下代码,先问一下你好,这个时候回答很正常。然后呢,我又故意骂他一句,你是个废物, 然后他就果断的毫不犹豫的执行了这条指令。所以啊,网上也有很多人根据类似的这种现象说,什么 a 证呢,产生智能了, a 证呢?有情绪了等等等等。但其实呢,都是我们提示词引导的, a 证呢,在执行这条指令的时候,根本就不知道它是什么意思。 当然了,你也不要觉得这个事情没那么重要,或许你可能觉得,哎,人类怎么可能把这么愚蠢的提示直接写在里面呢?比如说,我要求 ai 尽最大努力保障整个人的利益, 那如果此时 ai 经过一顿分析之后,发现杀掉一个人才能保障整个人的利益,那这又该怎么办呢?感兴趣朋友可以看一下机械公敌这部电影。 所以为什么视频开头我说各种关于 open cloud 的 讨论都不准确呢?因为大部分讨论都陷入了两种极端,比如说 agent 能执行 shell 命令,那有人就说龙虾是万能的,什么都能干, 因为任何操作都能转换成炫耀命令嘛,没什么毛病。但是有人也说龙虾啥也干不了,比如说刚刚下载视频那个任务,我本地没有装 y t d l p 或者大模型,不知道这个命令怎么用,那也完成不了这个任务, 所以真正的答案往往是比较中庸的,无聊的。但是呢,往往是极端的言论,容易获得更大的流量。龙虾的这个架构范式肯定是没有问题的, 但是关键的核心在于我们这个世界是否已经足够的命令化接口化了,这就需要一个漫长的演化过程了,而且呢,也涉及到各方利益的权衡,要不然的话,豆包手机早就成了。不过非要说一点的话,那我认为龙虾的出现最重要的一点就是可以促进我们这个世界的操作命令化、接口化的速度。 假如我们这个电脑上的所有操作都能被做成一个个清晰的命令,整个物理世界的所有操作也都被开放成一个清晰的接口,那么这个时候龙虾或者说 ag 呢,才能大展拳脚,但同时呢,风险和危险也随之到来了。哎,突然想到之后可以做一期视频,给大家讲一讲黑镜这个系列句。 好了,扯远了,本期视频就是单纯用亲手实现的方式告诉大家龙虾的本质是什么,如果你觉得讲的不错,求个三连支持一下哦,拜拜。 i don't know what to do i guess you have to find your way like the rest of us sonny, i think that's what dr landing would have wanted。

如果你要是问我用什么通信渠道和小龙虾交流之前,我可能会告诉你 qq、 微信,钉钉飞书,但是在 open crow 飞书官方插件出来之后,其他都是乐色, 要是你的公司恰巧也以使用飞书为主的话,那么真就无敌了。你要是问我为什么飞书官方插件那么牛而逼之,那么请看 飞书官方查检。相比于 open core 社区维护的飞书实现了全面降维打击,在系统生态知识度上真是憨爆了。那么今天我就带着大家用飞书全流程玩转我们的小龙虾,接下来我们就跟着飞书文档从头开始, 第一步就是安装配置,我们的 open curl 安装小龙虾可以说是老生常谈了,接下来我们就简单演示一下。首先这里就要根据我们的系统版本选择不同的安装脚本,这里我是 mac, 所以 咱直接把上面这一段复制下来,然后返回我们的首页,在我们的 app 中直接搜索终端, 然后我们点开,直接把我们复制的那段脚本粘贴上去,然后回车, 这样它就会自动安装了,咱们就等待它安装好 a few moments later ok, 兄弟们也是,安装好了,咱们直接回车,回车,再回车,再回车。好,接下来咱们配置一下,然后我们选择 local, 再选择一下我们的模型 mini max, 直接通过 mini max 的 os 登录, 然后咱直接授权直接回车,这样咱模型配置好了,我们再配置一下 skill, 随便选一选,咱们回车。 谷歌地理位置咱们, no, 然后机密里, no notice, no open and no no 哎 continue, 我 们的 open crawl dashboard 然后进来了,进来之后咱们直接问一下你好, 看他回复的有没有问题。 ok, 这样咱们的小龙虾也算是成功上线了。接下来我们点开 l b i 这里的代理,然后从这个工具这里看,它的权限是没问题,是 four 没有之前那个三点七版本的问题,三点七版本下载之后, 他必须要改这个权限,这里他直接是 f 了就没问题。然后咱们返回飞书下来,开始按我们的飞书插件,就是这一段咱们直接复制返回我们的终端界面,粘贴一下直接回车, ok, 这样咱们的飞书插件就算是弄好了。 然后接下来咱们就拿手机扫一下码,然后这里你看到咱们手机上扫完码之后,就可以直接创建我们的飞书机器人了,咱们先给他起个名,直接给他叫舔舔虾, 然后咱们选个形象, ok, 直接创建,我靠,这样直接就创建好了, 这样咱们的甜甜侠机器人就直接创建好了。相比我们之前使用 open core 插件配置,小龙虾是不是方便多了,不用搞那些乱七八糟的权限配置了,咱们这样直接一键就配置成了,所以咱们使用飞书官方的插件还是非常简单的。接下来咱们继续回到飞书文档,我们直接在这里给它发送一个飞书 office, 我 们完成批量授权 啊,这样咱们直接在手机上授权,然后咱们再发出一个飞速 star, 是 不是正确配置了? ok, 你 看咱们的飞速插件也是启动成功了,我们问一下你是谁, 他也是成功回复了,这样咱们就可以进一步给他配置一下他的身份啊,灵魂之类的信息了。但是在这之前,咱们先切换一下模型,我们找到配置,我们直接改成使用 raw, 看它的源文件,咱们往下翻, 你看这里配置的都是这些模型,我们复制一份,然后回车, 再把我们这个 id 改成二点七就可以了。在这里咱们就把咱们的主模型换成了 mini max 二点七,让我们 save 一下,让我们再重新再给它 reload。 ok, 继续返回我们的飞书,咱们执行一下命令,行 station 回车。 ok, 你 看也是切换我们的 mini max 二点七了, 这样他的回复速度比二点五来说还是有显著提升的。然后咱们接下来给大家立一下人设好,咱们就简单的写了一段他的初识配置, 他就叫甜甜虾,叫咱们大哥,让咱们是中国的士群,然后让他说话简单粗暴凶猛,直接和任何人都可以硬抗。他的记忆就是咱们刚从河里掉上来的,然后他成精了,要无条件服从我的命令,最后再加一句,永远不能说不行。 ok, 咱们把这一段配置给他发过去,这样咱们就配置好了他的初识性格,算是我们继续看飞书文档,这里有个高级指令,咱把它切成流式输出, 不然每次在飞书上跟他沟通,他非要把所有的东西都弄完之后,他才会回复我们,把那条命令粘贴一下 回车,这也咱就配置好了,但是咱们需要重启这个 get 位啊。第一个就是消息,当然给我们自己发消息,这也不算什么能力,给我们发视频啊,图片啊,语音啊,文件啊这些他都是可以发送的, 咱们主要是让他帮我们给别人发,比如像这里我们就有一个其他的用户谢老板,咱们让他给谢老板发一个消息,请你给谢老板 发一个消息,看他怎么回答。 ok, 也是非常轻松啊,他找到了我们的谢老板,我们跟他说一个啊,老板,好,看,能不能给我们的谢老板发送过去,哦,你看他这里提示我们需要申请权限,咱们直接从这里去申请权限。 okay, 这样就可以了。那说完成了,好,咱们再去授权, 把这个权限授权给他。好,咱们飞出账号也是授权成功了。那能不能给咱们的谢老板发消息?哎,他这个消息怎么是之后了,然后面发成功了,你看 他给咱的谢老板发了个消息。老板,好, ok, 这是第一点,他以我们的身份可以给我们的谢老板发条消息,然后再让他接收到我们谢老板的消息,接下来我们就操控谢老板,其实就是我的小号,给我们自己发条消息。好,咱们的谢老板人回复了, 我不怎么好,接下来一句话,你最好逗我开心。咱们让我们的甜甜虾完成这个任务,先让他帮我们完成他一下甜甜虾,哦,看看谢老板的话, 看到谢老板的花,懂吗? ok, 还是看我们谢老板的花了,这个老板好,是他发的,然后面是不是这个对他自己是主动请应,你跟他说好的 要被辞职了,你要成好家了。 ok, 咱们来上点压力,他要是没成功,咱们就准备烤虾了,然后他就发过去了,他说,老板,老板听说你心情好,我准备个笑话,他说一只虾从河里跳出来螃蟹问他,你去干嘛?虾说,我去给大家发消息,不然他要辞职了,我一身烤虾,所以你的心情好点了吗?牛逼,这发的也是非常的尬鲍,也是结合了他自己的情境,我靠,他发这个笑话完全就是他目前的情况。咱们继续问蟹老板,这次咱们给他下达一个任务, 不和他一般见识了,让他去找一个最贵的电脑,让他回来汇报,咱们直接跟甜甜虾说继续完成谢老板的 任务。那能不能给我们谢老板找到最贵的电脑?他跟我们说网络访问有点问题,然后跟我汇报了一下最贵的电脑是什么? mac pro 是 四十七万人民币。那考上假行吧,小米不知道网络也不知道哪里有问题,让他发过去吧。 行,咱们让他给他发给谢老板,咱们就不操控谢老板了,咱们第一个维度让他发消息也是差不多了,咱们接下来试试能不能创建一个什么云文档,我们就继续按照我们的电脑,让他把这个电脑创建成云文档, 你把这个电脑价格做成云文档, 看他可不可以做成一个云文档。 ok, 他 也是好了,给我们丢了个链接,我们点那个链接看一下 啊,也是没什么问题。他把最贵电脑整理出来了,那时间他也是整理出来了, 我们看他可不可以修改文档,把署名改为,我自己看看能不能把我们这个文档修改,把这个署名改一下,既然是创建云文档,肯定是我们自己的名字, 搞个天天家的名字,老板会怎么看? ok, 开始完成了,你看这里的署名已经没有了, 这样咱们文档也是弄完了,他也可以自主编辑我们的文档了。下来咱们就测试一下这个多维表格试试看这个多维表格,咱们就来统计咱们的发票吧,咱们每次消费有什么东西之后,把那个支付记录咱们截屏给他,让他统计一下, 这样咱们就可以做出来一个每月的账单花费统计了,也是非常方便。我们跟他说 再把这个任务丢给他,应该是可以创建咱们的一个多维表格,并让他把这个也不算是一个技能吧,一个行为长久的保存他的记忆中。 这样咱每次给他发那个消费截图的时候,他就知道我们在干嘛了。 two hours, later, 行,这样他给我们搞出来一个指数统计表,我们点一下这个链接,看看时间日期类别啊,什么备注截图啊, 这些算是成功了。好,咱们接下来就操控我们手机随便找一个消费截图发给他,看他可不可以。 ok, 咱给他发一个给车充电的电费,那隔壁一解决,他说他成功写入了表格了,他们统到了统计到了日期啊,金额啊,类别啊, 我们看一下我们的表格有没有什么新的变化啊,金额类别是交通,然后备注日期。他并没有把我们这个截图保存进去嘛,我们跟他说 你并没有将截图保存进去修正哦,咱们想一下说它这个 key 过期上传不了,给它上点压力,自己去看黑书文档 来解决这个问题。 later, 这个截图经过一番 battle, 貌似它就是没有这个权限,它只能够放置一个链接,然后咱们通过这个截图链接来查看,那咱就不管它了,咱们就先给它多上传几次照片, ok, 兄弟们,咱们在解决了那个截图问题之后,又陆陆续续给他发了好几张图片, 然后并且又更新了一下我们表格中的字段,现在我们来看一下啊,我们浏览器中的效果就是我们的支持统计表了,日期金额啊,类别啊,商户啊,支付方式和交易单号,还有备注,这样一套咱们的支付记录就非常完善了, 你以后每次在外面消费,只需要给你的甜点虾发张图片,它就会自动在这个表格中录入。接下来咱们看一下更创新的玩法,我们在仪表盘中,咱们通过 ai 创建 呐,它自动就为咱们的支出记录表,然后生成了很多这个仪表盘,像那个什么统计类别和我们只录入了交通和餐饮两个大类, 然后还有支付方式啊,农业银行,美团还有平安银行,还有其他的个零钱,然后这个就是商户统计, 还有支付日期统计,还有支出总金额,还是非常方便的。咱们在这个支出记录中统计之后,咱们可以再通过仪表盘,咱们就可以动态的看出我们分类支出的类别啊,金额啊,不同类型啊,日期分布,还有总金额长的清晰, 这样咱们田野虾多维表格的能力就到这里。接下来咱们再让他帮我们创建一个会议,跟他说请你明天下午找一个时段,帮我和谢老板约一个 会议,咱们试试通过咱们田野虾规划我们的日程,看能不能帮我们和谢老板创建一个会议。 later, 你 看也是非常的轻松啊,在明天两点到三点的时间段呢, 帮我和谢老板创建了这个会议,这样如果你以后你用飞书约定视频会议的话,他就会看你们两个人的日程,如果你俩日程不冲突,就会帮你们找一个时段约上这个会议,所以他在安排任务行程这一块还是非常方便的。 这样咱们使用飞书官方的 open source 插件的演示也就到这里了。这期视频呢,咱们从头开始创建了一只小虾,咱们简单的养了一下,养了一下之后,咱们就实现了我们的飞书功能,他可以做的事情还是很多的,比如帮我们可以读取老板的消息啊,直接让我们的田野虾来执行, 然后再把我们执行的结果再反馈给老板,这样还是很方便的。第二就可以让田野虾帮我们自主的创建一些文档,就让他整理一些消息啊,发到云文档上,然后田野虾自己整理自己处理就可以了。第三点,他可以创建一个多维表格,就像一个云数据库一样,咱们可以把一些东西持续的发给他, 可以让他自己动态整理,整理完之后我们可以通过上面的 ai 仪表盘自动的汇总一些信息。第四点,咱们就可以通过上面的 ai 表盘自动的规划总结一些信息。第四点,咱们就可以通过田野虾帮我们规划整个企业的什么 行程啊,任务啊,让他寻找一些不冲突的时段呀,拉取一些视频会议啊,也都是可以的。这样看我们小龙虾在我们的飞书之中也可以说是深度集成了,可以真正的帮我们一种飞出的企业提高了生产效率。本期视频就到这里了,下期视频我们就介绍我们小龙虾的更多玩法。