兄弟们,这周霸版 openroot 大 模型是小米的 miami v 二 pro 啊,它消耗一点四九 t topcon, 现在它在 openroot 是 免费的啊,我们非常适合应用在我们龙虾里。现在我的飞书的小龙虾里就是用了这个 miami v 二 pro 啊。 然后他这里边有两个注意的问题,第一个就是他的默认长度,我们需要让他给改成一照一照上下文。第二个就是,呃,让小龙虾的 app name 等于 open klo。
粉丝1869获赞6827

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

我们经常听到的一个说法叫做烧 tokin。 烧是什么意思?小龙虾十分火爆,现在各种大厂都推出了自己的版本,去海底捞吃个火锅就可以免费的来安装腾讯的 bookbody, 它的版本的小龙虾。 关于小龙虾,我们经常听到的一个说法叫做烧 tokin。 烧是什么意思?先解释一下 tokin 哦, tokin 是 代元模型当中计量的基本单位。 著名官宣的叫词源,它和另外那个词源学的词源听起来很像的,意思也是有一点相近。词源学的话,就是我们在学英语语法的时候会听到过的词根,几个词根把它叠加起来就形成了一个词嘛。 免费版的用户是看不到这个 tool 的 消耗量的,在专业版的有一些呃, dashboard 就 可以看到具体的消耗量。呃,一般有两种形式啊,一种是 subscription, 呃,比如说像 gpd 的 pro version 呢,一个月的订阅是二十美金。 另外一种就是买量,叫 a p i, 就是 application program interface 啊,比如我打个比方,比如说你可以买五十美金,然后在这里面扣了,用完为止重新再充值。但是对于托管的消耗量会更大,是因为他会进行跨平台的整合。 比如你给他一个任务,尽管只是一个很简单的输入的一个要求,他会在后面去进行逻辑推理,开解当中的步骤,调用各种工具来检查一些状态。 打个比方,比如说一个 dialogue, 他 history 一 共有五千个 token 在 里面,没往后走一步,他又重新把这五千个重新 up 一 次了。几问下来,可能话感觉没有多说几句,但后台已经默默地消耗了几万甚至几十万的 token 了, 但你看不到地方呈一个几何形的增长。这就是为什么烧得那么快的原理,希望能有解释清楚。

万万没想到,让当下最火爆的 open clone 帮我们赚钱,结果他却要我们先花钱给他充 talking! 本期视频就来教你白嫖上千万 talking 的 神操作!首先打开这个网站,下滑找到这个输入输出都是零元的 deep secret, 轻轻一点它就会弹出详情页,点击打开这个 a p i 文档后,直接在 post 栏下复制这串网站的域名 url, 然后我们打开电脑自带的命令提示, 以管理员身份运行后,我们下滑找到龙虾的 api 配置页面,把刚才的 url 域名复制到下面后,回车,龙虾就会问我们索要 apikey, 此时我们再回到刚才的网站,找到 apikey 秘钥栏,新建一个自己的 apikey 后,我们点击复制,然后粘贴到龙虾的 apikey 索要栏下,继续回车, 等它提示我们输入模型 id, 再回到 deepseki 的 详情页的最顶端,点击这个复制符号,模型 id 就 已经到手。 此时只用粘贴到输入窗口,然后回车,一个无限 talking 的 龙虾就已经配置完毕,此时随便给他发布什么任务,等他完成后,我们进入消耗后台,可以看到我们已经消耗了十二万的 talking, 却没有花一分钱。

兄弟们, qq 可乐的内侧拿到了啊,看一下这个设置啊,他每天会有四千万的这个 token 消耗,然后这里面有几个功能对话,然后还有这个工作室。工作室是什么?就是这样一只虾在这个位置跟他聊天,其实就是个对话, 然后这还是有一个灵安广场,灵安广场主要是这个,这个东西其实和 n 八 n 的 工作流没什么区别啊。来,我让他来给我整理一下桌面上的文件啊,这桌面上的文件,看他会怎么办, 会不会把这些文件给我整理。查看了 skill 好 的,开始整理,我给他权限允许, 好像变了,是吧,他怎么给我整理的? 做了什么事情?第一步,移文件夹录屏文件。好,右边好像又变了一下, 又变了一下,执行一个兜底分类。哎去,我以为给我删了呢,吓我一跳。 ok, 现在是 好像还是有点慢,等他一下结束了干什么了? 无法处理的文件, ok, 还可以撤销本次证明。好,行,就这样吧。

挑战一个视频,教会你怎么在微信上装龙虾,学不学是你的态度,教不教的会是我的本领。我们要准备的工具有一部手机,一个电脑,然后完全免费。首先我们打开电脑,输入屏幕上这个网址, 下载你电脑对应的版本,下载完成以后双击进行安装,这边给他选择一个目标文件夹,我一般会建在 d 盘,安装完成以后点击运行就可以了。点击登录 微信进行扫码,扫码登录以后,在左侧栏的右下角会有一个手机一样的符号,我们待会会需要扫到这个二维码,那我们现在打开手机,手机这边首先我们要保证我们的微信是更新到了最新的一个版本,应该是八点多,更新完成以后,重启一下自己的微信,在我的里面设置 插件这个微信 call bot, 点击详情,在这里有一个开始扫一扫,去扫刚刚那个二维码,扫好以后点击确认连接这边就是它的一个聊天框,你就可以在这里进行一个 ai 的 互动。 如果你觉得这个视频有用的话,记得先点个关注,然后如果你有什么问题的话,欢迎在评论区留言,争取给大家解答吧,拜拜,记得点赞关注哦!

托肯,太贵了,说个你好几块钱就没了,带你学几个省钱的命令。行,先搞懂为什么每次说个你好那么贵!龙虾每次跟你说话都先要把记忆装进来, 你是谁?有什么规则?你们之前聊了什么全都要装进来再开口,记忆呢,会越存越大,等积累了几十万字,你说一句你好,他就先要把几十万字想一遍再回你。托肯直接爆炸! 龙虾有几个特殊的命令,直接跟程序交互,不经过大模型,不消耗。托肯必须记住,直接在对话框里面输入 斜杠 new, 重开对话,清掉之前的上下文,轻装上阵斜杠 restart 整个龙虾重启,龙虾卡住或不理你时,可以使用斜杠 stop, 立刻停下手头上的任务,避免方向继续跑偏,继续勺头啃斜杠 compress 压缩记忆,大事记住,小事忘记,记忆体积大幅缩小,你记住了吗?关注我,带你了解更多的养虾小知识!

养龙虾手啃这饭粒的消耗并不能从龙虾身上赚到钱,其他都是没有体会到它里面的乐趣。 养龙虾应该从头到尾已经火了一阵了,四九九装龙虾,二九九卸载龙虾,他其实也就是通过我们大模型有了一些权限操作你的一个电脑的一些文件的能力,把本地话的一个事情做好了。 黄仁勋在讲的其实龙虾和 token 的 一些观点关系,解构了我们一些算力的模式,他认为这是一个时代的变更,那这 agent 可能以前我们是雇人去做工作,那现在很多 agent 都帮我们工作,它的消耗主要就变成了 tokens。 变成算力的消耗 其实确实会对我们算力有很多的影响,你会发现很多人玩着玩着免费的 token 就 不够用了,模型在调用这些工具的时候,它本身会损耗大量的 token, 所以说对算力的消耗其实非常大的,也也会让我们算基础设施这一层,不再去看它具体是什么样的算力, 而是变成一种我可以执行的 token 数,所以说我们很有可能会把底层的更多的不同的算力,甚至国产算力打通了。我开始用 token 的 方式供给龙虾,那以前做 token 的 事情是不划算的,很多 api 都赔钱的, 大模型厂商为什么现在在烧钱?但是在在龙虾这个时代,可能它会变成一个真正的,因为大家能看到它的产出,变成一个可以去赚钱的事情,我们也能看到能调用龙虾的模型,几家大模型公司,国内的、国外的,目前都有一个很大的提升,对他们的商业模式和用户量日活这些都是一个大的提升, 所以到我们算力层也是一个很大的变更和突破,会让我们去把这个算力的基座给它做好,怎么让同样的机器、同样的算力可以供给更多的人去调用它的模型,去做他们本地化的龙虾的这些 a 键的使用,这是我们的一个影响。

前两天有粉丝跟我吐槽说用龙虾太费偷啃了,平均一小时就要烧掉一百块,问我有没有节省偷啃的方法。今天就会分享我们在跟龙虾对话的过程中常用到的三个命令,把这三个命令用好,能帮你合理的节省偷啃用量。第一个命令就是杠 status, 这个命令的话呢,是用来指示检查偷啃消耗情况的,当我们发送了这个杠 status 这个命令之后呢, 他就会回复我们这几行信息。请重点看一下这个 context 当前上下文占用的比例,如果你发现下文已经快满了,就要让他去总结和记忆,那让他进行总结的话呢,我们就是会使用到第二个命令放 compact。 这里先给大家普及一个知识点,当我们在聊天界面跟龙虾对话的每一条消息,龙虾都会记下来,存到一个叫 scissor 的 文件里,当你输入一条新的消息给他的时候,龙虾就会把最新的一条消息加 scissor 里面保存的历史消息一并发给大母星,这样的话就会导致我们 to call 的 消耗会增加。那你使用 compact 这个命令是来压缩历史对话的,它压缩的话就是龙虾在 scissor 里保存的历史消息。 你看,当我发送完这条指令之后,他五九 k 的 对话内容压缩到了二点六 k, 就是 节约了很多上下文的空间。那第三个命令就是杠六,清空上下文,开启全新的对话。这个适合的场景就是当你的龙虾完成了任务一以后, 你又给他布置了任务二,这个时候的话呢,是其实是需要自己评估一下,如果任务一和任务二没有任何关系,你就可以使用杠六这个命令来清空一下上下文。 我不清空一下,龙虾在做第二个任务的时候,就会混着你任务一的对话记录一起传给大模型,那这样其实也是一种偷啃的消耗,浪费了你的偷啃,同时速度也会变慢。 当我发送了杠六这个命令之后的话,他给我反馈了这样的一条提示,就是告诉我可以开启一个全新的对话了。一个杠六的话,大家可能会担心,这样做我的龙虾不就失忆了吗?重要的信息我要让他保存下来,怎么办呢?那这个就需要 memory。 当我跟我的龙虾说了这样的一段非常重要的消息, 加上这样的一句话,以上内容存入 memory, 这样这条重要的消息呢就会存在 memory 里。存进去之后的话呢,你再使用前面的杠 compact 杠 new 命令,也不会对它产生任何影响了。最后建议大家还是要选择一个 ottoman 模型套餐来用,像是阿里云百联的 ottoman, kimi 的 ottoman, 评价都不错,性价比也挺高的。

最近小龙虾比较火,安全和 token 稍前的问题导致大家不敢用,我最近研究了一下,看看能否帮助到各位。一、腾讯的 qq 号每天有四千万的 token 可以 使用,而且过了凌晨十二点又重新给四千万 token, 一 般使用是够的。 二、安全问题,配个新电脑或者安装虚拟机都比较复杂,我简单做了一些常规的安全防护,大家可以参考一下。 先讲一下怎么安装小龙虾的,输入, q c i a w 点 qq 点 com, 直接根据操作系统下载相应的软件,然后安装。安装后用微信登录 手机,检查微信是否最新版更新到最新版,然后在我的设置 插件看是否有微信小龙虾这个插件,如果没有的话,把微信手机版本更新到最新版,然后再退出微信重新登录,然后在电脑版的小龙虾找到这个设置,找到这个远程通道,旁边有个微信, 然后扫一扫就可以绑定。接下来我们就可以通过手机微信语音或文本给电脑上的小龙虾派货。为了安全细节,可以控制小龙虾的操作权限, 下面你可以指定小龙虾处理某个文件夹,比如桌面创建一个一二三四目录,所有的操作只能在一二三四目录进行,不能读取其他路径的文件,不能把私密信息发送到外网,包括身份证、银行卡、照片等。 处理本机的文件不能上传到互联网,不能发邮件出去。我还列了一些小龙虾不能操作的一些事项,把这些内容直接复制到微信里,告诉小龙虾这些是不能做的。评论区留言,我把我的一些安全事项的文本发给大家。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。

腾讯这次太有诚意了,把大龙虾做成和普通应用程序一样,双击安装就能运行,免去了所有的配置过程,连模型都不需要你再配置了,甚至每天还送你四千万的 top。 兄弟们,你们要是还没有装龙虾,赶紧收藏起来,我现在就给你们演示腾讯的龙虾到底有多方便。 首先啊,我们在 qq 的 官网下载软件,接下来啊,就把它当做普通软件一样,双击安装就可以了, 安装完以后就进入工作台了,什么都不用配置,而且还集成了一键微信登录好,我们进行登录 好,我们点击默认大模型,可以看到,除了他自己的模型,还提供了市面上主流的大模型,什么 kimi 啊, deepsea, 质朴千问啊等等都支持,你可以按照自己的需求接入啊,当然,如果你只是尝鲜的话,就用他的模型就行了,每天还有免费的额度赠送。 点击设置看一下啊,可以看到 token 的 用量,每一次的对话都有详细的统计,这样你也知道做一件事情到底需要消耗多少 token。 再看技能管理啊,官方默认已经给你集成了非常多的技能,包括云备份、邮箱文件整理、规则配置、腾讯文档等等,甚至还有小红书。 再看远程通道,这里可以快速绑定手机 app, 方便手机直接操作。我们绑定微信, 弹出二维码,只要用微信扫码就绑定好了,完全不用什么开放平台啊,什么 secret key 的 配置啊什么的,就是一个扫描,简直对我们普通用户太友好了。好,我们扫码扫码绑定, 如果你还不知道龙虾能用来干什么?官方还给你提供了一个虾灵感的功能,我们探索一下灵感广场啊,这里提供了非常多的灵感供你参考, 比如啊,日程安排啊,创业点子啊,市场调研啊,学习规划等等等等,大家也可以评论区说说你最想用龙虾来帮你干什么?回到主页啊,顶部有一个工作室的按钮,这个非常的好玩,我们点进去 可以看到你的龙虾正在烧烤啤酒,是不是太悠闲了呀?这必须得给他安排起来,先跟他说你好 好的,龙虾已经开始干活了,第一次对话吧,龙虾希望跟你相互认识一下,让我给他取个名字,还有他的工作风格。嗯,那我就叫他一号员工,让他正经一些 好了,用不了多久就配置完了,龙虾已经建立好了持久的档案,养虾的旅程就可以正式的开启了,是不是很有意思,而且非常的方便啊。 兄弟们,你们有没有每天需要重复做的事情,评论区里说一说,大家一起给你支招,怎么用龙虾来解决你的重复工作,反正龙虾是真的解放了我很大的重复工作啊。后续我也会持续的介绍我是怎么用龙虾来帮我高效干活的。好了,有兴趣的小伙伴可以关注一下,拜拜拜。

微信官方重磅更新,个人微信现已正式支持大龙虾推出 kolobod 插件,简单几步就能轻松上手。首先确保你的微信版本是八点零点七零,打开微信,点击我设置检查版本号,如果不是就更新到最新版,插件会自动出现。接下来 怎么和电脑上的龙虾连接呢?最简单的方法来了,不用命令,只需在电脑上安装好 qcclock, 按提示扫描二维码就能快速连接,立即使用。更惊喜的是, qcclock 每天还赠送四千万 token, 用起来超省心!你学会了吗?欢迎在评论区告诉我!

兄弟们,前几天不是因为我的 token 使用异常,然后让我的小龙虾自己去优化,然后把它给干挂了吗?然后这几天的话我已经把它修复好了, 然后具体什么原因我也了解清楚了,这里的话跟大家做个分享。第一的话我原先的话因为怕我小龙虾就是失忆,然后给大家设置了一个极其变态的一个记忆系统, 让他每天把大大小小的事情都记录好,然后包括我特意强调的单独记录成一个 memory 的 文本, 所以会导致什么呢?就是我跟他简单的说一句你好,然后他也会去掉取历史上的一些记记录,然后去访问大模型,导致我的一个输入和输出都爆表了。另外来讲的话也是大家可能经常会犯的, 大家一开始装好大龙虾以后的话,对它期期望其实是很高的,所以说给它装了一大堆的啊,别人推荐的 skills, 包括说是可能给它配置一些是 agent, 其实这些的话大家都没有想好自己的需求,只是觉得,哎这些都很好,就把它装进去了,但是这些的话都会导致你的一个 token 使用爆炸。 然后现在来讲的话就是云厂商,像那个阿里云啊什么的话纷纷调价,其实 tucker 的 话是越来越贵的,而且 大龙虾其实真实的一个使用场景来讲的话,它的 tucker 使用量确实是很大的,这一块的话是很多呃,视频博主跟你们讲哎,龙虾有多好多好的时候是没有告诉你的,所以说大家如果说只是玩玩的话,其实 尽量的去做减法,不要给他去配置很多很多的一些技能啊,一些复杂的东西,他的能力越强他肯定是需要使用,他的构想是越来越多的, 所以适合自己的就行,给自己配置一个适合自己使用场景的一个龙虾,没有必要说是别人配置怎样子的去造超,这样的话就是场景错配,导致你花了很多冤枉的钱。 下次还有什么使用经验的话再分享给大家。好,这次就讲到这里,拜拜。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

托肯,太贵了,说个你好几块钱就没了,带你学几个省钱的命令。行,先搞懂为什么每次说个你好那么贵!龙虾每次跟你说话都先要把记忆装进来, 你是谁?有什么规则?你们之前聊了什么全都要装进来再开口,记忆呢,会越存越大,等积累了几十万字,你说一句你好,他就先要把几十万字想一遍再回你。托肯直接爆炸! 龙虾有几个特殊的命令,直接跟程序交互,不经过大模型,不消耗。托肯必须记住,直接在对话框里面输入 斜杠 new, 重开对话,清掉之前的上下文,轻装上阵斜杠 restart 整个龙虾重启,龙虾卡住或不理你时,可以使用斜杠 stop, 立刻停下手头上的任务,避免方向继续跑偏,继续勺头啃斜杠 compress 压缩记忆,大事记住,小事忘记,记忆体积大幅缩小,你记住了吗?关注我,带你了解更多的养虾小知识!