三月二十四日,京东一口气甩出五大 ai 进展,从开源大模型到聚生智能数据基建建指行业三大痛点,成本贵、落地难、数据荒。拿最近大火的龙虾智能体来说,针对 token 成本高这个痛点,京东云基于 joy 大 模型, 通过开源 openco 架构,推出轻量云主机、一键部署一体机、云上哨子板等多元产品形态,覆盖从个人开发者到中大型企业的多样化需求。自研云原生推理框架,优化推理成本,同时推出 kodin plan 大 模型套餐包,持续释放 tokun 降本红利 数据最能说明问题。京东云龙虾系列产品上线后近一周, tokun 调用量环比涨了百分之四百五十五。 这个涨幅背后,不光是开发者热情,更折涉出京东 ai 独特的战略路径,以轻量化工具撬动普及,以产业场景沉淀价值。 当前, ai 行业普遍陷入参数内卷与落地难的两难。京东的解法是构建工具普惠家、场景深耕的双轮驱动。 前轮是龙虾系列所代表的工具化能力,开源轻量模型一键部署多元产品形态,大幅降低 ai 使用门槛,让中小企业与开发者用得起用得上。 后轮则是京东深耕多年的产业场景,从金小智服务五万商家,到物流操脑降本增效,再到数字人具身智能在真实业务中打磨迭代, 这两者并不不利。他们跑成了一个正循环工具,给场景提供低成本的 ai 燃料场景,又给工具反哺高价值的行业数据和需求。 当不少厂商还在比谁的模型参数更大时,京东已经用龙虾把流量入口打开,靠零售、物流、健康这些产业众生把护城河系起来了。 这或许揭示了 ai 商业化的本质,技术领先是暂时的,而低成本触达加高价值落地的生态能力才是穿越周期的底气。 京东的实践表明, ai 的 真正价值不在于实验室里的参数,而在于产业土壤中生长的力量。
粉丝328获赞1.0万

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

如果你一直想安装大龙虾,但总被这样的代码小黑框和传说中高昂的 token 费用劝退,那么这条视频就是拍给你的。 很多人一上来就卡住了。敲命令、搭环境、推模型,光看教程就想关掉了。但现在你完全不需要那种复杂的方式安装,直接用 mini max 的 一键云端部署,几分钟就能把龙虾跑起来。我们首先打开这个网站,然后点这里,进来之后点这里立即部署, 立即开始点一下升级,在这里根据自己的需求选择一个定位方案,然后默认配置。下一步 完成之后,就可以在这个聊天框给你的龙虾安排任务了。例如,我想让龙虾每天自动帮我写好短视频文案,我先让他丰富一下技能,自己安装一些短视频文案相关的 skills。 然后我把自己的文案给到他,让他学习我的风格,又把这两个对标视频的文案给到他,让他模仿里面的内容和开头。等到文案调试满意之后,我让他每天十点定时执行相同的任务。这样一个了解我风格的文案助理就制作好了。最后说明一下重点, 为什么安装大龙虾我推荐用 maxclock 呢?除了安装部署特别简单以外,更重要的是它默认配置好了 mini max 二点五模型。这个模型的优势不是参数有多大,而是性价比很高,真的很适合普通人入门。龙虾的创始人 peter 也推荐过这个模型。

只需三分钟即可搞定。整体分为三步。第一步,在 kimi klo 构建云端 open klo。 为什么选择 kimi klo? 之前我是单独配置 open klo 加单独配置模型的方式,对信手来说步骤比较繁琐。现在可以通过 kimi klo 一 站式将模型和 open klo 配齐。 只需一分钟,在 kimiclock 的 控制台点击 create 按钮,一分钟就可以配置成功,无需额外的复杂设置,非常方便。第二步,现在你已经是个初级老板了,现在给你的 kimiclock 赋予牛马使命。在 linux 中,我们可以使用 cron 来设定, cron 就是 linux 中用来定时自动执行特定命令或脚本的工具,因此这个指令最基本的版本可以是,你可以基于这个命令进行衍生。这儿给大家一个小技巧,本质上 color 运行在一个 linux 环境中, 因此如果你不熟悉一些 skill, 你 完全可以直接让克拉模仿你平时的动作。因为四 q 本身也是工作流。例如分析任务,你就可以改成设定一个空,让任务每隔二次时间打开浏览器,输入网址, 查看网站上的数据,形成数据分析报告,看完之后关掉浏览器。当你知道这件事之后,你完全可以忘记原来对于电脑操作的理解,享受老板的工作方式。假设安装一个软件, 可以说使用并搜索 wps 并且安装。第三步,将你的工作流与 kimi quir 沟通并固化为 skill。 我 们直接跟 kimi quir 沟通,我们可以根据 kimi quir 的 回复选定一个方向,让它给我们整理出完整的交易工作流程。你看这段 pro 是不是 p u a l 拉满,如果你觉得没有位,可能你已经是老板了。 kimi kala 会返回一个任务列表,这时克洛还不知道这些任务其实是他要执行的。我们接着让 kimi kala 把这些内容做成固定的 skill, 这样可以稳定方便地嵌入到矿例行任务中。 你可以让 kimi kala 打印出来具体的 skill 内容进行检查并叠代,最终固化的 skill 如视频所展示。当然,你也可以直接使用 kimi kala 官方哈布里现成的四 skill。 自己封装 skill 是为了让大家更好地理解什么是 skill 以及如何创建。如果你会建立自己的 skill, 那 么使用别人的 skill 也就轻而易举了。现在我们就可以修改第二部中的 chrome 命令,让它定时执行我们刚创建的这个 skill。 整个能够自动钉盘分析的框就配置完成了修改。 chrome 的 执行时间可以定时给你提醒。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

我的龙虾已经吃了我三点七亿的逃坑了,昨天我充了那个一百,又充了一百元,然后他很快用完了,我越想越不对劲,然后今天我解决掉了,找到问题了,就他后台有些程序他会一直是循环的在崩溃, 然后我做了一个监测系统,一直在调用问题,我怎么发现的呢?啊?我用魔法打败魔法,我用那个 open call 的 那去帮我做了个检查欧文扣的这工具真的很好用,他和欧文扣结合起来,因为他是有极强的编程能力的,所以他能够检查你文那个欧文扣的这个文件夹包括你的日期,能够给你分析,同时他可以帮我解决掉,你知道吗?他帮我找出问题,这个很香,这是一个消耗我掏款 非常多的一个一个一个因素。另外还有个因素就是我的文科,他是每次他会读取上下文,他会精准的命中我的缓存,就当你对话越来越多的时候,项目越来越长的时候,那他就得一直翻一直翻。兄弟们,这个是重复性工作 啊,这个也得修复,最好是有个解锁的机制,让他精准的有个需求的时候,或者有个问题的时候,他需要解决的时候,他能够先查一下去哪里找这个问题,而不是 去翻所有的记录,这是很慢的。这两个坑,兄弟们你们要避一下啊,能帮你省掉百分之六七十的头坑,妈呀,这玩意你你要是我 去好多坑。兄弟们,模型是一大坑,然后设置是一大坑,工作流是一只大坑,继续研究。

我已经用了一亿的免费 tokyo 来养龙虾,可以看到这是一点五九亿的 tokyo, 然后四千四到用零元。我用的是这个新送的三点五 flash 的 模型,是用的 open rota 的 平台。对,前几天那个给大家分享免费养龙虾视频火了,然后今天做一个具体的视频之上,很多朋友在后台私信我。 呃,那首先呢,其实是我们去呃搜索这个今日星辰的三点五模型,找到这个 free 有 免费版。呃,进去之后可以看到它这里有个模型 id, 这就是它的模型 id, 我 们要复制下来。呃,其实要给弄一下。呃,可以看到就是它现在在 opcode 的, 就是调用排名非常高。呃,看到就是。呃, 昨天是第一名。对,昨天是第一名,今天是第二名,前几天也拿过。可以看到这排名非常高,前几天也拿过很多第一。然后我们回来之后呢,其实是在自己的这个。呃。 api k 这里。呃,进入到 api k, 嗯,去新建一个 api k, 你 可以填银行卡,然后再去填这一个信用额度,可以填一个零点一美金。 看到我,哎,我这里填了一个零点一美金项链,一旦有付费的行为,那就最后花七毛钱,这个 api 就 断掉了。嗯,对,然后再过一期时间去设置一下。然后呢,这个 api 呢,是一次性只能复制的,相当于这个也要给到龙虾,然后把 openroot 的 这个地址,就是直接把网站扔给他,然后再把魔仙 ak 扔给他,再把你 app apk 扔给他。对, 假如你当前有那个本地 l m 驱动的话,就是把这个配置上,它自己会去连接上新的模型。那然后你再去那个龙虾里面去调用这个对话的话,就可以看到自己的一些调用数据了,对,有某一天的用量特别大,都是免费。

万万没想到,让当下最火爆的 open clone 帮我们赚钱,结果他却要我们先花钱给他充 talking! 本期视频就来教你白嫖上千万 talking 的 神操作!首先打开这个网站,下滑找到这个输入输出都是零元的 deep secret, 轻轻一点它就会弹出详情页,点击打开这个 a p i 文档后,直接在 post 栏下复制这串网站的域名 url, 然后我们打开电脑自带的命令提示, 以管理员身份运行后,我们下滑找到龙虾的 api 配置页面,把刚才的 url 域名复制到下面后,回车,龙虾就会问我们索要 apikey, 此时我们再回到刚才的网站,找到 apikey 秘钥栏,新建一个自己的 apikey 后,我们点击复制,然后粘贴到龙虾的 apikey 索要栏下,继续回车, 等它提示我们输入模型 id, 再回到 deepseki 的 详情页的最顶端,点击这个复制符号,模型 id 就 已经到手。 此时只用粘贴到输入窗口,然后回车,一个无限 talking 的 龙虾就已经配置完毕,此时随便给他发布什么任务,等他完成后,我们进入消耗后台,可以看到我们已经消耗了十二万的 talking, 却没有花一分钱。

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

最近网上 openclore 特别的火,然后我在二月二十号左右,我自己也去下载了一个 openclore, 从零到一,自己完全的去部署和摸索, 从最初不知道如何部署,然后再到提示词全面的去调试, 就是所谓的这个养龙虾嘛,然后再到呃整个的这个多团队 a 梗这个配置,然后再最终到了呃,就是用不同的任务去 让 openclaw 自己去调用不同的这个模型去处理复杂的这个任务。嗯,其实我在接触 openclaw 的 时候呢, 我一个最大的感触就是它真的是一个知识屏权的这个工具,你只要把权限完全的开放给他,他可以做很多很多,我们 很多人不想,就是没有办法去做,就是技术门槛很高的很多事情,你比如说,呃,我们不擅长去做这个呃, ppt 你也不会,或者你没有接触过,你只要告诉他帮我去搜寻相关的这个内容,内容的主要内容,内容里面的提纲大概是怎么样怎么样怎么样,然后让他去生成专业的用于做什么的 ppt, 他 会很迅速的 去生成你想要的,然后去提交结果给你去审核。那 opencore 给我最大的感受是什么呢?就是 它跟 ai 智能体完全不一样的点在于 ai 智能体是你给他什么指令,他返回什么样的结果。那 这边有个很重要的点,就是他不会去帮你去考虑其他的东西去给你参考。但是 open club 不 一样,他支持长线任务和短线任务,你给他一个具体的目标和方针,他自己会去学 相关的技能和插件,甚至会编辑自己的这个技能去完善,从而达成做到这件事情的这个目的。你比如说,呃,我们要去分析某个行业它的数据支撑支撑,但是呢 你以前你是从来不知道这一个东西数据从哪里来,然后要考虑哪一些问题, 分析的要从哪一方面去分析。但是 openai 出来了以后,你完全不用去考虑这个事情,然后它会遇到问题了,它会驱使你去提供 他要完成这个任务所需要的这个东西。你比如说我要让他去查我的抖音的粉丝列表和粉丝画像, 那他在遇到问题了,他第一个遇到的问题就是抖音账号和登录是否开放权限给他,还是说让你登录好了告诉他,然后他进行操作,然后中间你就不用管了,他会把最终的结果报告返回给你, 就是一句话的事情,你不用去考虑太多。所以 open crawl 呢,跟智能体最大的不一样就是它可以支持长线的任务,然后还有一个最大的感受就是什么呢? 使用 open crawl 最大的限制在于你自己的想象空间和规划整合的这个能力, 才能最大程度的去调动他为你去做事。有些时候你没有 创业过,那创业上会遇到哪一些问题和哪一些瓶颈?你需要的元素和资源有哪一些?你不能完全的去描述清楚,就导致 open crawl 它的完成度不好,或者是你根本就想象不到那一个领域的事情,从而去开发它的这个功能。 给大家看一下我这边我自己养的这个龙虾,然后它可以完成非常非常多的这个工作,然后每天我会要求它把工作和报告任务给我。

哈喽,大家好,我是吴亦纶,最近大家应该都被这个叫做小龙虾的东西给刷屏了吧,各大官方都在进推,连央妈都被他震惊到,甚至一度将 mac mini 都炒到了新的价格线高度, 那普通大众也想去体验一下,他需要很高的成本。别着急,轮子找到了一个量化版的本地部署方式,让你我不想投入太多成本的人也可以感受一下这道小龙虾的味道。 ok, 话不多说,跟着轮子看 操作。首先打开这个网站 one club, 在这里咱们可以选择是 mac 还是 windows 系统,点击下载保存,打开咱们下载微键,直接点击运行。 好,这就是我咱们一个安装完成的一个页面,点击下一步这块需要咱们去配置服务商,这块咱们选择自定义,咱们选择 zai, 打开这个 big model 智谱的 ai 开放平台,在大模型语言模型里选择咱们的四点七 flash, 这个模型目前使用它的 api 调用头肯是免费的, 点击 apikey, 在 这里咱们创建一个新的 apikey, 给它随意起个名字就叫龙虾吧。好,创建成功,咱们复制 apikey, 回到刚才的页面, 在这里输入咱们 apikey 模型,选择四点七 flash, 验证 好了,这就是咱们现在目前一个配置完成的样子,点击启动好了,这就是咱们配置完成的一个完整的效果。咱们新建一个对话,跟他对话一下 这块他的名字是因为之前我已经配置过,所以给他起过名字了,我们最开始进来的时候,他会需要咱们给他起一个称呼,然后还有呃他的一个身份,包括你想要的一个习惯,咱们再做一个测试, 然后他制作完成了,咱们去看一下这个游戏的效果啊,在这里 整体效果看起来还是可以的。 那下期呢?轮子会带大家解锁更多的玩法,包括它的完整配置、 scale 使用之类的,那么这期就到这里,大家下期见。

前两天有粉丝跟我吐槽说用龙虾太费偷啃了,平均一小时就要烧掉一百块,问我有没有节省偷啃的方法。今天就会分享我们在跟龙虾对话的过程中常用到的三个命令,把这三个命令用好,能帮你合理的节省偷啃用量。第一个命令就是杠 status, 这个命令的话呢,是用来指示检查偷啃消耗情况的,当我们发送了这个杠 status 这个命令之后呢, 他就会回复我们这几行信息。请重点看一下这个 context 当前上下文占用的比例,如果你发现下文已经快满了,就要让他去总结和记忆,那让他进行总结的话呢,我们就是会使用到第二个命令放 compact。 这里先给大家普及一个知识点,当我们在聊天界面跟龙虾对话的每一条消息,龙虾都会记下来,存到一个叫 scissor 的 文件里,当你输入一条新的消息给他的时候,龙虾就会把最新的一条消息加 scissor 里面保存的历史消息一并发给大母星,这样的话就会导致我们 to call 的 消耗会增加。那你使用 compact 这个命令是来压缩历史对话的,它压缩的话就是龙虾在 scissor 里保存的历史消息。 你看,当我发送完这条指令之后,他五九 k 的 对话内容压缩到了二点六 k, 就是 节约了很多上下文的空间。那第三个命令就是杠六,清空上下文,开启全新的对话。这个适合的场景就是当你的龙虾完成了任务一以后, 你又给他布置了任务二,这个时候的话呢,是其实是需要自己评估一下,如果任务一和任务二没有任何关系,你就可以使用杠六这个命令来清空一下上下文。 我不清空一下,龙虾在做第二个任务的时候,就会混着你任务一的对话记录一起传给大模型,那这样其实也是一种偷啃的消耗,浪费了你的偷啃,同时速度也会变慢。 当我发送了杠六这个命令之后的话,他给我反馈了这样的一条提示,就是告诉我可以开启一个全新的对话了。一个杠六的话,大家可能会担心,这样做我的龙虾不就失忆了吗?重要的信息我要让他保存下来,怎么办呢?那这个就需要 memory。 当我跟我的龙虾说了这样的一段非常重要的消息, 加上这样的一句话,以上内容存入 memory, 这样这条重要的消息呢就会存在 memory 里。存进去之后的话呢,你再使用前面的杠 compact 杠 new 命令,也不会对它产生任何影响了。最后建议大家还是要选择一个 ottoman 模型套餐来用,像是阿里云百联的 ottoman, kimi 的 ottoman, 评价都不错,性价比也挺高的。

腾讯这次太有诚意了,把大龙虾做成和普通应用程序一样,双击安装就能运行,免去了所有的配置过程,连模型都不需要你再配置了,甚至每天还送你四千万的 top。 兄弟们,你们要是还没有装龙虾,赶紧收藏起来,我现在就给你们演示腾讯的龙虾到底有多方便。 首先啊,我们在 qq 的 官网下载软件,接下来啊,就把它当做普通软件一样,双击安装就可以了, 安装完以后就进入工作台了,什么都不用配置,而且还集成了一键微信登录好,我们进行登录 好,我们点击默认大模型,可以看到,除了他自己的模型,还提供了市面上主流的大模型,什么 kimi 啊, deepsea, 质朴千问啊等等都支持,你可以按照自己的需求接入啊,当然,如果你只是尝鲜的话,就用他的模型就行了,每天还有免费的额度赠送。 点击设置看一下啊,可以看到 token 的 用量,每一次的对话都有详细的统计,这样你也知道做一件事情到底需要消耗多少 token。 再看技能管理啊,官方默认已经给你集成了非常多的技能,包括云备份、邮箱文件整理、规则配置、腾讯文档等等,甚至还有小红书。 再看远程通道,这里可以快速绑定手机 app, 方便手机直接操作。我们绑定微信, 弹出二维码,只要用微信扫码就绑定好了,完全不用什么开放平台啊,什么 secret key 的 配置啊什么的,就是一个扫描,简直对我们普通用户太友好了。好,我们扫码扫码绑定, 如果你还不知道龙虾能用来干什么?官方还给你提供了一个虾灵感的功能,我们探索一下灵感广场啊,这里提供了非常多的灵感供你参考, 比如啊,日程安排啊,创业点子啊,市场调研啊,学习规划等等等等,大家也可以评论区说说你最想用龙虾来帮你干什么?回到主页啊,顶部有一个工作室的按钮,这个非常的好玩,我们点进去 可以看到你的龙虾正在烧烤啤酒,是不是太悠闲了呀?这必须得给他安排起来,先跟他说你好 好的,龙虾已经开始干活了,第一次对话吧,龙虾希望跟你相互认识一下,让我给他取个名字,还有他的工作风格。嗯,那我就叫他一号员工,让他正经一些 好了,用不了多久就配置完了,龙虾已经建立好了持久的档案,养虾的旅程就可以正式的开启了,是不是很有意思,而且非常的方便啊。 兄弟们,你们有没有每天需要重复做的事情,评论区里说一说,大家一起给你支招,怎么用龙虾来解决你的重复工作,反正龙虾是真的解放了我很大的重复工作啊。后续我也会持续的介绍我是怎么用龙虾来帮我高效干活的。好了,有兴趣的小伙伴可以关注一下,拜拜拜。

哪家的 tokyo 养龙虾最省钱?在深度体验过三家的 sota 以及各种 coding plan 之后,我认为性价比最高的目前就俩拆的 gpt 和 mini max。 下面来说原因。在当前 opus jimmy 拆的 gpt 你 追我赶的场面下,我相信氪金玩家还是会首选 opus。 四点六,把同样的任务分给不同的模型, opus 总是那个最靠谱最能交付价值的员工。 想在龙虾里用上星对坪的就两条路, cloud 官方订阅或者歌姬的 idg。 但 cloud 一 直有封号为设,而且二十多的月会员有五小时限制加周限,实际一用几个任务就能轻松触线,没法和小龙虾高频互动。为了能用上 ops, 春节前我特意给女主人申请了 ai 基金,然后一狠心开了歌姬的 out 会员,虽然一个月二百多单,但小龙虾是真聪明啊,少了没两天,号被封了,钱打了水漂, out 模型也用不上了。然后过年整整两周都没碰小龙虾。春节回来一开工 coco 直接出圈了,我就开始研究怎么复活。我的龙虾 club 和 andy gregory 都喜欢封号,那 opus 和 jamie 那 也是不指望了。 saut 里能选的也就只有拆掉 gpt 了,那个时候能用的只有 codex 五点三模型,但体验下来效果还不错。龙虾给我完成了几个十万投币量级的任务后,周用量只用了不到百分之五,更别提龙虾他爹加入了 openai, 根本不怕封号, 还宣布三月期间所有用户享受两倍用量。近期又发布了拆掉 g p p 五点四模型,小龙虾更有来味一些,评测榜单里甚至超过了 off 四点六,所有 buff 加在一起,我相信没有理由不选择拆掉 g p p 了吧。不过两周前刚开通二十兆的 plus 会员中度使用,还没用光过额度。除了预参加剩下的选项,我认为还有四个,千万件。 m kimi、 迷你 max, 好 几家原厂上的 cosplay 都提供了这几款模型的支持,这些厂商都欢迎你接触情况下,但我发现这些模型接入后很多都是不开思考模式的,这可能会限制龙虾的能力发挥。实际体验下来后,个人感觉 glm 五的能力稍强一些,所以取 看看 g l m 的 会员看起来相对略贵。然后我又把目光瞄向了 openroot, 发现现在 top 销量最大的是 mini max 二点五,这么看的话,它的能力肯定是得到用户的认可的。再去看一下他家的昆明 plus, 有 点炸裂,竟然只有五小时限额,没有周限额,而且它的用量非常透明,拿普通的 max 会员五小时三百个请求来看,哪怕你是重度使用,也是很难达到它的这个限。 而且如果你嫌 token 吐得慢,还可以选极速版,一秒能吐一百个 token。 这会员除了能在小龙虾里用,还能用在卡拉 ok。 所以 你开了会员以后,你就可以猛猛的登了。那么你给小龙虾喂的是哪家模型呢?评论区留下你答案,我是阿图,下个视频见。

小龙虾已经安装好了哈,我使用的是云电脑的,安装还是很简单的,我在这里呢来演示一下小龙虾呢,这个 ai 还是很强大的, 他可以最大好处呢就是可以操作我们本地电脑,我在桌面上呢有这个公式合计哈,我这个就是为了演示,然后把这个表格打开呢,就是这样的一个,呃,测试数据,测试数据哈,呃,然后就是在总计这里呢,我并没有算出来,然后待会咱们让小龙虾来打开这个文件呢,来算一下, 好,我在这里呢对接的是 qq, 他 还可以对接飞书或者是钉钉,呃,其实我在上面的对话记录中呢,这个功能已经测试完了哈, 但是我这分布这测试的,我在这里呢是把这些话都连到一起了哈,那我在这里呢就是让他做这么一件事,打开桌面上的工资合计表格,然后计算出总计,然后把总计呢写到表格中,然后把文件呢再发给我,好,然后我发送一下。 嗯,好,已经完成了哈,嗯,好,然后我们来看一下,那在这里呢,这最终生成的这个总计呢是九六四零零零,我们在这呢给他算一下啊,用表格再给他算一下, 嗯,表格在这里算的也是正确的哈。好,然后他把这文件也发给咱们了,咱们来下载一下,打开 好,打开之后呢,在这里能看到哈,九六四零零,这个数据也是正确的。

大家好,就是看评论区很多人不知道怎么通过 cloud hub 安装技能,或者是安装技能的时候提示什么限流啊,或者让你登录网页之类的问题,下面就给大家演示一下如何让龙虾自动安装应用的方法。 需要大家打开这个 colorhub, 点 ai 这个网站,嗯,进行注册并登录一下,登录之后在右边那个就是用户名的地方点设置,设置之后 然后向下拉,嗯,下面有一个创建 token, 在 这点一下创建,然后这会儿就生成了一个 token, 把这个复制一下, 然后打开我们的 qq 机器人儿,然后在里面输入, 然后输入 hello, 呃,怎么输入法?嗯, hello, have 空格, log in, 然后嗯, log 一,然后杠杠啊。 token, 然后空格后面就是咱们复制的那个粘贴一下,然后点发送,嗯,一会它就会提示那个已经登录。 嗯, 啊,好了,现在显示登录成功,然后我们再呃进行安装一下应用,嗯,看一下, 然后输入 close, 嗯, close, 哈不,嗯嗯, insode insode s k o 杠 a t t 幺,然后回车, 嗯,等一会儿。

还在去排队,或者花几百块找人装龙虾?快停手,本地部署风险大,叫你一招低成本营养大龙虾!搜索腾讯云,在主页直接点击 open call, 仅需二十块钱即可一键部署,想白嫖点击主页免费试用,新用户可以零点来着领免费服务器,领好之后重装系统,选龙虾模板就行。第二步很关键,早上十点抢个七块钱的扣领套餐,这是龙虾的核心动力。 进入控制台,找到我们购买的服务器,点击进入,然后在应用管理中选飞书作为接入通道,一键扫码配置即可。总共就三步,非常简单。打开飞书,你就能和龙虾直接对话了,问他你是谁,看回答很溜。 现在我们把 ai 生成的游戏代码丢给他,让他帮我们挂到公网。龙虾给我们生成了一个网址,我们点进去看看,嗯?网页打不开,我们直接问一下龙虾, 原来是防火墙没开,我们直接在服务器加个规则,这下点开这个网址,全世界都能玩你的游戏了,关注我,让 ai 替你干活!

挑战一个视频,教会你怎么在微信上装龙虾,学不学是你的态度,教不教的会是我的本领。我们要准备的工具有一部手机,一个电脑,然后完全免费。首先我们打开电脑,输入屏幕上这个网址, 下载你电脑对应的版本,下载完成以后双击进行安装,这边给他选择一个目标文件夹,我一般会建在 d 盘,安装完成以后点击运行就可以了。点击登录 微信进行扫码,扫码登录以后,在左侧栏的右下角会有一个手机一样的符号,我们待会会需要扫到这个二维码,那我们现在打开手机,手机这边首先我们要保证我们的微信是更新到了最新的一个版本,应该是八点多,更新完成以后,重启一下自己的微信,在我的里面设置 插件这个微信 call bot, 点击详情,在这里有一个开始扫一扫,去扫刚刚那个二维码,扫好以后点击确认连接这边就是它的一个聊天框,你就可以在这里进行一个 ai 的 互动。 如果你觉得这个视频有用的话,记得先点个关注,然后如果你有什么问题的话,欢迎在评论区留言,争取给大家解答吧,拜拜,记得点赞关注哦!

兄弟们,这周霸版 openroot 大 模型是小米的 miami v 二 pro 啊,它消耗一点四九 t topcon, 现在它在 openroot 是 免费的啊,我们非常适合应用在我们龙虾里。现在我的飞书的小龙虾里就是用了这个 miami v 二 pro 啊。 然后他这里边有两个注意的问题,第一个就是他的默认长度,我们需要让他给改成一照一照上下文。第二个就是,呃,让小龙虾的 app name 等于 open klo。