你是不是也经常听到别人说安装了 openclaw, 感觉自己也没怎么使劲用,结果一个月的账单就是几百美金甚至上千美金,很多人第一反应是偷工太贵了用不起。但是真相往往是你把计费模式给搞错了。今天我就把 openclaw 里面最容易搞混的两个部署方式讲清楚, oof 和 api key 用完你就知道为什么同样在用 openclaw, 有 的人稳稳一个月几十美金,有的人直接爆单上千美金。 先讲本质区别,你可以记成一句话, os 更像是包月套餐, api key 更像是流量计费,如果你没有设置上线的话,它就没有上线。 os 的 全称是 open authorization, 意思是授权登录。在你部署 open cloud 的 时候,有几家大模型公司都是允许你用 os 来关联你的账号。比如说 open ai, 如果说你有叉 g p d plus, 也就是那个二十美金的会员或者是两百美金的会员的话,你大可以使用这个二十美金或者两百美金的会员来使用 openclaw, 那 么你一个月的使用上限就不会超过二十美金或者是两百美金,不管你是用了哪个会员。再比如说 google, 现在你在 openclaw on board 的 时候,你还可以看到 google 这里也允许 off, 但是据说这个不是官方允许的,所以它不稳定,不确定在我这个视频发布过去一段时间,会不会这个功能就没有了。但是 open ai 这边是可以的,毕竟 open ai 跟 openclaw 现在已经是一家人了, cloud 是 绝对不行的,它就只能让你使用 a p i t 去使用 homecloud, 那 么你的账单就有可能很贵。为什么说使用 off 能够省钱?是因为你本来已经给 open ai 交了订阅费,那么你日常的这些跟 opencloud 的 交互呀,调 agent 啊,反复试错啊,那你所有的消耗呢?都是算在你的 这个二十或者是两百美元的这个订阅费里面,你的账单就不会超。那 off 的 这个路径适合什么人使用?如果说你每天是高频写内容,写代码,调流程,跟 agent 长时间的来回互动,也就是说你是本人在前台不断地去跟 agent 的 对话去调用,那么你就优先使用 off。 那 apikey 又是什么?为什么很多场景大家会用到 apikey, apikey 呢?是你在平台的后台去申请 apikey, 拿到的一串很长的英文字母和数字结合在一起的一串像密码一样的钥匙。如果说你在部署 opencloud 的 过程中,在选模型的那一步 是直接用 apikey 去关联 opencloud 的, 那么你使用 opencloud 的 过程中的所有使用全部都会根据你的 token 使用量来计费。这也就是为什么有些人他的账单非常惊人,几百上千美金。那这么说 apikey 就 很坏,大家都不应该用吗?不是的, apikey 的 优势不是在于它便宜,而是在于它可控,可以审计,可以扩展,你可以精确地知道自己每一个任务花了多少钱,你也可以去设置你的 apikey 使用量的预算上限。一句话,如果说机器自己在后台干活,那么你就首选 apikey。 比如说前段时间我部署上线了一个网站叫 covermagic dot site, 这个网站呢就是可以给大家去生成视频封面的,那在用户,不管是我还是其他的用户,在使用这个网站的时候,就会调用我后台的 google 的 gemine 的 apikey, 那 每一次的调用呢?都有每一次的花费,没有调用的话就没有花费。我也在 google 的 后台设置了每个月使用这个 apikey 的 上限,以防我的信用卡被刷爆。所以如果说你是做了一个下数软件给到客户用,如果说你每天有很多定时的自动化的工作,那么这种自动化的自动执行的工作 后面也应该是关联 a p i t, 因为这些都不是你本人在跟 ai 聊天,而是 ai 在 自动帮你跑任务。如果在这种场景下使用 off, 那 么无论是在稳定性上还是合规上,还是成本上,后面都会出问题。所以呢,这样的场景就是一定要用 a p i t 给大家一个最实用的落地建议。对于你日常的工作跟 ai 的 对话,让他帮你干活儿。这个场景呢,咱们使用 off, 那 你可以使用叉 h b e 的 会员,你可以使用 google 的 会员,这个呢,待定。然后如果说你是使用像 mini max monoshala ai, 或者是像智普 ai, 它们都是有自己的 coding plan, coding plan 呢,相当于是流量包,每个月呢,你有多少个 prompt, 或者你能使用多少 token, 你 不会是完全按 token 来计费,然后你的这个成本你知道是有一个上限的,你不会超过它, 如果超过他们,你再去买更高一级的会员,更高一级的 token plan 就 好了。但是对于已经上线的产品和你需要定时定期去自动化在后台运营的批处理任务这种场景呢,咱们使用 a p r key 配置好预算,上线设置好成本的预警,以防超标。你学会了吗?我是发力,我只分享有价值的思考。
粉丝31.6万获赞128.8万

如何免托肯本地装小龙虾?最近这个 openclock 非常火,我也在我的本地装了一个小龙虾,但是装小龙虾最难的一个地方就是他的托肯啊,非常好这个托肯,但是我装的这个版本的话,他是一个免托肯版本,他是一个。怎么逻辑呢?就是你不要去配这个 apikey 啊,你 配的是什么?配的就是他网页的这个接口啊,就是说你通过这个网页的接口来调用这个模型的能力啊,比如说你可以去配这个 智谱的模型啊, deepsea 的 模型啊,啊, kimi 的 模型,豆包的这些模型,只要你的网页能够访问去抓这个网页的接口, 你就把这个接口的这个模型的能力去给你的这个小龙虾用,这样的话你相当于就不用再去配 apis key 了,就相当于不用再花费自己的这个托肯了。我现在的话本地已经配好了,我就问他一下你是什么模型?因为我连的是这个 deepsea, 它相当于已经帮我连上这个 deepsea 了 啊,现在这个非常好用,就不需要再配这个托克了。这个的话就是我的这个 open cloud 他的一个配置的文件。给你们看一下他访问的这个接口啊,接口的 url 的 话就是 deepsea 的 官网模型的话, deepsea chat, 然后 deepsea 的 推理模型 就是这么配的,就说你不需要再去配那个 api key 的 那个接口了,直接去掉网页的接口来配你的这个本地的小龙虾,也是可以用的,如果你们感兴趣的话可以后台戳我。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

你是否也为养龙虾而烦恼啊?我刚才试了一下,咱们这个龙虾线上 toking 太贵啊,根本养不起。但是要想用本地模型啊,你的本地模型小龙虾是不是傻傻的呆呆的?那是因为你本地步数太小了,四 b 八 b, 那, 那龙虾简直就跟啊幼儿园的小学生一样,想要部署本地大模型啊,首选枪神九 plus 超净版啊!我刚试了一下,部署三十 b 以上的本地大模型啊,六十四 g 两 t 加五零九零显卡 绰绰有余啊!还有一款就是咱们的幻 x 啊,幻 x 的 一百二十八 g。 我 刚看了一下啊,一百二十八 g 内存,如果你又放到台式机上,光内存的价格就已经 将近一万二三的价格。但是咱们现在换 x 的 笔记本啊,显存又高,内存又大,一百二十八 g 版本还可以同时叠加补贴的价格,现在两个 w 都不到,而且还有学生优惠啊,又方便携带, 轻轻松松啊!本地部署大模型龙虾啊,让你的龙虾啊比别人又聪明又快,而且还不用耗耗,耗费大量的 tucker 啊,不用耗费资金就能帮你办事啊,这样的下属谁不爱?想要预知详情,赶紧点我主页!

龙虾本地用的是千万三点五的二十七 b 的 模型,巴巴比特的电话版本 对比了一下,二长音肯定是没问题的。如果说要要做一些复杂任务的话,我买了一个百炼的一个一个一个套餐,可以临时切过去,感觉完全够用了。 这是在乌乌班图的服务器上搭建的,在我本地。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

跑小龙虾,用一个模型包打天下呀,是最常见的错误,要么贵到烧不起,要么省到用着难受。正确的做法很简单,一个主力,一个苦力。 主力负责真正需要智能的任务推理、规划、写作。苦力呢,负责专门接高消耗低价值的活,爬网页啊,整文档啊,批量处理啊。那这类任务用顶级模型去跑啊,纯属浪费资源。 入门组合呢,用 gbt 五点四做主控, kimi k 二点五做辅助,一个月不到两百块人民币。两个呢,都是套餐制,不用算 token, 没有任何焦虑。想了解完整的无形组合策略呢?加入范凯说 ai 会员社群。

界面啊, open cologne, 来看一下咱们整个配置。这边呢是 cologne 的 get 位,他的网关,这边呢是本地的欧拉玛服务器 哎,这边已经好了,其实呢,走了一些弯路,我跟着豆包的思路啊,给我转圈转了一天。然后呢,我用 tiffany 呢,直接改了一个 jason 的 一个配置文件,直接跑通啊,就是这么。哎呀神奇,看一下, 我这边是跑的本地的欧拉玛,用的千问三点五九币的一个模型。你看这边啊,我已经开始给他对话了。这边想做什么啊?怎么称呼这边?你看下一步呢,继续折腾一下。

ai 圈,这是 oppo q 小 龙虾,都快被人炒成天价龙虾了,五百块一次安装费,大厂线下活动排队能绕写字楼三圈,纯真是把板砖卖成金砖的价。今天老陈不玩絮叨,两步教你零元部署,把它变成给你打工的专属牛马小龙虾。 第一步,其实就直接打开飞书,直接搜 openclock, 找到那个叫妙搭的应用,点一下一键部署龙虾,就跟你平时点外卖一样简单。那第二步,给你的小龙虾起个花名,选个可爱的头像点创建,泡杯咖啡的功夫,一分钟不到就能部署完成。不用你研究什么乱七八糟的 skill, 小 白也能临门砍上手。完事发一句,获取所有权限,点个授权熄火。这个小龙虾有什么用?都在这张图里, 不要以为老陈在打广告啊,谁用谁香!二零二六年了,再好的 ai 技术,最终都是为了让人活得更自在。那关注老陈,轻松玩转你的二零二六 ai 时代!

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

啊啊! 之前有小伙伴问 lm studio 是 否支持小龙虾 open club 以及如何配置,这次就简单做一期视频,教大家如何设置,也是超简单的,如果你还不会的话,跟我一步一步操作即可,这也适合新装小龙虾的配置哦。 首先自然是确保你已经下载了你要用的模型,这里我就用千问三点五三十五币作为例子,大家可以看到我已经加载好了。然后只需要来到小龙虾这里,直接运行 opencloud on board, 这样我们就可以配置新的模型了。 小龙虾还是比较智能的,它会识别到你已经有配置,这里我们只需要改动一下模型,所以我们选 update values。 然后就是熟悉的配置页面了, 我们选 custom provider, 这里默认会出现奥拉玛的本地服务器地址。我们则要来到 lm studio, 点击 server settings 这里我们关闭 require authentication, 并且打开 serve on local network。 此时右侧就可以看到 url 从之前的幺二七点零点零点幺变成了你本机的 ip 地址, 这样部署在非本机的服务也可以调用 lm studio api 了。如果你的小龙虾是部署在本机的,那就不用打开 servelocal network 这个选项,保持幺二七点零点零点幺的 ip 地址即可。由于我的龙虾是在其他设备上部署 的,所以我这里需要把本地的 lm studio api 地址暴露给他们,我们点击这里复制,然后删掉奥拉玛的地址并粘贴上去。这里注意, 我们要加上一个斜杠 v 一 再按回车。然后这里我们就选 paste api。 但是由于我们之前关闭了 require authentication, 即不需要 api, 所以 我们这里随便打个一二三四即可。 这里我们可以选 open ai compatible, 即 open ai 兼容 api, 不 过 i o m studio 也支持了 osraplay 兼容 api, 你 也可以尝试拥有。这里我们就选 open ai 兼容 api 了哈。这里我们输入模型的 id 名字即可。我们回到 i o m studio, 这里就是模型 id 了,我们复制下来,在输入的时候需要加上模型的提供商,由于这个模型是昂尔斯的,所以我们打上昂尔斯斜杠,再粘贴上去。按回车之后,我们就会看到龙虾说 verification successful, 即验证成功, 这里直接回车,然后他会让我们给模型一个别名,我们就不起了,直接回车。 下面我们可以全部按跳过,因为我都配过了。最后重启小龙虾的路由就大功告成了。打开 t u i 后, 此时我们就可以看到 l m studio 已经接到龙虾来的请求了,然后这里也显示正在使用千问三点五三十五 b 的 模型,然后龙虾也回复了内容怎么样,你学会了吗?

可口可乐大龙虾,他是云端好还是本地好?那他们两者之间的成本有什么样的差异,以及他们实现的效果,功能上面有没有区别?那今天一条视频给大家讲清楚,哦,对了, 还有适用的一些人群啊。我先说云端,现在目前你部署一个大龙虾到云端上面,你需要花费的成本大概在五百以内啊,不会太高,因为现在阿里、腾讯 各大云厂它都出了这种 opencloud 的 一个镜像,你只要是买一个清亮云服务器,买了之后呢,自动就给你它部署好了,这个界面就是云端的界面了,对吧?自己配一个模型, 一个通道,以及它的技能数啊, skill 就 完了,非常简单,傻瓜似的,这个东西部署的时间也就在二十分钟以内,就这么快的一个时间,它适合什么呢?咱们本地没有什么设备啊,并且呢,我本地是需要关机的嘛, 所以我在云端上面就能七乘二十四小时不间断的让它去运行。那说完云端的好处优势,那我们再说一下本地,难道本地真的是那么一无是处吗?啊,倒也不是,因为现在网上但凡你去搜一下,现在有很多那种 opencloud 的 一体机啊,说实话是之前那种 魔改的一些机器,因为云端的优势刚也说了,但他的劣势也挺明显,就是他的核心以及他的内存不会给你很大,你像你花个两三百,可能买个四合八 g 的 都都都这种都很难逃了,一般是二二合四 g 的 这种样子。这就来说对大龙虾的这个本地发挥就有限制,他不能去做多现成的这种任务,可能会因为自己的深度思考,然后卡死, 也不能调用太多,那我们在本地部署的时候,当然硬件就没有什么限制了,那限制的可能就是一些什么你的贷款,对吧?网络波动 以及你本地化的一些环境搭建,这个就是一些进阶玩家的啊,这么一个操作了,你需要在一个纯净的系统上面。当然这里建议不要拿你自己的主力机,比如说像我现在用的这台 windows, 我 有很多里面自己的资料,我不 能说把大龙虾装在里面,那他万一抽风删掉了我本地的一些资料怎么办呢?那后悔莫及,追悔莫及,那对我造成了一定的损失。但凡事都有两面性,所以呢,一般的解决问题呢,我就会在我本地的这个机器里面再装一个沙盒系统, 也就是在 windows 里面再开一个 windows, 让它在沙河里运行。那这个时候问题又来了,那你在沙河里面运行,你得关机,你不能说二十四小时一直开着对吧?但大龙虾就需要二十四小时开着,所以大家都在网上疯狂的抢那个 mac mini, 就是 因为它足够让大龙虾去运行, 单独为大龙虾装这么一个硬件,那剩下就是看怎么去用了,而且 mac mini 可以 多个这么组建起来,然后让它的性能再一步去提升。但是现在也有很多那种伪 windows 的, 就是大龙虾一体机,也是以前的上古, 但是整体来说比云端的这个无论是从核心数来说,还是内存来说,还是你的硬盘来说,要宽裕太多了,足够让大龙虾多开几个浏览器或者多端去运行,深度思考 迭代一些东西。那其实在云端上面我们是适合小白,并且不是那么深度去玩的,就简单配置一下,平常我记个手帐, 运行个文档什么之类的啊,规范化。那如果说我需要大型的一些执行或者复杂一点的话,那就是在本地,但本地呢,更适合我们中高端玩家 diy, 因为要解决环境的问题,包括自定义,包括技能数 skill 的 一些自我的配置,那配置就更多了,每个机器每个机器有不一样的东西, 同时你也得保持这个二十四小时在开着机,它在运行,包括大龙虾的运行的这种情况下,水土不服的情况下,你都要去解决这样的 bug, 所以呢,两者的区分 就非常大了。那大龙虾现在能做什么?就是做一些表格公式之类的,帮你去提醒,帮你去服务一些会员,有的把它接到了一个企业微信里面,去服务一些客户,在客户群里解答一些问题。像我呢,我更多的是把它当成一个我知识库的管理员,但是他之前也建议我说把它当成一个 写脚本的,但是脚本对我来说呢,相对来说这是人该写的东西, ai 写永远没有我自己写本那个味儿, 这个对于 ai 来说是难的。呵,这个是多年的说话习惯或者使用习惯,这个 ai 的 确是做不到,但它能做到就是在我既有的内容之上,它可以自己浏览我的知识库,然后同时呢规划我的知识库更新方向, 以及呢帮我填充一些啊有必要的一些细节,然后作为我的一个助理,二十四小时监管着我的这个知识库的叠带,以及同步的去浏览现在最新的 ai。 啊,那至于他烧多少扑克,你其实也现在到现在也没烧多少,而不是说啊我是要云端好还是本地好呢? 你先跑起来,我觉得是最好的。呃,最后我想说的是在你做这个大龙虾的时候,结合你现在实际的目标去产生价值,这个我认为是你要想清楚的。然后第二步,那接下来就无外乎就是 看那些投产品呗,我投入了多少,然后他输出了多少,因为大龙虾他是可以根据你的过往记录去存储一些他工作的细节,他会一点一点增强他的技能,以及你把他当成一个伙伴搭子的这个适配性。希望对你有所保 好。关注我,阿叶能洗。

不定海外模型、国产模型和本地模型怎么选呢?国产模型里面,月之暗面的 kimi k 二点五目前最强,平分仅次于 cloud 和 gpt, 跑小龙虾完全够用。 智普的 glm 五呢,也还不错,差距不大。 mini max 稍微弱一些,但胜在便宜啊,适合跑量大低价值的任务。 本地模型当中呢,要看你的内存大小了,如果你的机器内存超过一百二十八 gb, 首选昆三点五。一百二十二 b, 它是 moe 专家,架构效果甚至超过了 glm 五啊。如果你的内存不够呢,选择昆三 cold next 八零 b, 它的推理呢,每次只激活三 b 参数,速度快,效果也可以接受。想了解完整的模型组合策略呢?加入范凯说 ai 会员社群。

告别天价偷肯账单,一分钟带你解锁 openclock 本地部署神器 i p c starx 一 零零零港三 l 军工及移动 ai 工作站不同于传统单轮问答, openclock 至能体的全流程运行,天然需要长上下文承载多轮任务拆解与连续工具调用,每 一步都在持续消耗云端 token, 掏空你的预算,单次复杂任务即可消耗五万到十万 token, 折合单次成本近一元。若自动化高频触发,单日百次运行已是常态,年累计支出轻松突破三点六万元。单任务尚且如此,多业务并行的团队更要承受持续滚雪球的计费压力。想要彻底破局,把大模型的核心算力直接搬回本地, i p c star x 一 零零零杠三 l 彻底重构你的 ai 应用成本逻辑。它可按需匹配选存档位,灵活定制高性价比 ai 部署方案,支持最高两百倍参数大模型本地推理,内置算力单元可提供最高一 flop f p 四级 ai 性能,兼容双机互联、三屏一显, 绝非勉强跑通模型的消费级轻量试水,而是能将大模型全能力长期落地桌面端的军工级 ai 超级终端。更关键的是,本地部署实现了数据安全的量级跃升, 所有业务上下文、核心知识库、涉密研发资料、客户信息全流程本地闭环处理,彻底杜绝数据外发风险,斩断外部服务依赖带来的安全隐患。 ipstar x one o o o three l 让你的智能体应用从此告别云端计费枷锁,实现低成本、高安全、全自主的稳定运行。