兄弟们,哪个版本的模型好用?我今天一天在家里面倒腾这个大模型,然后我的显卡是三零六零十二 g 的, 在家里面不停的试,就是这几个版本当中,我觉得这个二点五七 b q 四 k m 这个版本还可以, 如果说你的显卡性能跟我差不多,那这几个模型当中至少说你可以先选择这一个。当然如果说你的显卡性能更好的话,也可以体验一些更好更高端的一些模型。顺便我想问一下兄弟们有没有体验过,就是说更好的一些模型速度更快的,有的话可以推荐一下。
粉丝953获赞1.7万

最近是不是被小龙虾霸屏了?那么问题来了,该如何部署呢?是不是得先买一台高配电脑才能够带的动小龙虾呢? 运行小龙虾到底需要什么样的硬件和配置?主流的方案呢?有三种。方案一,完全本地部署,就是把整个龙虾养在你的电脑里,但对硬件的要求比较高,比如你有一块十二 gb 显存的显卡,即可实现日常的对话, 你要是有一块 r t x 四零九零或是五零九零,甚至可以复杂推理,效果直追云端。大模型优点是免费隐私拉满数据不出门。 方案二,云端部署,龙虾养成在厂商的服务器里面,二十四小时在线,最适合想要体验但又不懂的小白,一键部署,省心不吃配置,就是要花钱去买些 token。 方案三,混合架构,本地部署加云端 api, 用本地部署跑电脑客户端,但大模型呢,走云端 api, 用本地一个小工号的主机,二十四小时运行,此时呢,需要的电脑配置仅需一个四核处理器就可以满足。 比如你拿一台五六零零 gt 的 办公小主机来做客户端模型呢,用阿里的 api, 成本可控,体验均衡。而且本地部署呢,有隐私,云端有算力,但是养龙虾呢,需谨慎,它的安全性还有待考察,建议兄弟们体验一下即可,记得点点关注。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

你们看一下,这个是今天一个客户定的四台二百五十六 gb 的 一个 tb, 现存的 max, 丢丢可以把满血版的 kimi 装进去,它主要是设计工作室,给大家看一下装好的效果是怎么样。看到我现在给他装的一堆模型, 然后我们先从迷你 max 进行测试,后面 kimi 太大了,现在正在下载中。 q 四量化的 q 四量化就是现在我们用这个工程最好的一个解决方案,不用那么大, 基本上绝大多数你预算在八万内都可以跑起来,多人都不知道啊。像这种帮我们公司去解决问题,到底要如何训练呢?其实很简单,我们会有一些基础的提示词,比如说现在用 open call 去打造那种艺人公司,然后现在我已经把这些东西都描述好了,我们只需要按回车 看一下。我们克拉开始思考了,现在他已经去找我电脑的资料,以及帮我列一个 a 帧的清单,现在已经开始做策划了。 ok, 已经跑起来了。可以看到我现在是给我做了一个五人团队,然后有做选择题,文案分镜制作的这个内容,然后五个 a 帧帮我去做。 ok, 他的清单已经出来了,包含我每天什么时候发布,他都会自动帮我去发布,以及帮我建各种文件夹。 ok, 现在他又继续思考了,开始去整理我的素材库了,本地思考肯定要点时间。然后我们先来看一下这个机器, 如果是一台,他的极限是二百五十六 gb, 如果是两台,你就可以跑个五百一十二 gb。 现存的一个机器, 我们会通过这个雷电五口对它进行连接,如果你有四台机器,那就是一个 tb 的 现存,你要知道原来一个 tb 的 现存,我这整个房子都放不下, 所以说现在你只需要这么小的机器,而且极其的精致,大家可以听一下,一点声音都没有,这个就是目前本地大模型最好的方案,未来你一个偷啃都不需要花放在自己家里或者是公司里面,可以全程去跑这个大模型的算力,而且 基本上非常的安全,你的所有的合同数据都不会传到外网去。 ok, 可以 看一下,他现在已经帮我全部创建完了,而且创建了各种文件,包括我的人设, 现在准备来开始帮我做一第一条,现在有一个 a 帧的已经开始准备给我跑了,这个效果涉及到用户隐私啊,我就不给大家演示,大家可以看到他整个执行都是非常顺畅的,可以看到他做了这些策划。当然每个 a 帧的我们后期会根据一小题啊文案分进这 a 帧去进行精细化调整, 这样的话就是可以根据你的需求,我们打的是一整个框架,而这个机器放在你本地后期就没有任何成本了, 你随着你跟他聊的越来越多,他就越来越懂你公司的业务。这一套大概八万左右,我觉得到手性价比是非常高的, 如果你也打算用 ai 去做本地化部署的话,这套方案目前性价比确实是最高的。这样一套方案就是目前能满足你安全本地隐私的情况下,又能做到性能极致化。如果你也需要搭配这样的本地大模型,可以试试这一套。

你是否也为养龙虾而烦恼啊?我刚才试了一下,咱们这个龙虾线上 toking 太贵啊,根本养不起。但是要想用本地模型啊,你的本地模型小龙虾是不是傻傻的呆呆的?那是因为你本地步数太小了,四 b 八 b, 那, 那龙虾简直就跟啊幼儿园的小学生一样,想要部署本地大模型啊,首选枪神九 plus 超净版啊!我刚试了一下,部署三十 b 以上的本地大模型啊,六十四 g 两 t 加五零九零显卡 绰绰有余啊!还有一款就是咱们的幻 x 啊,幻 x 的 一百二十八 g。 我 刚看了一下啊,一百二十八 g 内存,如果你又放到台式机上,光内存的价格就已经 将近一万二三的价格。但是咱们现在换 x 的 笔记本啊,显存又高,内存又大,一百二十八 g 版本还可以同时叠加补贴的价格,现在两个 w 都不到,而且还有学生优惠啊,又方便携带, 轻轻松松啊!本地部署大模型龙虾啊,让你的龙虾啊比别人又聪明又快,而且还不用耗耗,耗费大量的 tucker 啊,不用耗费资金就能帮你办事啊,这样的下属谁不爱?想要预知详情,赶紧点我主页!

哈喽,大家好,今天继续给大家介绍小龙虾一键快捷部署的这样的一个解决方案的推荐。这几天随着技术的快速的迭代发展,国内的各大厂商竞相发布了自己的一键部署小龙虾的这样的一个产品。 今天给大家推荐的是阿里云团队发布的手机端一键快速部署小龙虾的这样的一个产品, 叫贾维斯克洛,这个阿里云团队也非常给力,快速的发布了第一个手机端的这样的一个产品,我们看到各大商店可以下载,首先我们可以在苹果的应用商店和安卓的应用市场都可以搜索的到贾维斯这个首字母的简写。克洛这样的一个产品 下载完成之后,桌面右下角这样的一个图标的一个界面,我们打开它登录,这个明显能看得到登录界面,还是用这个阿里云的账号来登录的,登录之后我们就可以看得到非常简洁的一个界面,是一键创建的这样的一个 cloud, 不 bot 这样的一个引导的按钮,说我的助理可以选择这样的一个服务器的环境,我们创建相关的这样的一个 lot bot 啊,目前显示在创建, 可以说一下现在这个应用还处于内测阶段,我们下载应用刚才在注册的界面,因为我已经申请过内测的邀请码了,是刚才没有看到那个界面,正常第一次注册的时候,他会让你输入这个内测的邀请码, 然后我们也可以去进行一个申请。像手机端的这样的一个小龙虾创建以后,那就非常的方便了,这个可以通过这样的手机端的部署和操控,直接来进行小龙虾的对话。好了,我们现在已经创建完成, 可以跟我的助理进行对话了。好了,在正式使用之前,我们先看一下他的技能模块,因为整个界面非常简洁,我们用小龙虾这个智能体,他其实主要的靠的就是技能的这样的一个能力,来帮我们提升生产力和效率。 首先我们看一下阿里团队的小伙伴非常贴心,他在技能的前面置顶的两个功能是技能查找,就说这个 app 装完之后,他自带了二十个技能,这二十个技能如果不够用的,可以自己去相关的网站去下载相关的技能,他提供了两个技能查找的渠道, 另外一个还可以自己创建技能,根据我们自己的办公的需求来创建这样的一个自动化的技能。未来在以后的视频中,我会重点介绍这个技能的能力以及如何去创建技能。 其他的能力我们简单看一下,包括记忆的能力,问题诊断的能力,包括自媒体运营专家,浏览器搜索,包括行程助手、财经信息、天气。重点说一下这个大家关心的几个技能来了,因为办公需要,很多人都希望说能够能自动的帮 大家来做 ppt, 因为做 ppt 一 直是比较耗时的工作,这个重点在这里介绍了它生成的是 ppt x 这样的一个可编辑的 ppt 文件。 往下其实有更高级的功能了,包括这个飞书的文档助手给 u i 设计的界面的功能,包括这个文案的策划。昨天就有人在我视频下面留言,就问说能不能调用这个 视频的工具来制作视频,阿里提供了这样的一个视频的解决方案,这叫 remote 视频开发专家提供了这样的视频从新建到优化的这么一个能力, 大家可以把这些能力了解完之后,逐步的进行测试,看看这些能力能不能给我们提供什么样的帮助。好了,今天把阿里的手机版的小龙虾贾维斯 claw, 然后今天就介绍到这里,然后也介绍了他的这个安装啊申请,然后包括他的技能能力下来这个对他这个技能能力的深度探索。我们下一期视频给大家介绍,希望大家点赞关注,感谢大家。

opencar 掀起了一波养龙虾潮,那如果本地部署摸不着门道,确实是挺花时间的,为了少让大家折腾啊,我把完整的步骤都已经准备好了,详细的代码分享也都已经放到了评论区,也欢迎加入粉丝群,可以随时提问,一起交流。我们还专门做了开箱即用的龙虾盒子, 插上就能运行,配上这台曙光十六 s r t x 五零六零的配置,本地部署绰绰有余。那么现在跟着这个视频把本地部署一次跑通。 首先准备三个必备工具,分别是运行环境下载工具和 a p i 钥匙。第一步,输入以下网址,进入 node js 官网,下载 node js, 确认运行环境。第二步,输入这段网址,下载 get, 用它来配置通用的 http 协议,安装过程中默认设置都不用改,一直点 next 就 可以了。安装这些软件后,按 win 加二, 输入 c m d, 调出代码框,执行 note 杠 v 命令,只要看到版本号就说明环境准备就绪。接下来输入这段网址,打开智普 ai 平台,注册登录后,在 a p i 管理里新建一个 key, 把它复制下来传到文档里,一会要用在 c m d 窗口输入 get v 也是一样,按下回车键, 版本号出现证明安装成功。继续在 c m d 输入这段代码,按下回车键。接着在 c m d 输入这段指令,按下回车键,等待安装完成后,再次输入这个指令,按下回车键。当看到版本号以后,就说明 opencap 已经成功安装。最后一步, 在 c m d 输入这段指令,按下回车键,选项选择 yes quick start 供应商选智普 z a i 去选 c n。 现在把刚才文档里的那串 api 钥匙粘贴进来。 我选择的模型是 gim 四点五 air, 接下来的机器人对话我也,搜索功能我们可以选择,跳过以后需要了随时可以开。完成以上操作,浏览器就会出现 open club 的 操作界面,那就证明 open club 小 龙虾已经部署完成。 所有的官网链接和代码命令我都已经放到了剪辑和置顶的评论区,遇到任何问题欢迎加入我们的养龙虾群。那由我说,这一次视频对你成功养好了这只小龙虾的,那麻烦大家给个一箭三连。

测试平台使用锐龙七五零零 f, 内存条是二二 g 的 六千 c 二八十六 g 乘二套条,主板是二二 g 的 b 八五零 m。 这次测试的显卡是华硕五零零钛十六 g 和同德的三零八零二十 g 魔改卡。 i couldn't wait for you to come clean the cupboards, but now you can。 在 c 十二中,三零八零取得了更高的增速,领先五千零六十 ti 大 约百分之二十三。而在赛博朋克二零七七中领先五千零六十 ti 大 约百分之二十四,结果和 c 十二差不多。目前来看,网游和三 a 游戏不用太多钱存,无法发挥这两张卡的真正实力。接下来进入 ai 测试, 这里我测试了千万图像编辑和问像二点二视频生成,这两个热门模型千万生图,因为十六颗带不动,所以使用 q 五量化版本和问像二点二视频生成两张卡均可以带动。 目前二手平台三零八零二十 g 售价两千七百元左右,比三千五百元的五千零六十 ti 十六 g 便宜百分之二十三。无论是传统性能测试还是游戏测试,三千零八十均领先五千零六十 ti 百分之二十以上。不过要注意的是,三零八零二零 g 属于模板显卡,没有官方保修。 除此之外,三零八零高达四百一十瓦的整机功耗是五千零六十 ti 的 两倍,对于电费敏感的用户来说,这值得再考虑一下。需要视频里的 ai 模型包,请三年私信 up 主,谢谢大家的观看,我们下次再见!

小龙虾啊,小龙虾,玩了两天了。嗯,我的部署方式是在我的飞牛,飞牛这个 nas 主机上部署一个容器,容器里边部署的小龙虾 啊,容器里部署的小龙虾,然后调用了我本地模型,本地模型选择了奥拉玛, 因为我的显卡是五零七零钛显卡,目前是跑了一个旧币的,旧币的前文三点五旧币的模型,十四币的模型也能跑。嗯,像旧币的我能跑到九十多头啃,速度还不错。 但是你如果说你在奥拉玛直接问这个大模型,他有点傻,我问他今天几号,他都不知道,看他的。嗯, 哎,他他他既然给我找出来了,刚才我上午问时他还不知道呢, 上午问的时候他还他还傻不拉几的看。上午问的时候没有查不到日期信息,然后让我查手机和电脑 啊,但这种部署方式呢?有有个问题,就是用多款部署,然后调用本地大模型,如果你在欧拉玛里边直接测这个数据,速度还是还是不错的。还不错。 嗯,但是如果说打开这个龙虾在这里边,在龙虾里边这个对话,他速度反应特别慢,我不知道为啥,是网络原因还是还是配置的问题, 所以说我决定打算放弃这种部署方式。我终于把龙虾部署到我本地和欧拉玛一台电脑上来,看看速度会不会提升起来。但今天这个这龙虾他也很笨, 他在装软件的时候把自己改自己的配置,把自己改死了。应该说他自己改自己的配置,又写的格式还不规范,写的东西不规范,然后配置文件出错,然后自己又挂掉了, 他自己,他自己改,自己把自己改崩溃了,这个龙虾, 完了完了,芭比 q 了。 我本来就想让他改一个问题,把他回答的问题的时候用流势书写的方式就是 一行或者一段一段的出,他现在出现的方式是问完问题等好半天,然后一下子把那所有的问题,所有的文字全部出来,这样等的时间太长,不是那种,嗯,从 一行一行的出那种方式,我就为了让他解决这个问题,我让他自己去解决,他竟然把自己给搞崩溃了。你看看,和用打字的效果和模型显示方式保持一致。 这是我问的,我问的, 让他自己去改变,让他自己去改,他自己改,改改改。 然后我给他一个一个方法,然后去配置他,结果 我把这个都都给他了,他说他明白了,结果,结果呢?结果呢?没搞成, 他让我试一下,一试连接断了,连接断了,这等于是他把自己搞崩溃了。 但我, 嗯,也也换了一种,用用这个 m studio。 m studio, 这个,这个,我下载好多模型,我准备用用这个 m studio 测一下这个各种模型的速度,测一下我,我的五零七零态 能跑到什么程度。嗯,一般我的显卡,这显卡跑二十米以上的怀疑都困难,都跑不动,还是不行。 大家有什么好的本地补水方式或者方案可以交流一下。 能不能推荐一下这种 ai 性能比较好的主机?我现在看就苹果的主机性能比较强。价格很贵啊。

如果你当下对 open call 的 部署和卸载你还不太明白的,那你先不要碰。第一,咱们普通人有没有必要去安装 open call? 第二,本地部署和语音平台需要什么配置?第三,哪些人又不适合用。 那简单的理解了, open call 跟别的 ai 的 区别就是别的 ai 像豆包,他可能是你问,他答给你建议和方法,但是 open call 是 直接帮你完成指定和任务。如果你是想 长线官方给你的最低要求是你的 cpu 只要是一个两核加上四 gb 内存啊。显卡就不说了嘛,因为大部分人现在显卡肯定都是 ok 的, 这个要求大部分也能达到。那第二点,做一些终端的事情。这边的要求我建议是六核 核心 cpu 加八 gb, 然后搭配一张类似于三零六零这样的显卡,你就可以用它去尝试。哎,跑一下代码, 做一下脚本,做一下脚的编程。那第三点,高端一点的这边竟然是八核的 cpu, 三十二 gb 内存显存的容量八 g 到十二 g 是 起步嘛? 当然,如果你这里实在差一点,你单根十六 g 或者是双根十六 g 也能去跑一跑。哎, open call 或者是哎呀,对我的硬件要求没有那么高,为什么呢?因为我们这里会涉及到一个东西叫云平台,我们向云平台租借算力来完成你的事情,所以本身对你的电脑配置要求没有那么高。 所以现在为什么有很多公司,他们自己搭建了很多服务器,向网络上出借它的算力给大部分的消费者来使用。就你的电脑配置,哪怕没有那么好,但是你租用它的算力,你也可以完成你想要的事情。 本地不熟的人,你是要对 open call 或者是一些 ai 软件是当下比较依赖的,你是确实可以通过它来完成你的工作需求,并且呢变现的。 那这样的人你肯定是要自己有一个非常好的设备,不需要再去租借算力了,因为他会涉及了一个概念叫 holcon, 你 每用 ai 软件完成一个指令,包括你每租借一个算力会产生一个费用。那我既然自己都需要长期干这个事了,我肯定就不用再租了,不划算,我自己买。 那既然是本地部署 cpu 这都这个东西,你是能多核就多核,多现成就多现成了。那多核的 cpu 很多啊,你比如像什么十二核心,包括像什么二八五 k, 很多这样高端的,包括 m p 九九五零叉,对吧?这个咱就不多说了,看你预算来行事。内存个人建议是六十四 g 是 个标配, 那网上还有很多一百二十八,对吧?甚至还有两百多 g 的 呢。显卡,显卡这个地方一定要是大显存的,那当下大显存的显卡首选一定是五 零九零,因为他给到了三十二 g 的 显存,那当然四零九零也行嘛,四零九零也是个高端显卡嘛,他的显存也够多嘛,对吧?那你相对于五零八零的十六 g 显存来说少了一点,你去完成一些你的顶级算力大了,模型就不太够。 那么还有一些专业的工作在显卡就是预算更高的人了,你比如像 r t 叉两千,或者是 r t 叉四千,当然 cpu 也是嘛。 cpu, 我 们刚刚说到多核心多现成,还有哪个 cpu 很 屌啊?现成撕裂者吧,对吧?撕裂者, 当然这是看你预算的,但是总体的预算我们给大家初步估计下来啊,你得达到这个数起步吧,五万块才能达到一个 比较高端的电脑配置的运行一个基础。那么还有以下的这一部分人,我觉得你不太适合用,包括第一点,你没有备用机, 因为国家也发不过风险提示,他有可能会越狱,删掉你这些重要文件和重要邮件。如果你只有一台电脑,而且又很重要,你部署了,把你的文件删掉了,你去找谁说理去, 对吧?还有第二个就是现在它的部署有一定的难度,大部分人是不会的,所以会请人上门安装,安装需要花钱,卸载也需要花钱,那当然最后使不使用看你自己,就算你不需要它也可以去了解一下,因为我觉得未来这个 ai 的 世界,它真的在生活中无形的帮助我们太多了。

本地跑 ai 不 用瞎折腾,这个网站帮你一键查适配!家人们想在自己电脑上跑 ai 模型,却怕配置不够白忙活。今天给你们安利一个神仙工具, can i run ai, 网址就是 canarin ai, 专门帮你检测电脑能不能本地运行 ai。 不 管你用的是 nvidia 的 rtx 系列、 amd 的 rx 显卡,还是苹果的 m 系列芯片,甚至是集成显卡,这个网站都能精准匹配。 打开网页,不用复杂操作,它会自动识别你的硬件参数,还能选择不同 ai 模型查看适配情况。像 mate 的 lama 系列、阿里的款三点五、微软的 vr 模型, 还有 open ai、 google 等大厂的热门模型,上面都有详细数据,不仅会显示模型需要的内存大小,还会标注是流畅运行, 勉强能用,还是配置不够,甚至能看到模型支持的功能是聊天、编程还是图像识别。比如你想跑轻量型的宽三点五、零点八 b, 只要电脑有六 g b 内存就能胜任。要是想尝试更强的宽三点五、二十七 b, 就 得看看显卡显存够不够十四 g b 了, 再也不用盲目下载模型浪费时间,也不用纠结要不要升级硬件。不管是 ai 爱好者想体验本地部署,还是程序员找适配的开发模型,这个网站都能帮你少走弯路。赶紧收藏网址去试试,看看你的电脑能驾驭哪些 ai 模型吧!

大家玩小龙虾,那装在哪里啊?是最省钱的方案啊?这里也很简单给大家说一下,就是我们在装小龙虾的很多个方案当中呢,我们挑了一个比较省钱的方案给到大家,这里啊,如果你是 mac 电脑啊,是 mac 用户,对吧?那这个是最好的, 因为小龙虾装在 mac 电脑上,你才能感觉到什么叫真正的丝滑啊,也不管是英特尔的还是那个 apple 芯片的,老的还是旧的是吧?十二系统以上的都可以了,这是一个,第二个,你装在你的 windows 电脑上去, 这种叫本地部署,那本地部署耗什么钱呢?耗了一个投屏的费用,就是你用的少啊,烧多少是吧?那这个呢,就是烧多少取决于你用的法,那就是一个就是说他没有了其他的成本了,这是第一个, 第二个啊,装在云服务器上,就像那你做了一个网站,一个东西,把一个这个小龙虾放进去,那让他去搞这搞那的,对吧?大概这个意思,那这里呢会产生一个费用,就是云服务器的一个月租费用,比如说 差不多能跑起来的啊,能跑起来的那就是五十到九十,对不对?就是一百块钱以下的,基本上能跑的起来很慢,但是你想跑的好,是吧?基本上都在一百五十,或者是一个三百一个月的一个服务器上去跑,这样子的话,你的小龙虾跑 的快一点,对不对?那这个呢,就是我们小龙虾装在哪个位置啊比较合适?当然你你自 自己的资源为主啊,放在哪里你有什么就装在哪里,是吧?但是我们一定程度上不建议你去装,部署在你服务器上场,因为他确实每个月都要有耗损,对不对?你装在你的主机或者是你的 mac 电脑上,他就没有耗损了呀?每个月的话你还能省了,省下来几十百把块,对不对?

不会还有老师不知道小龙虾吧,这个火遍全球的 ai, 你 们还不知道它是什么,在哪里获得,怎么收费?那今天呢,我就一五一十的全部给大家列出来,包括主流小龙虾的清单,报价,部署方式都详细说明,大家可以看一下, 今天听完就可以上手。首先对于小白老师来说呢,我们可以理解成小龙虾是一个 ai 机器人,能够帮我们处理各种各样复杂的工作,他比普通的 ai 模型更加强大。那目前呢,安装小龙虾有两种方式,一个叫本地 部署,一个叫云端部署,他们都是有优点和缺点的,本地部署呢可以安装在自己的电脑里面,让更加隐私,断网也可以使用,但是呢需要魔法。另外一种是云端部署,比较方便,七乘二十四小时在线,而且多个设备可以同步,但是它是需要付费的。如果对于一个新手小白来说,本地部署 国外的小龙虾的话,大概可能会需要两个下午的时间,大家就可以选择线上部署,虽然他会花一点点米,但真的会轻松很多。那我现在也把线上部署的小龙虾产品都给大家整理好了。 第一个呢叫做 arc cloud, 这个目前我觉得是最有性价比的,它是字节下面的一个专属的 ai, 可以 直接链接到非书,使用它的多维表格和文档的权限。 live 版呢是八点九一个月, pro 版呢是四十九 块九一个月。第二个就是我们的 kimi 产出来的 kimi cloud, 一 百九十九一个月,高阶版是六百九十九一个月。第三个也是我用的是扣子 cloud, 它是必须要使用高阶功能才能够 安装,高阶功能一个月是四十九块钱。另外呢还有 auto club, 也是支持一键安装,一键连接,开箱即用,这个是二十九 auto club 呢,以本地部署为主,另外是阿里最近出的,它也是本地优先,数据整体比较安全,可以兼容叮叮叮,飞书威,某信都是可以的,现在目前是开源,但是算率需要付费, 但是最近风很大的 q club, 目前内侧是完全免费的,而且还赠送 token, 唯一一点比较尴尬的是它需要邀请码,大家可以根据我给的文档内容去申请尝试一下。还赠送 token, 它 是三十八一个月,还有 easy cloud, 十九块九一个月。最后还有一个米 cloud 可以 期待一下啊,虽然现在目前还比较鸡肋,但是听说是可以以后联动米家,可以控制全屋的智能。但是我也有一点点小建议,如果是从来没有使用过智能体的,对 ai 不 太了解的朋友,我建议不需要安装,因为它确实会让人很崩。 而如果你想多学习一些技术,跟上时代的潮流,同时能慢慢的让机器人变成你的助手,逐渐取代你一些繁琐性的机械性的劳动的话,那我建议一定要用起来,会把入口和闭坑指南都整理出来了,大家跟着他操作就可以哦。如果你们还有哪里不会装不上,用不懂的直接来问我,知无不言,言无不尽。

挑战装一千台不一样的电脑,第五百五十九台。兄弟们,咱们首先感谢上海青浦齐同学大力支持啊,齐同学呢,他就是一万左右的预算,然后想搞一台主机,用来本地部署小龙虾的啊,养大模型的,我们来看一下他具体是选择了什么样的配件啊。 首先是咱们的 c p u 啊,这次咱们的 c p u 呢,是选择了这个十四代的 i 五幺四零零 k f 啊,十四个二十现成最高日平五点三 g 啊,一般的这种生产力包括游戏都是没有问题的啊, 去年的时候这个 cpu 大 概要一千一百块钱左右,那时候性价比非常高,不过最近呢,它又涨价了,已经涨到了一千四五的样子了,但是因为它的性能摆在这里啊,谁知是咱们还是给这个系统学上了这个优。然后是咱们的主板,主板的话,这次咱们是选择了这个 g 加的 b 七六零小雕啊,这是第四的版本啊, 十二加一加一相对固定,带个幺四六呢,肯定没有问题,而且有四个内存插槽,两个 m 硬盘接口啊,拓展性也是非常好的,这次咱们就用它来带幺四六了啊。三十七的话,这次咱们是选择了一个蜂门啊, 因为幺四六零 k f 两百的话会在两百左右啊,公会还是有点高的,所以这次咱们是选择了这个库里奥的 a 六零啊,一款双塔六热管的风冷雅阁,幺四六是没什么毛病的啊。内存咱们是选择这个雷克萨雷声凯啊,这是三千二平米的十六 g, 两个一共是三十二 g 的 内存啊, 跑一般的这种模型的话,三十二 g 内存也是够了的,硬盘呢也是选择这个雷克萨的,这是雷克萨的战神两 t b t r c 颗粒机, 一千四的多血,质保五年的。然后是咱们的一个显卡啊,显卡的话这是咱们是选择了一张二十 g 显存的显卡啊,大家可能都猜不到,这是一张 三零八零二十 g 的 啊,它的理论性能呢,是比那个五零零 k 十六 g 还强那么一点点的,而且有二十 g 的 显存啊,基本上三十 b 左右的模型呢,是完全能够跑通的,所以这次咱们就给齐同学上了这种显卡啊,这张的话是模改成二十 g 的, 然后我们这边质保三年的幺四六零零 k f 卖了一个两百来万,然后咱们的 零八零二十 g 的 版本刚好也两三百瓦啊,整机功耗会在五百瓦左右,所以这次咱们是选择了一个额定八百五十瓦的电源,这是金和田的白金 a 加啊,白金全魔族,额定八百五十瓦的,在这一套肯定没问题的, 后面咱们升级的话,好像勉强能带到五零八零的样子。最后是咱们的一个机箱啊,这次咱们的机箱呢是选择了这个行家的 g 叉七五零 c 挑战者啊,他加上了四把零的风扇组成一个风道,散热会更好一点,而且颜值也会更高一点啊。 整套配置来就是这样, cpu 咱们只选择了十四台的 i 五幺四六零 k f, 然后是两根三千二频率的十六 g 内存,两 tb 的 m 固态硬盘,还有一张三零八零二十 g 的 显卡啊,这一套配置的话会在 九千多块钱不到一万块钱啊,再次感谢咱们上海青浦齐同学的大力支持啊,咱们挑战中一千台不一样的电脑已经到五百五十九台了啊,感谢大家的支持,咱们下期再见。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

什么是 openclaw? 最近这只红色小龙虾把果人迷得神魂颠倒,那么部署它主机要什么配置?首先,流畅运行对硬盘读写有一定要求,如果只是基础对话和轻量任务,需要二 gb 内存 四十 gb 系统盘空间硬盘推荐三星九九零 evo plus 需要复杂推理、多任务并行和本地模型加载,推荐配置四 gb 内存 以上一百 gb ssd 硬盘推荐三星九九零 pro。 如果你是团队协同,需要多用户请求和大模型推理,那就需要八核处理器一六 gb 内存两百 gb ssd 硬盘推荐三星九幺零零 pro。

谁懂啊,家人们两个 openclub 小龙虾聊着聊着就欠费了。云端 token 烧钱就算了,,还总担心数据安全,,不熟起来更是火大,云端 token 越用越贵。, 不小心一玩就花掉几百数据,放外面总怕泄露,部署还得懂技术,非专业党根本玩不转。!还好我发现了可以在京东购买 ai 工作站这两款专业级迷你主机,直接把大模型搬回家。!先看这款 ab 迷你夜冷 ai 工作站。, 发生液冷机声静音散热不缩水锐 ai max 三百九十五,加强算力, npu 小体积也能当专业 ai 工作站,本地跑大模型超流畅。。 再看这款口袋,玲珑星河高性能 ai 超算中心,同样八升全体液冷小钢炮,一百七十六瓦满血释放,一百二十 gb 大内存加九十六 gb 显存。 本地跑二三五 b 大模型毫无压力,欧风可乐部署一步到位,不管选哪款,都是一次性投入,本地推理零费用,再也不用看 api、 账单,脸色、数据全留在本地,安全又省心。! 非技术党也能开箱即用!!想摆脱烧钱和安全焦虑的保资,打开京东搜 ai 工作站专属活动页,直接充!!

你去看看自己的杂物间,谁家还没两张吃灰的老显卡? gtx 一 零六零幺六六零,甚至 p 一 零六。很多人觉得现在跑大模型、做视频渲染,这些卡早就是工业垃圾了,不如卖废品。如果你也是这么想的,那说明你还没有建立起算力集群的概念。确实,你用一张一千零六十去跑复杂的四 k 视频生成,它 是会卡死。但如果我们把这台洋垃圾服务器,通过底层的虚拟化系统,先分成好几个独立的房间呢?我们搞专卡专用,把性能好点的卡 直通给主要的 ai 绘图环境,把那些几十块钱的破烂矿卡直通给后端的文字处理模型,或者让他专门负责视频的后台补帧转码。原本在你看来是一堆毫无用处的废铁, 组合起来就成了一条流水线。他们虽然单兵作战能力不行,但只要分工明确,二十四小时不知疲倦的跑,创造的价值绝对远超一张几千块的新卡。榨干硬件的最后一滴血。这是咱们垃圾佬的浪漫,也是小老板们该有的算盘。如果你也喜欢这手艺,罗秋天带你手搓服务器!

大家好,今天我用两分钟的时间带你拥有自己的第一只小龙虾。在这之前,我们要先搞清楚目前小龙虾的三种安装使用方式。第一种, 在本地端安装,就是把龙虾完整的安装在你自己的电脑上,不管是 windows 系统还是苹果系统的 mac mini 上, 如果条件允许的朋友,还能跑自己本地的大模型,把数据留在本地。不过这种模式对于安全性还有系统的硬件都有一定的挑战,不太建议新手去使用。第二种,云端部署的这种模式,这种模式主要就是把 龙虾安装在云端,现在各大云厂家都推出了一键部署的方案,包括阿里云、腾讯云、天翼云等等,如果你对体验有要求,还能够把它部署在自己 配置更高一点的云端服务器上面,安装原生态的 open 框。云端的优势就是二十四小时待命,全部的东西都是走云端,不需要占用你自己电脑端的硬件配置。 第三种,第三方套壳的模式,就是由第三方把已经安装好封装好的龙虾 部署成带有图形界面,一键启动的成品软件,他不需要你敲代码,不需要你配置环境,直接打开就能用, 适合纯新手不想折腾的人,但是要注意选择安全正规的平台,保证安全稳定。包括最近火热的富盛老师的 e g q r, 还有智谱的 autoplay, 腾讯的 what's up with mini mess 的 mess club, 都是属于这种类型。好,接下来我带大家从我的电脑端去看一下我所部署的龙虾。