你敢信微软刚刚把 ai 呢,从 gpu 的 劳动力放了出来,你知道为什么 ai 一 直贵的离谱吗?不是算法,不是人才,是显卡,一张英伟达的 h 一 百呢,二十五万块,还一卡难求,全世界呢,都在卷模型,卷参数,卷融资是吧?但微软研究院呢?呃,通过创新研究呢,直接掀桌子,不玩了, 他们呢?呃,开源了一个项目,叫 bitnet, 我 帮大家呢分析一下这个 bitnet 的 情况。 bitnet 呢,在比特哈布呢,三十三 k 型炸裂,非常非常炸裂,是吧?呃,核心原理,就一句话,把 ai 的 权重呢,从十六位压缩到了一点五八位,压缩的很低啊, 怎么压缩的呢?不是量化,也不是减值呢,而是从零开始。从第一性原理的角度讲呢,他们通过原生训练,一比特的模型权重只有三个值,负一,零,正一,就像二进制的零一是吧?它比较少,没有浮点数,没有矩阵乘法就加减法。一千亿参数的大模型呢,普通 cpu 直接跑, 速度比拉玛 c p p 快 二到六倍,就是我们说的这个开源的拉玛模型。呃,能效提升了接近百分之七十到百分之八十二,非常高,是吧?这意味着什么呢?意味着你的 macbook air 的 笔记本呢,就能跑百亿参数的模型。 那你,那你想象一下,你的边缘设备,你的电脑,你公司的旧服务器,也都全都可以不用上云,隐私安全,不用买卡,成本规定,对吧?那就意味着以后极大的这个技术呢,有可能极大的推动呢,降低了 ai 大 模型的普及。那些靠卖显卡躺着赚钱的人呢,开始睡不着觉了, 至少会让他们非常紧张是吧?微软用 bitnet 呢,证明了一件事, ai 的 未来呢,不应该被几颗芯片垄断。呃,这呢,不是技术突破啊。呃,如果成功呢,它是一种平权运动。 那我们想象一下。呃,如果这个 big night 能够在商业上获得成功,接下来会发生什么呢?一,你手机里呢,可以很快去跑非常参数很大的本地模型。呃,紧接着呢。二呢,冰箱和空调里也可以,可以马上跟你聊天。呃,第三呢,所有 ai 应用呢,成本都会降到数十倍以内,算力大权呢,就会慢慢地被瓦解,被撬动。 如果 ai 不 再需要显卡,你觉得谁会是下一个受害者?评论区呢,也谈谈你的看法,如果你觉得有收获,点个赞,关注我,带你洞察 ai 科技的能力,记得点赞关注哦!
粉丝521获赞4647



使用欧拉玛可以一键部署本地大模型,我选择的模型是千万三点五九 b, 现在来演示一下, 可以看到 gpu 使用率向升,由于我这台电脑的显卡配置比较低,所以输出的比较慢。 好,终于输出完成了,接下来是 gg 教程。 首先肯定是要下载欧拉玛的这个软件,进入欧拉玛的官网之后,选择 windows 点击下载,当然这个下载起来会非常的慢, 我也给大家把安装的程序上传到了网盘下,下载后双击打开直接安装,安装完成之后就是这样一个界面,可以在这里点击你想要的大模型,比如说这些是云端大模型, 从这里开始就是本地大模型,这个是谷歌开源的本地大模型街吗? deepseek 千问三,还有其他的一些模型啊, 对于模型怎么挑选,得看电脑的配置,比如说我这台电脑 cpu c a m d 二五六零零两根 d d e 二四的一六 g 内存条, 显卡是一六六零 s 六 g 的 显存,这个已经是非常老的显卡了,后续我准备根据我的电源升级成四零六零 t 一 六 g 显存的,所以根据我的电脑配置 选择了比较小一点的模型。那你的电脑适合哪一个大模型?可以把配置发给豆包问问,让豆包帮你分析适合下载部署什么样的大模型。今天的教程就到这,关注我,评论私信。

最近养龙虾特别火,今天我带大家在国产系统环境里养虾,我正好手里边有一台笔记本啊,笔记本安装的是银河麒麟操作系统 v 十的二五零三版本,在开放麒麟社区我看到了他们制作的龙虾的安装包, 我直接下载的叉八六版本到本地。下载完以后,第一步我先要对这个安装包去付全,也就是给他一个可执行权限,需要在命令行里边去操作。 命令已经打在弹幕上了,输入的时候需要注意输入空格, ok, 直接双击启动,允直接运行, 始终允许。 第一步我们先需要配置模型厂商,我们可以选择智普 默认 api 密钥,需要大家去单独注册,我提前注册了一下, 将 apik 复制, 然后保存配置,开始安装, 安装配置成功, 安装成功以后会弹出一个安装成功的对话框,打开网页,我们可以复制把这段,把这段地址打开网页,我们复制这段地址 可以用火狐浏览器,也可以用三六零安全浏览器。打开之后我们输入一段命令试试, 耐心等待一下, 把动态汇总了下,速度上也还可以。以上就是龙虾部署的详细步骤,部署起来很简单,感兴趣的朋友可以去体验一下。

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

openclaw 到底能不能使用本地模型来完成各种任务?今天我就把实际测试的结果和大家分享下。本地模型我使用的是最新发布的千问三点五量化版本,目前已经发布的有二十七 b、 三十五 b 以及 e i 二 b 三个量化版, 各位可以根据自己的显卡状况选择合适的版本。我这里选择的是三十五 b 的 量化版本,模型大小为二十四 g, 实测在我的双显卡环境下速度可以达到一百二十 t 每秒,性能上已经可以完全满足使用需求。 本地的模型工具使用的是羊驼欧拉玛,需要注意的是,欧拉玛软件必须是十七以上版本才能够支持千问三点五这样的新模型,目前官网最新版本是十七点零点四。而最令人惊喜的是,新版的欧拉玛已经集成了 open claw, 你 只需要在命令行输入 open claw 这一行代码,就可以直接部署你的龙虾机器人。 此外还需要注意的是,新版本的欧拉玛把上下文长度设置为了二百五十六 k, 这可确保连续多次和模型的对话不会被中断,但这会占用更多的显存资源,所以一定要选择适合自己硬件性能的量化模型。在将千问三十五币设置为 openclaw 的 主模型之后,我进行了多个功能的测试,包括 skill 技能的安装和配置、 股票代码的抓取和市场行情分析,以及 ai 新闻的搜集和定时任务的配置。结果超出了我的预期,本地模型基本顺利地完成了所有任务,没有死循环或是失去响应的状况发生。但需要注意的是,量化版本的模型由于能力限制, 如果是较为耗时且有多个分支任务的对话,你需要再次输入提示词,要求模型检查当前的任务执行状况,以避免任务没有被百分之百完成。在耗时一天的深度体验后,我认为使用本地千问模型配合 open claw 来执行基本的信息搜集和数据分析等无需复杂逻辑的任务是一个非常好的选择, 但前提是要确保你的硬件有足够的性能来支持本地模型的运行。同时建议另外再配置一个线上大模型来配合完成其他复杂项目。 通过这样的组合,应该可以有效避免 token 过度消耗造成的大额费用支出。以上就是我使用本地模型配合龙虾机器人的使用心得,如果你也有类似经验,欢迎在评论区分享你的使用反馈。

今天想跟大家分享一下本地部署康复 u i 的 电脑配置。先说显卡类型,要分三个类,英美达显卡、 a 卡和集成显卡。 能上新的显卡的话就上新的显卡,不能的话也可以用四零系、三零系、一零系、二零系也能使用,但是这里没有标上。如果有条件的话,显卡的类型要选择 a 卡, a 卡他们有加速功能,他就会比 a 卡升图会慢,这不推荐集成显卡。 显存容量选择多大合适?入门级别都六到八 g 就 刚好可以升个图片,录个视频就不行, 最好推荐十二 g 到十六 g, 你 能升图片,你能升视频。像现在的大模型基本上是二十个 g 以上,但是他会出量化版,所以十二 g 到十六 g 完全可以跑量化版的模型,这两个专业级的什么模型都能跑。 看一下内存的选择,看第一个入门级别,四 g b 在 康复 u i 完全不够用,会严重卡顿的, 八 gb 可以 勉强跑一下图勉强够用,十六 gb 还行,但是如果你要处理视频的话可能比较麻烦,他会爆显存, 他爆显存原因他可能就是你内存不足,他才会显示爆显存,三十二 gb 就 可以跑图,跑视频都完全够用,就没有压力。六十四和一百二十,这是属于专业版了。 安装 comui 运行的硬盘,我们最好选择固态硬盘,因为 comui 在 运行的时候,它会把数据先调用到硬盘,然后再调用到内存,再再用到显卡, 它是来回调用的,所以说你硬盘不是固态的话,它调用时间会很慢。固态硬盘最少保留五百 g, 因为你安装 comui 本身软件,那肯定会用到二十个 g 的, 然后大模型的下载一百个 g 到两百个 g, 如果在运行康复 u i 显示报显存,那么得在固态硬盘这里分出一百个 g 设置虚拟内存,所以固态硬盘最少保留五百个 g。