粉丝282获赞1305

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。

本期视频介绍一种多台 pc 搭建 ai 集群,运行单台 pc 无法实现的超大 ai 大 模型,支持多系统 windows linux 像素,支持多样化硬件加速,比如 cpu, gpu i gpu 都可以实现。哈喽大家好,这里是小明和他女朋友,我是小明。搭建 ai 集群分四个大步骤, 第一,搭建物理条件,主机互联,至少选择十 gb 网口或者二十 gb 雷电网桥高速宽带方式。本次演示用两台明凡 m s s 一 max 三九五迷你主机,设置双方同网段 ip 地址, 一定要检查主机之间互通性,如果有系统防火墙阻止,记得手动放行或者关闭防火墙。第二个步骤,主 从服务器都需要下载,那么点 cpb 项目,根据自己的硬件下载对应版本,比如 windows 恩卡用户下载 windows 哭打版本三九五主机,这里选择 windows 我 肯对应版本下载 ai 模型,默认可以用终端命令从 h f 网站下载模型,但需翻墙。 推荐访问摩塔社区,国内网站手动下载网速更稳定。主流大模型也很齐全,比如国内开源的 tcp 天问三等。这里要注意, 下载优选 g g u f 对 应版本拉马点 c p p 可以 直接调用无需再次转换分片的大容量模型,不用手动合并加载第一个分片即可自动识别到其他分片。 加载好的模型只需要放在主服务器即可,从服务器的模型会通过主服务器自动分配加载在 windows 下 ai 模型放入此文件夹下面。第三步起用 r p c 服务找到解压的,那么点 c p p 项目文件夹右键选择在终端中打开。使用以下命令打开 r p c 服务器, 所有主从服务器仅需使用一条命令即可默认 rpc 服务开启五零零五二端口中断中出现安全警告也属正常情况。第四步, ai 集群测试验证 在主服务器上运行 bash 测试, ai 性能杠杠。 rpc 后面跟服务器 ip 和端口号多过 ip, 服务器中间用逗号隔开,也可开启 hdp 服务测试 用网页或者其他智能助手应用,比如 cherry studio 就 可以调用该 ai 集群测试。 本期 ai 集群视频教程就简单分享到这里,如果对你有所启发,请一键三连支持一下。更多硬件体验欢迎关注我们。

大家好, minmax 发布了最新的 m 二点一这个大模型,它是一个二百二十九 b 参数的 m o e 模型,官方说明的是这次更新主要提升了它的代码能力,然后呢这里有它的评分。 今天呢咱们就在 amd 的 max 加三九五上部署一下这个迷你 max m 二点一,然后呢用它去生成一个游戏,我们看一下它的生成速度和这个生成的游戏质量。因为这个模型很大,所以呢今天咱们用到的是 asus 做的量化版, 为了让它能在 mark 家三九五上运行起来,所以咱们选择的是 u d q 三 k x l 这个量化版模型,它有三个文件,我们自己去这个摩达社区把它下载回来,我这里呢已经下载好了。 呃,权重文件呢加起来是九十六 g, 然后加上 kvatch 呢,运行起来大概需要一百一十五 g 的 显存。 max 加三九五,它在 bios 里设置最大能设置到九十六 g, 那 这个时候它肯定是不够的, 那这个时候呢,我们就用这个 linux 里边的 g t t 去设置这个显存,我这里呢使用的是无斑图的二十四点零四。 呃,我们看一下设置这个 gtt 的 方法。呃,首先呢编辑这个 etc 下的 default 下的 grab 文件,我们找到这一行这行,然后呢在里边呢主要设置四个参数, 就是这四个参数,然后呢通过这四个参数把 gtt 设置到一百二十 g, 编辑好这个文件以后保存退出。然后呢执行这个这条命令,更新一下配置,然后重启电脑。重启完电脑以后呢,我们来看一下它的效果。 这个时候呢,我们是在 bios 里设置了一个 vram, 就是 在 bios 里设置设置了固定的显存的是一记, 然后呢通过 g t t 设置一百二十 g, 那 这样呢就可以把这个 mini max 运行起来了。我这里呢已经用这个拉姆点 c p p 把这个 mini max 运行起来了。我这里用的呢环境呢是 rock mode, 七点一点一。呃,拉姆点 c p p 呢,用的就是官方最新版本。 然后呢我们看一下这个拉姆点 c p p 的 启动参数, 这个就是我使用的使用参数,主要是这就是 temperature 和这个 top p 和 top k。 呃, temperature 设置的是一点零,然后 top p 设置零点九五, top k 设置四十,这个是官方给的建议,所以咱们就按官方这个建议去设置了。然后现在它已经运行起来了,那我们就可以直接去访问它了, 现在我们就可以看到这个工作界面了,我们来看一下显存的占用,我们看这时候用了一百一十五 g 的 显存, 然后呢现在没有运算,所以都是零。我们让他去写一个俄罗斯方块,就是用 h 五开发一个电脑版的俄罗斯方块,然后告诉他用方向键去控制,然后呢空格是暂停,要求页面美观现代。然后我们让它生成 现在是二十八 token 每秒,他现在正在思考 就是二十八 token 每秒左右,现在 好,现在开始正式输出代码,现在是二十五 token 每秒,这是它的生成速度。 接下来呢我们看一下这个显卡的消耗, 现在跑的百分之百了,功耗也顶到头了,一百一十瓦,因为我设置在 bios 里设置的就是一百一十瓦六十七度, 然后我们再来看一下 cpu 的 消耗, cpu 消耗很低,就是百分之六点三,然后呢主要就是闲置了,也就说现在就是主要靠 gpu 在 运算, 嗯,还在运算,现存就是在一百一十五 g 消耗了一百一十五 g, 工号顶着头的跑, 我们等它生成完, 呃,经过等待呢,现在代码就生成好了,一共消耗了六千四百五十八个 token, 最后的时候是十九点三九 token, 每秒 我们把它生成的代码粘贴到一个记事本里,然后呢把它保存成 html 文件, 然后我们去运行它,这是它界面开始游戏 啊,我们看它的运行效果还是不错的, 我又用它生成了一个贪吃蛇, 哎呀哎呀哎呀, 整体来看,我们看它在这个 amd max 加三九五上的运行速度和生成的质量还是不错的, 我们也能看出来,就是这种编程它还是很消耗 token 的, 大家手里如果有 max 加三九五的话,可以参考今天的视频。然后呢自己去运行一下,然后感受一下它自己在本地运行的效果。 今天的分享就到这里了,大家如果有什么疑问呢,可以在评论区给我留言,大家一起友好的交流,谢谢大家。

真的没想到有一台机器可以满足我的工作和娱乐双重需求,就是这台 super x。 你 说想要游戏,我们提供强悍处理器, amd 锐龙 amx 加三百九十五,实测各种三 a 游戏帧数都稳的不行, 玩人王三画质拉到最高后,帧数也一直保持在一个较高的水平,如果是小型游戏就更不用想,那十五瓦的功耗都轻松拿捏住。你说想要办公,我们给你一个可以连接的键盘,连接向上一台立马变成电脑, 打字办公什么的,那不是轻松拿捏吗?你说想要高效运行 ai, 我 们给你一号 ai, 乘 flowy a i t c 一 键部署本地大模型页面,操作起来像流水一样丝滑,而且不联网也能照样使用, 就这样方便的完成你的 ai 需求。你说想要大屏幕,我们也安排十四英寸的 oled 屏幕,看着画面就很清透, 用来玩游戏就一个电影般的质感,眼睛在这里都得到了享受。有这样一款既能高效工作也能强悍玩游戏的机器,这带到哪里都会很吸睛的吧!

但你还在为数据安全发愁吗?想用大模型,又怕商业机密被泄露,唯一的答案就是把它牢牢握在自己手中。 无需英伟达,国产算力同样强悍。上期我们开箱了这台硬核伙伴, 今天就花三分钟跟我一起在升腾九一零 b 上丛林部署一个完全私有、安全可控的大模型走起!部署就像发射火箭,我们先做全系统体检。首先我们检查一下驱动固件状态及 dac 版本, 确保基础环境满足部署大模型的条件。关键一步,安装翻译官,让达克能听懂升腾芯片的指令。下载华为升腾容器运行插件,使得容器能够访问调用算力。 现在请出我们今天的大脑升腾的推理引擎问答 e。 接下来可通过摩塔社区选择所需的模型文件下载。 根据搜索到的模型下载所需文件,并将文件传送到服务器中。启动容器及启动标准间,给模型配置文件赋予通行证 进入容器。这里使用的模型是捆二 five seven 出币, 设置跟 free jason 权限为七百五十,然后修改配置文件。 激动人心的时刻,测试能否启动大模型, 看服务成功启动在八零九零端口,我们立刻来次面试,进行一次调用测试部署成功,成功回答了我们的问题。接下来让我们尝试使用进行调用, 成功回答说明调用也没问题。然而当你想把这份私人问答助手带入现实业务,一个最现实的问题就会浮现,它的蒜泥燃料究竟如何计算? 屏幕上的这个神秘单位到底是什么?下期见!文中设计的资源链接均在评论区,如果您或您的企业需要更深入的部署、咨询与专业支持,我们可提供一对一协助。关注我们,解锁更多国产 ai 硬核玩法。

hello, 大家好,我是二手电脑东哥,今天呢准备用店里的一些配件呢,去部署一台可以跑本地 ai 的 主机啊, 然后头两天呢,有很多客户买这种类似的主这个配置,然后咱也不太明白他们到底是跑什么大模型, 然后我大概去攻略了一下啊,我准备用这套配置呢,跑七 b 的 一个本地部署 ai 部署,那这个配置的话,我们简单来分析一下,首先处理器的话,我们上的是 i 五的十二代啊,幺二四零零 f, 然后 这个主板呢是一个 h 六幺零,这个将来的话应该是需要更换的,然后内存条的话,我们是需要上两条十六 g 啊,一共是三十二 g 的 内存, 然后硬盘呢就上一个五百一十二,呃,像这个七 b 也好,或者是十三 b 也好的话,大概就在呃十几个 g 吧,应该目前目前为止肯定是够用的。然后这个显卡呢,本来想上一个三零六零十二 g 啊, 但是我手里还有个六七五零 g r e, 我 就先用这个跑个七 b 的 话应该是没有问题的,然后电源的话是一个长城的额定五百瓦,那这一套配置呢,稍后呢就给它组装起来啊,然后我们回头呢会把一些视频呢给大家公布一下,看看这个效果怎么样啊,大家可以参考一下。

开工那天我把工位彻底拆了,老粉都知道我之前那套了,又大又吵,这次呢,我直接换成了巴掌大的 ai 工作站,兄弟们,这才是男人该玩的玩具。这台领克 g d r 九 pro 里面塞的是瑞龙 ai 加 m a x 加三百九十五 处理器十六核三十二现成,我同时开机十几个网页,一点呢,不带卡动的,这里是它能本地跑大模型七零 b 参数内容,我在 m l s 就直接部署携带码,让他帮忙低 bug 效率了,直接拉满全金属机身,一百八十乘一百八十乘九十毫米,塞在包里就有,出差再也不用背个大箱子,主机小的显示器不得配个很破呢。这台 i o c 小 尺寸超高,刷屏我选的是二十七英寸,两 k 分 辨率,三百赫兹刷新率,打 cs 那 叫一个丝滑,敌人刚露头我 就秒了。一天一百五十二个迷你 led 风区 hdr, 风池亮度一千两百尼特,晚上关灯打游戏按摩细节啦,看的清清楚楚,那种沉浸感,懂的都懂。这一套都是趁京东开工看雪器入的,现在领国补省百分之十五,我把家里那台老台式机抵 扣了,国补叠加以旧换新,算下来呢,相当于五折选档换 aipc, 最高能补贴三千多。我觉得这一套兄弟们直接可以抄作业了,想换装备的兄弟推荐京东。