兄弟们,最近 oppo coli 小 龙虾还是蛮火的,我们正好我们给线上粉丝搭配一台养小龙虾的电脑啊,可以看下这个配置啊! cpu, 英特尔的十五代 二点五 k 奥塔,这个目前是二十克二十现成,还是比较哇塞的,不管是做色、弹力还是游戏都是没有任何问题的。嗯,主板 b 八六零 m 给你们看看,这个是十二加一加一十四线供电,旁边这个 cpu 没有任何问题,长时间开机也没有问题。散热,我们这个粉丝他是不要水冷, 所以我们就搭配一块海运的双塔六热管压,这个 cpu 没有任何问题啊!电源,长城七百五十瓦,铜牌直出啊, 显卡,极佳的五零六零钛十六 g 做生产力也没有问题。机箱,我们组成一个风道箱,是 微型农林的,这个其实也相当哇塞的,开了四把风扇,前三后一组成风道。如果是近期你也想养小龙虾的话,我在直播间等你哦!
粉丝6095获赞1.1万

来,兄弟们给你们讲个好消息啊,今年不是有个 ai 软件叫做 open core 的, 那个龙虾软件不是特别火吗?然后很多人的话都打算买一台电脑去部署那个龙虾软件啊,用来 跑跑它的效果,看一下到底怎么样的,但是他买电脑可能比较贵一点,两三万的也有,七八千的也有,都比较贵一点,那有没有些便宜点的,性价比高的,平民点的那些电脑可以去选的?有的兄弟们你们就看这个啊,苹果公司出品的叫 mac pro 的 图形工作站, 你跑 ai 软件的话,要求算力, cpu 的 算力高,要求 g p 的 算力高,同时要求它运行稳定,那么这个 支持你三百六十五天不关机的同时,最强中央服务器 cpu, 两张显卡,六 g b 显存,用来跑 a 非常非常的合适,而且作为工作站它也相当相当的稳定,甚至你们如果不打算用跑 ai 的 像这个机器的话, 你用来做音乐的制作,平面的设计,广告设计,做做修图啊,剪视频呢,也是非常非常合适的,甚至要打游戏的, 英雄联盟第二层, cf 大 话,梦幻传奇这些也都可以去玩,有喜欢的兄弟们,这个主机现在很多都卖四千多价格,我们今晚上拿出二十台机器给你们,二字开头,全部炸走。

这个就是我们装好的一个 open core 小 龙虾啊,然后这里面的话介绍一下怎么配置它,然后这里呢是它的技能啊,也可以理解为插件,就是它会有非常多的功能,安装好之后它会自带非常多的一些功能, 包括桌面的管理啊,或者写代码等等了。那你给他赋予功能之后,还需要让他有一些大模型的能力,我们就可以给他去接别的大模型,比如说在这里配置, 在代理这边呢,我们就可以给他接上别的模型,这里我们接的是智普的啊 gm, 然后让他调用了所有的技能,那么这个时候他就可以帮我们做很多事了。比如说我直接让他在桌面上给我创建一个贪吃蛇的网页,这个是十五点十七分发的,他在 十五点十八分这里十五点十八分就已经给我做好了,然后该看看下的效果,而且它是自动的就装在这个网页里啊,开始游戏做一个正常的, 然后上面会有得分啊,其他的工作,包括这个桌面,我还让他帮我整理一下桌面,就是非常的整洁啊,然后其他的需求也可以让他去做。

今天收到英伟达寄来的桌面级 ai 超级计算机 d g x spark, 老黄也给马斯克送了一台同款,用一句话形容它是一台极其便携、自带英伟达显卡的乌邦图迷你主机,国内售价三万五千元,来看看发布会上老黄是怎么说的。 we call it d g x spark20 cpu cores and now the gpu has 128 gigabytes one petaflots who is a software engineer or ai researcher? or you know just data scientist and you would like to give them you know what the perfect christmas present。 我 实测下来, d g x park 有 四个核心优势,首先是很轻很便携,塞到书包里就能直接带走到各种展会,线下布展都非常方便。 第二是算力强,号称有一千 top 的 f p 四算力和五零七零显卡差不多。第三是显存大, cpu 和 gpu 共享一百二十八 g 内存,可以在本地端测训练和推理大模型。 第四是预装了扩大和 nvcc 环境,直接省去了几个小时的安装配置时间,而且丝滑兼容英美达生态的各种物理、 ai 和机器人仿真工具。 这四个优势让 d g x bug 非常适合大模型和机器人玩家。这期视频就来盘点一下我发掘出的五个邪修玩法。 第一个玩法,部署优乐二十六目标检测模型,不管是视频还是摄像头,实时画面推流速度都很快,特别适合工业质检的终端设备。关于优乐二十六后续会出一系列的训练和推理教程。 第二个玩法,本地部署开源大模型 d g x bug 上可以丝滑运行欧拉玛 v l l m 这些本地大模型推理工具, 我用摩达社区开源的模型压力测试工具 evo scope 测试了一下,千问三零点六 b 首投肯时间只要五十毫秒,每秒钟输出一百一十五个投肯延迟和吞吐的分布也非常集中,没有明显的肠胃抖动。本地部署开源大模型有八大好处, 最大的好处就是无限免费调用,没有 token 焦虑,哪怕是 open cloud 这种 token 核弹也能随便用。另一个好处是局域网里的所有用户都可以共用。 我在 d g x bug 上本地部署了面壁智能开源的全模态大模型, mini c p m o 四点五 omni, 连上我家 wifi 的 所有用户都可以通过 ip 地址访问 d g x bug 的 推理接口,摄像头,电脑屏幕、手机 ai、 眼镜、 esp 三二,任何带摄像头的设备都能调用这个模型。 这个模型是一个参数量九 b 的 全双工实时模型。 ai 持续在听看书,你现在听到了什么声音?我又听到敲门声了。如果宝宝哭闹了或者出现意外情况,就请告诉我。好吧, 好的, 你看宝宝开始哭闹了呢。 好家伙,开局就到 c 一 点,这也太顶了,快跑啊,有个狙击手,这个狙击手还在 看,我来攻略了他。是的,狙击手还在, 他好像已经死了。小心你被急火了。 哎呀,你这局打太烂了,敌方坦克在这。漂亮,我镭射锁定了,很安全,给他来个雷。好,先清人漂亮,收掉一个 又一个,再来一方。哎呦,这把太牛了,完全没给对方任何机会,真是太强了, nice。 推理如果放在云端,通信延迟和 token 消耗就很大了。放在端侧,本地部署推理是最佳的方案,因为达还专门给 d g x spark 做了一个仪表盘,方便随时查看显存和 gpu 占用情况。 另一个本地推理的刚需场景是机器人 d g x spark, 既可以直接作为机器人的上位机,比如 hackincase 发布的桌面陪伴机器人 richie mini, 也可以作为具身智能的端侧大脑,借助 hackintosh 开源的机器人工具包 la robot 以及 groot 这样的 vla 视觉语言动作大模型, 配合英美达 jackson soren 或者 d g x spark 作为具身大脑,就能让机器人自主完成叠衣服、收纳桌面、夹取物品、双臂协助这类长系列模仿学习任务。 去年我在深圳柴火窗口空间看到不少了 robo 的 机器人项目,我自己也写了一整套了 robo 的 保姆级教程,手把手带你丝滑跑、通摇操作、采集数据训练、本地推理模仿学习的全流程。我最近做了一个具身智能握手交互装置,探龟之握, 人类一握手,他也热情伸手,人类缩手,有的时候也会竭力挽留,想和人类贴贴,仿佛具有灵魂和情绪。 用到的 v l a 模型是字面量开圆的握 o s s, 参数量三点九 b。 还有 physical intelligence 开圆的派零,参数量三点三 b。 在 以前,我只能托一台笨重的四零九零主机,机 器人插到主机 usb 口,每次扳机枪胳膊都要疼好几天。现在直接把 d g x park 塞到书包里带走,随便找个插线板就能开机玩起来。 总结一下,英伟达的 d g x park 是 一台极其便携、自带英伟达显卡的乌邦图迷你主机,重量轻、算力强、显存大,是本地部署大语言模型、多模态模型、 open cloud 聚深智能 v l a 模型的绝佳选 择。程序员、机器人、工程师、艺术家、音乐家都可以拥有自己的端侧最强大脑。

全网运行条硬盘芯片都在涨价,现在去配一个六十盒的一个显卡,再加上三十六 g 的 一个运行的存话基本上要比前期至少贵三四千。今天晚上呢,给大家准备的是我们全新机 未拆封未激活的 m 四 max 死对对,工作站,而且还是一个满血版本的一个高配,今天晚上来我直播间一个主机的价格拿下工作站。 不管说你们是想要就说运行 oppo 龙虾 a 软件的,还是说想要模型训练的,以及我们想要部署本地部署七十币最高级别的全都是不在话下。感兴趣的老板的话,今天晚上来我直播间全新机 m 四 max 给到大家,并且还可以叠加店铺的大额优惠券,先拍先得哦!

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

少爷,公主们,我们今天在南通,我花一万块钱能买到一台什么样的电脑?我们来看配置, cpu, amd 九六零 x 盒装散热器,泰坦零九零主板,微新的 b 八五零低敏 wifi 啊, 这个主板还是相当 nice, 跑这个 cpu 是 没有任何问题。显卡,五菱轮胎八 g 啊,这个显卡还是相当哇塞的。电源,追风纸,七百五十瓦金牌前波组马文线,这个状态效果还是比较不错的。 机箱玩家的海景房,我们稍后看一下效果,如果你正好也需要一台这样的既具颜值又具性价比的机器,可以留关注啊,我们在直播间不见不散!奥利给。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

兄弟们又来了,这个,昨天那个机器效果出来了,麻雀虽小,五脏俱全。这个风扇就是我们的海运风扇啊,方塔的风扇还是比较 nice 的。 显卡 五零六零钛 ultra, 七彩虹的那层是科摩斯的,主板是 b 八五零 mini plus wifi, 看下这个效果怎么样?如果你也想养小龙虾,把小龙虾养的又肥又壮的话,找我哦,关注我哦,我们直播间不见不散!奥利给。

还在找机房工作站渲染集训专用显卡?来看看这款英伟达的 rtx 四零六零钛十六 g 公版涡轮卡,符合你的所有仪器 标准。公版涡轮设计始终规整,多卡堆叠、机柜装机都完美适配。十六 g 超大选存跑 ai 小 模型,大模型推理特征提取通通够用。 第四代天色库尔支持 f p 八高速算力, ai 训练部署一步到位。一百六十瓦低功耗涡轮散热静音又高效,长时间满载依然稳定不掉帧。光线追踪加 ai 加速,渲染更快更稳。 不管是本地 ai 部署、工作站算力还是机况机群,这张四零六零钛十六 g 涡轮公版,高性价比高算力,不要犹豫,值得选择!

经常有人问我,要玩儿 ai 的 话需要换电脑吗?配置到底要多高?那今天我就把这件事情彻底跟大家讲清楚,不管你是想做图做视频,还是运行智能检测 skill, 那 这个视频都会帮你找到自己的位置,不多花冤枉钱,而且不会因为配置不够而被卡住。 很多人呢,买电脑呢,只看价格,不知道哪一个部件到底影响什么。而且在 ai 这件事情上面,三个核心的部件各有分工,而且它和以前非 ai 时代选电脑的逻辑呢,已经完全不一样了。首先我们来看一下内存,内存呢,能够决定你同时能够跑多少东西, 内存只要不够,你的程序会卡,会崩溃,会报错。而跑 ai 工具的时候,往往需要开着编辑器,浏览器终端等等,而内存就有可能会成为瓶颈。 而显卡呢,是决定你能不能在本地做计算密集性的任务,比如说像图像生成啊,云识别啊,视频剪辑这些都需要显卡来加速。而显卡里面有一块专属的内存叫做显存, 它决定了显卡能够处理多大的任务,显存不够,要么跑不起来,要么慢的让你崩溃。而 cpu 决定通用计算的速度,而对于绝大多数的 ai 工具来说, cpu 都不是瓶颈,这几年的主流的处理器都够用,完全不需要去特别追求顶配。 所以我们先来说一下第一种情况,如果呢,你只是想用浏览器去打开豆包千问 china gpt 或者是 dbic, 或者呢?你用一些像 china studio 这样的桌面客户端,把多个 ai 模型整合在一起去辅助工作,那这一类工具,它所有的计算其实都在云端完成, 你的电脑呢,其实就是个显示器,对于配置要求极低,只要能够流畅的跑浏览器,其实就能用。哪怕是五年前的老电脑,只要内存不低于八 g, 网速还行,用起来完全没问题。而在网页上升图升视频也是完全一样的道理,你在网页上点一下任务,发送到云端服务器,等结果直接回来就行, 你的显卡 cpu 跟这件事情根本就没有任何的关系。而这类的工具,对电脑的真实的唯一的要求其实就是网络网速越快,响应就越快,体验就越好。 不过有一点要说清楚啊,八 g 内存是能用的底线,但并不是推荐的配置。如果你现在要新买台电脑,不管是什么用途,十六 g 内存是起步,现在几乎是标配,价格上呢,几乎没有额外的成本,但是体验要好得多。 第二种情况就是用本地的智能体工具,比如说最近大火的 open cloud 龙虾,或者是 ai 编程工具,比如说 tree cloud code, open code 它会在你的电脑上直接读写文件,运行代码,调用终端,或者是本地的智能体平台,比如说 cowalk 呀,或者 skywalk desktop, 它们的逻辑呢,都比较相似,核心的计算是依赖于云端模型,本地呢,主要是负责任务调度,还有界面的交互。那这三类工具就有一个共同的特点,就是都可以运行 skill, 也就是说让 ai 在 你的电脑上执行一套完整的自动化流程。 那这类的工具其实对配置的核心要求,取决于你的 ai 在 你的本地到底实际在干什么活。如果说你只让它生成一份 word 文档,整理一个表格,那对电脑几乎没有额外的要求,十六 g 内存完全够用。 但是如果你是让 ai 帮你去剪辑视频,做语音识别,批量处理图片,那就完全是另外一回事了,配置要求呢,就直接拉满。所以说,这一类工具对于显卡的要求,并不是由工具本身决定的,而是由你让 ai 做的事情决定的。 如果你确实让 ai 在 本地做视频剪辑,做音频识别这一类计算密集型的任务,那显卡呢,就不能够将就显存呢?就像是显卡的工作台,工作台越大,能同时摆开的材料越多,干活就越快。 那如果你要做视频剪辑,其实我觉得更好的方法是核显加独显的双显卡组合,它能够大大的加速剪辑的效率。而这三种情况就是在本地运行大模型, 比如说你像在本地啊,去运行一个小 ai 模型来保护隐私,或者在本地来生成图片,那么不废话,我直接给你一个简单的估算方法,用模型的参数量乘以二,大概就是你需要的显存的显存,而十四 b 大 概就需要十二到十六 g, 而七十二 b 的 模型如果没有四十 g 以上的显存,根本就跑不动。所以一块能流畅跑中型模型的显卡,价格都在几万甚至是几十万以上。 哪怕是 rtx、 五零九零 d 这种目前消费级最强的显卡,它跑能力足够强的大元模型其实也很吃力。 而如果你用 api 去调用同等能力的云端模型,每个月的费用可能只要几十到几百块。所以啊,除非你有非常特殊的隐私需求,或者每天的调用量大到 api 费用比买卡还要贵,否则都不建议本地去跑 ai 模型。 但是还有个被很多人忽略的问题,就是操作系统 mac 的 这个 m 系列芯片,它用的是统一内存架构, cpu 和 gpu 是 共享同一块内存, 所以一台六十四 g 内存的 mac 可以 直接用来跑七十 b 级别的模型,而且速度还不错。而 windows 机器呢,是做不到这一点的,因为显卡的显存和系统内存是分开的,你有六十四 g 的 系统内存,但是显卡只有十六 g 的 显存大模型还是跑不起来。 还有一个非常重要的问题就是兼容性,绝大多数的 ai 软件 mac 和 windows 都支持,但是 mac 在 兼容性上甚至要略好一点,很多工具在 mac 上的体验会更流畅,而且更新也更及时。 如果你是 windows, 想用老电脑,那么一定要注意 win 七以下呀,现在几乎所有的主流 ai 软件都不支持了, win 十是最基础的要求,但是强烈建议升级到 win 十一,因为随着时间的推移,越来越多的工具会把 win 十一作为最低的要求。 如果你近期有换电脑或者是重装系统的计划,直接上 win 十一,不要犹豫。最后给大家总结一下啊,如果你是用网页版或者客户端工具,普通电脑就够,用本地智能体工具做代码文档类的任务的话,那么十六 g 内存起步,三十二 g 更好。显卡要求不高, 如果做视频剪辑,做音频识别,那么核显加独显的双显卡组合最实用。本地跑大元模型,那么 mac 比 windows 要更有优势。操作系统方面 mac 的 兼容性要略好。 windows 一定要用 win 十一,而 win 七以下直接放弃。赶紧转发给需要的朋友吧!我是 c 哥,点赞关注,咱们下期见!

opencloud 治好了我的电子阳痿,为了弥补年少时的缺憾,工作几年之后,我给自己配了一台能够畅玩所有游戏的电脑。现在电脑是不卡了,但是坐在电脑跟前三十岁的我却卡住了,终于体会到了什么叫做欲买桂花,同在酒中,不似少年游。 曾经因为没有一块好的显卡,想玩却玩不到的游戏,现在都躺在我的电脑里面,但是我却丝毫提不起一丁点的兴趣。不过自从接触了 open klo 大 龙虾,我感觉我仿佛焕发了第二春,哎,我现在坐在电脑跟前,我可以一坐一整天一通宵,完全感觉不到时光的流逝。 哎!其实原始状态下的 open class 没有那么的好用,再加上本身我也不是学编程的,所以我得琢磨,我得调教它,哎!这种通过思考,通过搜集各种信息,查攻略,然后把自己的大龙虾调教的更加聪明,不断拓展它的能力边界,不断的让我欣喜惊叹,甚至有点恐惧的。这个过程 真的就跟玩游戏一样,他是有及时反馈的,是客观的,是不以我们的主观意志为转移的。好用了就是好用了,崩溃了就是崩溃了,崩了咱大不了重装就是, 至少这个过程当中咱们的经验跟技能是实打实增长了的。哎,既能像游戏一样提供及时的反馈,又能反作用于真实的世界,提高我们的工作效率。哎!这大概就是 open cloud 我 觉得最迷人的地方,所以我真心建议屏幕前的各位都去尝试一下,别听有的人说什么哎呀,普通人装这玩意没用, 你只管先去装,装了之后慢慢自然就会有用了。我当时就打定了这个想法,管他有没有用,先装了,装了之后说不定什么时候就有用了。当某个时刻我们突然意识到,哎,手头这个事有点麻烦,好像可以甩给大龙虾,让他帮我做做看。哎, 事情慢慢就有趣起来了。如果你像几天前的我一样,还是个完全不懂编程的小白,哎,我把当时我安装的时候我放在评论区了,大家可以按需取用。

终于弄好了 openclaw 连接奥拉玛, 用奥拉玛部署的本地模型,前吻三点五 看教程不管用。 openclaw 装完的时候外部 ui 打不开, 怎么弄也不知道,最后还是在奥拉玛的官网用这个命令,用这个命令设置重新设置了一下 opencloud, 然后它的外部 ui 就 能打开了。 当然是按照它的这个稍微懂一,稍微读懂一点英语,按它这个一步一步设置完了才行。昨天在没有奥拉玛的时候,在 windows 下 wsl 下装的 openclaw, 直接就能打开 app ui, 这中间出的问题也不知道是怎么回事。 这一步就是用了吗?连接 openclaw, 因为我的电脑主要靠内存,靠 cpu 跑,随便问个问题 cpu 就 跑百分之六十几,风扇呼呼的转,感觉确实也没啥,没啥实际用途啊, 关键是说了话都没带回的, 可能还没配置完, 但是它已经 不运行,也也也占用这么高。 今天就到这了,看来这样也不行,不能用本地的模型跑,又慢又又受不了噪音。回头我再重新连接到免费的 key, 免费的 token, 试试吧。 补充一下,这个 windows 下的这个 open cloud, 这个 web ui 必须得是这个带 to 带 token 的, 带 token 的 这个你才能打开,你要是直接输入这个把地址这个它是连不上的,它这个这个地方会有问题,它只会离线,就是这些东西它都是包含在这个里边的。 然后这个我拉玛里装的模型小,啥事也干不了, 净光浪费 cpu 资源了, 还啥还啥也做不了,还不如,还不如直接在这里聊天呢。

最近网上疯传的 open 可乐,我今天终于装好了,从问 ai 到让 ai 做事, open 可乐真的颠覆了效率,那很多小伙伴问装这个 open 可乐对电脑配置有没有特别的要求?我今天带大家看一下我的 open 可乐部署在一台什么样的电脑上面。 二零二六的 it 届新宠儿 open 可乐终于装好了,来看一下我这个大龙虾, open clone is running。 其实装这个龙虾呢,对电脑的要求也不是特别高,如果你有一个十一代的 cpu, 十六 g 的 内存,五十 g 的 以上的硬盘,以及一个八 g 的 以上的独立显卡,都可以非常完美的部署这个 open clone。 这一台主机就是我们日常使用的那种普通台式机,配置也没有特别高,里面的这个显卡还是一片三零六零的显卡,你看我们非常成功的把它部署到了本地。

哎呀,这批星派的 p 幺五移动作战成色是真的好,配置的比较高, rtx 三千的显卡,六个 g 的 显存,用来跑这个虚拟机啊,渲染跟图形处理,那么这个机器是非常不错的, i 七的幺零八五零处理器 啊,三十二 g e t 的 固态硬盘也是砖头这么厚啊,大概两点五公斤左右吧,那么用料跟做工就是非常棒的,上市的时候呢,接近两万块钱, 那么现在的话呢,两折左右就能拿到这款机器了,而且这个机器是二零二一年出厂的机器,到现在用了三年吧, 正常这种机器高端的工作站保修是三年左右,那么很多上市公司会把它做加一年的原保,那么这个时候就刚刚放出来,整体成色九成新,还有一年的保修,完全不用担心走一个。

空有显卡却跑不通本地大模型,用 sgl 部署 kiln 三点五,成本直降百分之八十,而且响应飞快。这套实战避坑指南你必须拿下。现在的策略很明确, 百分之九十的总结改写、信息抽取等高频任务,全部扔给本地的 qm 三点五二十七 b, 它刚好踩在性能和显存的平衡点上。至于剩下那百分之十的极高难度推理,再让云端的 gpt 或者 cloud 的 兜底, 这样既保住了钱包,又拿到了原生多模态和超长上下文的处理能力。整套架构其实非常干练。最前端是你的通讯工具, 中间由 opencall 负责业务编排,他会把消息转成标准请求,转发给后端的 sgl line 推理服务。这里最关键的一环是, sgl i 会直接起一个兼容 openai 标准的接口, 让本地模型像云端 api 一 样好用。只要解决掉工具调用时的格式类及问题,你就能在本地拥有一个能写代码、能看图、还能自己挑工具的超级助手。 环境起不来,或者模型不听话,百分之九十的问题都出在启动参数上。看屏幕这段脚本,除了常规的显存分配,最容易被忽略,也最致命的就是最后这一行工具调用解析器。 如果你不显示指定为 q n 三 coder 模型,面对工具请求时会直接宕机或者回一段毫无逻辑的乱码。哪怕你的硬件再强,没了这个参数,它也只是个会聊天的花瓶, 根本无法触发任何外部工具。在生产环境,这是让 a 省称称动起来的唯一开关。后端稳了,接着看 openclaw 这边的对接逻辑 有两个不起眼,但能让你排查通宵的细节。第一个是基础路径结尾,千万别手抖加斜杠,否则路由拼接出错会导致所有的请求直接报四零四。第二个是在兼容性配置里, 务必把开发者角色支持关掉,很多 agent 在 调用时会产生特殊角色,本地后端如果认不出来,就会直接甩给你一个五零零。服务器 错误。把这两项改对,全链路调通基本就成了一大半,配完了环境却卡在连接上。最让人崩溃的就是模型名字,本地 curl 都能通,一接上 open claw 就 报四百错误, 原因极度无脑,你在启动脚本里叫它 a, 在 配置文件里哪怕多加了一个斜杠,叫它 a 分 之 b 请求就会直接丢进黑洞,全列路必须严格锁定为 q n 三点五二十七 b, 一个字母都不能差。还有那种莫名其妙的五百报错,是 agent 产生的特殊角色,超出了后端的理解范围。 别废话,直接在配置里关掉,开发者角色支持稳定性瞬间就能拉回来。如果你发现普通对话正常, 但一触发工具调用就弹出一串看不懂的英文,说无法从印刷中获取象棋,这说明你的参数格式踩雷了。 s g a 像这种高性能后端,对工具定义的严苛程度超乎想象,他不接受任何偷懒的数组缩写,必须是教科书级别的标准接收对象, 也就是必须有 type 等于 object 这一层嵌套。很多人卡在这里调了两三天,其实就是因为多了一层中括号或者少定义了属性。记住格式不对, agent 就 算有再强的推理能力,也连一个简单的天气插件都调不起来。 最后这个坑专门留给追求性能的高手。你想开投机踩样让速度翻倍,又想开二十六万超长上下文,结果就是 s g 链启动瞬间直接爆显存。原理很简单, 唱上下文本身就是吃显存的黑洞,而投机踩样还需要额外割让一块内存池,两头一挤, 显存水位直接破百。听我一句劝,刚开始部署的时候,先把那些花里胡哨的性能加速全关了,把上下文长度和显存预算压到稳妥的红线以下。等你的工具调用和多 agent 协助全跑通了,再去一个一个调优参数。 比赛还没学会,走的时候就想在显存的悬崖边上跑步,为什么一定要在本地搞夺 a 阵协助?因为单一通用的 ai 往往啥都会,但啥都不精。 面对复杂任务,你需要的是像公司一样的专业化分工。在 openclaw 里,你可以让大总管负责拆解任务,咨询助理去全网搜瓜素材内容助理最后负责沉文。 这种高频的内部通信如果走云端, api 成本会让你肉疼,但在本地,这就是几乎零成本的算力游戏,也是真正让 ai 介入生产力的分水岭。能扛住三五个 agent 同时工作,全靠 s g line 的 前缀缓存。这就像你跟一个老朋友聊天, 你不需要每次开口前都重报一遍姓名和生屏,系统会把那十几万字的历史对话直接锁在显存的最快区域, 每次新请求进来, gpu 只负责算你新说的那几百个字,剩下的历史记录全部秒速服用。这就是为什么在长上下文环境下,本地部署反而比很多云端 api 响应更顺滑的原因。他把每一分算力都压在了深沉回答上,而不是反复重算过去。 最后说点压箱底的调优经验,本地部署不是把模型塞进去就完了。你手里有三个最重要的旋钮,并发数、上下文长度和显存预算。这三个参数是此消彼长的, 你想让模型记住二十多万字的文档,并发能力就一定会缩水。如果你发现系统报显存易出错误,别慌, 先去缩减显存比例或者压低上下文长度。最稳妥的做法是先关掉所有投机采样和花哨加速,在基础参数下跑通全流程等工具调用和多 agent 写作都稳如老狗了,再去摸索显存的极限边界。

来这个大砖头啊, rt 叉,三千的图形显卡,六个 g 的 显存啊,用来 sawyworks 啊,这个渲染犀牛软件等这个 kitty 啊,这种机器的话运营起来是非常不错的,二零二一年左右的菜吧, 两万块钱以上的价格,现在的话两折左右就能拿到这款机器了,而且整体的成色还是非常不错的,九成新没有问题, i 七的幺零八五零的六核十二显卡,内存最大可以去到六十四个 g, 然后硬盘的话两个 t, 而且我们店铺提供一年的保修啊,这个机器散热好,用料也好啊, thinkpad 在 工作站里面是头把交椅,那么 这个 pr 五的话在二零二一年左右也是在设计工作站里面是老大中的老大,所以需要这种机器做设计的朋友们可以过来看一下,这种大厂批量资产组织啊,机器都没啥问题,我们店铺提供一年的保修,确保你这个吃饭的家伙杠杠的,好用。

又能做生物信息科研,还能养 ai 龙虾做科研助手。这期是为广州某生物医药企业配置一台科研团队办公工作站配的两颗 a m d 枭龙九三三四叠加六十四核心,能直接跑满生物信息计算的日常任务。十六根三十二 g d d r 五内 存五百一十二 g 容量跑动生信大项目还能分出小部分用于 open cloud 加在本地知识库、项链库。关键是两张 r t x 六千 a 搭四十八 g 显卡, 不仅能跑蛋白结构预测、分子对接等,还能兼顾 open club 科研助手辅助实验方案生成、试验记录自动整理等整机还能做分子动力学模拟、深度学习、有限原仿真等场景。