全网运行条硬盘芯片都在涨价,现在去配一个六十盒的一个显卡,再加上三十六 g 的 一个运行的存话基本上要比前期至少贵三四千。今天晚上呢,给大家准备的是我们全新机 未拆封未激活的 m 四 max 死对对,工作站,而且还是一个满血版本的一个高配,今天晚上来我直播间一个主机的价格拿下工作站。 不管说你们是想要就说运行 oppo 龙虾 a 软件的,还是说想要模型训练的,以及我们想要部署本地部署七十币最高级别的全都是不在话下。感兴趣的老板的话,今天晚上来我直播间全新机 m 四 max 给到大家,并且还可以叠加店铺的大额优惠券,先拍先得哦!
粉丝9.1万获赞3.4万

哈喽,大家好,这期视频主要讲一下阿里百炼模型的自动切换的问题,之前有网友说百炼模型比较容易用光,单个,单个切换非常麻烦,那么这个视频里面我们介绍了怎么去把百炼模型多个模型同时写固配置文件,这样避免出现每次应用中出现切换的问题。这是我们 现在之前的 opencore 的 配置文件。我们首先看到在 opencore 的 配置文件里面有一个 models, 这个就是选择到模型,然后这里面有一个模式是 merge, 这个 merge 就 表示是合并啊,可以合并的意思 or widers, 就是 指现在我们这个模型的提供商,我们看到现在这个提供商这里有一个 blend 摆列啊,摆列就摆列,然后这里有一个摆列,下面有一个括号啊,它就对应着 这一些内容啊,它对应的这些内容,那么我们其实只要再加一个其他的 这样的一个模型的名称就可以了,那么这个模型的名称呢?我们还可以,就是还是用白练啊。嗯,其实很简单,就是这里,从这里我们把它 copy 一下。 copy 到哪呢? copy 到这个地方啊,这个你要对齐啊,就是这里有一个方括号,对吧?我们看到这里这里模式这里有一个方括号, mod 这有个方括号,那么这个方括号中间都是,中间都是。 呃,这个括号呢?都是一对一的啊,这个方括号是跟这个匹配的,是吧?那么这个方括号呢?它就应该跟这个匹配,也就是这个方括号是到了这个模式这里 mod 这里是吧? 那么这个大括号它就应该是对的方括号的下面这个括号 这个对齐了吧,那么这个摆链的这个第一个模型就应该是对到这个位置上的大括号,好在这个大括号这个位置我们加一个 模型就可以了,用一个小的分号,然后再往下加这个模型,那么我们先加的时候呢,我们可以把它先拷贝出来, 然后黏贴啊,这个里面就是我们这里是百炼,是吧第一个模型,那么我们在这里可以写百炼二第二个模型, 然后这个东西是不变的啊,这个 key 也不变的,这两个都不变,然后我们要做的就是把这个 id 给换掉就可以了,那么我们可以去查百炼的 这个模型的本身的这样的一个列表啊, 我们看到百炼模型本身的列表啊,我们找一个, 比如说天文 plus, 我 现在这个模型它是有的,我就把这个改成天文 plus 就 可以了, 改成天文 plus 就 可以了啊,然后,嗯, 我们在这个 agent 下面啊这里,然后大家要注意我这个写法啊,一定要写成数组的形式。我们前面我做实验的时候呢,有两个问题,第一个就是 four four bags, 忘了加 s, 还有一个就是没有写成数组的形式,所以大家一定要参照我的数组形式的写法仔细看一下, 然后我们用同样的方法再加一个哈,这样就有三个不同的模型类别在上面,后面根据你的需要可以加任何任意多个, ok, 这期视频就到这里啊,如果大家觉得有帮助,别忘了点赞加关注支持,感谢大家,我们下次见 哦,等等我们可能再验证一下,然后,嗯,我们打开 open core 的 对话窗,我们再验证一下,确认没问题啊,应该是没问题的。好,我们下次见。

阿里云推出手机版 open core 龙虾,这款新应用如何改变你的工作方式?阿里云近日发布了手机版 open core 龙虾 j v s c law, 这标志着 ai 助手领域又迎来了一位重量级选手。 用户可以通过简单的自然语言指令,在隔离专属安全的云端环境中操作应用,处理文件即完成复杂任务。这款应用只在简化办公流程,提升工作效率,目前仅提供 iphone 版本。内测期间,每位用户可免费创建一个 bug, 并享有八零零零 craigslist 的 模型额度,有效期为十四天。 j v s c l 的 技术底层依靠阿里云无影多年积累的云源生计算云端桌面基础设施,为用户提供成熟的安全隔离能力。随着大厂纷纷入局争夺 ai 入口,阿里云凭借 j v s c l。 的 创新功能,有望进一步巩固其市场地位。

阿里刚刚开源了桌面 agent 扣炮,目前 star 数只有六百多,看到操作界面是不是非常熟悉?聊天定时任务技能 m c p 完美替代了 open call cloud bot 刚发布时我就说过,国内的大厂很快就会做一个替代品,并且更适合国内用户。扣趴没让我们失望,在频道这里可以直接配置钉钉、 飞书 qq, 在 技能这里可以直接启动要使用的功能,比如各种文档的处理技能,包括 word、 pdf、 ppt、 excel。 虽说 coca 已经做到了简单部署,但 one panel 让智能体部署更简单,依旧打开应用商店,在 ai 分 组中 果然显示着 coca 果断安装,什么都不用动,只打开端口外部访问就行了。这个如果不打开,只有 one 盘中的容器可以访问,点击确认,等待安装完成。现在在已安装界面中可以看到 coca 已经启动,点击跳转,直接打开 coca 的 操作界面,安装就是这么简单, 毫无门槛,久违的中文界面是那么的熟悉,速速配置模型这里默认集成了摩塔、灵机还有欧拉玛三个提供商,如果本地有条件跑大模型就选欧拉玛用在线大模型就选择这两个,任意即可,这里也能添加更多的模型。 dash qq 就是 阿里的灵机模型服务,在阿里百炼大模型控制台申请一个 api key 配置,到这里,在线模型就配置完成了,这里内置了千问和 d p c, 最后选择要使用的模型保存, 现在就可以对话,问他是谁,能干什么,跟 open klo 一 样,可以执行命令,操作文件、网络浏览器、技术搜索等。 最后就是安全问题,我们直接通过域名家端口访问的抠拍,目前抠拍的是直接暴露的互联网,可以在汪碰乐的网站这里创建一个网站,选择安装的抠碰,配置一个域名发布网站,然后在证书这里申请一个 s s l 证书,填写域名自动续期,申请完成, 回到刚才发布的网站,配置 http, 开启 http 选择证书就行了,另外还要配置密码访问,配置用户和密码, 这样通过 http 加域名访问时,还要输入密码才能打开 call pad 的 操作界面,安全问题解决,就可以放心的玩耍。好了,本期就到这,感谢观看,我们下期再见!

哈喽,大家好,最近我们都叫 openclo, 非常火,但是使用它的一个托管花费可不便宜,所以最近也给大家整理了一批高性价比的一个 api 套餐。然后第一个的话是阿里最近推出的一个 codingplay 计划,然后它的价格是七块九每个月, 然后它应该是目前为止性价比最高的一款这个 cody 套餐。然后目前的话它是支持国内呃众多一线大模型厂商的模型,比如说像 呃千万三点五 plus 还有千万三 max 还有千万三 cody 以及 mini max 二点五,还有智普的 glm 模型五,还有 kimi 二点五。 然后第二个是最近呃自己的一个方舟计划,也是 callinplay, 然后它的价格是每个月八点九元,然后模型自由,并且支持接入 openclock。 然后目前的话我订阅的也是这款套餐,然后目前使用下来,目前使用下来感觉它的一个速度跟效率都还可以。 然后第三款的话是呃科大讯飞的星火大模型,这个也是呃科大讯飞最近推出的 openclo, 可以 免费调用, 免费调用它的一个推理模型,但是这个应该是有时间限制,有需要的小伙伴可以自行自取,评论区也有对应的一个订阅链接。

m 三顶配旗舰版 micro studio 工作站开箱开始,若要以简体中文作为主要语言,请按下 return 键 激活流程。同意, 选择时区必须是 china。 这是一台麦克的工作站,然后拿来做企业级的 ugc 跟 ai 智能体,然后计划是跑千万三六五的幺二二比的一个本地化的一个模型 好了,二百五十六 g 统一内存 i e t 比硬盘的。

最近一段时间,我相信很多朋友都关注到一个名叫大龙虾,英文叫 opencloud 的 ai 产品。 opencloud 本质上是一个 ai agent, 也就是智能体,它跟某宝、某包这样的聊天机器人最大的区别是不仅能聊天,还能干活, 正是这种实用性,让他刷屏了。龙虾的大火,代表了 ai 已经从聊天机器人时代进入了智能体时代。龙虾只是一种智能体,未来会有越来越多针对不同场景的智能体出现。但是我自己,包括我身边所有用过龙虾或者其他类型智能体的朋友们,都会抱怨一个事,太费钱了, 每次龙虾干活的时候都会消耗大量的 token, 如果模型的 token 费用还比较高,龙虾就成了碎钞机。你可能想问,为什么不换个便宜点的模型呢?因为便宜的模型性能又差点意思。那有没有性能足够强,价格也足够低的模型呢?之前没有,但现在有了。 二月十六日除夕当天,阿里正式开源全新一代大模型千问三点五 plus, 性能媲美 gemini 三 pro gbt 五点二等顶级闭源模型,登顶全球最强开源模型。 同时每百万头肯输入价格低至零点八元,是 g p t 五点二的十五分之一, g m n i 三 pro 的 十八分之一。价格这么实惠,性能真的能打吗? 我第一时间就对千万三点五 plus 做了测试,这次我们测试的重点是这个模型的 ag, 也就是智能体能力。 为了让大家好理解,我先介绍一下智能体的工作原理。智能体主要包含两部分,一个是 ai 可用的工具,当智能体接收到一个任务的时候,大模型需要先拆解任务, 形成工作计划,在调用工具一步一步的完成工作计划。所以所谓的测试大模型的智能体能力,就是测试它拆解任务推理并且正确调用工具的能力。可以说智能体能力的测试相当于是大模型的铁人三项,是个综合能力的测试。但是想要深度测试一个模型的智能体能力 并不容易,你需要有足够多的 ai 可以 用的工具才行。正好我们自己做的 reportify 是 商业研究智能体里面已经有一堆商业研究会用到的 ai 应用的工具。为了这次测试,我专门把大模型换成了这次最新发布的千文三点五 plus, 做了一个基于千文模型的商业研究智能体。 那接下来我们就用这个智能体做测试。第一个任务,对比一下未来理想小鹏二零二四年全年和二零二五年前三季度的利润,做成表格和柱状图。 我们看这里千万模型。首先拆解任务生成了代办事项,这个代办事项生成的是比较合理的,然后就开始调用工具干活了,比如要调用财务数据查询工具来查这三家的利润。 其次还要做一些计算,因为我的要求是对比二零二五年前三季度的利润,所以模型需要把查到的二零二五年前三季度的利润做个加总。最后还要调用图标生成工具来生成柱状图,结果不错,数据和图都是正确的,速度也挺快。 第二个任务,请列出美光、三星电子、 s k、 海力士三家存储龙头公司的核心产品,以及过去半年的涨价幅度,最近不是存储行业大火吗?我相信很多关注 ai 的 人都对这个问题感兴趣,还是同样千万三点五 plus 先是把这个任务拆解成了代办事项, 然后调用各种搜索工具搜索相关信息,一项一项完成代办事项,结果也不错,数据正确,内容详实,也给出了所有数据的出处。 第三个任务,请帮我下载过去三个月纳斯达克指数的价格数据,保存到 excel。 经常做商业研究的朋友们应该对这个任务不陌生。过去你需要在某德这种数据软件里各种点,选标地、选指标、选日期,操作难度不低,而且很麻烦。有了 ai, 你 就直接说你要啥数据就行了。你看 千万三点五 plus 模型,理解了你的需求之后,会选择正确的工具,填写正确的参数,最后还会写程序,把所有数据写到 excel 里。之前 reportify 装的大脑是那种性能很好但很贵的模型, 这次换上千万三点五 plus 这个大脑之后,成本大幅下降,同时它的干活能力并没有打折。那为什么千万三点五 plus 能做到性价比这么高呢?这里面的核心技术是阿里千万团队的门控技术, 这个技术前不久刚刚获得了 neo 一 ps 二零二五的最佳论文奖。这可不是一个普通的奖项, neo 一 ps 是 全世界最顶尖的 ai 学术会议之 一,基本相当于 ai 研究的奥运会。二零二五年,这个会议一共收到了两万多篇有效投稿,最终只接收了五千多篇,接收率不到四分之一。也就是说,论文能被接收就已经算赢家了。在这么多论文里,只有四篇论文含金量有多高? 获奖论文的主题就是门控技术。那什么是门控技术呢?简单来说,门控技术就是通过在注意力层的输出端加一个智能开关,把信息像水龙头那样进行智能调控,这样既防止了有效信息被淹没,也防止无效信息被过度放大。 这带来的结果是,模型更少被噪音带偏,训练更稳,长文本更不容易出现注意力被无关信息吸走的问题。 更关键的是,这个改动,四两拨千金,改动不大,但效果又好又稳定。在美国的 ai 同行都在砸钱拼算力的时候,以阿里千万为代表的中国团队却在算法效率上做极致优化。这就是为什么千万三点五 plus 能做到 token 价格只有 g p d 五点二的十五分之一, jimi nike 三 pro 的 十八分之一。 千万是真正通过技术创新把 ai 模型的价格打下来的。这个思路很可能在智能体时代会大放异彩。 为什么这么说呢?我之前说过,智能体的作用已经被龙虾给验证了,唯一的痛点就是费钱。所以性能足够强、价格足够低的模型,一定是智能体时代的刚需。其次,我们再看远一点,如果想要让智能体越来越有用, 你就需要把自己更多的信息、更多的权限给到智能体。这时候隐私就会成为一个不可回避的问题。怎么保护隐私呢?最好的办法就是让智能体在自己的设备上运行。 想要做到这一点,肯定不能靠堆算力,只能靠算法优化,靠开源模型。未来大概率会出现一个现象,全世界每个电脑里都会有 ai 大 模型,而这些大模型大部分都是中国的开源模型。

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

大家都说 open club 很好安装,但真正自己上手的时候还是很容易因为各种小问题卡住,最后看起来像是安装失败了。所以今天这条视频我就用零基础也能听懂的方式,带你从头开始,一步一步操作, 你不用自己研究原理,也不用担心哪里看不懂,跟着我无脑作,最后就能把 open core 跑起来。第一步,先打开 power shell, 输入 node version, 如果能看到版本号,说明 node 已经装好了,可以继续。 如果提示找不到 no 也不用慌,这说明你的电脑还没装 no 或者环境电量没配好,你可以先继续跑 opencloud 的 安装命令,很多时候它会自动处理,如果不行就先把 no 装好,再重新打开 powershell, 检查一次版本号。 第二步,执行安装命令,接着在 powershell 里输入官方安装命令,运行之后它会开始安装 opencloud, 并进入首次出场流程。 第三步,安装跑到这里的时候会自动进入这个命令,这一步就是 openclock 的 首次出场向导,简单理解就是软件装完以后第一次带你做配置。 看到这里先不用慌,后面虽然会出现模型、默认配置这些选项,但第一次我们不用全配完,先把程序本质跑起来最重要。第四步,当它让你选模型或者认证方式的时候,先别急着配,直接选 skip for now。 这不是不用模型,而是先把模型这一步跳过去。因为第一次安装最重要的是先确认 open core 个体能不能正常跑起来。如果你一上来就在这里配模型,反而很容易因为认证或者接口问题把自己搞乱。所以这里先跳过,后面我们再单独接宽, 不按提示,在这里按 ctrl c 退出。这不是安装失败,只是说明 open core 已经装上了,但初步还没全部做完,后面我们继续按更稳的步骤往下配就行。 第六步,先不要急着开 dashboard, 因为现在开了大概率也是这种页面能出来,但其实用不了的状态,原因不是坏了,而是 gateway 还没启动,所以正确顺序是先启动 gateway, 再打开 dashboard。 第七步,接下来就在刚才那个 power shell 窗口里,按顺序执行这三条命令,第一条是补本地运行配置,第二条是切到本地 get 位模式,第三条才是真正把 get 位启动起来。 你可以把它理解成先把环境补齐,再告诉它走本地模式,最后正式启动服务。所以这里不要跳着走,就按照这个顺序一条一条执行。第八步,如果你看到这个 power shell 窗口一直停着不要关, 这不是报错,也不是卡死,而是说明 gateway 已经在正常运行。这个窗口一关, gateway 就 停了,所以这里先让它挂着就行。 第九步,重新开一个 power shell, 别动刚才那个窗口,因为刚才那个窗口要让 gateway 的 token 读出来,看到输出的异常串字符后,直接复制保存好就行。 第十步,现在再去开 dashboard, 因为 gateway 已经在跑了,端口也有了,偷看也拿到了,所以这时候输入 opencloud dashboard 才是正确顺序。记住一句话,先开 gateway, 再开 dashboard。 如果返回的是这种提示,不用慌,这不是报错,也不是安装失败,它说明程序已经跑起来了,只是模型还没配置好,所以暂时不能正常对话。 第十二步,接下来开始配置模型。我这里用的是阿里百炼 a p r, 所以 后面我们直接把 disco 接近 open core, 前面页面能开但不能聊天。不是安装问题,而是还没有把模型真正配好。 第十三步,拿到 api key 之后,先在新的 power shell 里设置这三个环境变量,分别是 api key、 base、 url, 还有模型 id。 这一步的作用就是先把库恩接入需要的基本参数准备好。 第十四步,前面的参数都设置好以后,直接执行这条括号的接入命令。这一步就是把括号正式接近 open core, 命令虽然长,但你不用背,完整复制执行就行。第十五步,最后重启一下 get 位。 因为刚刚改了模型配置,所以要重启服务,让新配置生效。最后说一下,第一次配置完成以后,后面每次启动其实只需要两个命令,先 opencloudgateway, 再 opencloud dashboard。 记住顺序,先 gateway, 后 dashboard。 如果你想要我整理好的,可直接复制版,完整步骤可以直接私信我,也欢迎关注我,后面我会继续更新更多 opencloud 的 使用教程。

你买 mac mini 干什么呀?买 macbook 呀,得多花一千块钱。如果你现在正在考虑是不是要买一台 mac mini 用来玩 open cloud, 先说一下结论啊,非常不建议买 mac mini, 有 那钱你直接上 macbook, 因为你的第一台苹果设备必须得是 macbook。 现在 mac mini 的 价格被炒得有点高了,在京东上国不完以后 你也得三千八百多。但是吧,你多加一千多块钱,你能买一个 macbook air 总共才五千出头,多花这一千块钱可治老鼻子了。 你买一个 mac mini, 你 不得配键盘,不得配鼠标,不得配显示器啊。而且如果你配的不是苹果的, 那跟 mac mini 一 起用起来非常的蹩手,根本没有办法跟苹果的全家总 pk。 而且你买了 macbook, 它不就是相当于一个 mac mini 呢?你把它合上,它就是一个 mac mini。 但是你 mac mini, 你 打开它不是一个 macbook 呀。你想想,你跟你的朋友坐在咖啡馆里边喝着新冰乐,前边摆着一个 macbook, 多牛逼呀,多装十三呢,对吧?但是如果你买一个 mac mini, 你 试试,你用一个车圈人的话术就是说, mac mini 有 的我都有啊, 我有的 mac mini 不 一定有啊。那么总有人问了,那什么情况下买 mac mini 呢?除非你已经有了一个 macbook。

本地跑 ai 英伟达苹果 amd 内加钱 open call 爆火,我的钱包呢可遭殃,每次对话智能体都要打包,各种系统设定和记忆,随便发个你好就要烧掉小一万头。肯有海外网友就吐槽了,自己一晚上就被干掉了一千多块。 但如果能把它跑在本地电脑上,不就可以让 ai 无限制的为咱们全天后打工了吗?嗅觉灵敏的硬件厂商呢,其实早早就做好了准备。二零二三年,苹果率先掏出了一百九十二 g 统一内存的 m 二 ultra, 可以在本地电脑运行两千亿参数的大模型紧随其后,老牌巨头 amd 和英伟达也相近,亮出了各自的统一大内存设计。这个月呢,苹果又推出了最新一代的 mmax, 今天咱们就给这三家来一波大横屏,看看谁是本地 ai 的 最佳答卷。 正式开测之前呢,先讲讲原理, ai 大 模型的参数呢非常多,想在本地电脑上跑起来需要巨大的显存,但是单独搞一大块显存呢,成本又太高。所以厂商们呢,就想到了把 cpu 和 gpu 内存池打通的统一内存方案。 大内存就是大显存,大显存就是大内存,做大了也不会浪费。但是随着苹果、 amd、 英伟达相比出手是骡子是马,就得拉出来溜溜才能知道了。横屏对比的最好办法就是直接让他们跑。大模型推理。这个呢,主要分成两个阶段,域填充和解码。可以简单理解为一个是读,一个是写。 域填充呢,是大模型读懂输入的过程。 ai 跟人呢不一样,人读文章啊,要按顺序一个字一个字读,但 ai 呢,可以量子速度, 你给大模型发一篇母猪的产后护理,电脑可以在同一时刻理解几百个甚至几千个字。 gpu 运行能力越强,算力越大,同时理解的篇幅呢就越长,读东西就越快。所以预填充主要拼的就是 gpu 本身的计算能力, gpu 算力越强,模型吐出第一个字的速度就越快, 读的过程结束。接下来呢,大模型就开始一个字一个字往外蹦,这又到了解码过程。大模型写东西呢,倒是和人挺像的, 咱们写东西经常写着写着思路就变了。这是因为咱们其实每写一个字一个词啊,都会更新一遍咱们脑子里的想法。写第一个字和第一千个字的时候,咱们脑子里装的东西呢,是不一样的。 大模型也是一样,往外蹦,每个字之前呢,都要频繁读写存储,所以输出速度呢,就非常看 gpu 的 存储带宽。我们的本地 ai 测试就围绕着这两个指标来参赛选手我们选了最热门的四组统一内存方案,苹果刚好发新品,所以出场两个分别是搭载 m 四 max 和最新 m max 的 macbook pro。 这里 m 五 max 呢,是万人瞩目的新星,官方宣称它的 gpu 算力是 m 四 max 的 四倍以上。 amd 这边呢,是搭载 ryzen ai max plus 三九五的玲珑星核。至于 ai 计算方面,资历最老的英伟达呢,我们选的是搭载 nvidia gb 幺零的惠普 zg x nano。 这三家呢,哪个都不是吃干饭的苹果系这哥俩靠着超过五百 g 每秒的同一内存带宽和五百一十二比特的位宽,在存储访问速度上明显占优。但论起来,纯 gpu 算力扩大生态加持的英伟达 g b 幺零呢,又是腰杆子比谁都硬, 夹在中间的 amd amx plus 三九五,乍一看不上不下,但它的价格是四台里面最低的,但绝对性价比的背后又牺牲了些什么呢?那就把测试刨下来吧。 跑分方面,我们首先选择了有名的本地 ai 框架拉马点 c p p 自带的命令行基本测试工具拉马奔驰,它没有图形界面,没有额外框架,损耗非常低,可以把硬件本身的能力给凸显出来。 考虑到实际应用场景呢,测试模型我们选的是 q 四量化的千万三点五三十五 b 这样一个兼顾质量和效率的本地大模型,统一起用 flash 和 tencent 来保证最高效的显存调度。输入长度呢,我们固定为两千零四十八 toc, 跟一篇新闻差不多, 在每台设备上呢,我会反复运行十次程序,选出表现最好的作为结果。首先呢,我们不加额外的上下文,只用这两千零四十八个 token 作为输入。 在拼算力的预填充阶段,也就是读内容的这个阶段呢,英伟达 g b 幺零对比 m 四 max 和 amd ammax plus 三九五有明显优势, 每秒可以处理一千五百三十五头啃,比另外两家呢,分别高出百分之三十和百分之七十五,都不像同一代产品。但果子呢,反手放出来了 m max 瞬间呢,就是攻守一形。 m max 的 预填充速度呢,直接充到了每秒两千五百八十一头啃,是前代 m 四 max 的 两倍还多,直接把英伟达 g b 幺零占于马下。而在解码,也就是往外蹦字儿的这个阶段呢, m max 依然牢牢掌控游戏。 英伟达 g b 幺零、 amd amx plus 三九五和苹果 m 四 max 没有拉开特别大的差距,平均输出速度呢,都在每秒五十到六十。 toc 大 概是咱们平时常见的在线 ai 服务的一半, 但轮到 m 五 max, 它又是单独划了一个神位出来,高高站在每秒八十 toc 以上,速度已经跟在线 ai 服务大差不差了。 不过我们呢,也有个意外发现,借助用于超算内存测试的背包 stream 工具呢,我们相对准确地测出了四台设备的内存带宽。 前面讲过,大模型解码速度很吃内存速度,但从实际跑分来看呢,在解码速度上,英伟达 g b 幺零却反杀了存储带宽时的两倍还多的 m 四 max, 足以看出英伟达扩大后端的恐怖效率。不过, m max 又一次大力出奇迹,用更高的原始硬件带宽再一次杀死了比赛。如果软件优化上能再加把劲啊,领先幅度还能更大。接下来呢,我们又测了更高的八 k 和三十二 k 上下文下各家的表现, 八 k 上下文加上两千零四十八透彻输入长度呢,跟一篇本科论文差不多,而三十二 k 就是 一本小王子这样的中篇小说了。 大幅加长上下文之后,三家机器的模型推理效率都开始衰减,但总体还是维持着 m max 大 于英伟达 g b 幺零、大于 m 四 max 大 于 amd amx plus 三九五的趋势。唯独在三十二 k 超长上下文的高压测试里呢,英伟达 g b 幺零逆转了一半。 普打这么多年在 ai 计算上的积累不是开玩笑的,随着额外上下文从零增加到三十二 k m max 的 预填充速度从恐怖的每秒两千五百八十一头啃下降到了一千零六十三,衰减了百分之五十九。而英伟达 g b 幺零呢,只是从一千五百三十五退到了一千二百九十五,衰减不到百分之十六。 像 oppco 这样上下文随随便便推到几万头肯的场景,有扩大照射的英伟达 g b 幺零还是要更轻松惬意一些。所以说苹果的计算加速生态还是有很多工作要做,才能把这套硬件的能力完全发挥出来。 至于主打性价比的 amd amx plus 三九五呢,在超长文本下就有点力不从心了。预填充速度直接调到了每秒二百四十九头肯,只有英伟达 g b 幺零的不到五分之一,解码速度呢,也调到了每秒三十七头肯,只剩下苹果 m max 的 一半。 显然绕康加速生态要走的路呢,还要更长一些。同样的,一百二十八 g 统一大内存,跟 g b 幺零差不多的带宽调度效率不同呢,影响可以是很大的。 到这呢,咱们讲的都是单线操作。接下来呢,再看看并发,随着 open cloud 这样的智能体玩法大爆发以后,咱们的电脑里呢,可能同时窝着好几个 ai 员工,一个在后台帮你盯盘看新闻,一个帮你整理会议资料,还有一个呢,在前台陪你聊天,给你汇报 ai 牛马们今天各自的工作进度, 这就要求硬件不能光顾着一个人,得有同时服务多个请求的能力。在四台设备上呢,我们分别测试了并发数为一二四八时候的系统总吞吐量,也就是所有请求一起发过来的时候,大模型同时能理解和输出的 token 总量。首先看负责读的预填充阶段, 由老资历库达护着的英伟达 g b 幺零呢,随着并发数增加, token 处理速度从每秒一千三稳步爬升到了一千五。 紧随其后的是维持在一千左右的 m 四 max 和七百七十档位的 amd amx plus 三九五。而苹果 m max 一 出来,又是再次杀死比赛头,肯处理速度冲到了独一档的两千四。 接下来负责往外蹦字的解码阶段呢,就非常看各家的优化功力了, ai 每输出一个字,都要对内存里的大量数据读写一番,如果是单线聊天折腾一遍,内存只产出一个字。但在高并发症场景下,这些中间结果呢,在各组不同的对话上都可以用,大家可以各生成一个心头狠, 谁家优化的好,整体效率呢,就能往上跳一大截。随着并发症从一增加到八,所有机器的解码总吞吐量都开始快速增加,苹果 l max 从单并发症的每秒八十二头啃一路涨到了八并发症的一百四十二,凭借存储带宽的优势,吃进了并发症红利。 而英伟达 g b 幺零的整体数值虽然低一些,但是上升幅度要更大,从每秒五十八头啃直接翻倍跳到一百二十三。虽然 g b 幺零的统一内存带宽连 m max 的 一半都不到,但库达的存储调度效率还是很恐怖的, 硬件规格再提一提,局势可能就完全不一样。至于守门员 amd amx plus 三九五在八病发下也跑到了每秒九十四 token, 平摊下来每个子人物也能有每秒十一 token 的 输出,考虑到它不到两万的售价,还是对得起入门级这个定位的。人 类的平均阅读速度呢是每秒十到十五 token, 比了半天这些机器最便宜的也比人快,还是一心八用的情况下有点汗流浃背了。那测到现在,同样是统一大内存,为啥三家区别这么大呢? 一颗 soc 芯片上的模块啊,其实非常的多,我们可以简单分为 cpu 和 gpu 两部分,在我们的电脑实际运行大模型的时候呢,这俩模块就在疯狂的互相通信。 这方面 amd 和英伟达的思路是比较像的,先打个地基,也就是封装基板,这个地基里呢,预埋了密密麻麻的铜质布线和穿孔管道,把 cpu 和 gpu 稳稳的摆在上面,如果类比成盖房子,就相当于在两座房子底下埋网线来通信。 它俩的区别就在于呢, amd 是 性价比不网网线速度一般,但是 amd 直接缩短了 cpu 和 gpu 芯片之间的距离,把两套房子拉近来提高网速。 而且 amd 呢,还优化了基板里面的布线层数和生产工艺,网线质量不行就靠数量来堆暴力实现了三个平台中最便宜的一百二十八 g 同一内存, 当然在超长上下纹的高压下就会稍显吃力了。相比之下呢,英伟达就是豪华网络方案,它用的呢是台积电顶级的 coloss r 风装,给 cpu 和 gpu 配了精密的归连接,巧 配的就都是顶级网线,再搭配自家的 n v link c two c 协议,英伟达呢,就实现了更高的同一内存共享效率。而且在软件层面上,英伟达呢,还能通过扩大进一步提高存储调度效率。网线好,路由器也好,差距呢,这就拉开了。而苹果的打法呢,就非常不一样了,特别是新的 m 五系列。 果子那边呢,两套房啊,也别搞什么网线了,直接俩房子盖到一块,门对门打通,还当啥网友啊,两家直接见面聊呗。这就是 m 五上的 fusion 架构,而且这套打法呢,远不仅是通信效率高,它真正恐怖的地方是扩展性。 果子呢,加一套房是加,加两套也是加。这代 m 五 pro 和 m 五 max 呢,就是 cpu 核心完全一样,只是加载的 gpu 不 一样。如果翻看苹果过往申请的专利呢,可以发现,果子的野心是非常大的,甚至可能会在多个方向上同时加载芯片。生产最头疼的事呢,就是良品率, 房子稍稍大一点,良品率呢,就大踏步的往下垮。苹果呢,就干脆都改成小房子了,盖一个成一个,再给它们拼成大别墅。库存克星就是恐怖如斯, 一个 cpu 拼一个 gpu 是 m 五 pro, 未来 m 五熬出呢,就二加二或者二加四,甚至拼个四加 n 的 m 五 excel 也不是不行啊,完全就是没见过的一套打法。 不过话说回来,这时候呢,就应该是各种野路子多势。两年多以前,提起苹果的统一内存,本地 ai 多少呢?还是有点太超前了。但仅仅过去两年多,见到如今疯狂吃透坑的智能体,怀疑本地 ai 意义的人呢,就已经越来越少了。 而像千万三点五、三十五 b 这样的小尺寸 ai 模型,还在飞快的跟进顶级大模型的能力水平。如果未来的终局真的是每个人类靠着一批智能体牛马来供养,那成本接近电费的头肯绝对的数据保护就是个绕不开的途径了。 说实话呢,很多日常对话贡献给大厂也就算了,但是一步步解决问题的整个思考过程,甚至是稀缺的创意想法本身全上交给大厂,那就真的有点可怕了。 所以,个人 ai 运算呢,现在还只是刚开了个头。无论是老资利英伟达,新锐的苹果,还是主打技术普惠的 amd, 都还有很长的路要走。但至少呢,咱们可以轻松点的是,这场关于个人本地 ai 的 算力革命,终于呢是拉开帷幕了。我是李易,咱们下个视频见!

这是一个关于 open claw 的 劝退视频,我有个朋友问我能不能给他装一个 open claw, 说现在网上的大佬们养的龙虾已经可以主动替他们干活了,他很羡慕,他也想拥有,想躺平。 我当时就让兄弟先冷静一下。我们先看几个事实。首先网上都说啊,养龙虾需要有一台苹果电脑,搞得现在 mac mini 都炒的一机难求了。其实运系统也是可以装的,只是配置更麻烦且更不稳定。 ok, 部署的环境没有问题。安装部署对于小白来说其实就是一个门槛,你们看某鱼小某书, 几百块钱的远程安装服务真的都卖疯了,他们也是靠 opencloud 的 热度赚了第一桶金了。不过现在阿里云、腾讯云这些都有免费的一键部署安装了,所以 大家就别再花钱当韭菜了。 ok, 以上环境和部署都没有问题。你的小龙虾装完了,然后装完了之后呢?很多人花了几个小时甚至好几天好不容易跑通了,结果三天两头插件冲突了,代码报错了,然后最后只好先放着吃灰了。 而这我的朋友,你有能力解决吗?你是不是还得去网上找人解决?更坑的是什么?安全风险? open clone 要系统级的权限,第三方的插件根本就没有审核,所以有可能导致数据的泄露甚至财产损失。连大厂都不敢推这种产品,我们一个普通的小白用户,凭什么我们敢赌? 然后最后再说到成本花费,一些优质的大模型 token 费用一个月得好几百美元,再加上电费储存费,我看过网上一个用户吐槽说一个月花了三千块钱,结果还是得自己干活,调侃自己贷款上班养龙虾。 所以现在 openclip 爆火又能怎么样?那不是给我们普通人小白准备的?其实 openclip 本质就是一个能力的放大器,技术大牛能用它高效干活, 但咱们呢?连部署安装都搞不定,谈什么 ai 替代人工?所以兄弟们与其追什么财富密码啊幻想,还不如先搞清楚自己需要什么。 open clock 不是 你的救命稻草,它只是一个试水阶段的一个工具,真正的价值还得看你自己。 但也有的朋友会想说,确实想体验一下 open club 这种养龙虾的感觉,要跟上潮流怎么办?那下期教大家一个三分钟配置好自己的小龙虾的办法,免费的!

用 macbook 或者 mac mini 来养这只 ai 龙虾靠不靠谱?今天森哥给你们盘一盘啊,我先自我介绍一下我是干什么的,我是卖二手苹果笔记本的,所以呢,我说的话应该还是啊有点参考价值的。我先说我的结论呢,没有必要专门买一台 macbook 或者 mac mini 去专门养这个 ai 龙虾。如果说你已经有一台笔记本了,或者有一台这个 呃台式电脑了,直接用你当下的台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下大火的这个啊,台式电脑就可以了。首先我们搞清楚下的代理 传统,我们用的 ai, 比方说豆包也好啊,或者 d p c 也好啊,你是要通过你跟他对话,然后他给你答案,你去再通过这答案你去调整你的这个方案或者做的事情。但 ai 一 准不一样,它相当于一个代理 你,你让他去做这个事情,他会自动通过连接 ai, 然后他帮你完成。打比方啊,如果说你想要去让他完成一个客服的工作,你请一个客服可能要花四五千块钱,那么如果你在下面养了一只龙虾片安装好的话, 他有可能能帮你完成客户的工作,并且可能会玩的完成的比这个普通人更好,因为人需要休息,需要上班下班,但是哎呀,他不会累。那么刚好森哥最近呢就在研究这个东西,所以最近很多人找森哥淘机嘛,对吧?我的啊,小红啊,小斗啊,还有那个 啊,小蝴蝶都很多人来私信我,所以很多时候我的这个私信回不过来,我还研究了蛮久,翻译了很多资料,发现呢,现在我想用它来完成的工作其实是完成不了,因为他现在不支持去接入 微信啊,就是腾讯的东西都不只是接入,所以他没有办法带你去完成微信上面的任何回复或者操作,点赞都不可能去完成。所以这就是曾哥的第一个观点。当你有一个想法想去用这只龙虾去完成的时候,你可以先去验证一下他到底能不能做。不要是先把这个麦 mini 或者 啊麦克风买回来了,把工具买回来发现用不了又把它卖掉,很浪费。那我再发现他不能去做这个客服之后,我就 想着他能不能帮我去处理一些表格和统计。因为最近后台很多人找森哥去呃淘机型嘛,所以呢,我就要把所有的这些粉丝呃的一个顺序,还有下单的这个名字啊,地址这些东西帮他规整一下。这个还蛮花费时间的,我就看他能不能去弄表格,那我发现这些简单的表格接入他是能有权限去处理的。 那我就在我的 macbook 还有我的 windows 台式电脑上面,我都去装了这个 ai 去尝试一下。那森哥跟大家讲一下,在 macbook 还有这个我的 windows 台式笔记本上都装了之后,做同件事情的使用体验区别在哪里?听好了, 没有任何区别,注意是没有一点点的区别,在 macbook 上面完成的跟在台式电脑 windows 完成的是一模一样。为什么很多人说这个 macbook 跟 mac mini 会更好,一直在推这个东西呢?低是因为它的能耗低,就比方说你同样的开一天这个 macbook 或者 mac mini, 它耗电量非常少, windows 笔记本的话,如果要我的那台四零六零的话,可能的电量可能是它的呃,十倍,二十倍可能都不止。问题又来了,你要先看你自己的使用场景跟时长,如果你只是像森哥一样处理一下这个表格,那么每天可能就花个 几个小时,甚至都不用半个小时,那么完完全全没有必要。因为那么一点点几毛钱的电费,你再去买一个几千块钱的 mac mini 或者甚至上万的 macbook pro, 完全没有必要。真的,我觉得但凡森哥我的心黑一点点的话,我觉得现在我已经接了三四十台这个 mac mini 或者 mac pro 的 一个订单,但是我没有这么去做。为什么呢?因为我觉得 买数码产品大家一定要看清楚这个需求,你需要的话去买,不需要的话完全没有必要去买。现在赚钱不容易,对不对?但是说句实在话,森哥我本人对这个 ai, ai, 不 管是不是小龙虾或者其他出了一些代理, 我是非常非常期待,因为现在我开始去慢慢有一天忙不过来。然后呢?我其实之前创过业,所以呢,我踩过的坑就是我不会去管理员工,就是我不怎么会跟人去打交道,我对这个屏幕还好,我还蛮涉恐的,所以 如果这个 a 准,如果真的后面能够接受一些主流的沟通软件,我一定会去第一个去尝试。还是那句话吧,如果当你有一台电脑的话,你先去尝试一下它到底能不能用,能不能跑?如果是真的能,或者是真的你能够频繁的使用上,并且能给你创造一点点价值的时候, ok, 我 们再去购买设备啊,不要因为一个想法 啊就先买了一堆设备,然后去拾回,没有必要。好吧,这里是深哥搞基,希望这一期的分享对你有帮助,感谢关注。

折腾了这么久,大龙虾的配置搞明白了吗?国产大龙虾这波直接把门槛给拆了,只需要三条命令就能一键跑起来,跑起来之后剩下的点点鼠标就行。打开控制面板后,在这里切换中文 聊天,这里直接就能对话,这里配置其他的聊天频道,飞书、钉钉等,按它的说明很快就能配好。绘画、管理、定时任务都很直观。 经常折腾大龙虾的就对这些个文件很熟悉了,甚至能把大龙虾的复制过来,让你的大龙虾在这里复活。 配置模型更简单,摩塔社区和百炼的都内置了,只需要 a p i t 就 行,其实两个都有免费的额度,自定义供应商就可以随便折腾了。老黄的羊毛还能继续薅,别用太热门的模型,都还不算太慢,比起大龙虾来还是挺简单了,功能的话慢慢摸索吧。

二零二六年了,如果你写代码还在按 token 付钱,那你的钱包真是在滴血。现在的 ai 辅助编程,随手一个虫购就能跑掉几十万个 token, 按量付费简直就像坐着计费器疯狂跳表的出租车,看着心慌。为了抢开发者,国内各大厂商终于卷出了包月套餐。 我已经帮你把字节、阿里、智铺、 kimi 等九家主流厂商的 coding plan 底细全扒干净了。看这张表,字节方舟四十元就能通吃。 deepsea 和 kimi 的 旗舰模型性价比极高,阿里云 q、 n 三的代码表现确实顶, 但你要小心他后续涨价。不过别急着掏钱,这些包月套餐里藏着厂商不敢说的限流陷阱和模型降至猫腻,一旦踩坑,不仅没提效,反而会拖慢进度。咱们直接看最真实的测评结果。看完了总表,咱们先聊第一阵营, 多模型聚合派这类套餐最大的好处就是灵活,一个账号能调好几家的旗舰模型。字节方舟是目前的头号选手,四十块钱一个月能同时用上 d、 c、 v 三点二和 kimi 最新版,生态兼容性做得最好。百度千帆也是四十块, 它的优势在控制台切换模型,不用改代码,体验很顺。如果你预算有限,无问心穷,直接把价格打到了十九块九,虽然偶尔不稳定,但作为 deepsea 思考模型的低价入口,依然非常能打。如果你写代码需要反复对比不同模型的逻辑,选这几家准没错。 如果你追求极致的性能,那还得看字眼、旗舰派,这三家都有自己的护城河。先说阿里云的 q 文三 max, 他的代码逻辑在国产模型里是独一档的,处理那种烧脑的算法重构非常稳。但提醒一句,很多人反馈他首月四十块只是钩子, 续费可能会跳涨。再看月至暗面的 kimi code, 这是目前的常文本之王。二五六 k 的 上下文是什么概念? 它能把你整个工程几万行代码一次性全吃下去。无论是改陈年老 bug, 还是理顺复杂的调用链,目前只有 kimi 能接住这么大的量,而且响应速度极快。 最后是智普 ai 的 glm 五,它的工具链整合做的最全,能,直接调用二十多种编程工具。唯一的缺点是太火了,经常显示缺货,想用还得看运气。这三家怎么选?看逻辑找阿里,看工作量找 kimi, 求全能,找智普! 买套餐前,一定要看清厂商的数学题,很多厂商宣传五小时能用一万多次,对吧?这就是坑。 这就像早期的那种无限流量卡,看着是不限,但只要你短时间内多看了几个高清视频,立马给你限速到断网。在抠屏场景里,如果你正在进行大规模代码重构,连续点了几次生成,系统会判定你高频异常,直接给你熔断。 社区里很多人的真实月上限其实只有六百到一千次。记住,厂商给你的数字是上限,但决定你体验的是那个看不见的动态调节门槛。 为什么有些平台的 db、 cv 三点二用起来感觉特别笨?那是因为部分聚合平台为了省钱,给你偷偷换成了量化版模型。这就像是把一个学霸的脑子精简了,普通的填空题他能做,一遇到复杂的逻辑大题就彻底翻车。更恶心的是兼容性封锁, 有的厂商会偷偷检测你的调用来源。如果你没用他们自家的 ide 或者官方插件,而是用的 open core 这类第三方工具,后台直接就给你报风险错误。 如果你发现自己的代码 ai 突然不听使唤了,先查查是不是被降至或者被定向封锁了。最后说个钱的事,千万别被那些九块九甚至四十块的标价给骗了, 那往往只是首月的体验价。像有些大厂的套餐,第二个月续费直接就能跳到一百多块钱。 订阅的时候一定多点开那个资费详情的小资看看,最好是先按月订阅,把它的响应速度和病发限制实测一遍,觉得好用再考虑长线,别一上来就被大厂的招牌给套牢了。最后帮大家总结一下怎么选, 看中性价比和多模型对比,闭眼入字节方舟或者百度千帆。如果你要维护万行代码级别的大工程, kimi 的 长文本能力目前是唯一解阿里老用户或者是 q one 的 死忠粉,选百炼就行。但有一点千万记住,不管你最后定哪家, 都别直接包年,先花几十块钱订阅一个月,在你常用的编程插件里实测一下真实的响应速度和并发症。别等大面积重构代码卡死的时候才后悔,听我的,实测完再考虑长期续费。