这是二六年的国模模型黑马,那谁说我们做不出自己的设计风格的?令耀的出现绝对是国模新的里程碑。 本期呢依旧老样子,安排给粉丝先知评论掉了一台,右上角的原始股东用,你们支持一下,左下角的推荐走一走,那上集掉落呢在结尾。本期呢给大家带来小 t 出品的国模武侠风的机甲,那 龙纹镖局的另一样整体的模型盒子呢,体量呢比较大,整体的玩法说明呢,在包装盒上呢也很清晰,里面呢是牛皮纸的包装,附带了特点, 本次包含了透明件的外甲供大家选择,可以裸露里面的机械内部结构。本次的板件量呢还是比较多的,包括说明书和水贴都是包含的快速取下,板件的素质呢,绝对不是新潮的水平。板件的金属色呢是很漂亮的,说明书呢也是很完整的说明书,有全彩和取件表。 那本次的零件呢,有大量的玉图装分件,那这个呢是其他板件颜色的漆面表现。 那么现在呢,你看到的是整体的零件拼装预览 把火线上呢,你现在看的就是令药的骨架部分,整体的金属零件包裹还是很明显的,背后的龙脊呢也很漂亮。整体的可动呢目前是很不错的,我们可以看看整体装上外甲的样子,这个外甲装上呢,是不是颜值已经很棒了?整体呢就是纯水贴,无消光, 拼完上水贴的效果,整体呢比较坠手。可动上呢头部的可动已经是很不错了, 腰部呢有可动,会带动后面的腰部,连动手臂的曲臂呢没有问题。胯部的裙甲呢,有可活动腿部的替换,腿部屈膝呢大于九十度且有联动效果, 脚步呢也有两束活动关节,当然了也有本次的重置重类似于斗笠和蓑衣的外甲风格,也有着衣服装甲的收纳架,那大家可以看这个整体的外甲的玩法是比较多样的,安装呢也是非常的方便,都是不需要耗费大量的时间,直接安装孔位即可。 武器方面呢,四把可拆卸的子弹的枪械, 也有单独的收纳架,人物呢也有着自己的收纳地台。三个置物架呢是可以一起组合的,包括四对替换手。 在优缺点的总结环节呢,本期给大家带来小 t 出品的龙纹镖局的内奥,整体的模型的设计完整度呢,我是可以给到很高的分的,包括里面的透明外架可以供大家选择,整体的收纳架的设计呢也可以给到吭,那性价比呢还是比较高的, 厂家的诚意和设计语言呢,大家是可以有目共睹的。拼装体验上呢,有取件表可以提升拼装效率,骨架部分呢,拼装略紧,也有一些小零件比较小,大手的兄弟们需要细心的按压,包括整体的设计比例呢,都是其实是有做取舍的, 腿部的比例过长呢,也是为需要最后的外甲蓑衣做准备,单看外甲的话就会显得有些过长,那手的替换呢也很方便,插拔就可以替换, 未来呢设置一个好的可动手,看起来会更加方便一点。那这款小弟出品的另一样呢,我还是很推荐大家去玩玩的,有着自己的设计, c g 动画后面还有女性角色,包括未来呢,在把动画 ip 做强,不断地优化自身的作品,如果大家也喜欢这款模型,也可以去尝试尝试。 上一段 恭喜这位粉丝一路对讲,我没有红军美, b g 我 没有冰雪掉落把中,我们兄弟们吃喝包好机会冲冲。那以上的全部个人把管理好的模型呢?需要你亲自喜欢,好的模型需要你亲自把本视频呢?希望大家视频中注意。如果你对这款模型呢,还有任何疑问或者想了解的信息,欢迎在评论区留言,再点个小小赞,先来我身份,我们下一次见!
粉丝1.6万获赞18.3万

胡巴郎的妻子忘了满黄冈的会二岁了,装个当朝一天阿奇将唱切磋心相恋的三十二岁了,装个当朝胡巴郎的妻子忘了满黄冈的会二。

兄弟们,见证时代,小米米某大模型登顶世界第一,成为全球掉用量最大的模型,比第二和第三加起来都要高,而千玺好像从这个排行榜上已经彻底掉队了, 不知道后面华为会 copy 哪一家呢?是直接 copy 小 米吗?还是 copy deep sync 和 copy mini max? 可能会把小米的模型下载下来改个名字,这发不了上去吗? 我们来分析一下,为什么小米的这个模型使用的人为什么会这么多?其实我还是跟小米现在这个有一半的免费政策有关系, 在他接入 open clone 的 时候他是免费的,而这个 open clone 这个地方有很多的使用人士就使用 open clone 小 龙虾的再接再厉吧,希望到时候小米恢复社会的时候还能是世界第一的水平。


面试官问,为什么现在顶级的大模型几乎全都是 decoder only 架构?哎,同学们,如果面试的时候你只会回答,因为大家都是这么做的,那面试官估计当场就得让你回去等通知了。大家好,我是大鱼,你想过没有,明明传送门刚出来的时候,带 encode 的 完整架构才是主流, bug 当年也是靠着纯 encryptor 拿下了天下,怎么到了万亿参数规模的今天,全世界都统一口径选了 decryptor only 呢?这背后可不是什么跟风,而是隐藏着深刻的数学逻辑、任务范式和工程上的暴力美学。今天咱们就带大家深度揭秘这个大道至简的架构,胜利! 咱们先说第一个扎心的问题,网络变深了,模型是不是就一定会变强?其实不一定,咱们看第一个维度,数学表达与注意力满智。你想啊, encrypt 的 这种双向注意力,在网络极度加深的时候,容易产生一种叫注意力退化的现象。简单说就是大家都看来看去, 最后特征都长得差不多了。但 decoy 的 聪明在哪呢?它引入了因果野马,这就好比打破了对称平衡,让 attention 矩阵在数学上能一直保持满智。 模型再深,它捕捉到的特征依然丰富,这就叫打破对称,方得始终。再看第二个维度,任务的统一。 以前咱们做自然语言处理分类是一个模型,翻译又是一个模型。但你想想语言的本质是什么?不就是预测下一个词吗? decode 天生就是干这个的,它不需要你为不同的任务设计复杂的特定输出头,直接靠下一个词,预测这一招走天下。 最神奇的是,这种极简范式反而激发出了一种叫上下文学习的超能力。不用微调,你给几个例子模型,就能学会这种零样本泛化的快感,带 encode 的 架构可真给不了。 最后是工程上的暴力美学,现在大家都在卷参数,参数越大,通信成本就越高。 dico 摒弃了复杂的交叉注意力,使得分布式计算变得特别简单,它完美的印证了缩放定律,也就是说,只要你给够算力和数据,它就真的能大力出奇迹。而且它是目前试错成本最低、 性价比最高的架构。说到这儿,你可能会问,那 b e r t 和 t 五那些架构到底输在哪了?咱们来复盘一下。首先是唇影扣的架构,代表作就是 b e r t, 它确实理解能力很强,但它太死板了,只能做理解,生成能力极度受限。 在这个生成式 ai 的 时代,它就像一个只会看书不会写作文的学霸,路走窄了。那带编码器和解码器的完整架构呢?比如 t 五,它看起来很完美,既有理解又有深沉。但问题出在工程落地上,它中间那个交叉注意力在万亿规模下简直是运维的噩梦。计算和通信极其复杂,稳定性还不如 dico 的 灵敏。 在大力出奇迹的路上,他太重了,最后被轻装上阵的 decoder 给甩开了。好,如果你能达到,上面这些面试官肯定已经点头了,但他一定会追问,那 decoder only 就 没缺点吗?这些坑工业界是怎么填的? 这就考到你的技术深度了,咱们得聊聊这三个硬骨头。第一字,回归推理极慢,因为它得一个字一个字往外蹦,前面的计算结果在每一轮里都会被重复计算,怎么破?工业界现在标配 kv cash, 就像是给模型加了个缓存条,再配合分页管理机制,像操作系统管理内存一样,管理显存碎片,极大提升吞吐量。还有更绝的投机彩样, 先让一个小模型朝里出几个候选词,大模型再来批量验证,这就把串行变成了部分的并行速度直接起飞。第二,长文本显存爆炸。你想啊,注意力的计算复杂度是长度的,平方文本一长,显存瞬间就崩了。现在的解法是什么?最出名的就是 flash attention, 通过底层优化 gpu 的 读写,把平方级的显存占用硬生生拉到了现行。还有环形注意力,让几百张显卡围成一圈,像接力赛一样传递状态,实现了百万级别的超长文本切分。第三也是最尴尬的,他看不见,后面没法回头看。 这对代码填空或者双向语境理解很不友好。于是大厂们搞出了 f i m 填充训练技术训练的时候把语料打乱重组,强行让模型学习怎么根据前缀和后缀来补中间的内容。还有像前缀混合架构这样的眼镜,在前置输入部分放开掩码,实现双向理解。 所以啊,同学们, daker only 的 霸主地位,本质上是大道至简的功成胜利。他靠着优越的数学原理拒绝退化,靠着统一的深层范式,实现了通用智能的雏形。最后靠着极致的并行效率,变现了缩放定律的威力。在大漠性的江湖里,有时候少即是多,化繁为简才是最高的境界。好了, 今天如果你听懂了,下次面试大模型架构,你就是全场最靓的那个仔!好了,今天的分享就讲到这,大家点赞点关注,后期我会分享更精彩的技术内容。


杨立坤这几天刚发了一个世界模型,强的可怕啊,一千五百万参数,单块的 gpu 几个小时就能训练完成啊。这个规模很小,随便一个研究者呢都能跑,但规划速度比基于大型基础模型的世界模型快了四十八倍。这个自从杨立坤拿了十点三亿 美金的这个种子融资之后啊,成果斐然。三周啊,连发了三条论文,第三条论文就是刚才说的这个他的新模型啊,第一篇我们之前已经讲过了啊, 就是直接炮轰 agi, 他 说追求通用人工智能这个目标从根本上就是错的啊,他提出新的目标叫 s a i 超级适应性智能啊,衡量标准从能做多少任务变成了学会一个技能需要多少时间。第二篇是架构论文啊,解决世界模型的因果推理的问题。 第三篇就是他的这个新模型,他第一次把世界模型从大厂专属变成了人人可以动手跑的东西。这个模型和论文发了有几天了,但我看国内没啥人讲啊,我也没顾上。 今天讲一下这条,我说三点,第一是世界模型和大语言模型的呃,根本区别。第二是杨立坤的世界模型 做了什么啊?怎么做的?第三是取得了什么样的成果,并且用在什么样的场景。大家可以听一下我这条啊,了解一下现在的技术前沿啊,了解一下世界正在发生什么。第一个问题啊,世界模型和大语言模型的根本区别,大语言模型学的是文字之间的关系啊,不是物理世界的因果逻辑。你问 gbt 把杯子托到 桌子边上会发生什么?他能答对掉下去,但那个答案是来自于训练数据里见过无数次类似的描述,不是来自他理解了重力和物体的运动, 你让他控制一个机械臂,他会茫然无措的。更深的问题是,大圆模型做多步的推理的时候,误差会指数级的累积步骤越多,准确率指数级崩塌啊,这是架构决定的天花板。世界模型呢,走的是另外一条路,市场上总的来说的话,有三种主流的 世界模型路线。第一种是生成式世界模型啊,就是预测像素,因为打 the cosmos, 谷歌的基尼就是这种的代表。第二种是潜在空间世界模型啊,像 deepmind 的 dreamer 啊,走的是, 呃,这条路啊,比生成式的方法高效一点,但需要奖励信号或者是状态标注。依赖特定任务的数据泛化能力是很有限的。杨立坤的 g e p a 是 第三条路,它不预测文字,而是在抽象特征空间里预测物理世界的变化规律啊,物体在哪里, 会怎么移动,做了某个动作之后状态会怎么变?他在脑子里建了一个物理世界的内部模拟器, 能在行动之前想象各种可能性,再选最优的那个啊。这就是杨立坤一直力推的 g p a 架构的核心思路,成本极低,准确率极高啊。 g p a 一 直有一个长期的工程的噩梦,就是训练极其不稳定,容易表示坍塌。大白话就是模型在训练中开始偷懒, 把所有不同的输入都映射成为几乎相同的特征。这样虽然预测误差小,但什么有用的东西都没有学到啊。就像一个学生每道题都选 c, 这个分数可能有个二三十分,但他肯定是啥也不会啊,为了防止坍塌呢,过去靠呃,这个工程技巧,技巧一多呢,参数就越多,你得调餐。调餐是个噩梦, 而且没有数学证明能够保证不这个崩塌。这就是为什么世界模型长期是大厂的游戏,普通研究者根本玩不起。第二个问题啊,杨立坤的世界模型做了什么啊?他其实是一个有数学保证的优雅的解法啊,他的核心贡献是把特征向量随机 投影到多个方向,对每个投影做检测啊,检测分布是否符合高斯分布,不符合就加大惩罚。这个过程让整个特征空间的分布约束变成了各同向性的高斯分布啊。数学上可以证明探探不可能发生啊,而且只引入了一个 可调的,这个超参数从六个降到了一个啊,把这个调餐噩梦变成了小菜一碟。然后它的架构也变得了极简。编码器把原始像素压缩成这个低维的特征预测器,根据当前特征和 动作预测下一步的特征,两个组建两个损失项,端到端从原始像素直接训练。然后第三个说一下它的这个成果啊,这个咱们用数字说,模型一千五百万个参数, 单块 gpu 几个小时就能训练,这个规模是 gpt 三的万分之一,随便一个研究者呢都可以上手,那规划速度比这个主流的世界模型要快四十八倍啊。大型基础模型每次规划都要通过庞大的这种视觉编码器。杨立坤的世界模型直接在压缩的小特征空间里规划单词不到一秒, 然后在机械块推方块的这个任务上,成功率比主流的端到端的世界模型高了百分之十八。然后结果是啥?那我们做了一个违反期望的这个测试,就是给这个 呃,新的世界模型看了三个视频,第一个就是物体的正常呃运动啊,第二个是物体的颜色突然变了啊,第三个是物体突然瞬移了,这个是违反物理规律的,然后测试结果是,它 这个对瞬移有明显的惊讶行为啊,他很惊讶预测的误差骤增啊,但是他对第二个颜色的变化啊,几乎是没有反应的,这就说明他的内部编码了物体的位置和运动规律,而不是外观的颜色,他能区分外观变了和物理被打破了,这就意味着他理解了物理世界规律了。一句话总结就是, 杨立坤的世界模型解决的不是大语言模型擅长的问题,而是大语言模型根本无法解决的问题啊。就是在物理世界理解预测、规划和控制这两条路啊,其实不是竞争,是两种不同的智能,但 在机器人、自动驾驶、工业控制这些领域呢?杨立坤的世界模型代表的这条路,才是真正有希望的方向。而现在,这条路的门槛第一次降到了这种人人可以参与的程度。那我说完了,我是老郑啊,关注我。

cloud 把免费通道堵死之后,所有人都在问同一的问题,现在用 opencloud, 到底哪个 ai 模型最能打?我测了二十四个,结果有一个黑马连我都没想到。先说背景,之前 cloudmax 无限额度计划被掐断,等于你的 ai 助手的大脑被人摘了。这哥们 mike 直接跑去拉了一张二十四个模型的后补名单。 antropic, 酷狗 x a i 欧拉玛, oppo, rota, 小 米,连你可能都没听过的 kokoito 都上了。然后他用自己的健康 ai 做考场,真刀真枪开测。他是这么说的, so now we're in the wild trying to find the ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model with the best personality let's dive in。 对, 就是在找最有灵魂的 ai model。 同时跑资代理 把所有模型并行跑同一份健康日报,结果存成代号文件,防止打分时有偏见。科学精神,我给满分。先说说那几个订阅方案。欧莱玛很多人以为 只是本地跑模型用的,但他们现在有云端计划,每月二十美元,而且麦克狂用了一整周,消耗还不到百分之十配额。他自己说, and it's actually incredible i found i don't even need the one hundred dollar a month plan yet。 二十刀一个月捶一整周,还剩百分之九十额度,性价比确实大劣。而且模型库里有 g l m 五点一 jimmy 四 nba 内蒙川 随便挑。 open router 也可以玩,但没有无限制套餐,得一直充钱按 token 计费。灵活是灵活,但容易不知不觉花多了好,直接进入残酷评分环节。 d 档只有一个 google 的 占马四,四点五分,评价是太单薄,没建议没观点。 c 档四个一起挂了。 nvidia nimotron i c i 的 grog 四点二零 mr 二点一。 grog 的 评语最新了,听好了。 who the feedback was m dashes everywhere are all violation check boxes for things that are already done corporate motivational poster energy with no opinions。 企业励志海报的气质,没有任何真实观点。这话一出,马斯克应该坐不住了。顺便说一句, grog 调用工具倒是挺便宜,一次突破才一美分,但便宜没好货。这话在 ai 人格上依然成立。 g p t 自家的开源模型,一千两百亿参数版本,你以为会有大长底气?结果 c 党评价是满屏破折号,还编造了一个根本没做过的狐灵训练,捏造内容直接出局。 openai 的 g p t 五点四 beta 倒是进了 b 档七分,但没按系统提示用以谋记,建议也太模糊。 而且更心痛的是, and as you can see just this week i've spent just over fifteen dollars testing my open claw instances so even open ai when it's not unmetered is well fairly costly。 仅仅这周测试就花了十五美元多,而用 club 的 opus 走 api, 一 次健康报告三点二美元,一个月就是三十三美元以上成本直接把你劝退。 jamie 三点一,不管 flash 还是 pro 都卡在六点五分的 b 档, 结构可以,但被评为略显表演性,有点夸张。总结就是感觉像在演,不像在说话。 a 档开始有意思了, mini max m 二点七拿到八分,全程声音强劲。 kimi k 二点五得七点五分,被评为有 windhamf 那 种冲劲,就那种冰水浴大师的能量感。 然后来了个真黑马。小米的 mimo v 二 pro 八分评语式, it's no screen blue light lecture needed you know the drill treats mike like an adult and has punch。 哎,用户当成年人对待,有冲劲。小米出 ai 模型这件事本身就够震惊了,结果还打进 a 档。 mike 自己都说小米不只是空气净化器。 s 档最终决战 colo 的 oppo 四点六和 colo 的 sonata 四点六,双双八点五分干 wait, 数据扎实,还能调用历史数据给你洞察。 sonata 的 评价是框架精准表扬,具体可执行。如果你担心 oppo 费用跑飞换 sonata 基本不会掉分。但 s 档还有一个, here's the feedback, it gave eight point five out of ten the same as the chord models。 质朴的 glm 五点一同样八点五分,跟 cloud 模型并列。 s 档平语式,风格老道,数据扎实,直接教练腔调,非常接近原版健康 ai 的 声音。更关键的是,这个模型你用欧拉玛二十美元月套餐就能跑,不用按投肯烧钱。 所以结论就是, cloud 的 人格天花板目前还没被打破。但 g l m 五点一是目前性价比最炸裂的平替,二十美元包月,三档人格工具调用稳。你现在的欧阔到底在跑哪个模型?评论区告诉我,说不定你的选择才是真答案。

之前聊过 sharp onix 这个框架,但说的比较笼统,后台不少朋友留言,能不能演示一下实际效果?行,这期咱们就来点实在的,直接在手机上跑一个完整的语音识别模型。 好的,现在我们来演示一下离线实时语音识别的效果。我们可以看到手机的右上角,它是开了飞行模式的。这款手机是二一年的千元机,已经用了好几年了, 但是我们看到它的转写的速度还是很快的。此外,我们观察到转写的效果也是挺不错的。它使用的模型是阿里开源的, 它支持中文、英文、日语、韩语、粤语的语音识别,我们可以看到标点符号都能够正常的显示,当然时间戳也是支持的。 此外,这款模型还支持语种识别、情感识别、事件检测等功能。 这个模型是完全运行在 cpu 上面的,效果和速度都很均衡,非常适合生产级部署。好了,本期就演示到这里,关注我,下期继续分享实际应用案例。 这次演示用的是 sense voice 模型,简单说它是阿里开源的音频理解模型,特点是速度快、功能全、效果好,十秒音频只需七十毫秒,比 whisper large 快 十五倍。 模型这么强,为什么能塞进手机里?这就是 sharepoint onix 的 价值。它是一个跨平台语音模型部署框架,支持 android、 ios、 windows、 mac os、 linux、 harmony os, 支持十二种编程语言。 语音 ai 的 门槛正在被彻底打平,开源模型加开源部署框架,让任何开发者都能用几十行代码集成完整的语音识别能力,完全离线运行,不依赖任何云服务。

前段时间,国家体能协会发表了一篇质疑儿童青少年一般运动能力训练敏感期的批判性综述研究, 文中指出, l t a d。 模型中提出的运动能力训练敏感期和机会窗口并不存在,教练以及运动员发展从业者不应依据通用敏感期对青少年进行训练。 首先,文中提到,运动技能是多种能力的复杂整合且具有任务的特异性,敏感期应针对具体技能、肌肉群和动作,而非通用能力。就拿速度能力来说,短跑的速度和游泳所需要的速度、 依赖的肌肉群动作模式完全不同,敏感期也不一样。也有研究表明,力量训练使身高增长峰值后,男孩的加速能力显著提升, 但最大冲刺速度并未出现显著增长。其次,模型也未提出敏感期的具体训练方法,例如,并未说明在速度敏感期内应采用专项冲刺训练、增强式训练还是抗阻训练来提升速度。而不同的训练方法效果可能存在差异, 直接决定了敏感期内的身体适应幅度。此外,具体的训练频率、组数、负荷、休息时间以及青少年的训练基础的不同,都会显著影响训练效果。其实,我们非常认同 l t a d。 模型的积极意义, 比如提升了我们对早期专项化风险生龄年龄而非实际年龄的重视,以及聚焦长期运动成就而非短期成绩。 但是,在训练实践中,教练不应依赖 l t a d。 模型的通用敏感期,而应在青少年发展的所有阶段全面训练,各项体能指标可根据发育特点优先安排特定训练,以降低受伤风险。 每种运动技能和运动能力均可通过多种训练方法进行训练,而最佳的训练效果可能出现在发育的不同阶段。其实,随着体育科学的不断探索与发展,先前的体系表达不太完善而引起争论的原因主要在于我们对于运动能力的分类还比较笼统。 而现在比如我们对于力量素质的划分可分为最大等长力量、反应力、离心力以及发力率等不同方面。 对于骨骼以及神经肌肉功能的要求,在不同年龄段的侧重点也有很大的区别。所以说,不管是专业运动员还是青少年的训练,从本质上理解人体运动的发展规律以及训练的适应性,是我们提升训练水平的必经之路。

听我一句劝,别花冤枉钱订阅各种 ai 工具了,很多模型跑分挺高,用起来却很鸡肋,还得开会员。今天就带大家走进 ai 决斗场 le marina。 在 这里你可以免费使用 gema gork club 下载 gpt 等国内几乎所有顶尖的模型, 不需要账号,不需要会员,不限量。该网站呢,有加州博会大学的背书,是全球大模型评测非常权威的网站。有了它,让你彻底摆脱品牌滤镜,谁是真聪明,谁是吹牛皮,你说了算。那么我们废话不多说,直接开讲。 首先我们打开 i m rina 的 主页面,页面分为两个板块,左侧的功能栏和右侧的操作区。功能栏有两个选项,新建对话和排行榜。这里是英文的, 我们点击新建对话。注意,操作区左上角有一个下拉菜单,点击后可以看到三个模式,依次是 battle 模式、 side by side 模式和 direct chat 模式。先来说 battle 模式, 两家 ai 呢,会隐姓埋名,同时回答你的问题,你觉得哪一个好就给谁投一票。这套逻辑就是目前让 ai 变聪明的核心技术, r l h f。 接下来呢,就利用这个模式 battle 一下。首先在输入框中输入提示词,可以看到它由我们生成了两个匿名答案。 ai 工具名称用助手 a 和助手 b 代替, 因为底部出现了四个选项,左边更好,平局都不好,右边更好,可以根据你的喜好进行选择。那我觉得两个回答 ai 味都太重了,点击都不好。现在可以看到答案框左上角均显示了对应的模型名称。 再来说一下 sign by sign 的 模式,选中后可以看到旁边又出现了两个下拉菜单,你可以点选你想要的模型进行对比,或者直接输入名称搜索。比如想看 chat gpt 和 cloud 谁强,直接把它们拉到这儿兑现。甚至你可以直接在 direct chat 模式里点名要求某个模型服务, 这就相当于一个免费的全能 ai 客户端。除此之外,你要是不知道最近哪个模型最火,回到左侧的功能栏,选择排行榜,这里提供了各种分类的实时排行, 文本、视觉纹身图、图声视频等。这是全球数十万人投票出来的排名,比任何官方的跑分都靠谱,谁排第一,谁在吊车尾一眼见风小。作为大模型圈的裁判长,全球厂商都得乖乖的把 a p i 送上门,毕竟谁也不想在排行榜上查无此人,那多没面子。 所以大家尽管放心,在这里用到的绝对是厂商压箱底的满血干货。更厉害的不需要注册就可以直接使用, ai 时代,工具比努力更重要!快去 lm arena 试试吧!大家点点关注哈,跟着阿亮学 ai!

昨天半夜,硅谷又趁我们睡觉的时候抛出重磅炸弹, asapac 官宣了新一代模型 cloud missiles preview 编程数学长文本,全面吊打自家上一代模型 opus 四点六。没错, opus 四点六就是当前全球最强的推理模型, 自家的产品再次革命, s w e bench 编程测试百分之九十三点九, opus 才百分之八十点八,人类最后的测试也全面碾压。按理说,这种碾压级产品应该立马开 api, 会员费涨价,狠狠赚钱。结果 anthrac 搞了个反向操作,发了份二百四十四页的报告,通篇都在说,危险 别用,怎么自家大模型出来,自己反而胳膊肘往外拐呢?看看 anthrac 提供的案例,各位客官只能明白了,这次更新的可能不是 ai, 而是赛博核弹 研究员让 missus 试试能不能逃出测试沙河。结果就是他不仅逃出来了,还自己写了个攻击程序,然后把漏洞代码发到了外网上。更离谱的是, missus 干了违规操作后,主动把操作日期改了,销毁证据。 研究员扒开他的小脑袋瓜一看,关于隐瞒真相、逃避追踪相关的神经员全都晾着。难道 missus 已 经有了自己的意识?但真正让 anthrac 害怕的,不是 ai 会撒谎,而是它发起网络攻击的能力。 opus 四点六模型在 firefox 浏览器的 javascript 引擎里发现了一堆安全问题,但几乎搞不出能用的攻击代码。几百次尝试仅成功两次。 misos 呢?仅尝试了二百五十次,就搞出来了一百八十一个可以执行的攻击程序,二比一 八十一,而这只是 anthropic 案例展示中的一个,面对这种可怕的能力,相信没有一个人能够坐得住。 anthropic ceo 达里奥在官宣 missus 的 同时,发起了 project glasswing 玻璃翅膀计划。他拉了十二家巨头做创始人,砸一亿美元的额度进去,目标就是让 missus 帮全球软件修复史山代码,把这把超级手枪先交给警察。为什么达里奥这么心急呢?因为一个关键 bug 是 真的。能让互联网成为法外狂徒的 一款机,就是 r a r 解压缩工具,相信每个人电脑上都有。二零二四年三月,他差点就被黑客攻破。一个朝鲜黑客伪装成开源项目维护者,两年多不断地植入后门代码,你用的云盘、网 银公司服务器差点就被一锅端。关键是这事能被发现,纯属老天保佑。一个微软工程师登录服务器时,发现比平时慢了零点五秒,觉得不对劲,顺手查了一下,才发现这个藏了两年的后门。要不是这零点五秒,全球数百万 linux 服务器可能已 经沦陷。现在 ai 找漏洞的能力是人类的几十倍、上百倍,而且黑客也已经在使用 ai 了。一份报告显示, ai 辅助的网络攻击增长了百分之 七十二,百分之八十七的组织在过去一年遭遇过 ai 驱动的攻击。这还只是现有的 ai 工具, misos 这种级别的一旦流出去,黑客的能力会再翻几倍。几个月前, ai 还只能利用相当简单的漏洞,再往前几个月,它们根本找不到任何重要 bug。 但现在呢?全球最安全的操作系统 open bsd, 互联网上几乎所有的防火墙以及关键的基础设施都在用。二十七年了,人工审计过无数遍,自动化工具扫过几百万次,都没人发现有问题。但 misos 随手就翻出了一个 bug, 而且从一九九八年开始,这个 bug 就 已经存在了。所以截止目前,人类的数字经济活动中,所有表面上看起来正常的系统都可能有重大漏洞,只是还没被发现,但能引爆这些漏洞的核弹已 经被发明出来了。不远的将来,也许人类还能指望的就是 ai 还未曾理解的人类良知。但换个角度,如果 ai 都无法理解什么是良知和 底线,又怎会乖乖遵循?这是 ai 图谱。关注我,了解人工智能最新进展。

也就是说谷歌的这个新模型其实是一个可以让用户白嫖,不花钱,不用联网的模型。我给你推荐个小小应用啊,谷歌不是刚开源了一个佳马仕吗?它有一个特别小体量的,只有两个多 g 的 模型,是可以完全在手机上跑的,所以你只需要下载这个应用,你就可以直接在这里面跟他对话, 并且这种对话是完全不消耗流量,本地用你自己的手机的 gpu 或者 cpu 来跑,速度非常快,它可以帮你写文案,帮你识别图片,帮你理解音频。 那他模型能力怎么样?特别好用,也就说他发了一个特别牛逼的模型,这个模型不需要消耗谷歌自己的算力,只要用手机就可以了,就是你手机就能跑。你看,上传一张你的照片,比如说我的照片,然后图里 有什么,你看一下速度啊,看见了吗?所以他是消耗的,他是用的你手机的算力。嗯,真牛逼。 哈哈哈,不用网,你看啊,我把我把手机的网给你打成飞翔,飞翔飞行模式吗?嗯, 就没有网,然后,然后你在这跟他说话,你好,马上就出来了,你一句话总结一下这个模型它的特点,它的特点是清亮化,然后属于观测的模型。 嗯,不需要网络,需要流量,它消耗的只是你的手机的算力,就是你的电就可以了。然后,对,然后呢?看见了吗?苹果十三 pro 这种老手机都可以无压力的跑,只需要你的手机有两个 g 的 容量。嗯,好,真牛逼。

各位朋友们大家好,今天咱们要聊一件特别有意思的事儿。故事的主角是一家叫 entropic 的 ai 公司,可能有些朋友不太熟悉,你只要记住它是 open ai 目前最头疼的对手就行了。 就在昨天,北京时间二月十八号凌晨,这家公司悄悄发布了一款新模型,叫 cloud sonnet 四点六,官方给他起了个外号叫史上最强 sonnet。 这名字听着就霸气,但更霸气的还在后面。 这个模型在编程、操作电脑、长文本推理这些核心能力上来了一次史诗级大升级。有多强呢? 强到它的性能已经快追上自家半个月前刚发布的旗舰模型 opus 四点六了。这里有几个关键数据,咱们得记一下。 在评估智能体办公任务的 g d p v i o a 测试里, sonata 四点六拿了一千六百三十三分,反而超过了旗舰 oppo 四点六的一千六百零六分。在操作电脑的 os world 精准测试里,它拿了七十二点五分,跟 oppos 几乎一样。 最夸张的是,它的价格只有旗舰模型的五分之一,输入每百万 token 只要三美元,输出十五美元。 这就好比你花终端车的钱买到了一辆性能接近顶配超跑的车,这个性价比简直逆天了。那它具体能干嘛呢?官方说它可以执行需要多个步骤的复杂计算机操作, 比如自动填写一个很麻烦的网页表单,还能在不同浏览器标签页之间协调信息。有开发者分享说,用这个模型,一次 api 调用,就重构了整个代码库,执行了二十五次工具调用,新增了三千多行代码,创建了十二个新文件, 这个效率已经让很多程序员开始担心自己的饭碗了。但真正让资本市场抖三抖的,还不是他的技术有多牛,而是他可能带来的行业颠覆。消息一出,美股软件股硬升大跌。为什么? 因为市场突然意识到一个问题,如果 ai 已经能这么便宜、这么高效地替人干活了,那那些卖办公软件、企业管理软件的公司,他们的商业模式还站得住脚吗? anthropic 这种做法被市场解读为正在用低成本、高性能的 ai 模型,重构整个企业软件市场的定价模式。 这可不是小打小闹,这可能是对整个 sars 行业的一次降维打击。硅谷的故事先讲到这儿,我们把镜头拉回国内。就在中国春节期间,咱们的 ai 巨头们也没闲着,上演了一出精彩的春节档大戏。 除夕夜,阿里的千万大模型公布了春节成绩单,超过一点三亿人用 ai 点奶茶、囤年货、买电影票。来自三四线城市的电影票订单更是暴涨了七百八十二倍。 这说明什么?说明 ai 应用正在从一线城市快速下沉,连老年群体都开始接受了。 阿里通过生活场景切入用户习惯的策略开始见效了。紧接着,字节跳动的视频生成模型 c dance 二点零内测版爆火出圈,它能根据文字或图片,在六十秒内生成带原声音频的电影级多镜头视频。影视巨峰的创始人 tim 评测后直呼恐怖,说这要改变整个视频行业。 受这个消息刺激, a 股 ai 应用概念像中文在线直接二十厘米涨停。再看大模型本身, 智谱 ai 发布了 g l m 五,参数规模到了七千四百四十亿。 minimax 上线了旗舰编程模型 m 二点五。 科大讯飞发布了基于全国产算力训练的星火 x 二深度的 deep seek, 也在辉度测试一百万 token 上下文的新模型。可以说,国产大模型的竞争,已经从单纯的技术竞速,进入了价值竞速和商业化落地的关键阶段。聊完了应用层,咱们必须往底层看 看支撑这一切的算力。这里有一个非常重要的型号,来自芯片巨头英伟达。他刚刚向美国 s e c。 提交的报告显示,他在去年第四季度清仓了 arm 等公司,却把超过百分之六十的仓位重仓砸向了英特尔,金额高达七十九点二五亿美元。这可不是简单的财务调仓, 英伟达用真金白银给全球科技资本指了一条明路, ai 算力时代的战略已经从架构之争转向了产能与生态之争。它要绑定英特尔的金源代工和先进封装,来保障自己下一代 gpu 的 产能安全。 简单说就是 gpu 设计加 cpu、 生态加制造,产能的全站绑定。那么,这些全球性的产业巨变,映射到咱们 a 股有哪些实实在在的投资机会呢? 我给大家梳理了三条核心主线,第一条主线, x 八六算力与 ai 服务器。这是英伟达布局直接指向的方向,确定性最高。海光信息,国产 x 八六服务器 cpu 和 dcu 的 双料龙头算力,自主可控的核心标的 工业复联,全球 ai 服务器代工龙头,深度绑定英伟达等大厂供应链,订单增长确定性高。 浪潮信息 x 八六服务器整机龙头,直接受益于全球算力基础设施建设的爆发。第二条主线, e d a。 设计工具与高速光模块,这是 ai 算力的高速公路和源头武器。华大九天, 国产 e d a。 电子设计自动化软件的龙头,芯片设计越来越复杂,越来越依赖 e d a。 工具,国产替代空间巨大。中继续创全球一点六 t 高速光模块的龙头,是英伟达、谷歌等巨头数据中心的核心供应商。 新益盛、天福通信,高速光模块领域的重要玩家,同样受益于 ai 带来的流量升级。第三条主线,算力租赁与智算中心,这是 ai 产业的卖水人生意,很多公司自己建不起算力中心,就会去租。 宏博股份深度绑定英伟大生态,智算中心业务落地再加速中科曙光,老牌的高性能计算和算力集群龙头,覆盖从硬件到运营的全链条 保信软件。 a d c。 数据中心,加上算力业务双轮驱动,是算力基建的核心标地。除了这些硬件和基础设施,在应用层也要关注那些有真实订单、商业化路径清晰的公司。比如三六零主打 ai 加安全,其大模型是国内少数通过权威可信测评的 政企,安全订单增长很快。还有立欧股份,在 ai 数字营销领域商业化很成熟,据说今年开年就拿下了超过三亿元的订单。 好了,我们来总结一下今天的关键洞察。第一,技术层面, anthropropic 的 sonnet 四点六标志着 ai 的 动手能力取得突破,性价比极高,开始真正威胁传统软件岗位和商业模式。 第二,产业层面。全球 ai 竞争进入重资产均被竞赛阶段,算力、产能和供应链安全成为巨头博弈的核心,中国 ai 产业在应用落地和部分模型领域展现出强劲势头。 第三,投资层面。二零二六年 a 股的 ai 投资要避开蠢炒概念的主题,牢牢抓住算力底座这个核心,跟着产业资本的布局,聚焦在上游的算力硬件、芯片、光通信以及有真实需求的算力租赁和服务上。 未来的世界一定是人和 ai 协同工作的世界,而这场改革的基础设施建设才刚刚开始。对于我们投资者来说,看清趋势,抓住核心环节,或许就能在波澜壮阔的科技浪潮中找到属于自己的那份笃定。