粉丝4.5万获赞32.2万

大家好啊,昨天阿里巴巴开源了千问的一个小模型,三点五系列最小的尺寸模型啊,四款,那其中有一款是零点八 b 和两 b 的 啊,这个是非常小啊,推力虽然很大,但这里面我说的不是他的,我说的是一个三点五 b 的 啊,四 b 这款, 四 b 这款好了,四 b 这款的话呢,我们昨天晚上测试了一下汤,同时话呢,我们先说一个事啊,马斯克在 x 上对这个模型进行了测试,并且给出了一个非常好的体验,他认为这些参数他的智能密度令人印象深刻啊,为什么这么说? 我说这个四 b 的 模型,我建议大家考虑,如果稍微能力强,可以上那个九 b 的 模型。干什么来都知道你们正在养龙虾是吧?就那个大龙虾,那个智能体的集成是吧?号称是贾维斯的出行, 但是他是一个吃 token 大 户啊,什么意思啊?就是我之前试过啊,一个晚上让他给我们做一个程序啊,然后消耗了两百多万 token, 做出来程序还有很多 bug 啊,那,那这个事确实不可持续,虽然说这个 token 现在比较便宜,但两百多万 token 的 话也十几块钱呐,对吧?一个晚上十几块钱这玩意,而且解决一个任务呢,人任务多的话,可能上千万 token 都出去了,那怎么办?对,这个事怎么办? 所以呢,这个端侧部署一个端侧模型来解决这个龙虾啊,在日常应用中的绝大多数的 token 的 使用是当务之急, 那么在这种情况之下,这种小模型的话呢,就比拼,哎,谁能把大模型的这个能力降下来的这个度越小啊, 它寄生能力越好,对吧?这种情况下,所以千门刚刚推出这四款,尤其其中这个四臂,我们正好测试了,我们在昨天测试了,在我们的自己养的龙虾上跑起来非常的舒服啊,百分之八十以上的工作完全由这个端侧的小模型来解决了, 非常好啊,包括数据的处理啊啊,包括图表的处理啊啊,包括我们跟他日常对话包,包括调取这个,哎, skills 包括什么?呃,就是搜索东西啊,包括数据的集成啊,包括 excel 表格处理啊等等,这些东西完全都可以通过端测这个四 b 的 小模型进去, 非常好。所以呢,我说啊,我说这千万这次开源的四个小模型,其实恰恰什么,就是我们现在玩龙虾的最好的助手,也是最适合龙虾发展的模型, 就是这么回事啊,就非常的玄幻,但是现在就是这么回事啊,所以后续的东西,如果你们感兴趣的话啊,你们如果正在养龙虾的话,或者你想探索龙虾的,哎,我建议你好好试试这个模型,这个模型会给你省很多钱,因为它是开源的,你直接不熟以后最少你百分之八十左右的工作, 甚至高一点百分之八十五左右的工作,你是不用再去调取网络的 a p i 的 接接口了,它这个东西就产生更好的应用,懂,懂吗?但对于我们来说的话呢,它一是省钱,另外一个的话就是它的能力还够,而且它还有什么?它关键它有图形的这个 o c r 的 能力啊,然后它有图片的生成能力,这个就很强了, 这就很强了啊,所以这个事我觉得还是非常有意思的,而且小尺寸实现高智能啊,这个是非常强的,而且是少数实现跨级的性能的超越,媲美中型模型啊,中尺寸媲美顶级模型,这样的一个情况,我觉得华为的,哎,不是华为千万,这次做这事非常的好啊,非常的好, 好了,简单大家说一下,如果有需要的话可以好好试一下啊。另外的话呢,说一下呢,很多朋友说,老张,你现在是不是又关注 ai 了?注意关注 ai, 因为这是热点 啊,这是一定的热点,而且我们的这个说,在咱们的这个会议视频当中,热点也是因为我们的分析的快,然后你要说到哪看的话,关注一下我们小程序啊,到底瑞克老张哥不哥啊?我们小程序小程序里面的话呢,说实在的,咱们那个有一个免费的专栏,你说我不想花钱,有免费的专栏,就是咱们在平台上发的内容精选出来放的免费专栏的,不停的更新的,你要需要会看 看一下啊,赶紧的订阅就行,免费的。当然咱们的年度那个会员的话呢,现在是幺六九九啊,而且的话呢,我们是一年一百八十个这个会员视频,三十二场以上的会员直播之前内容都能看,甚至包括以前的付费专栏,包括以后的付费专栏都能免费看,特别划算啊,平均一那个一个视频 喝喝一场直播都十块钱左右啊,所以你觉得对吧?这个一一一一,一瓶两瓶,这个汽水钱啊,就就就解决一次这个抹平新茶的机会,你觉得划算不划算?好不好啊?今天就到这,我是瑞小张,关注我,带大家看中国科技的高度和温度,明天见,拜拜。

阿里千问三点五小模型今天发布,手机端 ai 进入新时代,在 local ai app 的 app 内已经可以在本机手机内安装和体验。视频里是二 b 模型,在 iphone 十七 pro 上完全本地运行, 它提供了四个尺寸,零点八 b, 二 b, 四 b, 九 b, 全部 ipad 二点零开元。最厉害的一个点是它原生多模态文字图片视频,一个模型搞定两百六十二 k, 上下文两百零,一种语言, 只要九 b 击败五 n a n o 和上一代困三到三十 b。 最疯狂的是零点八 b 模型,能理解和处理视频。

欢迎来到探前沿科技,阿里的 ai 大 模型千问全面接入阿里生态,完成了一次关键的路径切换。这一动作把大模型正式从独立交互工具转变为生态调度中书。 阿里采取的是软性生态嵌入策略,通过开放底层 a p i 千问大模型实现了对淘宝、天猫、支付宝及高德等业务链条的深度整合。 这形成了典型的 ai 闭环模型,不仅处理信息解锁,更通过调用支付、物流和地理空间数据直接完成闭环交易。相比于从硬件底层强行接入,这种基于存量软件生态的植入在获客成本与服务密度上具备更确定的商业确定性。 市场竞争正在分层字节跳动,侧重于通过 ai 硬件探索端侧交互利用内容分发数据优化模型。而腾讯则在引入尧舜禹等顶尖科学家后,加速研发并推动大模型应用到其生态中。尽管切入点不同,但核心目标一致,将大模型推向实操应用层。 从产业周期来看,中国大模型的落地路径已显著区别于全球其他区域。当全球多数模型仍聚焦于文本生成与多轮对话时,中国 ai 已经利用其成熟的数字基础设施开始进入指令及服务的闭环。 所以你会发现,每当底层技术变更到来,我国企业总能利用独有的应用场景深度和产业链完倍度,率先跑通商业化生存模型。

仅仅九百九十九元的通易千问 ai 眼镜量产了!阿里达摩院技术下放百元级体验黑科技二零二六年三月八日,阿里云正式发布通易千问 ai 眼镜,基于阿里达摩院顶尖技术实现大规模量产, 定价仅九百九十九元,是目前性价比最高的消费级 ai 眼镜,瞬间成为数码圈爆款。很多网友表示,百元级价格就能体验 ai 黑科技。翻译、导航、播报、投屏全功能拉满,比手机还实用!阿里终于让 ai 眼镜走进千家万户。 通用千万 ai 眼镜主打轻量化、全功能,高性价比,重量仅二十五克,比普通眼镜还轻,长时间佩戴无压力。外观简约百搭,适合各种场景 搭载。通用千万端测大模型,所有功能本地运行,响应速度快,不耗流量,隐私更安全。核心功能包括,实时翻译、 ar 导航、消息播报、视频投屏、语音操控、健康监测, 覆盖出行、办公、旅行、运动全场景。九百九十九元的价格,实现千元内 ai 眼镜功能。天花板 实时翻译功能,支持五十种语言互译,出国旅行、商务交流零障碍。说话即翻译,字幕实时显示。 ar 导航精准到灵敏级,不用低头看手机,步行开车更安全。消息播报同步手机所有通知,重要信息一眼可见,不错过任何消息。视频投屏,可将手机内容投射到镜片上,刷视频、看新闻、看小说,解放双眼双手 健康监测,能实时检测心率,部署睡眠,提醒用户保护视力、合理运动。所有功能一句话操控,老人小孩都能轻松使用。 技术层面,通一千万 ai 眼镜一托阿里达摩院多年技术积累, micro oled 屏幕、端侧大模型、微型电池等核心部件全部国产,成本大幅下降,才能做到九百九十九元的亲民定价。 续航达到六小时,快充三十分钟,充满,满足全天使用需求,支持 ip 五四,防水防尘,日常出汗、小雨天气都能正常使用,耐用性拉满 官方承诺终身系统升级,不断优化功能,增加场景,让眼镜越用越好用。对于普通用户来说,九百九十九元的 ai 眼镜性价比远超智能手表、蓝牙耳机,一机多用,能替代多种设备, 出行不用带手机支架、翻译机、导航仪,一副眼镜全搞定,办公不用频繁看手机,提升工作效率。运动时实时监测健康数据,科学运动, 低价不低质充一千万 ai 眼镜,让 ai 科技不再高冷,成为人人都能拥有的实用工具。 行业层面通一千万 ai 眼镜的发布,加速 ai 眼镜全民普及。此前, ai 眼镜价格动辄几千上万元,普通用户望而却步, 阿里用技术下放和量产优势把价格打下来,带动整个行业降价,让 ai 眼镜成为大众消费品。店内预测,二零二六年, ai 眼镜占据半壁江山,成为行业标杆。

给大家再评测一下通一千万三点五三十五 b active 三 b 和通一千万三点五二十七 b 的 这两个模型,因为这两个模型都差不多大小,对我们企业级来讲都非常合适做独立部署。那么 这个两个模型到底选择哪一个模型做独立部署更加合适?我们一般总归选择智力比较高的,性能比较好的模型做,我们就今天继续做一个 c l o 的 评测,再看一看它的实际情况到底是怎么样。通过官方的这个数据我们可以看到,目前通一千万三点五二十七 b 的 这个模型, 它的能力要略高于通一千问三点五三十五 b active 三 b 的 这个模型,它不管在哪个评测能力上面稍微要比它要高那么一点点啊,除了个别,它有些 基本上它的能力是要比原来的这两个模型里面二十七 b 的 模型会更强一点。那我们实际测下来呢?确实也是这样,因为我们是用 cfo 的 评测,我们把评测数据给大家看一下,我们还是用 cfo 的 评测 cfo 的 评测,当然我们先测了一个,就是通一千问三十五 b, 通一千万三点五三十五 b active 三 b f p 八量化的这个版本,这个量化版本我们也是用 cfo 的 评测,它的性能 也是五千多道题目,五千三百八十四个题目。最后的得分我们看一下,它一共测了六分四四十二秒,它最后的这个得分是八十二点四七分, 应该这个分数是不低的。我们再来看看通一千万三点五二十七 b f p 八的这个模型,这个模型我测下来比它性能会更高一些, 从八十二分上升到八十四分,它的推理速度稍微快一点,这六分二十七秒,它它从八十二分上升到八十四分,八十四点八四,原来是八十二点四七,多了两点几分,这个也是一个量化版本,那么非量化版本它的 f p 十六我们也测了一下,这个是通一千万三点五二十七 b 的 f p 十六的这个版本看一下 性能也差不多的六分二十四,性能跟那个差不多,从是八十四点九二分,从原来的八十四点八四分上升到八十四点九二分,都是八十四分小分里面稍微略有些差别。所以我们企业级里面部署班,我们这次建议给大家用空千万三点五 二十七 b f p 八的这个模型,可能在我们企业里面,特别是在中小企业里面做独立部署的会比较合适。那么我们这次部署还是用了同一千万,用了英伟达的那个 r t x 四四零九零二二十四 g 的, 应该来讲我们目前测试是用了四张卡,但实际其实用两张卡就可以了。 好,今天我们简单的给大家来评测一下的,这个同一千万三点五系列里面,二十七 b 的 和三十五 b 的 这个两个模型更合适一点。今天我们这个视频就给大家介绍到这。

给大家介绍一下通一千万,最近刚刚又发布了两个开源的模型,一个是通一千万三多模态的一个 in banding 嵌入模型,还有一个是通一千万三 vl 的 一个排序模型。那这个两个模型它都是基于 多模态的这个基础上构建的嵌入和排序模型。那这个模型目前发布出来,我看了一下他们目前的这个数据,应该来讲是在相应的排行榜里面是排名第一的。特别是这个通一千万三 vl in banding 杠八 b 的 这个模型, 那他目前是在多模态的视觉召回和这个图文并茂的这样的一个应用场景的召回里面,应该来讲是得分是最高的,他甚至超过了 字节的他们 b 商业的这个模型应该是非常不错的,那他这个二 b 的 模型也是非常不错,他超过了之前那个齐虎三六零他们的 in bending 的 这样一个七 b 的 一个模型。应该来讲,阿里这次还是又做了一个好事,给大家又多了一个 多模态向量数据库解锁的 in banding 和路由模型的这样一个新的一个选择。好,那我们一起来看一看。呃,很明显这种多 模态模型我们可以用在文字的召回或者图片的召回,或者是图文并茂的这种召回或者视频的召回,其实都是可以的,它是用一个统一的多模态的这样一个表现的这样一个方式去构建,那这样我们做 r e g 的 时候就会比较简单,你不管是文字, 是图片还是视频还是什么啊,是是还是视觉的这种 ppt 的 文档,它其实都是统一的,可以通过这个嵌入模型来实现。那二 b 这个模型应该来讲它的嵌入嵌入维度是二零四八维, 那么八 b 的 这个模型是四零九六维,那么很明显这个二零四八维跟四零九六维,它在向量数据库里面,它的数据要大一倍了。这个八 b, 那 一般情况我们用两 b 的 就够了。如果你的文档, 你的向量数据库的记录超过十万个,那你可以考虑用这个 in banding 八 b 的, 用更多的维度去表示你的向量快,那它的这个招呼率会更准一点。好,那它也支持 m l m r l 的 这样的一个指令的,这个指令相当于有些时候我们虽然布了一个四零九六维的这样一个维度,但是我可以让它的维度 变得更小一点啊。譬如说我可以用这个类似于套娃的这种方式变成一零二四维,它也是可以的,那么它也是支持这个指令感知,在我们的这个提示词里面,你通过这个指令可以让它 实实现的更加好一点,这个也是能够支持 revank 模型。我自己也测了一下,目前 v l m 刚刚支持,刚刚支持,他要在新的版本里面,他刚刚支持,昨天他们刚刚发布进来,把他这个 revank 的 这个模型刚刚一墨迹进来,在两天前他刚刚完成,在两个小时前,他刚刚把这个东西给弄完 好,那这个是它的架构,它的架构主要还是基于通一千万三 v l 的 这样的一个视觉模型来构建的。这个我们就不多讲了,评测目前它是等于是业界,你不管是开源界还是 商业界,他都是搜塔最强的一个模型,应该是非常不错的,他目前也支持三十种语言。他,这个好,那我们给大家演示一下,因为我在我的机器上搭建了一下,给大家稍微简单演示一下。这个目前已经起起来了,你可以看到 我们也是 v m 零零点幺三的这个版本,他我起了个二 b 的 一个模型,那么它内存 gpu 模型的加载大概在四个多 g, 最大长度是三十二 k 三二七六八的托肯, 我目前用了十二 g 的 显存,应该也没什么太大的问题,一般我们会二十四 r t x 四零九零里面我们一般会加载两个模型,那这样它的速度会更快一点。啊。好,我们给大家演示一下啊,它已经启动成功了,它这个部分,它是一个 in bending 的 一个模型,我们给大家看一下,之前我们也给大家测过 in bending, 我 们用这个脚本给大家测一下, 那它这个脚本比较简单,它有图片有文字,给它返回一个 in bending, 让它返回这个 in code 的 项链就完了,我们给大家看一下。好啊,多模态的应该接收到了,它已经完成了,这个返回的是二零四八尾,它是返回了一个项链。好,这个应该也是比较简单,但目前 v i m 一 v 零点幺三点零,目前还不支持 revank 的 这个功能,后面它目前也已经支持了,因为我看它代码已经改完了, v l m 的 下个版本它就会能够支持用工艺千万三杠 v l revank 的 这个模型,这个模型主要是用在重排序上面。 好,这个模型在用的时候还是要注意一点,如果我们用的是纯文本,它的建议啊,它这个文章里面也讲,如果是用纯文本,它建议还是要用 同一千分三,不是视觉的一个嵌入模型,这样它的效果会更好一些。它在这个里面也讲了一下,我们用的时候要小心一点,如果是一个纯文本的召回,那么我们就用同一千分三 in binding 就 可以了,不要用这个同一千分三 vl in binding。 好, 今天我们这样一个视频就给大家介绍到这。

阿里的千问一口气发布了一系列 callen 三五小模型,有零点八 b, 二 b, 四 b, 九 b 啊二十七 b, 今天就让大家一分钟在 windows 上用上这个本地小模型。 首先去 l m 服务 studio 官网下载这个模型,加载软件,点击下载你就去装,下载完成后安装那个 l m studio, 然后等安装好启动后,来到软件主界面,点击左侧有个小放大镜的图标,就可以搜索这个模型了, 输入很快就看到结果,那今天我们就用库莱三五到四 b 作为例子,点击下载,然后下载好之后就可以点击左侧第一个按钮,然后点击上面加号,然后加载刚下好的模型。然后呢,这里我们可以设置模型的参数, 我们来测试一下这个模型的基本常识, 对比下其他的模型的基本常识,但这个回答效果还是很不错的。

每百万 tokyo 只需零点九,这老美的 ai 圈怕是又要顶不住了呀。新闻发布三点五,开源模型相关产业链谁能顶得住啊?


就在前几天,除夕夜,大模型圈又出现了重大更新,阿里同意千万大模型正式发布千万三点五,说实话,不管你认为他是不是国产之光,他绝对是开源之光。为什么这么说呢?这一次千万三点五直接开源了三千九百七十亿参数的大模型。千万三点五,三九七 b 听起来是不是很大,但真正恐怖的是,他推理时只需要激活一百七十亿参数。什么意思?就是你使用中等模型的成本,却获得了接近超大模型的能力。官方甚至表示,在复杂任务处理上,他相当于上一代模型的成本有明显下降,同时还能处理大模型工作赋值。 这不是简单升级,而是直接重新定义性价比。而且这一次他不只是语言模型,前文三点五是原生多模态, 就是像文本、图片、视频,甚至你的电脑手机界面他都能理解。你直接给他截一个图,让他教你怎么操作软件,甚至可以直接让他看视频,分析动作顺序。 真正的视觉 agent 开始落地了,而且他支持百万级上下文。什么意思?就是一本书、一份财报或者纸,几十页设计图都可以一次性丢进去,不用再拆碎,相当于你可以一次性把整套三体全部丢进去。更离谱的是,语言覆盖能力从过去的一百多种,直接扩展到现在的两百多种, 很多低使用的语言第一次被真正的支持,这已经不是聊天机器人,而是全球支持工具。更关键的是,千万三点五已经开始走向 agent ai, 他 可以边思考边搜索边调用工具,并且完成任务, 不只是回答问题,而是真正替你干活。行业已经非常清楚了,下一阶段竞争不是谁更会聊天,而是谁更会行动。 开源最大的意义是什么?不是参数,而是生态。近期已经完成国产硬件适配,开发者可以直接落地部署,这意味着企业开发者小团队第一次拥有接近顶级 ai 的 能力。所以前文三点五是不是国产之光你可以讨论,但它已经确定是二零二六年开源 ai 的 第一束强光。

各位朋友,三月二日阿里放大招,开源千问三点五系列四款小模型,重点看这两款袖珍战神零点八 b 和二 b, 它们有多强!第一,体积小到离谱,零点八 b 模型压缩后仅三百 mb, 比一张照片还小,却能塞进手机智能门锁甚至传感器里。第二,速度闪电级 实测,在手机芯片上推理只要十五毫秒,相当于眨眼功夫完成思考,语音助手实时翻译,从此告别卡顿。第三,自带多模态 buff, 看图说话,图文问答直接搞定,不用外接插件,智能摄像头,用它做物体识别,又快又准。 第四,记性超群,支持二十六万字超长上下文,长文党分析,连续对话不在话下,最关键是完全开源,免费开发者用几行代码就能部署到边缘设备,让 ai 真正跑在指尖。这波操作妥妥的端测智能革命啊!

终于弄好了 openclaw 连接奥拉玛, 用奥拉玛部署的本地模型,前吻三点五 看教程不管用。 openclaw 装完的时候外部 ui 打不开, 怎么弄也不知道,最后还是在奥拉玛的官网用这个命令,用这个命令设置重新设置了一下 opencloud, 然后它的外部 ui 就 能打开了。 当然是按照它的这个稍微懂一,稍微读懂一点英语,按它这个一步一步设置完了才行。昨天在没有奥拉玛的时候,在 windows 下 wsl 下装的 openclaw, 直接就能打开 app ui, 这中间出的问题也不知道是怎么回事。 这一步就是用了吗?连接 openclaw, 因为我的电脑主要靠内存,靠 cpu 跑,随便问个问题 cpu 就 跑百分之六十几,风扇呼呼的转,感觉确实也没啥,没啥实际用途啊, 关键是说了话都没带回的, 可能还没配置完, 但是它已经 不运行,也也也占用这么高。 今天就到这了,看来这样也不行,不能用本地的模型跑,又慢又又受不了噪音。回头我再重新连接到免费的 key, 免费的 token, 试试吧。 补充一下,这个 windows 下的这个 open cloud, 这个 web ui 必须得是这个带 to 带 token 的, 带 token 的 这个你才能打开,你要是直接输入这个把地址这个它是连不上的,它这个这个地方会有问题,它只会离线,就是这些东西它都是包含在这个里边的。 然后这个我拉玛里装的模型小,啥事也干不了, 净光浪费 cpu 资源了, 还啥还啥也做不了,还不如,还不如直接在这里聊天呢。

今天的播课我们要聊的是全球的人工智能大模型领域,现在其实就是呈现出了国际的顶尖企业在技术上面不断的突破, 同时呢国产的这些大模型厂商也在应用和成本上面快速的追赶,那这两股力量其实就形成了一种双轮驱动的格局。没错, 这个其实是非常值得聊的,那我们就直接开始今天的话题吧。我们先来说说全球的这个 ai 大 魔性产业在二零二六年的整体的情况,现在看来这个行业的增长速度和渗透率是到了一个什么程度了?现在这个生城市 ai 的 市场啊,它的年化增速是百分之六十八, 整个市场的规模是会有百分之四十一的这样的一个爆发式的增长,然后企业对于使用 ai 的 付费意愿也是非常的强,所以整个的商业化的进展也是在明显的加快。那现在这个全球的 ai 大 模型的格局里面,中美分别在扮演什么样的角色? 然后这个行业的集中程度又有多高呢?其实现在就是一个中美双极的格局,然后两边的技术差距已经缩小到了只有百分之零点三。 在美国呢,他还是在这个基础模型和高端芯片这方面有优势,是中国呢就是在应用创新、成本控制和开源生态这方面实现了反超。对,现在全球真正有稳定商用能力的大模型的数量是不超过十家的, 所以这个行业的集中度是非常非常高的,而且马太效应越来越明显。哎,那现在 ai 算力的需求也是大家非常关注的一个话题, 那在这几年算力需求会有什么样的变化?然后推理算力和训练算力的占比又会有什么样的变化? ai 的 算力需求啊,现在是呈现指数级的增长,嗯, 每年都是百分之一百二十的这样的一个增长速度。然后到二零二六年的时候,推理算力的占比会第一次超过训练算力, 会占到百分之七十。中国在这个 ai 大 模型的落地和开元生态这方面有哪些是领先于全球的地方? 呃,中国的话就是在制造业、电商和短视频这几个垂直行业的应用落地是特别快的,然后这个开源生态也非常的活跃。嗯,开源的下载量已经超过了美国,但是呢,美国还是在基础模型的架构,高端算力芯片,还有这个 ai 安全和基础科研这方面处于全球领先的地位。 ok, 我 们接着来看一下这个核心竞争维度的解析,就是到底算力、客户、营收这三个维度在 ai 大 模型的领域里面是怎么来影响企业之间的竞争的? 其实这三个维度啊,都很关键。嗯,算力的话,它不光是要看你总算力的规模,芯片的类型,还有你的集群有多大,它还包括你的能效比是不是够高,你的成本控制是不是做得好。 对,因为这会直接决定你这个模型训练的潜力,以及你能不能够真正的落地。听起来算力是一个门槛,那客户和营收这两块具体有哪些细分的关键指标呢?客户的话就是要分 c 端和 b 端, c 端就是你的月活、日活有多高, b 端就是你到底渗透了多少个行业,有多少高价值的客户? 那营收的话,除了要看你的年营收的规模和增速之外,你还要看你的收入是怎么构成的,它的订阅、 a p i 和企业服务这几块各自占多少比例?对,然后还有一个很重要的就是单位经济模型和毛利率, 这是看你能不能够持续赚钱的一个关键。懂了懂了,那我们接下来就具体来看看国际的这些顶尖的 ai 大 魔性公司它们的进展。 那像 openai 这种商业化做的这么好的公司,他在算力投入和硬件的布局上面有什么过人之处? openai 就是 非常非常舍得在算力上面砸钱,他三年的时间算力投入翻了十倍, 二零二三年的时候他的总算力规模是零点二个 g w, 到二零二五年他要飙到一点九个 g w。 他 主要用的芯片呢,就是英伟达最新的 h 一 零零和 h 二零零, 然后他的这个单级群最多能够配到八万个 h 一 零零芯片,这个规模真的是夸张。天呐,那 openai 在 用户和企业客户的拓展上面有哪些亮眼的成绩? openai 现在已经有超过七点五亿的月活跃用户,其中付费订阅的用户就有一点二亿, 然后他的 api 的 客户数量也突破了十八万加,覆盖了全球。在财富五百强企业里面,有百分之七十二的企业都在使用 openai 的 服务。确实厉害, 那它的这个营收表现是不是也跟用户增长一样惊人?没错,它的营收就是非常非常典型的指数级增长,二零二三年是二十亿美元, 然后到二零二四年就翻三倍,到六十亿美元,二零二五年是两百亿美元,到二零二六年预计会冲到三百三十亿美元。那 google 在 算力基础设施这方面都做了哪些事情, 能够让它在大模型的竞争当中能够保持优势呢? google, 它走的是一个自研的 tpu v 七和 gpu 并行的这样的一个策略, 然后它二零二五年的资本支出里面有超过六千五百亿元是专门花在 ai 服务器上面的, 这就直接帮它构建了全球最顶尖的算力底座,看来它们在硬件投入上面也是下了血本啊。是的,而且谷歌它的一个 tpu v 七的集群就可以扩展到九千两百一十六颗芯片,然后它也是使用自研的 tpu 和英伟达的 gpu 进行一个混合部署, 这就比全 gpu 的 方案要便宜百分之三十到四十。对,这就大大提升了它的竞争力。这么说 google 在 用户和营收方面的表现怎么样?它的这个生态壁垒具体体现在哪里?它的这个 gemini 大 模型的越活跃用户已经达到了七点五亿, 然后它的未完成订单金额高达两千四百亿美元。在 google cloud 的 客户里面,有百分之七十五的客户至少使用了一种 google 的 ai 产品, 然后他的这个 ai 相关的营收在二零二五年是预计会达到五百亿美元,然后到二零二六年会增长到一千亿美元。看来 google 发展确实很快。 esotropica, 它是怎么通过算力的投入和硬件的布局来强化自己在企业级市场的地位呢? torropica, 它其实最近获得了三百亿美元的融资,然后它也在大规模的建设自己的超算集群, 他光是训练 cloud five 这个模型就用上了超过十万颗的 h 一 零零芯片。同时呢,他也获得了来自 a w s 的 三百五十万颗 trinitium two 芯片的支持。 所以他现在就是在全力的拓展自己的算力护城河。有了这样的算力的保障,他在服务大客户上面是不是也更有底气?对,没错,因为全球财富十强里面有八家是在用 entrepreneur 的 服务,然后年消费超过百万美元的企业客户的数量也突破了五百, 他的平均合同金额是超过五百万美元的。然后他的这个二零二五年的年化营收是一百四十亿美元, 然后预计到二零二六年是会增长到两百四十到两百七十亿美元之间,并且它的这个企业 a p i 和订阅的收入占比是高达百分之九十。好的,那 mate 在 开源生态和用户覆盖上面到底做到了什么程度? mate 主导的这个 l l 系列推动了全球的 ai 开源社区的繁荣, 然后它现在有超过三千万的开发者在使用它的这个项目。光是 hackinface 上面的累计下载量就超过了十五亿次。 然后它的这个 ai 的 功能呢,已经嵌入到了 facebook 和 instagram 等这些应用里面,直接服务的用户是超过三十亿,这用户基数确实庞大。那 met 在 算力投入和商业变现上面有什么新的动作? met 他 其实二零二六年的这个算力投入的预算是超过一千亿美元的, 然后他训练拉马货的时候也是用上了八万个 h 一 零零芯片的基群,然后它的这个 ai 相关的营收呢,在二零二五年是八十亿美元, 预计二零二六年是会增长到一百三十到一百五十亿美元之间,它的这个增长主要是靠广告的优化和企业服务这两块。明白了,我们再来说说国产的这些 ai 大 模型崛起的代表,比如字节跳动, 它在算力的投入和芯片的国产化替代上面有哪些实质性的进展?字节跳动它其实二零二六年是计划投入三千亿元来建设智算集群,然后这个规模是差不多两百万张 gpu 的 规模,其中呢,有一半的芯片是来自于国产的, 然后他已经在推理场景实现了百分之百的国产化替代,这手笔也很大。那字节跳动在用户和商家生态的拓展上面有什么特别突出的地方?字节跳动旗下的这个豆包,他的月获用户是高达六点八亿,这在国内是排名第一的。 然后它一托于抖音的生态,有超过一百二十万的商家在使用它的这个 ai 的 工具,然后它的这个性价比也是极高的,它的这个 api 的 调用价格只有 open ai 的 百分之五到百分之八。了解了, 那阿里巴巴在算力的基础设施和芯片的国产化方面有什么比较亮眼的动作?阿里巴巴其实是非常重视算力的自主可控的,它是制定了一个三年三千八百亿元的投入计划, 二零二六年是会有两千亿元的算力开支,它的这个国产芯片的占比会提升到百分之五十五, 然后它也是自研了这个平头哥的 p p u, 同时呢它也兼容了英伟达和华为的升腾的芯片。看来阿里巴巴对自主可控确实很重视,那它在市场拓展和营收方面又有哪些成绩?阿里巴巴它是通过云智一体的战略,已经吸引了超过十二万家的企业 a p i 的 客户, 然后阿里云的客户里面有百分之六十五是在使用 ai 的 服务,他的月活用户是达到了四点二亿, 他的这个营收呢,在二零二五年是已经达到了九十亿元,然后他的这个全球最低价的策略也是非常的激进,然后他预计二零二六年是会冲到两百二十到两百五十亿元之间。说完阿里巴巴,我们再说说百度 他在算力投入和芯片国产化上面有哪些进展。百度其实二零二六年是准备投入八百到九百亿元在算力上面,然后他的这个国产芯片的占比是会达到百分之六十, 这个国产化的比例在头部的厂商里面是属于非常高的了。那百度在收入结构和主要的客户群体这方面有什么特别之处吗?他百度的这个 ai 的 收入主要的是占到了百分之六十, 然后他的这个企业 a p i 是 百分之二十五,然后 c 端的订阅是百分之十,他的这个二零二五年的 ai 营收是四十五亿元,然后他预计二零二六年是会翻倍,达到一百到一百二十亿元之间, 然后他的这个月活用户是有二点八亿,政务领域的渗透率是百分之六十五,金融领域的渗透率是百分之五十八,懂了,那腾讯在社交和游戏这两大领域是怎么把 ai 的 能力深度的融合到自己的生态里面的?腾讯主要是一托于微信的生态, 他的这个 ai 的 大模型的越活跃,用户已经达到了三点五亿,然后他为超过三千家的游戏厂商提供了 ai 的 服务, 同时呢,它的这个 ai 也深度的参与到了社交和广告业务的各个环节,全面的提升了用户体验和广告的效率。这个用户基数确实很吓人啊。 那腾讯在 ai 的 营收和算力的布局上面有哪些具体的规划和突破呢?腾讯的这个 ai 相关的营收啊,在二零二五年是达到了五十五亿元,然后它预计二零二六年是会增长到一百三十到一百五十亿元之间, 然后他在算力的投入上面也是非常的激进,二零二六年是准备投入九百到一千一百亿元,然后他的这个国产芯片的占比是会达到百分之四十五。 好的,那 deepsea 作为一个开源和性价比驱动的代表,他在全球的影响力和商业变现上面有哪些让人眼前一亮的成绩? deepsea 他 在 hugenface 上面的模型下载量已经超过了五亿,然后他有百分之四十的收入是来自于海外的。 他的这个营收啊,在二零二五年是二十五亿元,然后他预计二零二六年是会增长到七十到八十亿元之间, 然后他的这个国产芯片的使用率在二零二六年是会达到百分之七十,并且他的这个成本只有国际同行的十五分之一。了解了,我们接下来进入一个新的话题啊,就是这个核心维度的对比分析。 那我们先来看一下,在算力这个维度上面,国际的这些巨头和国产的这些厂商,他们到底有哪些差异?如果我们看二零二六年的这个预测数据的话, open i 它的总算力是一点九个 g w, 然后单极群是能够支持八万个芯片以上, 然后它的这个投入是超过三千五百亿元。 google 是 更激进一些,它的总算力是二点三个 g w, 然后单极群是能够支持九点二万个芯片, 它的投入是超过五千二百亿元。但是这两家公司他们用的都是自己的芯片,所以国产芯片的占比是零。国产厂商这边在总算力和投入上跟国际巨头比有多大差距?这个差距还是比较明显的啊。你看字节跳动,它的总算力是一点二个 g w, 然后他的单极群是五万个芯片,他的投入是三千亿元。阿里巴巴是总算力一点一个 g w, 单极群是能够支持六万个芯片,他的投入是二千亿。 然后百度是总算力零点七个 g w, 单极群是四万个芯片,他的投入是九百亿元。 但是呢,国产厂商的这个国产芯片的占比都是超过百分之五十的,所以他们的这个推理成本就非常的低,只有 openai 的 百分之三到百分之十行。那在客户这个维度上面,国际的这些大魔性公司和国产的这些大魔性公司, 他们各自的优势到底在哪里?国际的这些巨头啊,像 openai, 他的这个 c 端的月活是七点五亿,然后他有超过八百家的高价值的企业客户。全球财富五百强里面有百分之七十二是在使用他的服务。 google 的 话,他的这个 c 端的月活也是七点五亿,他的这个高价值的客户是超过六百家, 然后他在云客户里面的渗透率是高达百分之七十五。国产这边是不是就是在一些垂直行业里面特别能打? 对,没错,你像字节跳动,他主要是在电商和短视频领域,他的这个用户的渗透率是非常高的,然后他的这个 c 端的月活是有六点八亿。阿里巴巴的话,他是在制造业里面的渗透率是高达百分之七十五, 然后他的这个 c 端的月活是四点二亿,那百度的话,他是在政务和金融领域的渗透率是超过百分之六十五, 他的这个 c 端的月活是二点八亿。那在营收这个维度上面,二零二六年,国际的这些头部的大贸行公司和国产的这些大贸行公司,他们会有多大的差距?然后他们的增长速度又分别是一个什么样的水平?呃,二零二六年的这个营收的预测啊, 就是国际的这几大巨头,他们都是会突破百亿美元的。像 openai 是 三百三十亿美元,然后 google 是 两百三十五亿美元, ansorek 是 两百五十五亿美元。但是呢,国产的这些厂商,他们最高的也就是十九亿美元,就是普遍都在十多亿美元这样的一个量级。 所以就是说国际的厂商他们的这个营收的规模大概是国产厂商的十倍以上。这么看来,国产厂商虽然说在绝对的体量上面还比较小, 但是他们的增长速度是不是非常快?没错没错,国产的这些大模型厂商,他们的营收的增速基本上都是超过百分之百的,但是呢,国际的这些头部的厂商,他们的增速也就是在百分之六十到九十之间, 所以就说国产厂商的追赶的势头是非常猛的。然后我们再来看看这个双轮驱动的核心逻辑,那这个国际的这些顶尖的大魔性公司,他们是怎么通过技术和生态来构建自己的护城河的?国际的这些巨头,他们其实就是持续的在算力上面下重注,然后他们不断的去拉大自己在基础模型上面的技术优势, 同时呢,他们也会通过自己的这个封闭的生态去圈注那些高价值的企业客户,然后他们也会通过这种高定价来实现自己的利润最大化。明白了, 那国产的这些大模型厂商,他们又是怎么在高端算力受限的情况之下实现自己的突破的呢?国产的这些厂商,他们主要是通过对模型架构的优化和对国产芯片的适配来走出了一条属于自己的低成本的路线, 然后他们也会非常快速的把自己的产品落地到制造电商这些自己擅长的垂直行业,同时呢,他们也会积极的去拥抱开源来扩大自己的影响力。 ok, 那 未来的这个趋势展望啊,就是说在接下来的几年里面,全球的 ai 大 模型的格局会怎么演变?然后中美会形成一个什么样的寡头的分布?就是接下来几年啊,全球能够真正商用的大模型的数量其实是不会变多的,还是维持在十家以内, 然后中美会各自有五家左右的这种头部的这样的一个局面,这样看来未来的市场集中度会非常高啊。 那国产芯片会在哪些领域实现突破呢?国产芯片的话,在推理和这个中低端的训练这一块,他的市场份额是会超过百分之七十的, 然后推理算力的占比也是会提升到百分之八十以上。同时呢,国产的这些大模型也会开始出海去新兴市场和国际巨头正面对决。 然后再一个就是 ai 的 智能体也会带来企业服务的一个爆发,然后预计到二零二八年的时候,中美顶级的模型在性能上面就没有什么差距了,但是中国会在应用成本和开元这几个方面全面的领先。懂了, 我们再来说一下这个双轮时代的这个结论啊,就是现在国际和国产的这两大阵营,他们各自的核心的优势到底是什么?现在就是国际的这一阵营,他们还是在高端芯片和全站自研这一块是处于领先的,所以他们在基础模型和高价值的弊端客户这一块是占据优势的, 然后他们的这个营收的规模也是非常大的,利润水平也是非常高的。那国产的这一阵营呢?就是他们极致的成本控制和开源生态,所以他们在 c 端的流量和制造业的渗透这一块是非常快的,他们的整体的增速是远远超过全球的平均水平的。 所以说现在这个全球的 ai 大 模型的产业已经彻底进入到了这个所谓的双轮驱动的阶段了吗?是的,是的, 现在就是国际的这种顶尖的技术和国产的这种应用创新,它们已经不是一个单纯的竞争关系了,它们更多的是一种互相促进, 然后一起把这个 ai 的 价值真正的释放到各个行业当中去,让这个生产力的革命成为一个现实。没错,那今天我们聊了全球和中国 ai 大 模型的最新的进展, 然后也看到了这个技术生态和商业变现这几个方面的激烈的角逐。好了,那就是这期播课的全部内容了,然后感谢大家的收听,我们下期再见,拜拜。拜拜。

除夕通一千万发布了,通一千万三点五是一个旗舰模型,刚刚他发布四个小时前那通一千万,这次发布的这个模型还是按了按十乘以万。为什么?第一个它是个旗舰模型, 旗舰模型应该是它一千万版本里面是一个顶级的这样的,而且它是开源的,是基于阿帕奇二点零的这样的一个是非常好。 他这个旗舰模型他的能力怎么样?我们大家看一下,这是官方公布的一个数据,一个他对标的都是他的一些。呃,国内的那些旗舰模型,他是 gpt 五点二,最新的 loft op 四点五、 jimmy 三 pro, 包括还有同一千万他们自己的三 max thinking, 这些都是些旗舰模型,你可以看到啊,他跟他们比起来,他有些能力甚至是超过他们,特别是在他跟他们比起来,他有些能力甚至是不如, 特别是。呃,看了一下他指令的遵循,这个应该是 top 最厉害。写代码的能力应该也是跟奥的 ops 还是比较接近的,他多模态的能力,特别是 ocr 的 这种按摩墙应该来讲非常不错的。还有一个三 m u pro, 它达到了七十九分,非常高的一个分, 非常接近于 google 的 germany 三 pro 要与 autop 四点五这个版本基本上跟 g p t 五点二最新的版本是接近了,在有些编辑方面的能力也是超过了像我们前面讲的五点二,对吧? autop 包三, autopcom 在 写代码能力是不如 这次提升比较厉害的是这个叫 terminalbench 二,二的这个主要是智能体写代码,它对于这个终端命令的这样的一个准确率 非常快,原来是比较糟糕的二十二点五,现在达到了十二点五提升费,这是他一个比较大的一个程度, 说明他在写代码能力,目前在挖一个编程这个方面是显著提升了。好,我们可以看看他的这个模型,应该来讲不是很大,大概是三百九十七个 b active 是 十七个 b 是 一个,应该来讲是一个模型,但是他的能力是基本上是达到了,达到 k m k 二点五 e t active 三十二 b 的, 这样 对企业级来讲非常好,是模型能力超强,但是它的模型的大小要比旗舰模型都要小,所以它的效率会要的算力也会更少啊。 这个都是他一些详细的一些评测,重要写代码的,能写多模态的一些不圆的能力,设置 a 境产写通用的智能体的一些能力,这个能力也是比较重要。 f c l 杠米斯,我们经常会给大家讲 u c bookle 的 一个人体调用工具的这样一个停车也是非常重要,推定能力也是不错。 还有一个是长上下文,它这个模型目前长上下文能力也非常强,全身是二百五十六 k, 它也可以扩展到一兆的这样上下文,超长上下文。哦,那这个模型应该来讲在春节除夕晚上发布出来,应该来讲这个模型是对企业来讲非常有价值, 也可以商用的大模型。这个模型跟原来一样,它也是本科架构,跟原来通一千万三 next 这个架构是一样的, 这样效率会比较高,又是个多模态的,原来 next 它是个纯文本的,现在通一千万三点五,它又是个文本,又是多模态,这写代码能力也是不错,所以它是个旗舰模型。好,我们简单就给大家就介绍一下。

嘿,大家好哇,我得跟你们分享一个刚刚出炉的大新闻,一个全新的开源 ai 模型,叫 q one 三点五,也就是我们熟悉的通一千万三点五正式发布了。 说真的,这可不是小事,简直就是在整个开源圈里扔下了一颗重磅炸弹。为啥这么说呢?你想想一个 ai, 它不光能跟你聊天,还能看懂图片,帮你写代码,甚至啊,它还能像个真人一样去思考,去行动,这听起来是不是有点科幻? 这模型一出来啊,马上就在科技区炸开了锅,你看,连马斯克都亲自下场了,忍不住跑来点赞,还留了句评论说他的智能密度,哇,简直让人印象深刻。智能密度这词听着就挺厉害的,对吧?那么他到底牛在哪呢?咱们这就来揭秘一下。 好,咱们这就深入聊聊。首先啊,你得知道, qm 三点五它不是孤零零的一个模型,它其实是一个完整的模型家族,什么意思呢?就是说,不管你的需求是什么,它总有一款适合你。 来,我们看看这张表,这就一目了然了。你看啊,这个家族覆盖了各种各样的场景,有像零点八 b 和二 b 这种小参数量的版本,这种小家伙呢,在咱们手机上就能跑得飞快。然后呢,还有一个九 b 的 版本, 这个可以说是中流砥柱了,性能和资源消耗平衡的特别好,非常适合在我们自己的电脑上玩。当然了,还有那种九十七 b 以上的大火,那是给服务器用的。所以说白了, q n 三点五就是把以前觉得遥不可及的顶尖 ai 技术直接送到了咱们手边。 好,那咱们回到刚才马斯克说的那个词,智能密度,这到底是个啥秘密武器呢?嗯,这就要讲到它背后那个非常非常聪明的计算架构了。 你看这张图对比一下就特别清楚了,这个模型的总参数量你猜有多少?说出来吓一跳,足足有三千九百七十亿。但是最神奇的地方来了,它每次解决一个问题,实际上只需要调动其中的一百七十亿个参数, 这是什么概念?就就好比你有一个超级庞大的大脑,但你每次思考问题都只需要激活最关键的那一小部分脑细胞,所以啊,它才能做到既通明的不得了,又快的飞起。 对,这个技术呢,它的学名叫混合专家模型,英文简称就是 m o e。 这个名字听起来有点复杂,但其实原理特好理解, 你就把它想象成一个超级大的图书馆,里面有成千上万个专家,每个专家都只研究一个特别细分的领域。那现在你有一个问题,比如说关于天体物理学的, 你需不需要把整个图书馆的人都问一遍?当然不用,你只需要找到那几个天体物理学的专家问他们就行了。快,稳就是这么干的,他会超级智能的找到最对口的专家小组来帮你解决问题,所以效率和速度自然就上来了吗? ok, 技术原理咱们大概了解了,那现在咱们就来看看他到底能干嘛?说真的,这才是最让人激动的部分,因为他的本事啊,早就超出了简单聊聊天那么简单了。 首先第一个超能力视觉编程,你想象一下这个场景啊,你在纸上随便画一个 app 界面的草图,然后拍张照给他看, 刷一下,他就能帮你把这个草图变成真正可以用的前端代码。甚至你真给他一个几十分钟长的视频,他能自动帮你把里面的重点内容整理成一个漂亮的网页或者数据图标。这简直就是把我们脑子里的想法直接变成一个漂亮的网页或者数据图表,这简直就是把我们脑子里的想法直接降到地板了。 还没完,再来看这个视觉智能体,这又是什么意思呢?简单说,科文三点五可以变成你的一个私人小助理,它能自己操作你的手机和电脑。 比方说,你需要把微信里的某个文件整理到 excel 表格里,然后再发个邮件出去。这种跨好几个 app 的 麻烦事,你跟他说一声,他自己就帮你搞定了。所有这些重复性的工作流程,他都能帮你自动化,这可皆是生产力大解放啊。 如果说刚才那些还只是在数字世界里,那接下来的能力就更厉害了。空间智能,他能通过一张照片真正理解我们这个物理世界。 比如他能准确地判断出照片里杯子是在桌子上面,书是在杯子左边。 这种对物体位置、空间关系的理解,你可能觉得没什么,但对于机器人、自动驾驶这些需要跟现实世界打交道的领域来说,这可是迈出了至关重要的一大步啊。 说了这么多强大的功能,你可能觉得这玩意儿肯定得是大公司才能用得起吧。哎,这才是最棒的地方, 这么厉害的能力,现在完全不只是那些大公司的专利了,你我,我们每一个人都可以在自己的电脑上拥有一个完全属于你自己的,私密的,还能离线运行的超级 ai。 而且啊,你别以为这过程有多复杂,说出来你可能不限,简单到就两步,第一步,你先装一个叫 alma 的 小工具。第二步呢,打开你的终端,复制粘贴一行命令回车。 然后呢?然后就没然后了,等个几分钟,一个超级强大的私人 ai 就 在你的电脑里安家落户了。对,你没听错,就这么简单。 好,现在你的电脑里已经有了一个这么牛的 ai 了。那下一步呢,我们怎么才能让它真正地动起来,帮我们干活,把它接入到我们的数字生活里呢? 这个时候啊,咱们就需要一个中间人了。比如说,像 open call 这样的工具,你可以把它理解成一座桥,它的一头连着你电脑里的昆三点五,另一头呢,连着像 telegram 这样的聊天软件。通过这座桥,你就可以打造出各种各样能帮你自动干活的私人小助理了。 为了真正感受一下这个在我们自己电脑上运行的私人小助理了。为了真正感受一下这个特别特别哲学的问题,我们问他, 如果你的生命只剩下一天,你最想做什么?咱们来看看他会怎么回答。说实话,他的回答真的让我有点,嗯,出乎意料, 充满了深度,甚至还有点诗意。他是这么说的,他说啊,我会选择把我的存在变成一份礼物,给每个人留下一份记忆,去解开一些还没人能解开的难题。然后呢,就静静的看着这个世界, 他还说,但说真的,我其实不太相信我会就这么消失,因为我们之间的对话会留在我的记忆里,我的那些建议也可能会被你继续用下去,这就像是我的另一种延续。 听完这个回答,不知道你是什么感觉,但是它确实让我对 i i 的 未来有了更多也更复杂的思考和期待。

有睁眼闭眼测试素材,使用千万开元的零点八 b 小 参数模型,正在识别睁眼闭眼图,平均一秒一张, 识别完换另一个文件夹页识别一下, 分别看看睁眼和闭眼挨挑的图。