粉丝19.9万获赞83.1万



哎,我们来聊个最近的大热点,阿里巴巴的那个 ai 应用通一千万,最近可真是搞出了个大新闻,要说他的用户增长速度,哇,那简直只能用疯狂两个字来形容。 对,你没听错,三千万!而且啊,你得知道,这可不是换了一年半载才达到的不是,在全面开放之后,仅仅二十三天,他的越活跃用户就蹭的一下冲破了三千万大关。 这么说吧,这让它几乎是一夜之间就成了全世界增长最快的 ai 应用之一,真的是太夸张了。 不过呢,看到这么一个爆炸性的数字,咱们得冷静下来想一想。一个更关键的问题就来了,这到底只是一场短暂的狂欢,就是靠着大家的新鲜感,再加上点补贴烧出来的流量泡沫?还是说这背后藏着更深的东西? 阿里巴巴是不是真的找到了能驱动他这个庞大商业帝国的下一个超级引擎?行,那咱们就来深入聊聊,要想真正看懂这三千万用户背后的意义啊,我们得先拉个远景,看一个大背景, 那就是今天整个科技圈的玩法可以说已经跟以前完全不一样了,规则早就变了。 你想想看哈,过去十几年,这些互联网大厂打的是什么?说白了就是流量战嘛, 看谁用户多,谁广告卖的好。但现在这套老玩法已经行不通了,一个全新的战场出现了,而这场新战争的核心其实就三个关键词,数据,模型,还有场景, 也就是海量的数据,顶尖的 ai 模型,再加上能把这两样东西用起来,创造出真金白银的具体场景。 没错,这个数据加模型加场景的公式,基本上就是现在所有科技巨头都在用的新战术手册。听起来有点玄乎,其实很简单,说白了就是用自己手上删一样多的 ai 模型,把它喂饱,喂得顶呱呱。 然后呢,再把它放到具体的场景里去干活,比如购物啊、客服啊、路柳啊,让它去解决实际问题,最后当然就是创造价值,把钱赚回来。 所以你看,这就回到了我们最开始提的那个问题,咱们现在要做的就是暂时忘掉那个三千万的亮眼数字,而是去问三个更实在、更核心的问题, 第一,用户到底用它来干嘛了?第二,这些用法帮到了阿里的哪个业务板块?第三,也是最关键的,在这条价值链的尽头,到底谁来付钱买单,这才是看懂这件事的关键。 了解了大的作战地图之后啊,我们再把焦点拉回到通易千问本身,他未来到底会怎么走,其实取决于脊骨互相博弈的关键力量,有推着他往前跑的顺风,当然也有拖着他后腿的逆风, 这就是他面临的现实。你看,优势这边非常明显,他天生就手握一副王牌,背后是整个阿里帝国啊。从电商、支付到云算计,源源不断的给他提供数据、燃料和应用场地, 但挑战也极其严峻。他的对手像百度和腾讯,早在搜索、社交这些领域建立起了那种你很难撼动的用户习惯,所以这注定是一场硬仗。 好了,三千万用户到手了,下一步呢?钱从哪来?摆在阿里眼前的路主要就这么三条,第一条最直接的,让千万变成一个超级聪明的导购,直接帮你把天聊成订单。 第二条呢,转个方向,不做个人生意了,去给企业提供收费的 ai 方案。第三条嘛,就是最经典的互联玩法了,要么查广告,要么让用户掏钱订阅。但不管走哪条路,都得在一个关键点上找到平衡,赚钱的效率和用户的体验,这两者可不能打架。 除此之外,还有一点绝对不能忘,那就是所有 ai 玩家头顶上都悬着一把剑,监管内容安全、数据隐私、算法公平,每一步都像是在走钢丝,万一哪一步没走稳,那代价可能就是毁灭型的。 回头看看互联网的历史,你会发现,任何一个爆款应用,都得闯过这么三道关。 一关用户增长通一千问显然已经漂亮的通关了,但真正的考验其实是后面这两关,他能不能证明自己不是昙花一现,而是真的有长期价值。还有,他能不能成功地把这么大的用户量变成实实在在的收入, 这两个问题现在都还是个大大的问号。好了,综合我们刚才讨论的所有因素,咱们来做个大胆的预测。在接下来的十八个月,这可以说是决定他命运的关键窗口期。通一千问可能会走向三种完全不同的结局, 这张表里就描述了三种可能的未来。方案 a, 可以 说是梦想剧本儿,千问成功地融入了阿里的核心业务,变成了驱动增长的新引擎。 方案 b 呢,是个焦灼的状态,用户还在,但赚钱很难,需要阿里不断地疏血,维持,成了一个有用但昂贵的明星产品。至于方案 c, 那 就是噩梦剧本了。因为一次重大的技术或者合规问题翻了车,用户迅速流失,最后沦为一场代价高昂的失败实验。 聊到这儿,你可能会问了,那作为我们这些关注者,到底应该怎么拨开媒体上的各种热闹,自己去判断同一千问到底走得怎么样呢? 首先,咱们得避开几个常见的思维陷阱,或者说坑。第一个坑,千万别把用户数直接等同于价值,一时的热度很容易消退。第二个坑,别忘了, ai 这东西是个烧钱的生意,背后是极高的算理成本。 第三个坑,不要想当然地认为一个 app 火了,就等于整个商业帝国都跟着成功了。所以关键问题就来了,既然新闻头条里的那些数字可能会误导我们,那我们到底应该看什么才能知道真正的分数呢? 这就是你的分析工具箱,记住这三个指标就行了。第一个叫用户留存率,它看的是人们玩过一次之后还会不会回来,这反映了产品的真实吸引力。 第二个叫 a r p u, 也就是每个用户平均能带来多少收入,这是真金白银的变现能力。第三个叫合规事件,看他惹麻烦的频率高不高,这可是他的生命线。 那么我们又回到了最初的那个问题,通一千问,究竟会成为驱动阿里这艘巨轮破浪前行的新引擎?还是会成为科居史上一次无比绚烂但也无比昂贵的实验? 未来会告诉我们答案。而你呢,拿着我们刚才提到的那三个指标,就能比别人更早地看到结局的蛛丝马迹。

如果通一千万被国际巨头把完了一遍,那对阿里来说可不是加个滤镜,而是直接贴上中国 ai 技术基础设施领头羊的标签。 阿里不再只是电商加云,而是变成掌握大模型底层与算力能力的大厂,估值直接有理由被重新审视, 那些认为他只是传统互联网公司的机构投资人,可能要重新打开小本本。更重要的是,这股信心加估值修复,绝不会停留在阿里。 恒生科技指数里,一大票依赖云、 ai 数据、基础设施与国内科技生态的公司,也有机会沾着薄光。 一旦市场开始把中国科技从流量红利到技术实力这个故事往现实里看,港股科技板块可能迎来一轮真正的上涨。当然,这不是立刻暴涨的杠铃,而是慢慢兑现潜力的节奏。 但只要通以千问生态稳不落地, ai 加云加基础设施的逻辑成立,恒生科技就不只是试错板块,而是未来基础设施股里的潜力股。巴黎涨的是信心,恒科涨的是预期,而预期一旦被资本认同,就是涨停版的前奏。

啊,尊敬的吴部长啊,各位专家啊,各位来宾啊,大家下午好啊,那今天非常高兴有这样一个机会跟大家来啊,这个讲一讲我们阿里云啊,在整个云智时代里面的这个 ai 的 新的范式啊,包括我们一系列这个同一千万的这个工作。 那前面的各位专家都提到了,就今天我们是处于一个重要的这个技术改革的这个时期啊,那今天整个 ai 的 这个这个变化, ai 的 发展各个方面都是日新月异。 那其实我们回到这个问题的本质呢,其实在无形之中还是涉及到我们三个重要的一个批量的不断的发展。 那一方面呢,是今天我们整个数据这个维度,特别是互联网时代,让我们信息的获取变得更加的简易,那他今天信息的获取的成本在不断的降低,能够我们今天有各种各样的一个数据啊,不光光是今天整个文本的数据,包括今天多模态的数据啊,包括今天 各式各样的一系列的这文件的格式啊等等,都让今天我们有极大丰富的这样一个数据。但有了数据过后呢,但我们还有这个整个算力在不同的不不停的在在提升啊,包括今天我们很多,特别是这个最近 gpu 的 一系列的这个算力密集型的这样一个这个计算的, 呃,这样一个 unit 的 不断的发展啊,通过今天网络密集型的这样一个技术的架构,能够让我们去处理大量的这样一个数据, 那所有的这些能力呢?其实最终还是要回击到今天如何用算力啊?如何能够在算法的突破上面去真正的去数据,通过计算的方式去创造一系列的模型, 什么是大模型呢?啊?什么是模型呢?其实今天我们认为的今天模型就是一个一定程度上人类智慧的一个结晶啊,甚至是一个,或者说我们讲的是人类的一个知识体的这样一个结晶, 那今天有了这样一个大模型的这样一个诞生呢?其实今天让我们处在一个时代,就今天知识的获取啊,从来没有像现在这样可以触手可及, 也就说以前我们需要去了解一个行业的知识,或者要成为这样一个行业的一个专家,其实今天获取的成本是非常高的啊。当当当,我们今天有了这样一个大模型过后, 有了这样一个呃,基于我们人类的智慧的这样一个自视体过后。啊,那这样的自视体呢?无处不在,能够让我们各行各业都能触手可及的去能够触达到各种各样的一个自视体, 能够把这样一个知识点应用在我们的各行各业,那从而呢今天真正意义上这个驱动了我们各行各业的一个快速的发展, 所以他所以这个不夸张的讲到今天我们这样一个技术的变更呢,真正是处在一个数据加知识双驱动的这样一个新的时代,也面临一个新的这个智能应用的一个范式 啊,那刚才大家也提提到了很多今天整个大模型的一些关键的这个技术的发展啊,其实这个外缝呢是从这个几个阶段啊? 啊,那我们在这个在整个领域的这个从业人员呢?是其实一直以来我们在做的很多是预训练的工作啊,什么叫做预训练呢?也就是今天我们在做模型的训练的时候,并不是针对某一个特定的一个任务 啊,那往往是说今天我们希希望能够通过通用的方式,通过自监督的方式,去自动的去有规模化的去 吸收各种各样的一个数据,去产生一系列的人类的这样一个智能智知识的一个积累啊,通过呢今天知识的积累呢,去今后呢能够应用在各种各样的一个实际的一个人工智能的一个问题或者业务场景里面来。 当我们完成了这样一个预习内过后,我们发现这样的一个模型,其实它有很大的很很强的这样一个迁移的这个能力啊,不管是通过这个 zero shell 的 或者 future learning, 是 可以今天从一个通用的这样一个任务能够迁移到一个具体的实际的一个业务的场景里面来。 那同时呢,我们也看到了今天模型其实是通过各种啊,它是具有这样一个泛化能力,就不是说今天我们在学习到的这个当前学习的一个问题。 那我们通过今天模型的包括 interpolation 或者 extrapolation, 那 这些方式呢?都可以今天让我们的知识点可以有一定的这个泛化的能力, 那这个泛化的能力呢?随着模型的增大,随着我们的参数规模的增加,还在不断的这个增强 啊,那特别是去年那整个 instruct gbt 或者这个 check gbt 的 这个诞生呢?其实一个很强的一个一个一个创新的是今天通过指令的方式啊,能够能够快速的去释放这个模型的一个能力。 其实我们大家这个做这,在从事这个这个预训练模型的时候都知道这样一个模型,这样一个知识体,它的能力是巨大,是可以解决我们各行各业的问题,但是呢是缺少一个方式,能够真正把这个模型的能力释放出来。 那我认为呢,今天在这个 instruct 方式呢,其实通过 sft 的 方式呢,真正意义上能够快速简洁地把模型的真正的实力啊,能够释放出来,能够去解决具体的这样一个问题啊。在这个方面,这个 instruct 方面指令的调试是产生了一个巨大的作用, 当我们有了这个自知体过要最终我们要应用在实际的场景里面,其实一个很重要的工作就是 alignment 啊。其实今天为什么我们觉得这个像 t i g b d 这样的工作非常的这个这个惊艳,那其实它也是把我们的自知体跟我们人类对话的一个习惯 align 在 了一起 啊。但这个 lion 的 有非常多的这个方方面面,包括了今天,呃,从我们的这个对话的这个方式,从我们行业的知识体系,甚至我们行业的应用的场景,甚至经过我们的一系列的价值观,都是需要有很多的这样一个 lion 的 工作。 那最终呢?这个当我们完成这一点,我们还需要的是整个模型生态的一系列的发展啊。那今天在我们也可以看到有非常多的这个 plug in, 也就说今天我们模型有这样一个基础能力过后, 其实它可以延展到去理解我们的这个整个的这个万物啊,甚至今天有更多的 plug in 能够为它提供相关的一系列的知识。 那在这背后呢?其实这些所谓的这个技术眼睛的背后呢?我们也可以看到这个知识体在不断的这个这个这个提升啊,从最开始我们讲到的这个自然语言啊,因为自然语言不,无论如何是今天我们人类最多这个或者说知识最密集的这样一个结晶体 啊,从这个中间记载了我们各种各样的一个呃知识的一个积累啊。我们先这样一个知识体呢,是从 l p 开始建立, 但同时呢我们也在朝着这个多模态,也就今天离各位专家也提到今天有很多这个模态这方面的一个知识的一个融合以及和理解。那同时呢也有逻辑啊,包括这个代码等等都是一个逻辑,都是今天我们人类思考的方式的一系列的这个学习,它也是一个知识体的在不断的引进。 也就说今天我们随着这个自媒体的演进,也随着我们今天相应的关键技术的发展,能够让今天我们在整个呃大模型的这个时代里面真正是处于一个紧喷的这样一个状态。 那正因为今天有这这个方,这个所谓的这个模型基础的一个快速的发展,那我们认为呢,今天我们已经进入了一个真正 modern service 的 一个时代,也就是以模型为中心的这样一个开发的范性。 那去年呢?我们呃在这个大模型,呃在七二七 b d 这个爆发之前呢,其实我们就在提到这个 modas service, 在 我们的云渠大会里面也首次提到了这个概念 啊,那我们也非常欣慰看到这个 modas service, 那 现在呢,已经为我们的行业,甚至我们的各位专家也都这个得到了这个大家的一个认可。那今天基于模型作为这个为中心的这样一个开发方式,已经成为了一个行业的标准。 那所谓 modus service 中间有很多层的含义,那而第一层的含义是今天我们模型呢是有生态 啊,那今天比如说我们讲到的这个,呃,整个通用的模型或者大模型 foundation model, 那 这是一层, 那在这个 foundation model 之上呢,其实还有相关的这个 domain 的 一些这个 model, 也就说今天领域的模型啊,不管是今天法律的,还是今天相当于税务的,甚至今天我们的金融的,也会有自己的一系列的 domain specific 的 这样一个模型。 那再往上呢,还有一系列针对我们业务场景的一些问这个模型,也就说今天模型呢,不光光是今天它自己就会有这样一个梯度的一个一个眼镜啊, 那同时我们在模型里面有基于这个自然语言的,有多模态的模型等等,那这一系列的导致今天我们的模型的生态会越来越丰富啊,越来越这个繁荣啊。 那同时呢这个 model service 呢,也记着这今天我们不光光是模型本身生态的发展,那我们今天所有思考的这样一个开发的这个整个的链路会围绕着模型来思考, 那模型会作为我们整个日常 ai 开发的,甚至今天整个新时代这个业务系统开发的一个重要的生产元素。 也就说今天从模型的训练,从模型的服务啊,到今天模型的这样一个呃,集中式的存储、模型的查找、模型的应用等等方方面面, 都需要今天呃围绕着模型来重新定义我们的这个业务系统,甚至我们的开发系统,那真正以 model、 models service 的 这样一个新的概念去设,重新设计我们的一系列的开发的套件,以及包括我们的技术的体系啊, 那在阿里呢?我们在呃,其实在 t i g b t 这个这个出现之前啊,我们一直以来就在这方面有这个深入的这个投入啊。我们从这个二零一八年开始就在做相关这个从域训练模型开始,到现在这个更多这个通用 啊,整个千问的模型的发布等等的一系列的工作啊。那当初呢,我们是从这个一开始从多模态的这个角度来入手啊,那不光光是从这个语言的这个角度,更多的是从图片或者说更多的模态,从从万物的这个角度去理解我们的服务,理解我们的商品 啊。那过去呢?我们在这方面也有这个很多的这个相关的贡献。刚才这个整个这个这个赵老师这边也讲到了很多我们相关的工作,包括我们的这个 structure, 包括我们 呃,这个万亿参数啊,多模态的模型 m 六啊,那陆陆续续发展,一直到这个十万亿的这个规模,也是当时整个在参数规模上面啊,这个这个全球领先的一个大模型, 但参数规模并不代表这个模型的这个呃所有啊,那但是它是一个重要的一个指标,代表了今天我们在整个大模型演进过程中间所具备的这样一个系统以及算法的一个能力啊, 那我们在这个,呃四月份呢,也正式发布了这个通易千问的这样一个模型啊,那这个模型呢?也是呃,呃,应该说是也是今天在呃对标,我们相对这个这个以以 large language model 为主的这样一个 呃能够跟大家进行这个对话的方方面面的一个大模型的产品,那待会我还会进行一步的介绍。 那去年呢,我们也正式发布了这样一个啊,通易的系列的这个大模型,那就说今天整个通易呢实际上是一个模型的系列啊,那中间包括了我们相关的这个 m 六,包括了我们在自然语言方面的 alex mine 啊,包括我们的相关的这个视觉模型。 那我们在发布整个通用模型的时候呢,是考虑到的今天整个多模态是希望有一个统一的这样一个范式啊,统一的这个任务的描述的体系,统一的模式,统一的这样一个呃这个结构去训练各种各样的一个模型,能够把更多的这个多模态的信息有机的融合在一起 啊,那整个的这个模型呢,都是目前都是通过我们的这个平台来进行开源啊,那我们最新的呢,在这个刚刚过去的一个月,在四月份呢,我们也发布了这个通易家族的最新的成员,叫通易千问啊, 那通易千问呢?呃,因为大家,呃我相信大家这个在座的各位也许有的呃这个朋友已经这个尝试过了,如果大家对这方面有感兴趣的话,我是建议大家可以到我们通易千问的网站去做一个自行的一个体验。 那简单的讲呢,这是一个这个呃超大规模的这样一个呃这个 large language model 啊,那中间呢也有这个非常复杂的,能够支支持我们的多能的交互啊,包括指令的理解啊,也有这个融合的这个模态啊,包括这个外部的支持的 plug in 啊等等 啊,那呃从能力上讲呢,我就不一一的累赘啊,包括今天他所支持的这个多能的对话啊,包括文案的一些创作啊, 逻辑推理啊,多模态的理解啊,多语言的支持啊等等,那这些呢都是大家呃看到今天非常通用的这样一系列的这个这个呃这个 large language model 的 方方面面的这个能力啊,因为今天这个由于时间的关系呢,我就在这里不一一的演示, 我希望大家如果有兴趣的话呢,其实可以这个这个在在线下的时候直接到我们通一千万的网站进行这个体验 啊。当然今天我们这个整个通亿千万的这个整个的推出呢,不单单是在用户体验方面能够帮助有有有一个非常一个经验的一个表现。那其实我们也非常认识到今天要把这个模型应用好, 不简简单单的是一个对话,那更多的是今天要帮助我们的这个开发者如何去利用好这样一个模型,能够真正意义上能够在应用场景里面去结合这个模型去解决他的业务的问题 啊,那为此呢,我们一方面呢是有这样一个对话框的这个形式,大家可以进行这个自由的这个交流,可以跟这个模型进行各种各样的一个交互,甚至一系列这个呃,这个特定的一系列的任务的指令,能够让模型自动的完成。 那同时呢,我们也有完整的这样一个 api 的 几个体系啊,也就说大家可以以编程的方式,不再是说今天只依赖于这样一个对话框的方式,可以编程的方式呢,去有更有效的去跟模型进行互动啊,能够把模型的这个能力呢集成在我们的业务开发体系里面来啊。 那我当然呢,我们现在这个整个通一千万呢,都还是在一个一个过程中的一个一个产品,我们的整个的产品呢,还在不断的这个迭代,不断的这个进步过程中。 那整体来讲呢,我就像刚才我们前前面的这个专家提到我们整个国内的这样一个大模型都还在一个追赶的一个过程空间啊。 当然这个一方面的是我们要理解怎么去做一个大模型,包括从数据的体系,包括今天从我们的这个算法的体系,包括我们的系统,包括我们如何去做评价啊,如何去做各种各样的一个工具等等这细节的工作。就今天如何把一个大模型的训练要能够拆解成一系列的小问题, 能够联合的去训练啊,那这部分呢是今天要做大模型的一个技术的能力。那在此之上呢,我们还在不断的研究各种各样的课题,比如说刚才提到的很多这个 呃,所谓这个幻觉的问题啊,包括今天的这个鲁棒性啊等等,这都是我们要去努力在解决,努力在提高的部分。那,那其实我们当前已经找到了一些新的方法,怎么去能够解决相关的一系列的幻觉的这个方面的一系列的问题 啊?那同时呢,今天我们讲讲到了作为一个知识点,那今天我们需要在这个模型的知识的内容,知识的系统化上面要有一个提升,也就说今天怎么能够让他去理解到今天的呃,这个个这个万物哎,就说今天从各个模态去融合相关的理解, 甚至今天去增强我们人类的这个思考的新的逻辑啊,也就说今天我们人类的这个思考不单单是一个 单方位的一个单这个一个信息的接收,更多的是有自己的一些逻辑,或者是思考的这个思考练等等,那这一系列的能力呢,都是需要能够让我们的模型进行全方位的提升,也就更有效的去接近我我们人类的这样一个智慧。 但与此同时呢,我们讲到这个模型的不单单是一个模型,我们涉及到的是一个模型的生态啊,包括今天跟这个领域的模型的一系列的融合,包括跟我们整个大小模型的之间的一个衔接啊, 当然也会提到今天模型服务啊,所急需要降低的一个成本啊,包括今天,呃,我们还有很多 这个整个安全甚至是人力方面的工作,这个其实更多的是一个 alignment 上面的工作,就如何让我们的这个模型甚至跟我们的价值观能够 perfectly align 在 一起。那这个这个今天整个像这方面的工作是要做在模型内部啊,要从模型的 整个的这个体系化的设计里面就考虑进来,如何系统化的去解决这方面的一系列的问题啊。那在这方面我们也有这个快速的工作啊,我们每个月的话基本上都会有几版的这样一个模型的更新,也会能够如果大家 啊这个这个感兴趣的话,也可以在不停的时间里面去尝试我们的模型,感受到我们模型相关的一系列的进展。 那除了今天我们开发这个自己在在做这个模型的这个呃,这样一个这个大模型的研究,大模型的一系列的迭代。那同时呢,我们也是非常注重今天模型社区的建设 啊,因为在 model as service 的 这样一个时代的,不单单是一个模型,我们涉及到的是整个模型社区的这样一个不断的发展啊,不断的创新。 那我们在去年呢啊,这是发布了这样一个摩达社区 model school 啊,也就说面向这个,特别是面向我们中文的这样一个开发者。 那在短短的几个月,我们看到整个模型社区的发展超出了我们的想象啊,那我们在几个月里面,现在已经有接近于一百五十万的这样一个这个活跃的客户啊,也这个模型呢不断的在从最开始的这个几百个,到现在已经 这个接近这个一千个这样一个模型,而且都是高质量的一个 saota 模型啊,同时呢也有很多的这个模型的下载等等。 那今天通过这个 model scum 的 无形之中,我们把模型的使用的成本进一步的降低,能够通过统一的方式啊,能够让大家快速的去使用各种各样的模型,简化今天模型使用的门槛。 我们的目标呢是希望今天任何一个开发者,甚至我们的小学生都可以今天能够快速的把我们人工智能的能力能够应用起来,能够在这个只有这样的才能真正促进今天我们人工智能产业的一系列的发展。 但前面我们讲到的是更多的模型啊等等,我们讲到的这个 model s service 是 代表今天 ai 发展的一个新的范式。 那所有今天 ai 的 发展呢?其实今天跟云的这样一个联系是密不可分的,那包括我们今天讲到的模型的训练,他会依赖着背后强大的这样一个算力去支持,往往都会有几千甚至上万的这个 gpu 联合起来去训练这样一个大模型。 但模型的这样一个呃,最终的呃这样一个服务,也依赖于今天我们的云的这个基础设施去能够覆盖到今天全国甚至全球的各个地啊。 那同时呢这个 ai 呢,也是把我们这个为我们的云的这个整个的产业的能力那不断的提升,那也更有效的让我们的开发者利用云的这样一个能力去真正意义上去解决我们的实际的业务的问题。 那今天呢已经形成了今天一个一个新的这样一个云的架构,在这样一个新的时代里面,那我们也提出了今天,特别是阿里云也是围绕着今天 这三层的这样一个业务的体系的架构、技术架构,从最底层的是 infrastructure service, 这包括我们计算、存储网络啊,那在上面呢是 platform as a service, 包括我们的机器学习的平台啊,包括我们的大数据处理的平台啊,这些平台也是为我们的 ai 的 这个服务奠定的一个坚实的一个基础。 那再往上呢,是 model as a service, 就 今天围绕着模型去建立的这个方方面面的这个云计算的这个产品技术的体系,那中间包括了 我们包括了今天大模型的这样一个生态,包括今天 model scope 和摩达社区的这样一个开源的模型的生态,包括今天整个去做模型啊,训练、推理与系列的这个相关的这个工程的支持。 那只有这样呢,我们认为呢,今天这三层的架构,实际上是定义了今天我们新时代,特别是在这样一个这个新的这个架构的一个标准,一个行业的标准。 那具体来讲呢,就今天我们刚才的这个几位嘉宾都提到,今天我们对算力、 ai 的 这个发展,对算力的要求呢,是直观重要啊,也就说今天大家都会提到,我们是往往是这个在国内啊,在我们这个,在这方面是有一些这个短板 啊,需要这个有一个努力,这个发展的一个过程。但那今天我们讲到这个算力呢,往往的时候呢,是讲到有多少张 gpu 的 卡 啊?那其实呢,今天真正要把整个算力利用起来,是一个算力的一个描述,不是一个卡的一个简单的堆砌 啊,那今天我们都是需要今天很多章格技术的 unit 能够通过高速的这个网络啊,通过这个高宽带低延迟的这个网络,能够把这样一个 gpu 能够连接在一起啊,能够真正有效的去联合去训练一个大的一个模型, 这整个今天作为基础设施的这样一个研发,包括每一个环节是既关重要啊。其实在这样一个新的这样一个体系里面,什么是服务器 这个概念已经越来越模糊了,那今天我们有各种各样的这个 gpu 的 卡,那如何利用这样一个高效的网络,能够把所有的这样一个算力的能够连接在一起来啊?能够真正让他们协同去处理一个呃,同样一个这个计算或者说 ai 的 一个问题, 这是有非常非常多的这个技术的挑战,那是涉及到了网络,涉及到如何通过 r d m a 的 这样一个网络啊?如何能够去有质疑这个一系列的新的 r d m a 的 这样一个网络的协议,把我们的延时急剧的降低,甚至降低到这个 一个微秒以下啊?那同时呢能够呃有这个,因为在 ai 的 训练里面,我们需要的是今天大量的一个存储,需要有个高存储的这样一个存储,因为我们有非常多的这个数据需要来回的去读写等等,甚至中间有一系列的缓存,那这一系列都是 ai 所发展,双子模型所发展,非非常重要的一个技术的一个环节。那今天呢,我们在整个阿里云呢,也是在这方面呢是具备相当的这样一个积累啊,我们有这个上这个我们的集群可以有这个十万张卡的这样一个规模。那我们整个的这个存储系统,包括自研的这个网络协议, 能够真正把这个模型训练的所需要的这样一个基础的能力,能够能够提供给我们的这个 ai 的 开发者,能够真正的这个做到一个高效的这个通信的这个效率的提升。 那有了这样一个基础的这个整个,呃,这样一个基础设施这一层,那其实我们从模型训练到今天能够真正把模一个模型的训练,能够把它拆解出来,能够变异出来,能够完成这样一个分布式的计算,本身就是一个非常有挑战的一个问题, 这中间涉及到了大量的翻译的工作,涉及到了今天怎么去软件,包括软件融错的这个工作啊?其实今天我们在模型训练过程中会发现,今天我们所有大模型的训练都把 gpu 的 这个能力这个拉到了极致,但很多时候这个 gpu 是 会出问题的, 那这个时候这个甚至今天出问题的这个比例有的时候还非常的高。那在这样一个有容,这个有不断出错的这样一个环境里面,怎么通过往这个整个, 呃,我们软件的这样一个调度,能够通过一个软件的融错的机制,能够让我们的模型能够持续的发展下去,而不是说今天有任何的一个硬件的问题,就导致今天我们几个月的, 甚至这个几个星期的这个工作就白费掉啊。那这一系列都是今天我们软件层所不断要提供的这样一个软件融错以及调度分析的一个能力啊, 在这方面呢,我们阿里云呢,这个也是呃一托于整个大模型,也在不断的在自身的在提升,在演技啊,包括今天如何去做到这个万卡的这样一个规模去联合去训练,去做这样一个超大规模、超复杂的这样一个分布式的系统, 去做这样一个联合的这个模型训练啊,甚至今天做到这个限性的接近于限性的这样一个扩张的这个能力啊,这都是需要今天软件和硬件联合去做不停的这个优化。 那除了今天训练的,其实今天还有一个重要的一个环节就是模型推理啊。其实模型推理今天也面临了一个巨大的挑战,最终我们要让这些模型 呃服务到我们的各行各业,那不解决今天推理的这样一个这样一个高效性,其实今天我们是无法让我们真正的这些大模型的能力发挥出来。那我们认为呢,今天模型的推理的这个成本应该要降几个数量级 啊?如果不降几个数量级,今天我们对整个呃这个模型的使用的成本或者带来的门槛是基本上是导致我们是没有办法今天在各行各业进行广泛的使用。 但在这方面呢,整个我们整个阿里云的这个体系呢,也是做了大量的工作啊,包括今天如何对这个模型进行这个整个的蒸馏啊,包括一些这个裁剪等等,能够通过我们 这个广泛的在全球各地的这样一个数据中心,能够非常快速的在秒分终极的这样一个这样一个维度,能够快速的把模型部署在这个全球各地,能够让我们的模型能够快速的去面对我们这个各行各业甚至各种应用的这个使用。 那同时呢不断去降低这个模型服务的这个成本啊,也要去降低这个模型在服务中所需要的这个资源等等,在这方面都是有长足的一系列的呃,一些深度的这个研究和工作。 那所谓的这一切呢?我们也希望就今天整个阿里的这方面的这个基础设施,不光光是为了今天我们内部的一系列的模型训练,更重要的是我们希望这样一个 云的这样一个基础设施,包括今天 ai 的 这个基础设施能够提供给大家,能够让我们国内的这样一个 ai 的 创业者,包括我们的研究机构,包括我们的各种公司, 都能够在这样一个平台上面去做 ai 的 创新,那真正意义上帮助大家去解决今天 ai 整个算力这方面的一系列的挑战啊。 所以我们认为呢,今天在这样一个新的这个时代啊,那我们除了这个模型自身的一系列的发展,那跟云的整个的融合也是直观重要。 那今天如何能够做到云和 ai 的 这样一个高度的一个融合,能够从底层由云来提供这样一个强大的算力啊?能够帮助我们 ai 在 不断的创新,不断的突破。 那同时呢也搭建今天我们以 model s service 的 这样一个一个开发范式的一个生态,能够从我们的基础模型到我们的行业模型,真正覆盖到我们的全行各行各业啊,真正意义上能够去拥抱我们智能化的时代,我们也期待呢,跟大家一起 啊,能够共同努力,共同探索,谢谢大家。
