我现在所在的位置呢是西班牙的巴塞罗那,这里正在进行的是 m w c 世界移动通信大会,现在呢我要带大家去看到一个咱们很多观众都非常熟悉的就是我们中国的科技公司阿里云,这些都是咱们的客户,是吗?对,这边是阿斯利康, 全球最知名的一家药企,在药物的研发过程中呢,会有一些临床的这个实验产生不良反应的一些报告,这个过程需要花费大量的人力、物力、财力。 阿里云跟阿斯里康的合作呢,就是去帮忙把所有药品测试过程中的这些数据采集下来,通过我们的百炼大模型的能力,结合天问的这个模型, 自动产生出一个这个不良反应的报告,能够帮客户把整个这个效率提升百分之三百,嗯,而且这个准确性三百对达到百分之九十五以上。能够满足合规性要求的这个案例是一个比亚迪的,是目前来说我们国家 这个汽车行业出海的一个啊,典型的一个企业。比亚迪在全球的一个核心竞争力之一就是他的一个智能互联的车联网的一个能力,从二零二四年开始跟比亚迪来合作,嗯啊,帮助他在全球去拓展 他这个全球的车联网。那这个部分的话呢,就需要一个全球稳定的一个网络,满足这个合规性的要求,并且是在全球都要有足够的一些数据中心的布局,能够让车辆就近接入,帮助他把啊 目前来说超过一百万辆的这个海外的车辆能够联络到我们的车联网的系统里面,这也是大大增强了他在车联网的稳定性,并且帮助他们节省了百分之五到百分之十的整个 部署的成分。中国企业出来他们会遇到很多的问题,包括很多合规的这些部分。嗯,那我想知道阿里云在这个部分是怎么来做到支持的呢?阿里云在全球去啊部署我们的市中心的时候去推进,说对 当地的一些法律法规的一些解读和遵从。用户在部署这些系统,在我们这上面的时候,不管是他金融,还是说这个制造,还是说隐私保护等等,我们都能够得到充分的一些满足。在这个基础上更重要的一个点是 服务的能力,总在三十多个国家都会有这个本地的服务的人员构建这个服务中心。嗯,那么满足七乘二十四小时日不落的这个服务,支撑到全球的这些客户,他的一些业务系统啊运行在阿里云上面保持稳定,保持健壮。
粉丝145.8万获赞1478.6万

登录控制台,选择轻应用服务器, 可以看到已购买的服务器,也可以点击创建服务器,可以看到默认会有 open call 服务, 同时可以更换更多的版本,这比自己安装更加省心。 接下来我们开始配置, 点击图标进入配置页面, 点击应用详情, 可以看到我们有配置的引导,一二三步骤,接下去只要按照一步步点击, 再点击配置,初步 配置对应的 kimi 要 不知道的我单独给出说明, 可以看到配置还是很快的。 接下来就可以看到访问的页面, 可以在页面中进行基础的配置,由于平台限制, 我们只能使用摆列模型, 同样点击应用就配置完成。 接下来我们来操作最后一步。


阿里千问的核心负责人林俊阳,不然辞职。我理解,其实很简单,没完成业绩被背了锅走的,春节期间这帮都砸了大钱。阿里也好,这个字节也好,都砸了大钱做推广,结果是什么呢?推广完了没啥效果,如果是整个推广就没起来责任在市场部 是推广起来了,用户不是没用,用户进来了,你没留住他,那不是我宣传的问题,是你产品的问题,你留不住人, 产品出了那么大的问题,而且现在公众在热议,一定要有替罪羊,谁替罪羊就是这个产品部门的头。抖音没有做任何宣传,活跃度就居高不下,这个豆包下大力气宣传了,活跃度呢?只跌了一半,而阿里在阿 里就几乎跌回原形。所以很多人在开玩笑说,阿里当时还是送杯奶茶吗?奶茶白送了。哈哈哈,别人就是为了喝奶茶来的,喝完就走了。同一天问你说好不好呢?其实我是使用同一天问的,我觉得还是不错的,但你说他问题在哪? 那你没特色吗?你和豆包比有特色吗?没有,豆包甚至还更诙谐一点,还更好玩一点,还更个性化一点。那你啥都没有,那你首先干不过 dicksy, 因为认知度高,你干不过豆包,因为有点差异, 你啥都没有,那可不就跌回去了?也就是说呢,他这负责人呢,是为什么要背锅呢?你未必是技术差了,你可能是产品差了,表现差了,但是你现在做人工智能技术的很多企业都不在乎这个用户界面的,那界面都做的不好的啊,所以不是他一家做的不好,大家都做的不好,因为大家认为说该拼的,其实应该拼后台技术实力嘛, 但是在这个点上,你前台很重要,因为留得住,留不住不完全是后台,是前台的问题,我认为就是为什么这个这回要换帅,也是中国的几个头部企业都在做大模型的原因呢,就他们是希望和云的联动,就是说我不要求你大模型挣钱, 但是呢,因为大模型好使,所以大家会使我的云,我从云上就赚了钱了,我还可以反过来支持你大模型继续生化,但是长期看呢,他技术实力还是够的。所以呢,就是基本上阿里的云加大模型的这个战略我认为是站得住脚的,那在中国也会有一席之地,再加上他还有他的那个平头哥嘛, 就您觉得会不会其实年轻人选择大厂,他会带来些弊端,个人选择创业,反而现在有更多的机会,更大的一个选择空间呢?这也许是很多年轻人有这样的想法,但是坦白讲,我认为这是幻觉到林俊扬那么优秀的人,他去去哪都能活得好, 他确实不介意走,走完了以后立刻有人要他,但是要他不因为他能够做成多大的事业,而因为就是他能把人工智能这摊给撑起来,所以这中国要做大模型,包括要做人工智能深度研发的企业多了去了, 而且给的薪水都非常高,但是这件事不可模仿不可复制啊,你没有林俊阳那水平,你怎么可能去像林俊阳一样出来做事啊?或者说大多数中国人是求职都进不去阿里,那你怎么能跟人比啊?那两码事啊,林俊阳是隔壁家的孩子对吧?这个是不可比的,但是呢, 中国人确实有机会,机会在哪?就是人家是开发人工智能,不是我们考虑的事,我们考虑用人工智能,用人工智能这件事越来越成熟,就我们讲这个养小龙虾嘛, openclaw 啊,包括这个 a 镇 越来越流行,这过去这几年人工智能确实非常热,看一看,人工智能领域的成功者呢,绝大多数其实都是名校背景,都是资历非常深的,都是隔壁家的孩子。 那这样你难免会产生一个想法,就是这些人开发人工智能是为了替代我的,我的未来很惨淡,但是呢,我跟大家说的是呢,他们这些人干的所有的事呢,都总结成一句话,叫做人工智能技术设施,技术设施已经逐渐就位了,就会给我们每个人机会,比的其实是视野,是眼光。 当这潮流来的时候,你知道潮流已经来了,而且你看到别人在潮流下,别的领域是怎么引入这潮流的,你就能够迅速的把握这个机会, 在自己这领域引入这潮流,成为本领域的领军人物。这就是你看我分析的很多东西,很多是业内共识,并不是一家之言啊。当然呢,我们会做一些外展性的这个推理推论,但是这个基本上都是有这个比较扎实的依据的,所以它变成现实的可能性非常大。 风口的机会一定要抓,但是呢,最好呢是结合自己的优势,结合自己特色,抓自己行业的机会,同时呢,要有足够的广阔的视野,去看看别的行业,别的领域是怎么做的,看看历史上别人怎么做的,看懂了规律,用自己优势去抓住自己机会才能赢这个时代呢,千万不要错过。

上期我们介绍了通一千问七 b 模型的微调加部署方式,但在实际使用时,很多开发者还是希望能够结合特定的行业知识来增强模型效果, 这时就需要通过外接知识库让大模型能够返回更精确的结果。那么本期视频我们就来介绍一下如何从魔搭社区 nodebook 中一键实现本地知识库的搭建,从而增强大模型的能力。本次实践需要的所有相关资源都在阿里云点 com 免费试用中心领取。 在魔大世界上找到通一千万七 b chat 模型后,我们点击 notebook 快速开发,注意这里需要选择 gpu 资源。随后我们点击查看 notebook。 进入 notebook 后,我们需要稍等一下,把我们已经准备好的在 github 上开源的基于本地知识库 q a 的视力代码直接拷贝配色到 notebook 中。根据这段 代码你就可以实现本地知识库的搭建以及后续的大模型调用。相关链接也会放在视频简介中,这里我们已经把相关代码准备好了,点击运行即可。 接下来我们将介绍一下代码逻辑。首先我们引用了 dash scope, dash scope 不仅可以调用文本限量生成,还可以调用千文七币 chat j、 l、 m 等大模型进行推理训练。 dash vector 作为限量检索引擎,这里我们对本地知识库的存储引擎进行初始化。 接下来我们需要定义一个锁引数据的生成方法,用于后续逻辑。同时我们还需要定义基于 desktop 的文本项量生成逻辑,这里生成的项量将作为项量引擎 的锁影。最后向量原始文本数据会在这一段写入 dash vector, 从而完成本地知识库锁影的构建。 接下来我们操作一下如何调用知识库。首先我们需要定义一个检索方法,用于召回知识库信息。刚刚我们使用了一个天龙八部的知识库,现在我们检测一下召回效果。问他一个问题,段誉最喜欢的是谁? 可以看到这已经返回了段誉到底喜欢谁的一些相关信息,到这里知识部调影就完成了。 最后我们测验一下知识股锻炼前后大模型的生成效果。首先我们需要初始化下大模型,这里我们选用千万七 b chat。 然后我们再定义一个包含知识库信息的提示词模板, ok, 我们来测试一下效果。先问不带知识库的千万七币虚竹的女朋友是谁? ok, 他说无法回答这个问题,没有给出正确的答案。我们也问一下 gbt 四,他说是小龙女和阿紫也不对。最后来试一下包含知识库的模型, 嗯,蒙古回答是正确的,而且可以看到给出了相关的背景信息。再来一个上难度的问题,段誉的亲生父亲是谁? 可以看到千万七币回答的是段正醇。我们再问一下 g p t 四,他的回答也是段正醇,也不对。最后我们看一下包含知识库的效果, 嗯,这次终于对了,是段音庆,效果还不错, ok, 最后我们再问一个比较小众的问题,虚竹的母亲是谁? 可以看到前面 t b 讲的是错误的康敏郡主,我们再看一下 g b 四的回答,杀猪也是错的。我们最后看一下包含技术库的返回, ok, 这里返回是正常的,一二年效果很不错哦。以上就是通一千问七币基于本地知识库问答的操作和演示,其中我们使用了阿里云 dash scope 和 dash vector 的相关产品,链接在视频下方, 这种方法可以让各种行业的知识库与通易千文结合,给出更加精准的答案。相关代码已经在 github 上开源,操作文档也已在线,希望开发者来摩达社区体验。


如果把大模型的调用量当成是聊天消息数量来算,那中国企业一天产生的调用量啊,相当于全人类同时发消息连发几十年。 屏幕前的你啊,今天可能没花钱,但一定花了。 tucker 国际权威研究机构萨利文这两天发布了行业研究报告,中国企业级的大模型,在二零二五年的下半年,日均调用量已经达到了三十七万亿。 tucker, 注意啊,是日均三十七万亿,不是全年哦。 报告还给出了关键的市场结构数据,千份在企业级调用市场的占比是百分之三十二点一,排名第一。也就是说啊,光中国企业每天调用千份模型,就消耗了将近十二万亿 t。 肯,这只是能统计 到的部分。因为报告统计口径啊,主要是基于企业 a p i 调用数据。而现实中呢,大量的企业并不是简单的调用 a p i, 很多汽车公司、互联网公司、制造企业 直接把开原版的千万部署在自己的系统里面,跑业务流程、客服系统、封控系统、内容生产系统、自动决策系统,这些跑在企业内部服务器上的庞大算力啊,并没有被统计进三十七万亿这个数字里。换句话说啊,真实世界里, 千万每天处理的 token, 很 可能远远超过了纸面数字十一点八四万亿。那为什么下半年的掉用量会突然暴涨? 报告里啊,给出了答案,因为企业用 ai 的 方式变了。在前两期视频里啊,我就说过,从去年下半年开始呢, a 准取代 check 成为 ai 应用的主流。过去是啊,人问一句 ai 答一句,现在是人说一句 ai 就 执行完整的任务,企业正在把模型嵌进工作流里,让它自动完成流程, 这就是 a 准工作流。一旦进入这种状态啊,调用逻辑就变成了系统自动触发,然后多人推理工具调用,再推理依次业务请求, token 的 消耗可能直接放大五到十倍。 ai 呢,不再是聊天搭字,而是变成了生产力。看到这里啊,你可能会问了,那为什么这么多企业会把掉用量 集中在少数模型身上呢?莎莉文的报告啊,一针见血,当模型进入生产系统后,企业会更倾向减少供应商的数量来降低维护成本 风险。也就是说啊,企业不再追求模型谁最强,而是更看重稳定性,能不能规模化,能不能长期托管。在这个背景下,企业级的大模型正在快速地向 头部集中报告数据非常的残酷。二零二五年下半年,企业级日军托肯消耗排名前三的模型分别是前份、豆包、 deepsea、 三加,加起来啊,已经超过了七成, 而在上半年的这三家的总占比还不到一半,其中千万的增速最猛,份额直接翻了将近一倍。现在的趋势就是啊,强者欲强,赢家通吃。企业新增的钓用量正在优先流向头部模型。报告里也解释了这种马太效应,当钓用规模进入万亿级后, 企业新增流量更倾向于选择已经验证过稳定性的厂商。这也是为什么阿里云能够拿第一。因为大规模的生产环境需要的是极致的算力调度,云设施的深度集成以及兜底的交付能力。一旦企业的 核心业务跑通了,为了稳定性,他就不会轻易更换底层模型,这种工程化的壁垒啊,才是最高的护城河。现在的 ai 竞争,已经不是模型大战了,企业真正需要的是一整套 可以长期运行的 ai 基础设施体系,包括算力、平台、模型、服务、部署能力、工具链、行业解决方案等等, 谁能把这些环节打通,谁就更容易承接规模级的调用。而这正是阿里云最早押注的路线,从底层的算力基础设施,到模型研发,再到开发工具链和行业解决方案,它走的是一条完整的闭环路 附近。今天的大模型竞争,不是参数的竞争,而是 token 战争。而 token 的 背后啊,比拼的是谁拥有更稳固的 ai 基础设施体系。
