智谱GLM-5封神!20 万字文档拆解国产最强开源大模型🔥 #GLM5 #智谱AI #国产大模型 #AI大模型 #大模型技术 一、GLM-5 核心定位与性能 1. 智谱最新发布 GLM-5,7440 亿参数混合专家 MoE 模型 2. 底层:MoE + Slime 异步强化学习架构 3. 上下文窗口:200K,可输入整本书 / 完整代码仓库 4. 权威榜单:全球第 4,开源模型第 1 5. 编码能力:开源 SOTA,超越 Gemini 3 Pro,逼近 Claude Opus 4.5 6. 支持:多模态、超长文本、复杂工程、AI Agent 开发 二、文档与学习内容 1. 提供20 万字深度文档(Cursor 编写,11 章) 2. 提供10 万字技术文档(OpenCode + Minimax 生成) 3. 内容覆盖:行业格局、模型演进、架构原理、训练、部署、应用、未来趋势 三、GLM-5 技术架构与创新 (一)模型架构 1. Transformer + MoE 混合专家(256 个专家) 2. 借鉴 Deepseek 稀疏机制,自研优化 3. 稀疏注意力、多 Token 预测、旋转位置编码 (二)训练创新 1. Slime 异步强化学习,替代传统 RLHF,训练效率大幅提升 2. 训练数据、流程、分布式部署全面优化 3. 部署成本降低 50%,节省数千万美元训练资源 (三)核心能力 1. 长文本理解与超长上下文 2. 工程级代码生成(从辅助编码→完整项目) 3. 多模态融合(视觉编码器) 4. 动态路由、专家调度、事件总线 (四)源码与工程 1. 架构清晰,可复现、可学习 2. 展示了国产大模型在软件与算法层面的领先性 四、总结与行业意义 1. GLM-5 是国产大模型里程碑,打破外部限制 2. 核心竞争力:架构设计 + 工程化 + 训练效率 3. 未来方向:AGI、工程级自主编程、多模态复杂任务
00:00 / 03:27
连播
清屏
智能
倍速
点赞40
用人工智能重新定义企业开源节流 社长发现,很多人对于人工智能本地部署的理解是完全错误的。 先问大家一个问题,什么是开源节流?很多企业老板可能会回答说,开源就是找更多的业务回来,节流就是减少不必要的开支。如果这个回答放在2024年,那是一点毛病都没有的,但是在2025年的今天,社长想说,对于企业开源节流的定义好像要换一换了。 从开年到现在,从律所,到工矿企业,到金融单位、质检企业、生产厂家,我们这个团队已经做了七八个人工智能本地部署的业务了。这些业务的主要应用场景是什么呢?社长这两天花了点时间总结了一下,我们发现主要的应用场景大部分是这样的,那就是这些找到我们的企业,在日常业务中,都需要大量的重复人工劳动力去完成繁琐的数据工作,比如说从大量的文件中去找一些信息,然后完成数据的分析和数据的汇总。这些活需要占用大量人工,让大多数企业都很头疼。当然,在deepseek出来之前呢,如果你很有钱,也可以用纯写代码的方式开发一套知识库系统,去代替人工来完成这些繁琐数据的整理工作,但是开发成本就高的离谱了。在两年多以前,就有一家总部在南京河西的建工类上市公司找到我们,让我们为他开发一套企业知识库系统,在这两年里这家公司投入了超过200万的开发成本,才开发出一套比较好用的知识库。但是在后来者deepseek面前,它又是一副没见过世面的样子,眼神清澈的像个大学生了。所以你看,原来需要200多万成本可以实现的功能,在人工智能出来之后,只需要200万的零头就可以实现了。这就是科技进步给我们带来的震撼,也给中小型企业带来了比肩大公司生产力效率的机会。#deepseek #人工智能 #本地部署 #电脑diy #ai
00:00 / 06:18
连播
清屏
智能
倍速
点赞782
00:00 / 10:54
连播
清屏
智能
倍速
点赞93
00:00 / 00:50
连播
清屏
智能
倍速
点赞0
00:00 / 06:12
连播
清屏
智能
倍速
点赞38
00:00 / 04:26
连播
清屏
智能
倍速
点赞0
00:00 / 01:24
连播
清屏
智能
倍速
点赞4