粉丝171.5万获赞347.9万

今天介绍如何在旧手机上安装和运行人工智能的大语言模型。我在一款二零一九年发布的红米 k 三十上都可以运行,阿里的通一千问,你的手机肯定行, 还不赶紧试试。首先手机上安装 traumats, 这是一个安卓系统的命令型 app, 提供了一个在手机上运行的 linus 环境。然后安装包 pro distro, 他提供了 debian, 无不图等多种 limits 环境,安装完成之后,运行 the login, debian 就可以进入 debian 环境了。在这里我们运行 ome, 一个简单快捷的大 语言模型。本地运行框架 olama, 提供了类似 doctor 的架构和命令。 olama serve, 类似于创建一个 doctor demon。 下面开始运行大语言模型, 这里运行的是快一点八倍。这是一个阿里发布的国产大语言模型,初次运行这个模型需要先下载, 终于下载完成了,欧拉玛默认提供命令行。为了节省资源,我们先在命令行梦里聊天。先问个好,问问通一千万有什么能力 千万,回答速度很快,回答内容实在太长,这里做了加速。 再问问大模型是否知道自己的名字。大模型思考了片刻, 是 太长了,我们就不看了。再问一个问题, 成吉思汗的成就,回答的内容质量还可以。 你也赶紧在自己手机上安装一个,试一试这个随身携带,不需联网,没有额外费用的本地大语言模型吧。

想转行大模型,但一搜教程全是从零实现, transform 学三个月连个能跑的项目都没有。其实企业里百分之九十的岗位根本不需要你懂反向传播,而是要你会部署、会调优、会让 ai 干实事 期视频我会带你完整的走完大模型落地的实战路径。第一部分,我们讲私有化部署的必要性,为什么数据不出内网是底线呢?如何低成本搭建私有环境?第二部分呢,是重点讲提示工程与 r g。 第三部分,深入 ag 的 开发。第四部分,讲清楚微调和蒸馏这几项技术就是现在企业招人最看重的核心能力战。最后我们来聊一聊未来的岗位和人才发展。转行大模型需要哪些新能力?项目怎么做?面试怎么答?整套内容零基础能跟有经验能深挖,学完可以直接复刻成项目, 写进简历,拿下 offer。 今天我们要聊的第一个问题,可能是很多企业朋友最常问的,我能不能直接用通一千问 deepsafe 这些工友大模型来做业务?答案很明确,在核心的业务场景里基本不能。为什么?我们先来看一个真实情况,你可能有遇到过让 ai 写一份报销流程说明 写的挺流畅,漏掉你们公司最关键的一条,必须付上出差的审批单,或者让他生成一份合同条款,结果用了标准模板,却没有体现你们法务部特别强调的风险兜底条款。并不是 ai 笨,而是因为他是一个通用大模型,他的知识是来自公开互联网的 训练,目标是服务大众,而不是为你这家公司量身定制的,换句话说,他知道全世界平均怎么报销,但是不知道你们公司怎么报销。所以通用大模型最大的问题 不是能力不够强,而是不懂你。他没法理解你的行业术语,内部流程、合规红线,更不会知道哪些信息能说,哪些绝对不能碰。这时候很多人会想, 那我能不能一边用公网模型,一边小心一点,别输敏感数据呢?听起来合理,但现实很骨感,因为一旦你真的把业务交给了 ai 处理, 很难保证数据完全干净。比如你要 ai 总结会议叫,里面可能就无意提到了客户的名称、项目预算,甚至没有公开的合作意向,这些全部都会被传到外部的服务器。在金融、医疗、制造、政务这些强监管行业啊,这直接踩了合规的红线, 轻则审批不过,重则面临法律风险。所以,企业用大模型的第一道门槛不是技术,而是安全,必须把模型请进家门,也就是私有云,甚至本地机房里, 确保数据不出内网,全程自己掌控。而且私有化不只是为了锁住数据,它还是后续所有定制化开发的基础。你想做 r g 注入知识, 想编排智能体,想微调模型,这些操作的前提都是你得有一个自己能改能调能控的模型实力。所以你看,私有化并不是炫技,也不是为了显得多么高大上,它是企业真正用上大模型的入场券。那具体怎么落地呢?是不是买几块 gpu 就 行?其实没那么简单。 我们在实际项目中发现,百分之九十的私有化失败,都不是模型本身的问题,而是环境没有配对,比如库达版本不对, 驱动和固件不匹配,甚至 tognizer 在 高弊发下出现锁死,一个小细节没注意,整个系统就跑不起来了。所以呢,我就总结了一个四步落地法,帮你稳稳走完每一步。第一步是需求切片,别一上来就说我要部署大模型, 先问清楚并发用户有多少响应,延迟能接受多久,是七乘二十四小时运行,还是只在工作时间用,把这些量化出来,后面选型才有依据。第二步是模型选型不是越大越好,像 七 b 的 模型可能就够客服问答用,但如果是复杂文档分析,可能需要十四 b 甚至七十 b, 同时要考虑显存。七十 b 的 模型呢?光加载就要一百四十 gb 显存, 你得算清楚硬件账。第三步是容器化封装,用 cube 加 herm 把模型打包成容器,做到一次封装倒出部署,这样开发、测试、生产环境才能够一致,避免在我机器上能跑的尴尬。第四步是监控告警,上线不是终点。你要监控这三件事, 认知有没有异常,显存有没有爆,每天生成了多少 token, 这三者结合起来才能判断系统是否健康。记住一句话,私有化部署,七分靠规划,三分靠算力。 但是光把模型请进家门还不够,现在就像是一个刚入职的新员工,聪明听话,但是对公司的业务一无所知,那怎么办?难道要马上花大价钱去微调去训练? 其实不用,在大多数场景下,我们完全可以用两种零训练的方法,快速让他上手干活,这就是提示工程和 r g, 我 们就来看一下怎么用这两种又清亮又高效的方式,让大模型秒懂你的业务。先说提示工程,很多人一听工程两个字 觉得很高深,其实它本质就是教 ai 怎么说话。你想啊,同一个问题,你问的模糊, ai 就 答的笼统,你问的具体,它就能够给你精准答案。而提示工程就是把这种问法系统化、结构化。举例子, 如果你直接问,帮我写个合同, ai 可能给你一个通用模板。但是如果你像这样子去写提示词,你是因为精通某某行业,比如说制造业的。 嗯,自身法务,请根据以下三点要求生成一份设备采购合同,一必须包含我司标准的条款库, abc 还有什么付款方式?分三期,手机百分三十,验收后百分六十,质保期满 百分之十。输出格式为 word 兼容的 markdown 格式,这时候 ai 输出的内容应该就立刻贴近你的真实需求了。在这里呢,我总结了四个在实战中最实用的技巧。第一个是角色扮演,让它假装是你们公司的法务、销售或客服,语气和立场就对了。第二个方法呢,是视力驱动,给它一个标准答案样例, 他就会自动模仿风格。第三个是思维链,引导,他一步一步推理,比如先分析风险,再给出建议。第四个技巧是格式模板,就像这样子让他输出 markdown 格式啦。还有 jason 格式表格,或者是带编号的段落, 方便后续系统来处理。当然,提示词不是写一次就完事的,好多提示词是磨出来的,你要像调试代码一样,不断测试调整对比效果, 有时候改一个词,准确率就能够提升一大截。不过也要说实话,提示工程也有它的天花板,当你的知识特别复杂,或者需要引用大量的内部文档的时候,光靠提示词就不够了。这时候呢,我们就需要请出第二项技术, r g。 r g 它的全称是 retrieval augmented generation 解锁增强生成。听起来很技术,那你可以把它理解成给大模型配一个外挂大脑,这个外挂就是你们公司的知识库, 比如产品手册、制度文件、历史合同,还有一些的文档等等。 r g 是 怎么工作的呢?简单说,可以分为五步,先把文档喂进去,像 pdf、 word、 网页都可以,系统会自动转成纯文本,然后切成小段,也就是切片嘛,按段落或者是句子来切分,方便后续精准查找。接着呢,把这些小片段通过一个叫 embedded 的 技术 转成向量,存到向量数据库里。用户提问的时候先解锁,比如问差旅报销标准是什么,系统就会找出最相关的几段政策原文,最后拼在一起,把问题加解锁到的知识一起交给大模型,让它生成最终答案。这样做最大的好处是什么? 模型不需要重新训练,就能够知道你们公司最新的规定了。而且 r g 有 三个特别实在的优势,第一是更新快,今天更新了一份制度文件,只要重新处理一遍,明天 ai 就 能够用上。第二是成本低,几乎不花训练费用,适合预算有限的团队。第三是可追溯, ai 回答完了,你还能够看到他参考的哪一条文档?这对审计和纠错特别重要?当然, r g 也不是万能的, 如果任务需要深度推理,比如说根据近三年的财报预测明年的现金流,那光靠检测就不够了,这时候可能得上智能体,甚至微调模型。但对我们大多数日常场景来说,查制度啦,写报告啦,还有回答客户的问题, 提示词加 r r g, 就 已经能够解决百分之八十的需求了。说到这里,你可能会想,那如果我想让 ai 不 止回答问题,而是主动帮我完成一连串的操作呢?比如查数据、发邮件、调系统。那就涉及到下一个关键能力了, ai 的 智能题。你可以把智能题想象成一个 ai 办事员,不只是回答问题,而 是能够主动调用工具执行任务,完成闭环。举个真实的场景,某公司内部有一个 ai 助手,员工说帮我订一个午餐,预算在五十以内。这个 ai 不 会只回一句推荐你去某某餐厅,而是先调用餐饮 a p i, 找出符合你口味和价格的选项,再调用地图服务,看 哪家离得近,当前等位有多久,然后判断是步行打车还是公交还是骑车更合适。最后,他直接在美团下单,并且发短信通知你,已经为你预定了什么什么什么, 预计十二点半出餐。整个过程,用户只说了一句话, ai 却完成了四步操作。这已经不是问答了,而是自动化办事。而这一切的核心,就是把企业的系统能力变成 ai 能调用的工具。不管是 hr 系统、 erp、 crm, 还是日历、支付、审批流, 只要封装成 api, ai 就 能够用。那具体怎么开发这样一个智能体呢?是不是很复杂呀?其实拆开来看,就四个关键步骤。第一步是业务抽象,别一上来就响全自动。 先问一下,这些任务能拆成哪些小动作?比如订餐可以拆成,嗯,查地图啊,预定支付,发通知。每个任务就是一个原子任务。第二步是工具封装,把每一个动作背后的服务封装成标准的 a p i, 这样 a i。 就 知道哦,我需要调用哪个工具来完成哪一步。第三步是决策提示,光有工具还不够, a i。 得知道什么时候调用哪一个啊,那就靠提示词来引导了。第四步,异常处理,总有意外。 a p i。 超时权限不足,数据错误。 所以你必须设置重试机制,降级方案,比如说转人工,还要记录日制方面排查问题。这里要特别提醒一句, age 的 能力上限取决于你提供的工具链,再聪明的 ai, 如果连日历都调不了,它也定不了会议室。 所以,别只盯着模型,先把企业内部的系统打通才是关键。当然了,有些任务呢,一个人是完成不了的,得团队协助。比如一份采购合同,涉及采购、财务、法务三方审核,这时候就需要多个智能体协调工作了。我们可以为每一个角色配一个专属的 agent。 第一个是采购 agent 判断供应商是否在合格,明路里,财务 agent 检查预算是否充足,付款条款付款条款是否合规。 法务 agent 扫描合同有没有高风险条款。他们通过一个消息总线,比如 ready stream 来同步状态,谁审完了就发一个信号,下一个接着上,整个流程跑下来,可能几分钟就能够完成,原本要三天的人工审批,而且这种架构特别灵活,中小企业用轻量的消息队列就能够跑起来。关键是什么呢? 分工明确加通信顺畅,就像你搭积木一样,每个 agent 负责自己最擅长的事情,组合起来就能够处理复杂流程。好了,我们前面讲这些方法,能够解决大部分的企业场景,那你可能会发现, 有些任务怎么调题致辞,怎么加知识库,效果还是差那么一口气。比如让 ai 写一份医疗设备的合规说明书,总是漏掉了关键条款,或者在金融风控场景里面,它对关联交易的判断总是模棱两可, 这个时候光靠外部辅助就不够了,你得对模型本身,你得对模型本身动点手术了。这就是我们接下来要讲的微调与蒸馏。首先得明确一点, 微调不是首选方案,而是最后手段,因为他要花时间、花算力,还要有高质量数据。那什么时候该启动微调呢?我总结了三个量化信号, 一提示词已经长到离谱了,比如说超过八千个 token, 那 不仅拖慢推理速度,还容易让模型注意力分散,反而答不好。第二, r i g 召回效果不行。比如用户问一个问题, 系统就从知乎里面找出 top 五相关段落,结果没一条真正命中的说明模型,根本就看不懂你的业务语言。第三,业务指标卡在瓶颈。 比如合同生成准确率做到百分之八十五就上不去了,但是 sl a 要求百分之九十五,差了这百分之十啊,可能就是用户签不签单的关键,一旦出现了这些信号,就说明通用模型的底子不够用了,必须深度定制。那怎么微调呢? 其实有几种路径,如果你要建一个行业专属大模型,比如医疗大模型、法律大模型,就得做继续训练,为海量的专业余料。但是大多数企业不需要这么重,只需要模型会做几件事, 比如说写报销单、审核同回客服。这时候我们用指令微调 s、 f、 t 就 够了。而为了控制成本,我强烈推荐大家用 logo 这一类高效微调的方法。它只训练一小部分参数, g、 b 的 模型用四块 a 一 百三天就能够跑完,效果却能提升一大截。 所以记住,当提示工程不够,就必须对它进行微调哦。但是微调完又带来了新问题,那就是模型变重了, 推理慢,显存质的多,根本没法部署到高发或者是移动端场景。这时候我们就需要另外一个技术模型,蒸馏 destination, 你 可以把蒸馏想象成师傅带徒弟。大模型是师傅 知识渊博,但是说话慢,也就是推理延迟高,资源消耗大。小模型呢,是学生,也就是徒弟,脑子小但学得快,只要模仿了师傅的思维模式,就能够保留百分之九十的能力,延迟却降低百分之七十。具体怎么做呢? 比如让大模型对一批输入生成软标签,不只是对与错,而是有多对。然后再让小模型去学习这些细腻的判断,它的落地场景特别实在。在银行柜台系统, 每秒要处理上百次查询,必须用轻量模型。在手机端做离线 ai 助手,不能依赖网络,也得靠小模型。所以,蒸馏的核心价值是什么?在效率和效果之间找到最佳平衡点,大象变成兔子,让它跑得更快、更省电。不过,无论是微调还是蒸馏,都不能够一锤子买卖。 真正的企业级 ai 是 一个持续进化的系统。到这里,我们已经走完了企业落地的完整技术链路,从自由化部署到提示工程 r i g agent, 再到微调蒸馏,但最后还有大家最关心的人怎么办? ai 不是 取代人,而是重塑岗位。那么在 ai 时代,企业到底需要什么样的人呢?首先,最核心的新角色叫做大模型应用开发工程师。这不是传统的算法工程师,也不是纯业务人员, 而是一个左手技术、右手业务的桥梁型人才。在技术上,他懂得哪个模型设什么任务,七 b 还是十 b, 怎么写高效的提示词,减少幻觉, r g 怎么搭 agent 怎么编排,甚至能做 l o v 条模型蒸馏。但是光会这些还不够, 他还得理解业务能够把法务要合同严谨翻译成必须包含条款 a、 b、 c。 知道财务对审批流程的合格要求, 能够算清楚 ai 投入能不能带来 roi。 换句话来说,那既要在技术群里面讨论扩大版本,也要在业务会上解释为什么这个 ai 方案能够省三个人力。很多企业现在招不到这样的人,所以其实可以先从内部培养,比如让熟悉系统的 java 工程师或是数据分析师 参加一个三周的 l m 训练营,快速上手。当然,大模型落地不是靠一个人扛的,而是一个新岗位生态。比如模型数据展示,专门负责清洗标注高质量数据, 你可以把它想象成 ai 的 老师,教模型学什么。 room 的 测试工程师,系统性的测试各种提示词,找出最优的组合,相当于 ai 的 质检员 agent 的 体验。设计师, 设计用户一句话就能够完成多步操作的交互流程。模型安全审计师,防止 ai 泄露敏感信息,输出违规内容。 l m 成本优化师, 通过模型压缩调度策略,让 ai 既聪明又省钱。这些岗位以前都不存在,但现在越来越重要,所以建议企业设立一个横向的 ai 能力中心,统一管理这些人才, 而不是让每个业务部门自己去零散摸索,否则很容易被挖走,重复建设,或者是方向跑偏。那具体怎么建这一支队伍呢?我们建议分三步走,第一步,内部转岗,选一批熟悉公司系统的技术骨干,比如三周左右的时间集中培训 l m 基础加实战项目, 一个月内就能够组建一支能打的核心小队,成本低,见效快。第二步是校园招聘,和高校去合作开设大模型微调 r i g 实战这类课题, 提前锁定优秀应届生,他们可能经验是少了点,但是可塑性强,能够长期投入。第三步是外部合作,和云厂商开源社区共建模型蒸馏实验室,共享 g p u 资源,一起攻克技术难点,尤其对中小企业来说,这比自己买卡更划算。这一套三步走战略,能够帮你系统性的解决人才缺口问题, 也让 cio 和 hrd 有 清晰的年度规划抓手。那么这期视频的内容就到这里了,最后我来简单总结一下,企业大模型落地不是一蹴而就的换引擎,而是一个螺旋上升的过程。第一阶段,通用模型能力平均,适合试水验证需求,但是不够精准。 第二阶段,专属模型,通过 r g 注入支持 agent 的 编排流程微调提升精度,让它更懂你。第三阶段,极简模型,用蒸馏压缩体积,实现边缘部署、秒级响应,让 ai 无处不在。而贯穿始终的是三个目标,安全、精准、效率。 记住,提示工程 r g agent 微调从来不是非此即彼的选择,而是先跑通闭环,再逐级优化。

一个很恶心但是能让你六周吃透大模型的方法,你要做的第一件事就是把网上那些杂乱无章的课程丢掉,现在网上好多课程居然从机器学习讲起,这都多少年前的老古董了。你要是真的想学,就按我这三步走。第一阶段要了解大模型原理和提示词 工程,为的就是让你对大模型有个最基础的概念。第二阶段深入剖析 r a g a 静态安全。第三阶段就是把你前面两个阶段的知识结合起来,外加上微调和私有化部署这两项新技能去做项目实战。这里我推荐做医疗场景、智能客服、股票分析、数字人这些内容,只要你能按照我给你的规划坚持走完这六周, 再小白也能秒变大神。最后,我也把自己整理好的学习路线和配套的视频教程准备好了,留下学习双手奉上。

当 ai 掀桌时,没人会等你学完 hello world, 接下来给大家介绍一条拿下 ai 大 模型最正确的学习顺序。首先,不要去网上找那些零零碎碎的教程,很难学懂,你可以根据我的这个学习路线定制一个学习计划, 只要三个月即可抓住大模型的风口,升职掌心不在话下。第二个月重点打牢基础,掌握 python 神经网络 transform, 掌握大模型应用开发的三板斧。 第三个月重点攻克大模型微调和私有化部署,再练几个实战项目,这时候你就可以把 ai 技术接入真实业务场景,升职掌心还不是手到擒来?为了让大家更直观的看到这个路线,我把完整的大模型学习路线整理出来了,还有配套视频教程,实战项目留下学习即可暴走!
