粉丝301获赞1.8万

在 adelas 平台能力的加持下,阿加西在行业率先落地了基于阿姆的高性价比芯片模组工业质量方案。 今天我将跟大家分享与之相关的几件事情。第一件事。关于二母芯片。在过往常见的工业质检方案中,大部分是部署在叉八六社会上。这是因为叉八六的发展较早,运行稳定,性能强悍。当然,他也伴随着高工号的问题。 二木芯片作为嵌入式芯片,常用于手机、平板等移动端边缘设备。随着技术的发展,二木兼顾了高性能、低功耗的优势,现在也逐渐向更丰富的智能化场景发展,在 vr、 汽车比店上都能见到他的踪迹。 那么为什么奥西片没有在工业质检行业大规模使用呢?这是因为叉八六较早的应用在了工业质检上,已经形成了一个比较稳固、 成熟的行业解决方案。另外,工业质检对流水线的工作效率有极高的要求,他需要产线保持七成二十四小时不间断的运行。随着近几年阿木芯片算利的不断提升,现在的阿木芯片算率已经能够足够满足工业质检场景的性能要求了。 阿木芯片高性能、低工耗的优势能够为工业检测方案带来降本增效的效果。但是由于阿木的易购,芯片开发难度大,研发成本高,以及在叉八六的上面的方案不能够完美前移至阿木上,导致了阿木芯片没有大规模应用在工业检测领域。 艾德拉自力解决这些行业痛点问题。我们让阿木落地在工业质检成为一种高效、简单、快速、性价比高的可选项。第二件事是关于检测芯片模组。随着日常生活智慧化进程的加速,市场对芯片的需求乘井喷式的增长,小到手机死未起、共享充电宝,大到智能家电、 汽车、城市安防,源源不断的需求催生着芯片模组质检需求的猛增。总结芯片模组质检的共性,我们发现他通常包括划痕、脏物包出 oc 而识别等等,但他们通常缺陷小、样本少,很难通过传统的质检方案去调餐试错,满足复杂的检测要求。 而且不同于用途的芯片模组,大小规格并不统一,这又增加了换产的门槛。能满足各类芯片质检需求的同时,还能够快速切换产线,兼顾极强的适应性,并保证极高的准确度。这是一件很不容易的事情。 因此,阿加西开发了 aico rater 平台 aicolator, 致力于高效快速的完成模型训练和调优,实现了 ai 业务场景解决方案快速落地的同时,还能够降低总体的成本投入。只需要什么样的样本, aicoreta 即可完成模型检测训练, 无需重举海量的缺陷样本,也无需反复调餐测试,最快就能够在三天内进行规模验证。目前,经过我们测试,从二十乘二十毫米到六十乘六十毫米的范围模组均可进行检测,只需要经过同样简单的流程就可以进行验证。落地产线 在高性能、低功耗的按摩边缘计算社会、 ait laks 强大的平台能力和 aaqa 的共同配合下,基于阿姆的高性价比芯片模组检测方案得以成规模的落地。当然,这仅仅只是一个开始,还有很多问题我们以后会慢慢解答。

识别非法潜入,第一时间将告警信息推送给业主,实现这个家庭安防 ai 功能,一部安卓手机就能搞定。随着大众安全意识的日益提升, ai 家庭安防愈发受到业界重视。数据显示,在中国智能家居产品用户需求度情况中, 家庭安防最为突出,需求度高达百分之九十二。而听上去颇为繁琐的家庭安防系统, 随着 ai 技术的普及,尤其是有了 idax 这种降低 ai 应用开发和部署门槛的平台之后,大家用身边常见的安卓手机也能尝试进行 ai 应用的开发和部署。 要将家庭安防系统中的功能实现起来其实并不难,最近就有开发者分享了自己通过使用安装了 adax 手机实现的一款家庭安防告警 ai 应用,该方案实现了识别非法潜入并告知业主的 ai 功能,他是怎么做 做到的?揭秘环节,全程高能判断家里是否有人潜入。需要实现人体检测功能,这里要用到常用于目标检测的优乐威五及配套环境。下载优乐威五整套代码和目标检测模型。在电脑上安装 patcham 和空的环境 有前面的整套代码后,按照 requirements 文件中的说明,下载一系列依赖库,然后修改模型文件的路径,再使用 ulov 五的推理代码进行推理测试,就能看到效果。图片, 由于优乐威五推理时使用的是 coco 数据级训练的模型,包含多种类别,能够检测出画面中的人体和车辆。而此次要做的是家庭安防告警系统,主要检测的是人体,所以需要修改检测代码,过滤非人体类别的判断,让结果只输出人体检测。通过 pc 端 能够实现业务逻辑的整个流程,但在实际使用时,要运行在手机等小型移动设备上,才便于对屋内情况进行监控。一般情况下,要让项目运行在安卓手机上,需要 c 加加、 java、 python 等多名工程师经过多次封装测试才能发布。 而使用 adlux 可以将 pc 端编写的拍森代码直接迁移至手机、平板等安卓设备上,大幅缩减了开发部署的时间周期和人力成本。想要获得速度更快、流畅度更高的运行效果, 还可以将训练好的 pt 模型转换成 tifflef 模型。在 pc 端打开优乐威五代码,找到对应文件,修改一个配置函数及模型格式, 即可得到转换后的 ulo tipline 模型。现在把经过训练测试转换的人体检测模型通过 adox 部署到安卓手机上。首先使用 cloud ip 在电脑上访问 adox, 通, 通过云端桌面访问文件夹,将打包好的模型文件上传到 home 目录下,再打开 it gold, 安装好所需的依赖库,最后选择文件直接进行代码,即可看到检测效果,此时电脑端和手机端都能实时看到检测画面。 当然,在实际使用中,家庭安防告警项目还需要进行数据存储和信息反馈,在有人进入时发出警告,并实时推送给业主,显示入侵者的照片。具体方法大家可以在 adlas 开发者社区查看。 好了,这就是本期视频内容,如果你也有 ai 创意小儿分享,同样欢迎在 adlux 开发者社区发帖, 作品通过认证审核即可成为 adx 认证开发者,免费领取七 t 算力的边缘计算设备,还有更多认证开发者专属权益,欢迎到 adx 公众号了解,期待在 adx 的帮助下,每个人都能轻松落地 ai 应用。下期见!

哈喽,大家好,我是大四哥,这期节目呢,我们学到了我们一个新的一个概念, 呃是我们的一个神经裤的一个 pose 的一个模块,这个模块呢是我们的一个 festival 公司开发的,说实在我们学习这个拍摄呢,的确有点像是学习人家封装好的一个函数, 的确算不上一门真正的一个编程语言,充其量呢也是一个使用人家电用人家函数的一个语言而已,但是呢正是因为这样, 所以说我们的一个学习难度会比其他语言更要加强。 安装的话,我们的话是也是可以使用 pip 来安装,但是拍损这门语言的话,他依赖的酷非常的多,所以说呢 只适合开发人员来使用吧,这门语言现在我们看一下他的一个安装呢就是在我们的一个坑的安装, 但是呢我们的一个系统是我们的 aid 系统里面呢是可以选择安装的, 我们点开看一下吧,虽然我们也也不经常接受 这种教程。现在我们打开我们的一个应用中心,现在我们看一下我们的一个连理石,安卓 之前我有说过我们的这个 app 呢是第一红红的,也就是说这个安卓的一个 app 是可以显示出来的,但是现在我们是在远程上,所以说显示不出本地的一个 app, 但是离你死呢是可以正常显示的,这里呢有我们想要的一个全景网络的一个安装包,现在我们点进去看一下, 点覆盖安装呢,就是可以重新覆盖了,但是呢拍审的这些库呢,安装的也是非常的久,所以说学习拍审的话就是耗时间非常长, 其他语言的话的语法就比较严谨一点,呃,拍审的语法呢,只是调用这个模块就能够使用, 现在本节课我们验证一下我们安装情况就结束了吧, 因为这个安装呢也是比较简单了,现在我们要验证这个模块安装了没有, 现在我们导入我们的 toc h, 连这个吊用这个模块都要这么久,所以说 现在 们查看一下他这个版本。 好,现在我们看到这个版本呢,就是,呃,别人可能是在个上改变的一个版版本,也就是说都是人家集成好的一个版本了,一点九一点零的一个版本。 好,本期节目呢先暂时讲到这里,后面我们再详细的教大家看一下这个神经模块到底是怎么来使用的。

一分钟学会 mysql 修改字母集,进入 alex, 进入 mysql, 使用命令查看所有的数据库。使用命令查看数据库的库选项,可以看见字母集为 gpk, 这里修改数据库自扶级为 atf 八。再次查看数据库自扶级,发现已经从 g、 b, k 更改为 atf 八。



都二零二六年了,如果你的简历上还只写着会调用 api, 那 面试官可能看都不看就划过去了。现在的企业真正缺的是什么?是能把开源大模型拿回来,在本地练成懂公司业务的自有专家的人。 为什么要学微调呢?试想一下,你把你公司十年的客服对话记录喂给模型,他就能从一个机械回复的机器人,变成一个懂退换货政策,甚至懂销售话术的金牌销冠。 或者把厚厚的法律条纹和医疗指南喂进去,它瞬间就能够变成垂直行业助手。最关键的是,这一切都在本地发生,数据不出门,隐私更安全。今天我就带你们用 deepseek r 一 一点五 b 这个性价比之王,零成本跑通这套价值百万的流程。 本期视频我们不整虚的,直接实战。第一部分,我会快速拆解微调的底层逻辑,搞懂 lora, 让你在面试的时候有资本和面试官谈笑风生。第二部分是环境准备。 我知道很多人入门 ai 最大的门槛不是代码,而是配环境,报错报到怀疑人生。所以这次我直接帮大家选好了一个免费的云端环境,不用担心没有显卡,只要你能上网,哪怕是清保本也能跟着我一起跑。 第三部分,我会手把手一行一行代码,带着大家跑业务流程,亲手把模型给练出来。最后我们来聊一聊目前 ai 行业里面微调这个技能的价值, 以及未来我们还能用这套方法玩出什么花样。毕竟工具是死的,思路是活的嘛。我希望大家通过这个视频,不仅学会操作,更能打开思路。我们马上开始第一部分,先来搞懂什么是微调,什么是 laro, 只有搞懂了这两个概念啊,你后面跑代码的时候才知道为什么我们要调整那些参数,遇到报错才知道怎么修。首先,什么是微调? find tony, 我们可以把现在的 deepsea 二一想象成一个刚毕业的全能本科生,他读了很多书,历史、物理、编程什么都懂一点。但是如果他不经过培训就直接去你公司上班,不管是做医疗客服还是写法律文书,肯定是懵的, 因为他不懂你们公司的具体业务,也不懂那个行业的黑化。那我们要做的事就是送他去读个在职研究生,我们把他关进小黑屋里面,给他塞一堆你们行业的专业教材,也就是你的数据集, 让他从一个什么都懂一点的通才变成一个懂业务的专才。这点在现在的职场里面非常重要。现在外面面试 ai 岗位,谁都会调 a p i, 那 个没有什么壁垒。但是如果你能说我能把通用的 r e 模型微调成一个懂我们公司十年累积下来的私有数据的专家模型, 这在老板眼里的价值是完全不一样的。但是如果要把这个本科生彻底的回炉重造,也就是全量微调, 成本太高了,你得把它的参数全部都重新洗一遍。这在以前没几个几十万的显卡集群根本跑不动,这也是以前很多个人开发者被劝退的原因。但是我们今天要用的是 luo, luo 的 逻辑特别鸡贼哦,是特别聪明,他不碰模型原来的大脑,也就是冻结原模型, 而是给模型贴上便利贴。这就好比教科书,太厚了,我们印不起新了,那就在每页旁边贴一张便利贴,就是 adapter 设备器参数,把新的知识写在便利贴上。考试的时候呢,模型既看原来的书,也看一下旁边的便利贴,效果是不一样的。 我们为什么要讲这个呢?因为 lora, 这是我们今天能零成本做这件事的核心秘密。 lora 有 以下三大优势,一、存显存。因为只练便利贴,显存占用只有原来的三分之一,甚至更少, 这就是为什么待会我们用免费的云端显卡也能够跑得起来。第二点是它速度快,别人练模型要一周, 你可能呢?喝杯咖啡的功夫,几十分钟就练好了,而且它效果还好。二零二六年的今天, low 尔的效果已在很多的垂直领域,已经完全不输给全量微调了。所以我们今天的方法论就是不动大手术,只做微整形,用最小的代价换来专属的效果。 好了,那么原理大家心里都有个底了。接下来我们要搞定零成本的环境,我们不花几千块去做服务器,也不用把你那个打游戏的笔记本风扇转的跟个直升机起飞一样。我们直接用 modscop 提供的免费云端算力。首先去 modscop 官网登录, 找到我的 notebook, 这里我们要选择 gpu 环境,看这个配置,二十四 g 显存,这个配置呢,跑我们 deepsea 二一的 low 微调完全是绰绰有余了。镜像这里我们就不用纠结,选官方默认的 padot 镜像就可以了,它里面该有的驱动都给你装好了,主打一个开箱即用。 启动之后呢,我们先把它启动一下,好等待一下。 ok, 我 们的环境已经启动好了,然后点击查看 notebook, 我 们就进入了一个类似于网页代码编辑器的界面了。注意,大家要注意啊, 超过一小时没有操作,会自动关闭,所以大家跑训练的时候,偶尔要在网页上去点一点,或者是写一个自动刷新的脚本, 千万不要什么你辛苦跑了一下午,回头一看,连接断了,模型权重全没了,那时候你真的会想砸你的键盘的。 当然了,如果你是用的本地服务器,或者是你习惯用 club, alt、 dl 这样的,其他的平台不想用摩达也没有关系。那下面这个依赖安装就是专门为你们准备的, 因为离开了这个摩搭的,嗯,官方镜像,你的环境大概率是少了一些东西的。想跑通整个代码呢,你必须把这几个核心库给安装好。首先有 transmos, 这是大模型的基础设施,然后 pft 这是关,这是专门管 lora 适配器参数的库。 最后一个是,嗯,能帮你做量化,帮你省险存。大家在自己的机器上去安装这些依赖的时候,就给,就用我给你的这一个命令,我特地还加了国内的气象员,三选一就可以了, 因为你在本地环境安装这些大包,如果不换原的话,那个下载速度啊,能够让你怀疑人生。加了这个呢,基本上就是秒下。 好了,那到这里,我们的环境准备好了,接下来最硬核的一部分来了,开始我们的代码实战。不过呢,先别急着写代码,先养成一个好习惯,要整理一下我们的工作区,在左边的文件浏览器右键新建一个文件夹,名字就叫 sft。 二一, 待会我们训练出来的模型文件,还有日制数据集,我们都一股脑的往里面丢,如果不整理的话,那跑完这一堆文件是乱糟糟的,你想去复盘都找不到东西。 然后我们进入到这个文件夹里面,新建一个文件,这里你有两个选择,你可以写点 py 的 脚本文件,也可以用 jupiter notebook, 那 我们演示的话呢,就用嗯, jupiter, 因为点 py 文件一跑就是从头跑到尾, 中间哪里出错了,你得全部重来。而 jupiter 可以 一块一块的运行加载模型,这一块没有问题了,那我们就再跑下一块,融赋率极高,非常适合我们边学边练。 为了不浪费大家时间啊,代码我都已经提前写好并且测试过了,接下来我会用我们程序员最喜欢的 cv 大 法一段一段的考过来,但是每一段的关键代码我都会告诉大家他是干什么的,保证你能够听懂。大家可以来跟着我的节奏,我们把这个像搭积木一样的训练流程给搭起来。 对了,视频里面用到的所有脚本代码,清洗好的数据集,还有刚才我提到的环境配置文件,为了防备大家手敲出错, 我都已经给大家准备好了,打包好了,大家可以直接打开就能够看到完整的工程文件。这样课后你在自己电脑上或者是在云端动手操作的时候啊,直接上传上去就能够跑起来,如打一个,省心啊,主要是希望能够帮助大家在学 习大模型微调的路上少走一些弯路。好了,那么资料在手心里,不慌了。接下来我们回到摩达社区,进入这个模型库,我们可以找到 deepsea 二一, 你会看到很多个版本,但是为了演示流畅呢,我们就选择这个,嗯, deep seek r e distill 千万一点。五 b, 这个模型虽然很小,但是麻雀虽小,五脏俱全, r e 该有的推理能力它都有。点进去之后呢,这里有一个下载模型,我们找到 s d k 下载,这里有一段 python 代码,我们把它给复制下来,回到 notebook 直接粘贴一下,然后运行。 因为我之前跑过系统有缓存,所以那瞬间就加载好了,那如果你是第一次运行,进度条可能会走一会,需要耐心等待一下, 那么现在我们一切准备就绪了,所以我们来到我们代码的第一步,加载模型并测试。大家可以看这段代码这里定义的 model name 这个路径,这是我们在摩达平台上 delete 二一存放的位置。那么这模型到底存在哪里了呢?我们看一下这个文件夹里面有没有没有,对吧? 怎么办呢?到底在哪里?好,这就涉及到 linux 系统的一个小知识了,我们可以打开一个终端来找一下,在根目录下直接输入 ls, 你 是看不到我们刚才下载的模型的,只有这两个文件夹,一个是我之前创建好的,一个是我刚刚跟大家一起创建好的。 因为摩达社区默认把模型存在缓存里面了,所以我们需要输入 l s 杠 a, 有 没有看到这个带点的 catch 文件夹?在 linux 里面带点的都是隐藏目录,模型就藏在这个里面了。接下来我们就来玩一个剥洋葱的游戏,一层一层点进去,我们输入 cd 点 catch, 就进入到这个缓存了,然后我们再查看,好进入 model scope, 继续再下一层 models, 看到没有?有 deep seek ai, ok, 那 我们再进入这个文件夹, 好看到这个 deep seek r e distale, 千问一点五了吗?这个文件夹就是我们刚才下载下来的,这时候我们只需要在这里输入一个 p w d 命令,把这一长串的绝对路径复制下来,然后我们回到我们的 python 代码里面,把这个 model name 的 变量替换成我们 复制的那一个路径就可以了,我把它给粘贴一下,大家注意看,这一行代码末尾有一个 qq 的, 这是什么意思呢?它的意思非常直白,就是把模型从内存搬运到显存里面去。如果你是跟着我刚才的步骤,用的是魔搭的免费 gpu 环境,或者你自己有 n 卡, 那这句话千万不要动,必须留着,因为只有进了 gpu, 我 们后面的微调才能够跑起来。但是如果你在本地用的是没有独显的轻薄本或者是 mac 电脑,你就把这个 toku 的 给去掉删掉就行了,让它在你的 cpu 上慢慢跑。 不过呢,说实话啊,我们今天做的是微调训练,纯靠 cpu 跑的话,那个速度可能会非常非常慢,所以强烈建议大家还是要去蹭一下免费的云端的 gpu 啊。那我们就简单的来运行一下。 ok, 模型加载成功,接下来我们得给它准备教材,所以我们的第二步是制作数据集。我这里准备了五十条关于唱歌技巧的问答。数据其实都是大模型生成的,那可以看一下这个格式,一个问题 crmp, 一个回答 completion。 然后我们需要把这些原始数据转换成 json 的 格式,因为这是目前微调最通用的标准格式,也就是一行一个 json 对 象,干净利落。我先把代码给复制过去,然后呢,把这个括号里面内容替换成我们的数据集就可以了,先把它给弄过来再说吧, 因为这一根代码很简单,我就不给大家解释了啊。虽然在实际的大项目里面,我们通常会读取外部的文件,但是因为我们今天只有五十条演示,数据量非非常非常少,所以呢,直接写在代码里面反而更直观。我们就不搞那些复杂的文件读取了,也把它运行一下, 很快就完成了。接下来我们第三步,我们需要拆分数据集,要把它分成训练级和测试级。这就好比我们上学的时候,一般考试啊,老师会把百分之九十的题目拿来做平时的练习,也就是训练级剩下百分之十呢,作为期末考试,老师要藏起来,这是测试级, 如果模型把考试题都背过了,那他就不是真懂,是死记硬背了。所以这一步虽然简单,但是必须要分,我们同样也把它跑一跑, ok, 数据集总数量是五十条数据,然后呢,训练集是四十五条,测试集是五条,所以我们训练数据的准备工作是完成了,数据分好了,但是模型它看不懂英文,看不懂中文,它只认识数字,所以我们需要一个翻译官,也就是 tokenizer。 这里呢,我们定义了个函数,主要是做两件事情,第一件是拼接,要把问题和答案拼成一句话好。第二件事是进行截断,也就是 tokenize 进行分词。大家可以看到这个 max nurse 等于五百一十二,这就像是给数据定了一个统一的身高,太长的要切掉, 太短的我们要把它给补齐。 padding, padding 就是 补补齐嘛,这样数据才能够整整齐齐地喂给 gpu 吃,同样的 运行一下。好啦,看到分词完成,说明我们的训练级和验证级都已经经过托克奈斯处理了。接下来重点来了,为什么我们能够用免费的显卡跑动这个大模型呢?就全靠接下来这两步了。首先是量化, 这一段代码就是直接把模型的体积压缩了一半以上,它采用了八倍的量化,虽然精度会牺牲一点点,但是显存占用直接打骨折 好了,量化也搞定了。接下来就是我们今天零成本实战的灵魂 loo 设置,这一步呢,其实就是在定义我们刚才说的那个便利贴到底要多大,要贴在哪里,大家可以看。这一段代码其实也比较简单,这里有几个关键的参数,我给大家讲一下。 首先这个 r 等于八,这个 r 叫做质,简单来说,它决定了你的便利贴能写多少字。值越大,模型能学到的新东西就越复杂,但显存占用也就越高, 数值越小呢,训练就越快。所以我们今天这种轻量级的微调设置为八或者是十六,性价比是最高的,完全够用了。 r laurel alpha, 这是一个缩放因子啊,我们通常把它设置为 r 的 两倍,它就像是一个音量旋钮 来控制微调,对圆模型的影响有多大?最后一个参数呢,就是告诉程序,我们是在训练一个语言,模型是用来做对话生成的,不是搞画图的。 设置好了以后呢,我们来运行一下,大家可以看一下它输出的这一行字,这个百分比它只有百分之零点零六一三,也就是说只有大约万分之六的参数被训练了,其他的 其余的百分之九十九点九四的参数是冻结的。这就是 law 的 魅力。我们不需要训练几十亿个参数,只需要训练这极小的一部分。 就好比你装修房子,不需要把整栋楼拆了重盖,只需要把壁纸换一下就行了。好, logo 的 参数设置完成了,我们最后一步终于要开始训练了。这里我们定义了个 training arguments, 这是我们的训练控制台。参数虽然很多,但是只有几个是你必须要懂的,否则容易翻车。 首先是这个 outputder, 我 们待会儿训练完的成果啊,会保存在这个文件夹里面,可以自定义一下。然后这个 import 等于十,这是训练轮次,因为我们数据少,只有五十条,所以我们要让模型多读几遍,读个十遍差不多了。如果是几万条数据呢?通常跑一到三轮就够了。 接下来这个参数, batch size 等于四,这个叫做显存杀手,意思是每次塞进四条数据给显卡,如果你待会运行的时候报错,提示显存溢出了,就可以把这个数字设置为二或者是一, 然后这个,嗯,这个 f p 十六等于处,意思就是开启半精度训练,这个开关一定要开哦,因为你开了之后显存占用直接砍半,训练速度翻倍,不影响效果。好了,我们一切设置完毕,把它给粘贴过去,运行一下, ok, 开始训练了,这个不用管哦,这个不影响我们的训练, 它进度条开始动起来了,我们会发现这个损失值确实降低了,所以模型确实学进去了,它已经学会了我们给他那些唱歌技巧。好了,那么训练显示训练完成了,那训练出来这些东西呢?来跟我看一下左边的文件区, 记得我们刚才那个 output door 吗?就是输出的文件夹,找到这个叫做 fine turned models 这个文件夹,点进去,你会看到这个 checkpoint 文件夹, 然后里面有几个关键文件,首先是 adapter model, 点 save tensence, 这就是我们训练出来的便利贴。 然后这个 adapter config 点 jason, 这是它的说明书。以后我们要使用微调后的这个模型的话,只需要把这两个小文件加载到原来的 dsp 二 e 上,它就瞬间变成你的专属专家了。 好,这就是我们今天的战利品,大家一定要确保能在这里面找到它。所以恭喜大家,如果你跟着我一步一步跑到这里,那你现在手头上已经有了一个嗯,懂业务、懂私有知识的 deepsea 二一模型雏形了。简单回顾一下刚才这二十分钟,其实我们就干了一件事情,就是白嫖。 首先是环境白嫖,我们用的是摩达社区的免费算力。接着是技术,白嫖,我们用了 lora 技术,只训练了百分之零点零六几的参数,就撬动了整个大模型,然后结果也到手了。你现在已经跑通了从数据清洗到模型微调的全流程, 这套流程就是现在 ai 工程师的基本功。最后呢,我想多啰嗦几句。今天我们演示的是教模型唱歌技巧,这只是一个小 demo, 这个技能真正的价值在于举一反三。你把数据换成你们公司的产品手册,那他就是金牌客服。你把数据换成法律条纹,那他就变成法律顾问。 然后你把数据换成 python 代码库,它就成了你的编程助手。在二零二六年,会掉 a p i 的 人会很多很多,但是能根据业务需求亲手把模型微调好的人,才是行业里真正稀缺的。我希望这期视频不仅是让你学会了几行代码,更是帮你打开了这扇门。