粉丝181获赞1518

都二零二六年了,如果你的简历上还只写着会调用 api, 那 面试官可能看都不看就划过去了。现在的企业真正缺的是什么?是能把开源大模型拿回来,在本地练成懂公司业务的自有专家的人。 为什么要学微调呢?试想一下,你把你公司十年的客服对话记录喂给模型,他就能从一个机械回复的机器人,变成一个懂退换货政策,甚至懂销售话术的金牌销冠。 或者把厚厚的法律条纹和医疗指南喂进去,它瞬间就能够变成垂直行业助手。最关键的是,这一切都在本地发生,数据不出门,隐私更安全。今天我就带你们用 deepseek r 一 一点五 b 这个性价比之王,零成本跑通这套价值百万的流程。 本期视频我们不整虚的,直接实战。第一部分,我会快速拆解微调的底层逻辑,搞懂 lora, 让你在面试的时候有资本和面试官谈笑风生。第二部分是环境准备。 我知道很多人入门 ai 最大的门槛不是代码,而是配环境,报错报到怀疑人生。所以这次我直接帮大家选好了一个免费的云端环境,不用担心没有显卡,只要你能上网,哪怕是清保本也能跟着我一起跑。 第三部分,我会手把手一行一行代码,带着大家跑业务流程,亲手把模型给练出来。最后我们来聊一聊目前 ai 行业里面微调这个技能的价值, 以及未来我们还能用这套方法玩出什么花样。毕竟工具是死的,思路是活的嘛。我希望大家通过这个视频,不仅学会操作,更能打开思路。我们马上开始第一部分,先来搞懂什么是微调,什么是 laro, 只有搞懂了这两个概念啊,你后面跑代码的时候才知道为什么我们要调整那些参数,遇到报错才知道怎么修。首先,什么是微调? find tony, 我们可以把现在的 deepsea 二一想象成一个刚毕业的全能本科生,他读了很多书,历史、物理、编程什么都懂一点。但是如果他不经过培训就直接去你公司上班,不管是做医疗客服还是写法律文书,肯定是懵的, 因为他不懂你们公司的具体业务,也不懂那个行业的黑化。那我们要做的事就是送他去读个在职研究生,我们把他关进小黑屋里面,给他塞一堆你们行业的专业教材,也就是你的数据集, 让他从一个什么都懂一点的通才变成一个懂业务的专才。这点在现在的职场里面非常重要。现在外面面试 ai 岗位,谁都会调 a p i, 那 个没有什么壁垒。但是如果你能说我能把通用的 r e 模型微调成一个懂我们公司十年累积下来的私有数据的专家模型, 这在老板眼里的价值是完全不一样的。但是如果要把这个本科生彻底的回炉重造,也就是全量微调, 成本太高了,你得把它的参数全部都重新洗一遍。这在以前没几个几十万的显卡集群根本跑不动,这也是以前很多个人开发者被劝退的原因。但是我们今天要用的是 luo, luo 的 逻辑特别鸡贼哦,是特别聪明,他不碰模型原来的大脑,也就是冻结原模型, 而是给模型贴上便利贴。这就好比教科书,太厚了,我们印不起新了,那就在每页旁边贴一张便利贴,就是 adapter 设备器参数,把新的知识写在便利贴上。考试的时候呢,模型既看原来的书,也看一下旁边的便利贴,效果是不一样的。 我们为什么要讲这个呢?因为 lora, 这是我们今天能零成本做这件事的核心秘密。 lora 有 以下三大优势,一、存显存。因为只练便利贴,显存占用只有原来的三分之一,甚至更少, 这就是为什么待会我们用免费的云端显卡也能够跑得起来。第二点是它速度快,别人练模型要一周, 你可能呢?喝杯咖啡的功夫,几十分钟就练好了,而且它效果还好。二零二六年的今天, low 尔的效果已在很多的垂直领域,已经完全不输给全量微调了。所以我们今天的方法论就是不动大手术,只做微整形,用最小的代价换来专属的效果。 好了,那么原理大家心里都有个底了。接下来我们要搞定零成本的环境,我们不花几千块去做服务器,也不用把你那个打游戏的笔记本风扇转的跟个直升机起飞一样。我们直接用 modscop 提供的免费云端算力。首先去 modscop 官网登录, 找到我的 notebook, 这里我们要选择 gpu 环境,看这个配置,二十四 g 显存,这个配置呢,跑我们 deepsea 二一的 low 微调完全是绰绰有余了。镜像这里我们就不用纠结,选官方默认的 padot 镜像就可以了,它里面该有的驱动都给你装好了,主打一个开箱即用。 启动之后呢,我们先把它启动一下,好等待一下。 ok, 我 们的环境已经启动好了,然后点击查看 notebook, 我 们就进入了一个类似于网页代码编辑器的界面了。注意,大家要注意啊, 超过一小时没有操作,会自动关闭,所以大家跑训练的时候,偶尔要在网页上去点一点,或者是写一个自动刷新的脚本, 千万不要什么你辛苦跑了一下午,回头一看,连接断了,模型权重全没了,那时候你真的会想砸你的键盘的。 当然了,如果你是用的本地服务器,或者是你习惯用 club, alt、 dl 这样的,其他的平台不想用摩达也没有关系。那下面这个依赖安装就是专门为你们准备的, 因为离开了这个摩搭的,嗯,官方镜像,你的环境大概率是少了一些东西的。想跑通整个代码呢,你必须把这几个核心库给安装好。首先有 transmos, 这是大模型的基础设施,然后 pft 这是关,这是专门管 lora 适配器参数的库。 最后一个是,嗯,能帮你做量化,帮你省险存。大家在自己的机器上去安装这些依赖的时候,就给,就用我给你的这一个命令,我特地还加了国内的气象员,三选一就可以了, 因为你在本地环境安装这些大包,如果不换原的话,那个下载速度啊,能够让你怀疑人生。加了这个呢,基本上就是秒下。 好了,那到这里,我们的环境准备好了,接下来最硬核的一部分来了,开始我们的代码实战。不过呢,先别急着写代码,先养成一个好习惯,要整理一下我们的工作区,在左边的文件浏览器右键新建一个文件夹,名字就叫 sft。 二一, 待会我们训练出来的模型文件,还有日制数据集,我们都一股脑的往里面丢,如果不整理的话,那跑完这一堆文件是乱糟糟的,你想去复盘都找不到东西。 然后我们进入到这个文件夹里面,新建一个文件,这里你有两个选择,你可以写点 py 的 脚本文件,也可以用 jupiter notebook, 那 我们演示的话呢,就用嗯, jupiter, 因为点 py 文件一跑就是从头跑到尾, 中间哪里出错了,你得全部重来。而 jupiter 可以 一块一块的运行加载模型,这一块没有问题了,那我们就再跑下一块,融赋率极高,非常适合我们边学边练。 为了不浪费大家时间啊,代码我都已经提前写好并且测试过了,接下来我会用我们程序员最喜欢的 cv 大 法一段一段的考过来,但是每一段的关键代码我都会告诉大家他是干什么的,保证你能够听懂。大家可以来跟着我的节奏,我们把这个像搭积木一样的训练流程给搭起来。 对了,视频里面用到的所有脚本代码,清洗好的数据集,还有刚才我提到的环境配置文件,为了防备大家手敲出错, 我都已经给大家准备好了,打包好了,大家可以直接打开就能够看到完整的工程文件。这样课后你在自己电脑上或者是在云端动手操作的时候啊,直接上传上去就能够跑起来,如打一个,省心啊,主要是希望能够帮助大家在学 习大模型微调的路上少走一些弯路。好了,那么资料在手心里,不慌了。接下来我们回到摩达社区,进入这个模型库,我们可以找到 deepsea 二一, 你会看到很多个版本,但是为了演示流畅呢,我们就选择这个,嗯, deep seek r e distill 千万一点。五 b, 这个模型虽然很小,但是麻雀虽小,五脏俱全, r e 该有的推理能力它都有。点进去之后呢,这里有一个下载模型,我们找到 s d k 下载,这里有一段 python 代码,我们把它给复制下来,回到 notebook 直接粘贴一下,然后运行。 因为我之前跑过系统有缓存,所以那瞬间就加载好了,那如果你是第一次运行,进度条可能会走一会,需要耐心等待一下, 那么现在我们一切准备就绪了,所以我们来到我们代码的第一步,加载模型并测试。大家可以看这段代码这里定义的 model name 这个路径,这是我们在摩达平台上 delete 二一存放的位置。那么这模型到底存在哪里了呢?我们看一下这个文件夹里面有没有没有,对吧? 怎么办呢?到底在哪里?好,这就涉及到 linux 系统的一个小知识了,我们可以打开一个终端来找一下,在根目录下直接输入 ls, 你 是看不到我们刚才下载的模型的,只有这两个文件夹,一个是我之前创建好的,一个是我刚刚跟大家一起创建好的。 因为摩达社区默认把模型存在缓存里面了,所以我们需要输入 l s 杠 a, 有 没有看到这个带点的 catch 文件夹?在 linux 里面带点的都是隐藏目录,模型就藏在这个里面了。接下来我们就来玩一个剥洋葱的游戏,一层一层点进去,我们输入 cd 点 catch, 就进入到这个缓存了,然后我们再查看,好进入 model scope, 继续再下一层 models, 看到没有?有 deep seek ai, ok, 那 我们再进入这个文件夹, 好看到这个 deep seek r e distale, 千问一点五了吗?这个文件夹就是我们刚才下载下来的,这时候我们只需要在这里输入一个 p w d 命令,把这一长串的绝对路径复制下来,然后我们回到我们的 python 代码里面,把这个 model name 的 变量替换成我们 复制的那一个路径就可以了,我把它给粘贴一下,大家注意看,这一行代码末尾有一个 qq 的, 这是什么意思呢?它的意思非常直白,就是把模型从内存搬运到显存里面去。如果你是跟着我刚才的步骤,用的是魔搭的免费 gpu 环境,或者你自己有 n 卡, 那这句话千万不要动,必须留着,因为只有进了 gpu, 我 们后面的微调才能够跑起来。但是如果你在本地用的是没有独显的轻薄本或者是 mac 电脑,你就把这个 toku 的 给去掉删掉就行了,让它在你的 cpu 上慢慢跑。 不过呢,说实话啊,我们今天做的是微调训练,纯靠 cpu 跑的话,那个速度可能会非常非常慢,所以强烈建议大家还是要去蹭一下免费的云端的 gpu 啊。那我们就简单的来运行一下。 ok, 模型加载成功,接下来我们得给它准备教材,所以我们的第二步是制作数据集。我这里准备了五十条关于唱歌技巧的问答。数据其实都是大模型生成的,那可以看一下这个格式,一个问题 crmp, 一个回答 completion。 然后我们需要把这些原始数据转换成 json 的 格式,因为这是目前微调最通用的标准格式,也就是一行一个 json 对 象,干净利落。我先把代码给复制过去,然后呢,把这个括号里面内容替换成我们的数据集就可以了,先把它给弄过来再说吧, 因为这一根代码很简单,我就不给大家解释了啊。虽然在实际的大项目里面,我们通常会读取外部的文件,但是因为我们今天只有五十条演示,数据量非非常非常少,所以呢,直接写在代码里面反而更直观。我们就不搞那些复杂的文件读取了,也把它运行一下, 很快就完成了。接下来我们第三步,我们需要拆分数据集,要把它分成训练级和测试级。这就好比我们上学的时候,一般考试啊,老师会把百分之九十的题目拿来做平时的练习,也就是训练级剩下百分之十呢,作为期末考试,老师要藏起来,这是测试级, 如果模型把考试题都背过了,那他就不是真懂,是死记硬背了。所以这一步虽然简单,但是必须要分,我们同样也把它跑一跑, ok, 数据集总数量是五十条数据,然后呢,训练集是四十五条,测试集是五条,所以我们训练数据的准备工作是完成了,数据分好了,但是模型它看不懂英文,看不懂中文,它只认识数字,所以我们需要一个翻译官,也就是 tokenizer。 这里呢,我们定义了个函数,主要是做两件事情,第一件是拼接,要把问题和答案拼成一句话好。第二件事是进行截断,也就是 tokenize 进行分词。大家可以看到这个 max nurse 等于五百一十二,这就像是给数据定了一个统一的身高,太长的要切掉, 太短的我们要把它给补齐。 padding, padding 就是 补补齐嘛,这样数据才能够整整齐齐地喂给 gpu 吃,同样的 运行一下。好啦,看到分词完成,说明我们的训练级和验证级都已经经过托克奈斯处理了。接下来重点来了,为什么我们能够用免费的显卡跑动这个大模型呢?就全靠接下来这两步了。首先是量化, 这一段代码就是直接把模型的体积压缩了一半以上,它采用了八倍的量化,虽然精度会牺牲一点点,但是显存占用直接打骨折 好了,量化也搞定了。接下来就是我们今天零成本实战的灵魂 loo 设置,这一步呢,其实就是在定义我们刚才说的那个便利贴到底要多大,要贴在哪里,大家可以看。这一段代码其实也比较简单,这里有几个关键的参数,我给大家讲一下。 首先这个 r 等于八,这个 r 叫做质,简单来说,它决定了你的便利贴能写多少字。值越大,模型能学到的新东西就越复杂,但显存占用也就越高, 数值越小呢,训练就越快。所以我们今天这种轻量级的微调设置为八或者是十六,性价比是最高的,完全够用了。 r laurel alpha, 这是一个缩放因子啊,我们通常把它设置为 r 的 两倍,它就像是一个音量旋钮 来控制微调,对圆模型的影响有多大?最后一个参数呢,就是告诉程序,我们是在训练一个语言,模型是用来做对话生成的,不是搞画图的。 设置好了以后呢,我们来运行一下,大家可以看一下它输出的这一行字,这个百分比它只有百分之零点零六一三,也就是说只有大约万分之六的参数被训练了,其他的 其余的百分之九十九点九四的参数是冻结的。这就是 law 的 魅力。我们不需要训练几十亿个参数,只需要训练这极小的一部分。 就好比你装修房子,不需要把整栋楼拆了重盖,只需要把壁纸换一下就行了。好, logo 的 参数设置完成了,我们最后一步终于要开始训练了。这里我们定义了个 training arguments, 这是我们的训练控制台。参数虽然很多,但是只有几个是你必须要懂的,否则容易翻车。 首先是这个 outputder, 我 们待会儿训练完的成果啊,会保存在这个文件夹里面,可以自定义一下。然后这个 import 等于十,这是训练轮次,因为我们数据少,只有五十条,所以我们要让模型多读几遍,读个十遍差不多了。如果是几万条数据呢?通常跑一到三轮就够了。 接下来这个参数, batch size 等于四,这个叫做显存杀手,意思是每次塞进四条数据给显卡,如果你待会运行的时候报错,提示显存溢出了,就可以把这个数字设置为二或者是一, 然后这个,嗯,这个 f p 十六等于处,意思就是开启半精度训练,这个开关一定要开哦,因为你开了之后显存占用直接砍半,训练速度翻倍,不影响效果。好了,我们一切设置完毕,把它给粘贴过去,运行一下, ok, 开始训练了,这个不用管哦,这个不影响我们的训练, 它进度条开始动起来了,我们会发现这个损失值确实降低了,所以模型确实学进去了,它已经学会了我们给他那些唱歌技巧。好了,那么训练显示训练完成了,那训练出来这些东西呢?来跟我看一下左边的文件区, 记得我们刚才那个 output door 吗?就是输出的文件夹,找到这个叫做 fine turned models 这个文件夹,点进去,你会看到这个 checkpoint 文件夹, 然后里面有几个关键文件,首先是 adapter model, 点 save tensence, 这就是我们训练出来的便利贴。 然后这个 adapter config 点 jason, 这是它的说明书。以后我们要使用微调后的这个模型的话,只需要把这两个小文件加载到原来的 dsp 二 e 上,它就瞬间变成你的专属专家了。 好,这就是我们今天的战利品,大家一定要确保能在这里面找到它。所以恭喜大家,如果你跟着我一步一步跑到这里,那你现在手头上已经有了一个嗯,懂业务、懂私有知识的 deepsea 二一模型雏形了。简单回顾一下刚才这二十分钟,其实我们就干了一件事情,就是白嫖。 首先是环境白嫖,我们用的是摩达社区的免费算力。接着是技术,白嫖,我们用了 lora 技术,只训练了百分之零点零六几的参数,就撬动了整个大模型,然后结果也到手了。你现在已经跑通了从数据清洗到模型微调的全流程, 这套流程就是现在 ai 工程师的基本功。最后呢,我想多啰嗦几句。今天我们演示的是教模型唱歌技巧,这只是一个小 demo, 这个技能真正的价值在于举一反三。你把数据换成你们公司的产品手册,那他就是金牌客服。你把数据换成法律条纹,那他就变成法律顾问。 然后你把数据换成 python 代码库,它就成了你的编程助手。在二零二六年,会掉 a p i 的 人会很多很多,但是能根据业务需求亲手把模型微调好的人,才是行业里真正稀缺的。我希望这期视频不仅是让你学会了几行代码,更是帮你打开了这扇门。


在主界面点击中西医诊断,选择用户后点击中医四诊,进入测量页面。拍摄前请确保周围环境光线充足,且就诊人员处于素颜状态。根据提示点击拍摄舌诊照片, 采集完成后点击面诊,将脸部对准摄像头采集面部特征等采集完毕后点击下一步,待图片上传后, 拿出脉诊仪,按压仪器开关键,此时仪器亮灯情况为当前电量状态。脉诊仪在首次激活后将与当前设备进行绑定。注意,为保证个人健康、数据安全与专属性,脉诊仪激活后将不支持退换货。 请您在激活前仔细检查设备外观及功能是否完好。蓝牙连接成功后进入麦枕,将开机键朝上佩戴在左手手腕并放置在麦枕垫上后点击开始测量过程中不讲话、不移动,左手测量完成后进行右手测量,右手则需要将开机键朝下佩戴。 双手测量完成后点击下一步,待数据分析完成后,双击关闭麦诊仪。进入问诊界面,根据自身状况选择相关症状,如无对应症状,点击无上述症状提交后等待系统生成报告,报告生成后 向下滑动可查看分析结果与健康建议。如您想查看过往的检测报告,点击右上角诊断记录或返回主界面的健康报告即可查看。注意,推荐测量时间为上午九点到十一点, 尽量不要在饭后、运动后及情绪激动时测量,测量前需确保麦疹仪电量充足。

说起这个大模型啊,现在铺天盖地都是大模型,大家有没有注意一个现象,今年的大模型特别多,大兴中医的七环大道为什么发布的?二零二三年,前年的七月份我们自己发布的,前年的十二月份我们跟这个华为又做了联合方,为什么?今年春节的时候,这不是一个太远的一款大模型, 很多人就把这不是个包装在引在后面,前面加了一个门,然后呢?这个出来的方子,你直接把这个提示词提给提出来,是一模一样。大兴中医是这样子, 因为什么?因为我们这么多年积累了大量的中医垂直领域的数据,所以我们什么,我们是找来去做模型,真的去训练它,通过微调,通过基于人类专家的反馈,通过强化学习,我们把它这个这个训练出来。那很多小程序说,哎呀,我们跟华为一起发布大模型的,你自己说的对吧? 华为有没有说呢?大家到到我们这边来讲,我们可以看到我们的照片,二零二三年年底,我们跟华为联合发布,是有照片,华为有这个领导,有专家在这边,华为还发了一个证书呢。啊?这证明这个你是跟华为一起训练,这是我们讲这个,讲讲这个软件,我们再说硬件。

中医、西医、中西结合等全科都可以用的诊所管理系统,挂号、门诊执行收费追溯码管理、药品进销存、经营统计分析、医保未见对接、会员充值打折、营销卡像划扣、检验 gsp、 药品养护马上放心对接都在这!接诊,点击右上角快速接诊。 如果这个人来就诊过,直接搜名字,点选基本姓习,右边跳出他在诊所就诊的所有历史记录, 点开一项当时的病历,姓习,开了什么方子,花了多少钱,一目了然。还可以一键复制历史处方、历史病例等,非常便捷。 患者主诉系统内置模板,支持鼠标点选,还能自己加模板,现病史也可以自己加常用描述,既往史、过敏史都做了一些常见情况的模板。支持点选 中医上的望闻问切,如体型、精神面貌、舌苔、脉搏、呼吸、 血压等等都能鼠标点选。写好病历,可点击 ai 辅助模型 deep seek 进行分析。此处病历格式设置的是中医 ai, 就是 基于中医在分析。 如果医生认可 ai 辅助的结果,可点击蓝绿色字体一键应用。 系统还有医保提示,用量可作参考。系统还有智能审方,如中医十八反十九位提醒,此处用甘草、旱海藻做个示范。 系统还支持保存自己的模板,更有自带的三千多种经典方剂和临床方剂,若医生觉得不错,可直接选择使用。 完成接诊前支持预览费用金额不合适支持调价,非常灵活。 系统还支持打印各种类型的单据,如处方病例、诊断证明、收费小票、收费清单等等格式,支持自己调整。

看到一个单月四十多万粉的养生账号,内容就是 ai, 制作非常简单,受众呢就是中老年群体啊,,仔细拆解呢,会发现这类账号后续想象空间是非常大的。。今天我分享一下这种内容应该如何制作。。即墨 ai 想象图片生成描述养生画面的提示词。生成就可以得到四张图片,,选择一张喜欢的图片,生成视频,描述提示词,视频三点零模型。, 还可以选择视频的时长和比例生成,就能快速得到我想要的视频了。。如果不会表达,也不用担心,把我的需求告诉这个灵感向导 a 助手一分钟就可以帮我快速生成识别的画面提示词,,极大的提高创作的效率。。

人员三位一体的闭环管理体系,确保中医处方的安全性、合法性与有效,既符合国家互联网医疗监管要求,又传承中医辨症施治精髓。具体措施如下,一、 一、合法资质保障源头合规。所有诊疗行为依照国家批准的互联网医院平台,具备医疗机构职业许可证,处方仅由注册在平台的中医职业医师开据,严禁 ai 直接开方,严格遵循互联网诊疗监管细则、事刑处方管理办法等法规。 二、电子签名与身份认证防冒用可追溯一、师端未开据,处方需通过人脸识别加数字证书双重认证,电子签名经 c a 机构合法认证,具有法律效力。要师端调剂前需对处方进行二次审核,确认剂量。配伍禁忌,患者信息无误, 要是电子签名同步存正,实现谁开方、谁审方、谁配药,全程留痕。系统自动保存,操作日制,满足电子病历应用规范六年以上存储要求。 三、 ai 辅助风控智能拦截风险。在医生开方过程中, ai 系统实时介入十八版十九位认身禁忌,超剂量用药自动预警。 结合患者年龄、体重、肝肾功能、既往病史,如有提示风险,对高频使用偏方验方进行循证等级标注,如经验方或现 x x 正形医生可查看 ai 建议,但最终决策权在一失,确保人机血统以医为主。 四、处方内容安全,一人一方,杜绝套方,坚持辩论论治,拒绝秒开方模板方。处方必须包含明确诊断中医正型加西医病名无适用君臣佐使组方逻辑说明,系统强制填写用药疗程、监服法禁忌提示, 支持中药饮片与配方颗粒两种形式均来自 g n p 认证药企批次可溯源。五、药师审核加患者知情双保险机制, 所有处方必须经职业药师审核后方可调配。患者端收到处方时同步获取药物组成与功效说明 可能不良反应及应对措施,如有不适立即停用并联系医师。提示,建利用药随访机制,七十二小时内回访服药反应纳入健康档案。六、持续监测与改进接入国家药品不良反应监测系统,定期内部处方点评, 每月抽查百分之五优化高风险用药行为。凝老中医团队定期复合 ai 模型推荐逻辑,确保传承不走样。南派仁医的处方安全等于合法平台认证, 以示 ai 封控药师、法官、患者知情全程追溯,既守住医疗安全底线,又让千年中医智慧在数字时代安全、可信、可及的服务大众。这一模式已通过多地未央中医药发展的实践样板。

朋友们,你是否想过,传统中医也能插上人工智能的翅膀,变得更高效、更精准?今天要跟您分享的就是这样一个科技赋能中医的新突破。近期,由上海立祥科技公司自主研发的中医大模型智能辅助治疗系统在多家医疗机构试点应用, 引起了广泛关注。他到底能做什么?简单说,他能在整个治疗过程中辅助医生,尤其是基层医生,看的更准,效率更高。那么, ai 具体如何辅助中医呢?系统主要做了三件事,第一,智能问诊,向一位细心的助手 通过模拟医患对话,快速全面的帮医生收集关键病情信息。第二,智能辨症,利用海量医案数据和知识图谱,为医生分析病情、 判断正形提供有力的参考建议,帮助年轻医生缩小判断范围。第三,智能开方,结合名老中医的经验库,为患者生成个性化的方剂,推荐并提示用药安全,让一人一方更具可操作性。从传统经验到数据驱动,上海立祥的这次探索 为我们展示了中医现代化的一条可行路径,坚持做。然而正确的是用技术创新为医患双方赋能,这正是科技企业在这个时代的重要担当。好的,以上就是关于中医智能辅助诊疗新进展的分享,科技让古老智慧焕发新生,值得我们共同期待。