今天 ai 圈神仙打架最重磅的消息,谷歌开源了 em 四最高三十一 b 参数版本,直接支持看图和听音,加上二十五万六千的上下文窗口和原声放声 calling 支持。 如果你在做 r a g 或者文档,理解,它就是目前最能打的开源基座之一,赶紧去测阿里。这次的路线选择很有意思, 它们避开了通用大模型的正面互卷,发布了 qn 三点六 plus, 这是一个专门为 ai agent 场景彻底优化的编程模型,不管你是写 ai 开发辅助工具,还是做 agent 的 底层架构,这条专精路线的产品必看。 cloud 的 a p i 更新了单次输出终于放宽到了三十万, token 以后生成长文本,不用再痛苦的切块分段了。另外要注意,旧版 sonnet 和 hico 三将在四月中下旬集中退役,一旦过期,原有的接口都又会直接瘫痪。 本地跑大模型的玩家有了新硬件选项, amd 刚刚搞了个免费开源的本地服务器,叫 lemonade, 以前跑本地大家首选奥拉马,但他基本只吃 gpu 算力。 amd 这个新东西最大的亮点是把 npu 也榨干用起来了。 用 a 卡或者关注本地推力效率的人,这绝对是一个极佳的替代方案。生态方面, mister 动作非常密集, 他们不仅发布了开源语音合成 voxel 和 agent 开发工具,还拉上 nvidia 成立了 neemo 创联盟。这个组合的目标非常明确,就是通过大厂联手来加速开放模型生态的落地。数据方面,字节跳动的豆包日军 token 流量已经突破了一百二十万亿, 这是一个非常夸张的量级,意味着字节在 ai 基础设施上的投入已经形成了规模效应,在这个调用量下,后来者基本没办法在成本上跟他竞争了。 国内多模态也在加速,智普发布了 g o m v turbo, 核心卖点就是一眼看图,直接写代码。与此同时,快手发布了生成式推荐系统,蚂蚁也开源了 agent 安全插件, 国内大厂的产品发布节奏明显在变快。最后推荐几个神仙开源工具,录屏 demo 试试免费无水印的 open screen, mac 玩家记得升级欧莱曼 m l x 提速享讯机器人可以关注 o r c a lab。 另外, clock flair 也有个案例非常夸张,他们用 ai 只花了一个周末就复刻了 next day, 并跑进生产环境, ai 的 实际生产能力已经不需要再怀疑了。
粉丝1.2万获赞6.0万


今天给大家带来手机本地部署大模型,无需网络支持 ios, 安卓无需特殊网络环境。当然了,今天部署的是谷歌最新发布的模型,小模型的性能大家都懂得,娃娃可以正当生产力,还需要等待发展一段时间,和电脑的本地部署是一个道理。 那么我们先进入 ios 的 教程其实非常非常简单。首先先进 app store 下载如图的应用 google ai edge gallery, 安装好之后,我们直接打开进入 ai 对 话, 会发现我们首次运行的时候会让你下载模型,因为我手上的这台设备是 iphone 十五 plus, 因此我选择下载这个折中的它推荐的二点五 g 的 模型, 等待它下载完成之后,我们可以和它对话看看。这个时候我进入飞行模式,把网络给关掉,它是完全本机运行的,会发现我们已经可以和它对话了,只不过在运行的过程中,它可能有点微微发热。当然了,小模型的智商就是这样,和它进行一些简单的对话是可以的。 那么接下来我们进入安卓的部分,然后我拿来做演示的这台手机是荣耀八零二, 在国产的安卓机上,我们有两种安装方式,第一是通过 apk, 也就是安装包进行下载,第二种方式就是你需要一些手段,对吧?上网的手段,然后进谷歌商店里进行下载,下载好打开之后和 ios 里的使用是一样的,我们首次进入的时候,点击下载模型,同样还是这个二点五 g 的, 然后就可以和他进行对话,我们可以问两个问题来看看效果,嗯,就比如说我离加油站五百米,我是应该开车去还是走路去看看他怎么回答? 最后我们就会发现没有说必须开车去,对吧?去加油站。所以说小模型的这个智商这一块肯定是和 ap 还远远比不了, 但是这也代表着这给我们一种可能性,随着科技的发展,模型的发展以及手机硬件性能的发展,拥有一台纯本地部署的 ai 助手将成为可能。那我们今天教程就到这里,非常简单,我们下期再见。

谷歌最新开源的大模型 demo four 据说很强,在综合能力上甚至超越了二十倍规模的开源模型。 今天教大家如何快速部署在本地,以及分享一下在 mac mini 上的实际体验感受,具体感受什么样?大家看视频吧。首先打开欧拉玛官网,下载它的应用程序, 打开应用程序,我们看一下他目前支持的一些免费的开源模型,还没有 demo, 所以 我们需要去他的官网再去下载下载到本地。那么这里呢,有很多不同的型号 可以看一下,它有很多不同参数的型号,有满配的,还有一些轻量版的。那因为我这个是 mac mini m 四十六 g 版本,所以我们就选择它系统默认推荐的这个九点六 g 的 好,只需要复制这个指令,然后打开终端运行,它就会自动去下载 这里下载了。那么我们先测试一下, 测试一下他的回复速度,因为是第一次响应,所以速度会有点慢,然后我们打开活动监视器,看一下他占据内存的情况, 这个模型本身就有实际系统走内存差不多也跑满了,这里他已经有回应了,我继续再测试一条, 第二次响应速度要比第一次快很多, 我叫 jam 四,我是一个由谷歌 deepmind 开发的。 ok, 现在我们打开欧了吗?然后去加载一下,这里要重启一下这个程序,然后再看模型选择,里面 最下面就已经有了已经安装好的,现在我们把这个模型对接到本地的小龙虾,只需要复制这个指令,打开终端,在终端里面运行,它就自动会加载好, 这里有不同的模型选择,都是他支持的一些免费的大模型,我们选择 demo 让他去运行。 ok, 这里已经加载好了,测试一下他的响应速度。 这里我是放了八倍速了,说实话,因为实在是太慢了,他平均回复一个问题的速度差不多要两分钟, 非常非常慢。我本来想在这个小龙虾里面测试一下他的执行任务的能力,但是这个速度的话确实没有办法, 但是它有个好处啊,如果你有低血压的话,你就可以用它。我是动物城朱迪警官,你好吗?我过得还好,不错,谢谢。这里我甚至尝试开启快速模式, 但是实际的感受没什么变化,就还是那么慢, 所以只能放弃在这里面做测试了。那么我们还是回到欧乐玛,在这个软件里面测试一下这个模型本来的能力。这里给他放两张图,让他识别一下图先, 一个是标格,一个是周杰伦,看一下他能不能准确的识别。 这里我也是开了倍速的啊,但是这里的速度要比小龙虾里面快很多, 我给他给出的答案是,图二是陈坤,图一是一名中国艺人, 看来这个版本的模型识图能力还是有点差。接下来测试一道经典的陷阱题啊,这个对大模型来讲是一道陷阱题,很多大模型都倒在了这道题上面, 那么他给的建议是走路去,最后测试一下他的复杂推理能力, 这道题是我让 gbt 五点四给我出的一道推理题。 abc 三人中恰好有一人是骗子,永远说假话,另外两人永远说真话。他们各自说了一句话, a 说 b 是 骗子, b 说 c 是 骗子, c 说 a 和 b 至少有一个是骗子, 请问谁是骗子?给出答案,并且给出完整的推理过程。好,他给出的推理过程和答案我跟 gpt 五点四给的标准答案对比了一下,是一样的, 所以它的复杂推理能力还是可以的。 ok, 总结一下实际体验感受啊,你如果是 mac mini m 四十六 g 版本,虽然能运行,但是它会把你的内存拉满,就是你的电脑会一直处于满负荷的状态,而且响应速度也很慢,所以使用感受是很差的。 当然,如果你的电脑配置足够高的话,你是可以去尝试部署在本地的,因为它的响应速度肯定要比我这个要快很多。而且你还可以尝试去部署它的满配版,比如三十 e b 那 个版本, 能力应该是要比这个强不少。

如果我告诉你一台普通手机就能跑通谷歌刚刚发布的最强 jammerfour 模型,你信吗?而且支持原生多模态,完全离线使用,不用花一分钱。这期视频我将大眼重明,开始在安卓和 iphone 手机上跑通 jammerfour 模型。 在开始之前,首先我们需要打开零度薄扇,这边文件链接,我们放在视频下方,打开以后就往下拉,上面我们接所需的全部资料。首先第一步我们先来安卓手机来做测试,小白就他的下载安装包,我们可以在谷歌应用上点击下载,或者直接下载 app 安装包,我们直接前往打开它,简单多想 好,打开以后点击安装一下,我们点击安装一下,给他下载安装到安卓手机上。好,安装好以后,打开它来看一下它里面是否支持这个最新的 java 模型,点该 start 是 否允许这个方式,我们点击允许啊,下面进行设置一下。我现在还不知道我当前手机是否支持这个模型,因为我这手机比较旧。然后在上方这里可以选择 ai 模型,第二次平衡,第三次高性能,那之后我可以置顶以, 然后下面来下载一下模型,在左上方这里我们你上一个上横看好,进入以后,然后打开这个 model 这个 app 来进来模型应用下载,来看一下你们是否制作一个 gm 四模型啊,来在下面往下拉看一下,好在下方这里看到它里面有一个 gm 四 ecb 量化版模型,总共大小的话是一点二 g 左右, 这个应该是他根据单机手机的配置来进行推荐的,给我推荐是一点二 g 的 模型啊,接下来他呢,来先下载安卓一下啊,打开有没看到他里面有不同的量化版本,最高话是二点三 g 啊,但是我目前说手机话,他这个配置不是很高,所以他可以给我推荐是一点二 g 的, 但如果你安卓手机配置比较高的话,倒是应该选择更高的模型。这句话我就选他推荐的,就说 q y k s l 这个模型,这应该是一个比较小量化版了,总共是一点二 g, 咱们勾选它来先下载一下,好,勾选它以后就往下拉拉底部,它下方有一个当动的按钮,总共是一点二 g 左右 啊,叫他下下来,这个下载过程该修点时间了,到时候继续耐心等待下啊。过了一分钟左右,他先下载完成了啊,先返回去,咱们载入这个模型啊,在手机这里面上有一个发色,就选下 好均匀换,就往下拉拉,底部有一个自定义模式,我们打了他来创建一个模型,这个模型没上完全名自定义啊,在下方这里选择模型,别打了,他还有比上面有一个选择下载的 啊,这个是没看的,第一个就是我们刚才下载好的这个 jumbo four 模型了,咱们学的他啊,这样就早就进去了。下方的散热纹长度你可以自定义,这个主要看你这个手机这个硬件配置啊,如果硬件不是很高的话,就不要拉太高了啊,下方有个最高的 token, 搜索量是五百一十二 啊,先不用管他,我们先不用管我们点下方一个保存一下。好,这样的话就可以了,我们就可以把这自定义模型就给它弄好了啊,先打开它,打开以后呢测试一下,比如要帮我编辑一个贪污色小游戏,他也是可以帮我们搞定的,非常快,打开正常聊天话也是没问题的,都可以进行本地一切使用。 好,收把安卓手机的,我先做 ios 的 来,先重新返回,刚才点下来,把这个 ios 版机下载一下,我们第一前往。好,打开以后先把这款应用程序给登下来,它是完全免费的,它是可以完全加载本地的一些模型的,来界面下方下载按钮给登下来。好,下载好以后我们打开它, 打开以后它将会提示,欢迎来到这个 locally ai, 它是一个完全离线的 ai 助手,可以保证一个隐私和安全性,同时它可以对当前手机硬件进行优化,来设备对应的模型按键问题继续好,这时它来选择模型下载, 第一个是大苹果提供的,然后第二个是 mr, 第三个是千万三点五 i b 模型,这种不用管他,我先跳过,你跳过就可以了。好,跳过进入以后,那么第三方有选择模型,进入以后没看到小王就会出现一个 java 最模型的,它是目前最新的,支持深入思考,支持多模态。那么底下打开它,我们给它动下来, 总共是多少 g 啊?总共是三点六 g, 也是最新版本,那么点击 download 的 给他下下来。 好,下载好以后来先返回去,我们来试一下,看效果到底怎么样啊这是没看到他沙漠就会出现这个卷毛腹模型的,我们先来测试一下他多模态,并且我学会在桌面上随便扔一些东西在上面,然后我们来问他一下,他看到什么?同时我也会问他一下,在上面总看到几个西瓜籽啊,然后现在我们来问他一下,我们打开这个深度思考模式, 那么一下面一个 take a photo, 先来拍照一下,好,拍照好以后,然后发送一下啊,先问他一下,你看到了什么?桌面上都有哪些东西啊?我们来看一下他是否可以把全部东西给识别出来啊? 哎,他开始了,他说我根据你的定位图片,我看到桌面上有各种电子产品和一些小瓶装物品, 然后在下方一头列出来。他的桌面上主要有以下这个机械东西,第一个是一个自然手机,一部深色的自然手机放在这个画面左侧,这个没错啊。然后手机壳保护套,一个带有花卉图案的这个片子式或粉色调的手机贝壳, 然后旁边放了一个蓝绿色的小瓶装物品,一个亮蓝绿色的小瓶,看起来是某种护肤品或者是精油,然后一个大型罐装产品,一个带有标签的罐子啊,这个才会被识别出来了,这个是益生菌啊,他先把这个识别出来了,这个没错, 然后下方还有个电子配件,一个黑色的小电子配件在罐子后面啊,那个也是我的这个录音东西啊,这个声卡,哎,他这个他有的东西没识别出来啊,就西脖子,他没识别出来啊,这为什么他没识别出来? 我再问他一下,拍照一下,黑色点点是什么?总共有多少个?我们来拿数一下。哎,完了, 他都由于我无法视他,都由于我无法进行化学分析,我无法确定这些颗粒的具体身份,他们可能是以下几种东西,第一是天然成分,他都可能是干燥的种子啊。这个没错啊,因为他确实是干燥的西瓜籽。 他说我手下总共是九 k 啊,那他就错了,总共十六个啊,谁知道这方面他还是有点欠缺的。我一会来问他翘肌 b t 啊,看翘肌 b t 能不能打。对啊,我同样问翘肌 b t, 看到了这个黑色颗粒是什么,然后总共有多少 k? 他看起来这些黑色小颗粒是西瓜籽,哎,这他打对了,我帮你数了一下,总共是十七个。哎,撬极币也打错了,这个数数这么难吗? 这么明显,他居然数错了,总共十六个,他数成十七个了,也还是数数不行啊。所以我就不能怪这个 gm 负了,连撬极币地他也没数。对啊, 那进来测试一个逻辑推理题啊,就是概率加反直觉的这个逻辑推理题目是这样的,你参加一个游戏节目,有三扇门,其中一扇门后面是车,另外两扇门是严。你选了一扇门以后,主测类是这答案的,打开另一扇有严的门,并问你是否要换门。 问题是换门是否有利,为什么?这个大家能理解吗?我同样把它伸出触角模式给打开,那看下它能否答对。 哎,他知道了,他就是一个经典的蒙提货饵。问题的变动答案是换煤更有利。为什么换煤更有利?因为当你选低扇门以后,你只有三分之一的概率选中了车, 意味着身价。两扇门中有三分灾的概率包含了车。关键在于主持人他知道答案的干预,当你选择某扇门的时候,你只有三分之把握形容他, 主持人做的就是故意蒙蔽你。简单来说,坚持原版,你仍然只占了最初的三分之一机会。换版的话,你就再抓住主持人排除那个错误选项,从而获得了那个三分之一的概率。哎,这个没错,这他理解对了。那现在测试他代码编程能力, 比如他把我笔写一个山地鱼缸场景,鱼要看到有真实感,水和水缸里的水草也要好看且真实啊。先发送下来,验证一下它代码能力。好,它现在完成了。那先把代码刻出来,先放上电脑上去运行一下,看效果怎么样啊?它不仅提供这个 gs 代码,还提供这个 cs 一 二四代码,还有这 h t m l, 来看一下效果啊,酷毙哈。以后把它放在电脑上打开看一下。打开效果,大家看一下,它是非常可以的,看到非常真实啊。对于一个小魔仙来说,能打得到效果的话,已经非常可以了。然后下面再测一下,看他对这个药物这个识别到底怎么样。 来猜一下这药是干嘛的?瑞巴派特片,我们点击派斗一下发给他,问他一下这个是干什么的,估计很多人都不知道这药是干嘛的,我们看他能否知道。 他根据你提供图片作为文字信息,这是一个药片或者是局部使用产品。他说产品名称是瑞巴拜特片,他由于这个设计失灵和健康产品,我无法提供医疗建议。如果你对该产品的具体用法或使用方法、健康效果有疑问,请务必咨询医生, 他是非常谨慎的,可能好多人不相信他的离线这个性能啊,我们先把这个网全部断开,打开的飞行模式。原来把我写个恐怖小说到了五千字左右,哎,看开始了,他用的是繁体啊, 我目前是完全是离线的,他这个分章来写啊,千万别总共写到第五章了,这样换一部五千字左右恐怖小说,需要一分钟左右,他就可以帮你写出来了。 那下面在头像在这个离线模式下来测试一下他这个动感能力啊。那头像问他一下,你看到了什么?总共两个小东西啊,一个是大象,一个是蚂蚁。 他说以前是我看到的主要内容描述,第一个主体就大象的头部,画像中可以看到一只大象,然后第二是蚂蚁,就小吴姐, 没错,他请注意他的,由于图片中的细节非常小,我对蚂蚁的四别是基于其微小尺寸的预测,让他真猜对了啊。今天四别所用的全部资料,他们的链接我都发到视频下方在报上。

们想象一下,把最新的 kimi 二点五,还有智普的基拉玛五这样的大模型部署在我这台发布了两三年的 iphone 十五 pro 上,是一种什么体验?那么谷歌给出了他们的答案。就在昨天,谷歌发布了他们的最新的开源大模型加码 four, 那 可能有朋友不了解加码是个什么东西,加码就是谷歌的开源大模型的产品线。 那么这次这个模型呢,一共发布了一二 b、 一 四 b、 二十六 b 和三十一 b 四个版本。那么大家注意这个 e 哈 e 就 代表 effective 有 效参数,那以前我们说的二 b 四 b 那 是实打实的参数量啊,二十亿四十亿。 但是这次的一二 b 呢?它的物理参数就是它真实参数可能只有十二亿,可是它的这个智力表现跟二十亿的大模型是一样的。 这就好比说一个十岁的小孩,他的这个逻辑推理表现,他这个智商和一个二十岁的大学生是完全一模一样的。那么谷歌是怎么做到的呢?全部靠他这项刚刚发布的独角黑科技,叫 p l e per layer in balance, 叫做逐层嵌入技术。这个技术的原理啊,非常简单。我们举个例子,假设现在我们去参加一个比赛,叫做一战到底,你需要回答十道题目才能通关,获得奖金, 那参加比赛之前,他会给你一份这个比赛指南,对吧?比赛参考指南可能厚厚的这么一本书,那么传统的模型怎么做呢?传统的模型就参加比赛之前, 他会把这个厚厚的一本书全部背下来,背下来之后然后再去参加考试。那么这样不仅前期准备的时候骂累死人,这还会导致一个问题,就说我的记性不好,我记混了怎么办?那我是不是只能记 我这个错误的概念去回答问题了?这 pla 技术就完全不一样了,它允许你开卷考试加作弊。首先它不让你去直接把那个厚厚的比赛指南给背下来了,它给你浓缩成了一份精华,比如说什么必背版、必过版,精简版,在比赛之前只要把这一份小小的资料记住就好了。 然后你进入比赛之后,每一关这个监考老师啊或者说这个裁判都会给你一个小小的提示,然后跟你说,这一关考唐诗,下一关考宋词,在下一关我们考历史,在下一关考科技。 那你结合提示和你之前背一个这种精简版招摇,是不是就把这个答案回答的七七八八了?因为每一关回答这个老师都会给你这个提示,对吧?那这就是我们说的逐层潜入模型,不用去花费巨大的内存去是个死记硬背,是通过每一层的精确补给,实现了内存占用减半,但是这个效果是那种大差不差的。 我们再想想,谷歌上一周也是三月底才发布了一项新技术,叫 turboqant, 直接把存储给干崩了,原本需要一百 gb 才能存下来的这种对话记录, 压缩成十 gb 就 存下来了,并且这个模型的智商是一模一样的,那么你想 turbocharged, 它节约显存,压缩记忆,解决这个长对话的问题。那么 pl e 呢?它节约内存,瘦身大脑,让这个小模型更加的聪明。那么通过这两套组合拳,我们就可以看到谷歌的一个布局,一个属于消费级 ai 的 大航海时代已经是到来了。 那,那既然都说到开元模型了,那就不得不提一个我们这个中国之光 deepsea 了,它的模型居然还没有发布, 去年换房量化搞了三百多个亿,大哥,收手吧,这是人民的模型,所以说我还是非常期待 deepsea 他 们发布最新的这个大模型。好吧,我是 jerry s, 我 们下期再见,拜拜。哦对了,朋友们,还忘说了,这次这个加码缝呢,它还支持了 gantt workflow, 也就是说它可以无缝接入到我们这个龙虾里面, 然后因为它又是多模态大模型嘛,那么像图片啊,音频啊,文字啊都可以处理,所以说我们是可以完全在本地部署然后使用的。 那么过两天我也会,也就是这两天吧,我也会出一个关于这个龙虾的一个视频,那么包含一些非常好的一些实践,还有些使用案例,那么敬请期待。好吧,必须关注我。然后这一次是要真的要再见了,拜拜。我是 jerry, 我 们下次再见,拜拜。

两天之内两个王炸 google 发布 jam 四, deep seek 发布 v 四,开源 ai 直接卷风了。先看 deep seek v 四,一万亿参数,一百万 token 上下文,一次能读完一整本书。 s w e bench 编程测试八十一分,开源第一 百万 token 只要两块钱价格,屠夫实锤。再看 jam, 四个尺寸全家桶最小的二 b 手机就能跑, 图片视频音频多模态全支持。三十一 b 模型开源排行榜第三名,碾压比它大二十倍的模型。最关键的是,这次用 aratch 二点零协议,真正的自由开源。 所以到底谁更强?答案是赛道不同。 deep sea v 四是云端重炮,拼的是规模和深度。 jam 四是全场景轻骑兵,从手机到服务器通吃。二零二六年开元 ai 真的 要起飞了,谢谢关注。

谷歌又发大招了,开元界的天花板再次被捅破, jam 四正式登场!基于 jam 三同款架构,这次是真的要杀疯了!先看核心, jam 四不再只是文字复读机,它原声支持图像和视频处理。 这意味着什么?你可以直接把他丢进监控无人机或者机器人里,他能像人一样看懂世界,更觉得是他的逻辑脑。这次谷歌强化了多步推理能力,以前爱爱容易绕晕的复杂逻辑, jam 四拆解的明明白白,配合两百五十六 k 的 超长上下文, 相当于给他装了一个过目不忘的超级大脑。最关键的一点和 pass 二点零协议完全开源,免费商用!这简直是给所有开发自主智能体 a i a 智能的小伙伴送上了一台顶级发动机。从文字到多模态,从单一指令到复杂推理, 谷歌正在把最强的技术通过开源塞进你的电脑艾特,下半场开源真的能反超币源吗?评论区聊聊。

哈喽,大家好,酷狗前两天刚刚发布了最新的大模型 gm 四,这个大模型它是完全的开源和免费的,能够在本地的设备上离线运行,我用了这几天,我觉得这才是二零二六年最合理的 ai 技术路线。 真正值得关注的是,呃,他的这个原声支持函数调用,这就意味着这个模型能够自主的使用工具,浏览网页,执行代码,调用 ipa, 相当于你在本地安装了一个智能体,全程也不用联网,也不用花钱,完全可以调用本地的算理。但是呢,很多人都不知道怎么使用,所以今天跟大家分享一下专门四的使用。专门四分别有四个不同的版本,分别是 e 二 b 四、 b 二十六 b a 四 b 和三十一 b。 这些模型大小各异,可以部署在手机、电脑和云端的服务器中,它非常适合文本的生成、编码和独立任务。这张图片呢,是谷歌官方的一个,相当于是个测评吧, 不同大模型之间的一个测评。我们可以看到这几个都是市面上比较好用的大模型,嗯,包括我们国产的 d c 克千万和 kimi, 还有那个 g p t, 我 们可以看到这是它们之间的那个性能的一个对比吧。嗯, nice 区域,我们可以看到这个是 g m 四,在我们传统的认知里,模型越大,参数越多, 它的性能就越强。在途中我们可以看到 g m 四的这个三十一 b 的 这个模型,在实战能力上竟然超越了千万的三点五,因为三十一 b 它只有 三百一十亿的这个参数。千位三点五呢,它有将近四千亿的参数,这两者之间的这个体积相差了十倍,所以呢,你可以看出这面四就是用十分之一的体积跑出了十倍体积的对手,那这就意味着你不需要再付 报的这个服务器的费,你在自己的电脑上,手机上就能够拥有世界最顶级的这个 ai 大 脑。然后我们看一下这四个版本的功能吧, 以及定位。三十一 b 被称为是全能大脑,它可以处理任何的这个你所想要的执行的一些任务吧,它的定位呢,也是非常的明确,是最顶级的一个型号,擅长呢查某某的创作以及 深度的逻辑推理,它就像人类的思考会给你列出这个提纲一样,然后排查啊错误,然后再输出, 所以他非常擅长于这个深度的长文写作。那么第二个是二十六 b 的, 这个被称为效率之王,它的定位就是相对于上一个呢,它是一个平衡的版本,那么它的功能是保持在极高的智商的,同时呢,响应呢,要比三十一 b 更快, 所以呢,它适合于这个频繁的互动啊,快速的迭代的创意的这种工作。那么第三个和第四个是一四币和一二币,这两个呢被称为侧端的,先分我们,我我认为的就是说它是一个轻量化的模型,它只有四十亿和二十亿的一个参数,所以呢, 呃,它的这个体积相对也比较小,但是呢,虽然说它的体积比较小,但是可以通过这个 single 的 强化处理一些日常的对话呀,这个日常的整理,呃,简单的,这样还是非常的流畅的, 我们可以看到这是专门四网页端的一个界面,其实我这两天用的,用下来,我觉得他的这个云端的和网页端的这个使用其实是非常的非常的好给我的体验。因为普通人说实话你的电脑可能 配置没有那么高,所以你装了最高的那个等级的那个模型,你使用起来你的电脑可能就会如果说你的性能不够的话,你的电脑就会起飞的。所以我建议啊,就是如果说你不是做一些特殊的一些任务的话, 我建议直接用网页版的是最靠谱的。那电脑端有 pc 和 mac 的, 它的一个好处我刚刚讲了,就是直接在本地运行,断网也可以使用,最大的一个好处就是它是保护隐私的,不用担心你的文件或者说是你的信息隐私会被泄露,因为断网也可以使用,我觉得啊,是 这么的一个最大最大的一个特点。那么另外就是它的手机端是苹果和安卓系统都可以用啊,因为手机的内存是有限的, 所以呢我的建议就说如果是你非要在手机上装这个,我建议就是用的轻量化的这个版本的,否则的话你的手机肯定会发烫,它运行起来 特别的耗费你的本地的这个手机的一个算力的。所以最最第三个就是云端的,我是最推荐的这个直接再往月端调,而且你可以直接用免费的算力,因为使用也是免费的,你往月半使用也是免,不像其他的一些大毛器,你用着用他就没法用了,他就你的这个免费的额度,用完了 不让不让你用了。但是 gm 四它是无限使用的,目前来说是免费使用的,所以的话呢,大家如果说是想用的话,尽快用起来,我觉得是非常好的一个大冒险。大家如果说有其他的问题,我们在留言区可以互动一下,有什么问题可以直接问我哈。

分享一个能用的最新本地端 ai google ai edge gallery, 完美解决不能用 gemini 的 问题,允许开发者和普通用户直接在智能手机、 android 和 ios 本地运行。体验和测试 最前沿的生成是 ai 真 ai 和机器学习 m l 模型,包含文本对话,视觉理解以及音频处理。关键是离线,所有数据不出,手机响应快速, 安装也比较方便。国内 app store 不 支持下载, ios 可以 直接在官网下载。

好的,所以谷歌刚刚发布了 gemma 四,这是四款全新的模型,具备多模态、思维链、函数调用等全套功能。说实话,光凭这些就足以让我报道了。但这还不是最有趣的部分,真正有趣的是它的许可协议。 gemma 四采用的是 app 二点零许可证,而非带有奇怪限制的自定义协议,也没有那些所谓的开源权重,但不许与我们竞争的条款。 这是一份真正的 ipad 二许可协议。这意味着首次你可以拿取 google 最好的开源模型进行修改,微调商业部署,对他做任何你想做的事, 没有任何附加条件。而且当我们把这些与模型内部结合时,这里谈的是拥有一百二十八个专家的 mo 架构,原声音频支持、原声视觉能力以及内置推理功能。所有这些都构成了一个巨大的突破。好的,让我先快速介绍一下背景,因为这里有四个模型命名有点让人困惑。 gemma 四分为两个层级,所谓的工作站模型,包括一个拥有三百一十亿参数的稠密模型和一个拥有两百六十亿参数但激活部分为四十亿的混合砖加模型以及边缘模型,即 e 二 b 和 e 四 b。 这些是微型高效模型,专为手机、树莓派、 jackson、 nano 等终端设备打造,几乎可在任何需要高质量模型的边缘场景中运行。 从最初发布以来,我就一直在介绍 jamma 系列的模型。我在频道上介绍过 jamma 三,我知道当时虽然很多人对他印象深刻,但对许可方面的一些事情感到有些沮丧,所以你有了这么强大的模型,但许可协议的限制太多,导致很多人转而选择 lama 或 queen。 所以谷歌这次选择 app 二点零协议基本上是在说,好吧行吧,我们将沿用与其他开源模型提供商相同的规则。事实上,就在我们讨论这件事的时候,中国的一些其他开源模型提供商实际上正在撤回他们最新的发布版本,不再像过去那样将其开源。 所以这里另一个重要的前置信息是,谷歌表示这些模型是基于 jammy 三的研究构建的,所以基本上一些旗舰商用模型采用的架构创新正在慢慢流入开源权重模型中。 所以,如果你一直在运行本地模型,我知道很多人都在这么做,那么格局已经逐渐稳定成了这种模式。我们某种程度上已经超越了 lama 模型。我们现在有了 q w, mister 等模型,它们都在这一固定的参数量级范围内,针对稠密模型进行精准测试竞争。 但我们也看到,直到最近,大多数这些模型还是仅限文本,或者顶多是文本加视觉。 如果你想用音频,就得外挂 whisper 或者外接一些外部语音识别管线。而且通常如果你想实现函数调用之类的功能,就只能指望模型配合你的提示模板了。 因此, gemma 四所做的就是将这一切视觉、音频推理以及函数调用原生地打包进单一模型家族中。 而且这四项功能实际上都是从架构层面原生构建的,并非事后拼凑上去的。好吧,因此,让 g m 四优于前代系列的关键一点在于,它现在具备了常练思维推理的能力。 我们已清楚看到这能提升输出质量,获得更加最终答案等。现在它不仅能够跨文本进行推理,还能跨越不同模态进行推理, 所以它可以根据需要进行跨图像推理,你只需传入一张图片即可利用它。而且首次你实践可以在音频上进行推理,这也挺酷的。 显然,这种长练思维的能力大幅提升了许多。精准测试结果在 mmu pro 以及 swebench pro 上也取得了非常出色的成绩。随着推理能力的提升,函数调用也随之而来。 所以,如果你想做任何设计智能体的任务,本质上就需要使用函数调用和工具。因此它整合了他们在去年年底发布的 fashion gem 模型中所投入的大量研究成果。但现在小模型和大模型都具备了这一能力,所以很多人会觉得这没什么新意。 但过去人们做这类函数调用的方式其实只是让模型更擅长指令遵循,然后诱导它去执行 demo。 四实际上是从零开始就原生集成了函数调用功能,因此,这在一定程度上针对多轮遗传流进行的优化,支持您使用多个工具,这在某些智能体基准测试和任务中体现得尤为明显。 好的,我在之前的推理中提到,不幸的是,并非全部四个模型都支持音频,而是那两个较小的模型实际上具备音频支持功能, 而且这种音频支持比我们在 gemma 三中拥有的要好得多。以及之前一些支持音频的 gemma 模型一样,这意味着你可以进行语音识别和转录等操作,还能实现语音转翻译文本的支持。稍后,在 walkthrough 环节,我会展示这一点。 新的音频编码器不仅效果更好,而且体积更小的多。这对你在边缘设备上运行这些模型大有裨益,你将不再占用那么多设备存储和内存。将 gemma 四与之前的 gemma 三 n 系列相比,另一个关键点在于图像编码器。 jam 三 n 系列模型的图像编码器虽然不错,但其实现方式确实有些过时了,它在处理宽高比等方面表现也不佳。 正因如此,你常会发现它在 ocr 这类任务上表现不佳。 jam 四模型基本上原生支持这些交错的多图像输入。 我的猜测是,从实际体验来看,它应该接受了相当程度的 ocr 和文档理解训练。 而且因为你可以进行这种多图像输入,你实际上可以在这里处理视频,并在这些多张图像之间进行推理。所以,总的来说,将 jam 四与 jam 三以及 jam 三 n 进行对比,你会发现更新非常多,尤其是小模型支持了音频功能,并且多模态支持也更好。 而 jm 三 n 的 上下文窗口仅为三十二 k, 即便是 jm 四的小型模型也拥有一百二十八 k 的 上下文窗口,大型模型则达到两百五十六 k。 好 的,我们来聊聊这些架构选择和模型规模本身。 因此,这个混合专家模型总共有两百六十亿参数,但任意时刻只有三十八亿处于激活状态。 现在他们并没有像最近一些其他模型那样选择超多的专家数量,他们拥有一百二十八个这样的小型专家,每个头肯激活其中八个, 外加一个始终在线的共享专家。所以,如果我们将这与 jama 三模型相比,其最大的模型是一个拥有两百七十亿参数的重密模型。显然,在这种情况下,您会同时使用全部两百七十亿参数。 所以这大致意味着你拥有了相当于二十七 b 模型的智能,却只付出了约四 b 模型的算力成本。现在你肯定可以在消费 g gpu 上运行它了。而且我相信即使我在发布前录制这段视频,我们也会看到它在奥拉玛 l m studio 等平台上出现。 而且谷歌自己也发布了量化感知训练检查点,这就是量化感知训练检查点,这样即使精度较低,模型质量也能保持高水平。 那么,如果您不想用 me 模型呢?好吧,他们作为工作站组发布的第二款模型,是一个拥有三百一十亿参数的稠密模型。这采取了一种不同的方法,这比 jam 三的层数更少,但在此处进行了相当多的有意义架构升级。 他们加入了直规一化,并将注意力机制改为真正适用于长上下纹的形态。 说到长上下纹,这些工作站模型开箱即支持两百五十六 k 的 上下纹窗口, 这对于本地模型来说相当可观。另一个很酷的地方是这里的视觉编码器,因此他们放弃了一种支持原声宽高比处理的视觉编码器。 因此你可以输入图像文档或截图,而模型会自动处理实际尺寸。这肯定会在文档理解 ocr 以及人们希望针对此类任务进行训练的各种下游应用中成为一大看点。 好的,因此,对于这些工作站模型,谷歌将其定位为您的本地编码助手 i d e 结队编程伙伴,甚至是您将在小型服务器上供多用户运行的工具。所以这个三十 e b 能进行代码生成、补全和修正。 此外,我们还拥有完全支持多语言的模型预训练,含盖一百四十种语言,后训练及指令为调则覆盖三十五种语言。好的, 现在如果我们看看边缘模型,我们有 e 二 b 和 e 四 b。 这些情况之所以特别有趣,原因则不同。所以,这个系列中实际支持音频的是这两款车型。它们内置了 a s r 编码器,可用于语音识别,比如将语音转换为文字。 因此,你可以在一个设备上用一种语言说话,并获得另一种语言的文本输出。所有功能都在同一个模型中完成。现在有趣的是,这里的音频编码器相比 gemma 三 n 模型被大幅压缩了, 它缩小了百分之五十,从六百八十一 m 参数降至三百零五 m 参数。这意味着不仅参数量减少了,所需的磁盘空间也大幅减小,从三百九十 mb 降到了八十七 mb。 而且有趣的是,它们似乎将真时长从一百六十毫秒调整到了四十毫秒。这意味着我们在转录时应该能获得响应更快的效果。 现在,他们保留了 jam 三 n 中的一些创新,但从架构上看,似乎他们也意识到三 n 中引入的某些创新未必是最好的选择。我猜这是 jam 团队意识到并非所有研究都能直接迁移到生产环境 好的。这些小型模型上的视觉编码器也大幅缩小了。过去我们看到的视觉编码器大约在三亿到三点五亿参数, 这标志着他们彻底摒弃了过去那种做法,转向了一种更轻量级的新架构,因此速度也快了很多。如果你正在构建本地助手,比如真正的语音优先人工智能,且不希望将数据发送到云端,那么这正是你需要的东西。 你拥有一百二十八 k 上下文窗口、视觉处理能力、音频支持、函数调用以及模型思考能力。所有这些功能都集成在一个足够小巧的模型中,可在边缘设备上以极低延迟运行。好的直接切入正题, 我将测试这里最小的模型,以展示它的一些关键功能。由于我是在发布前进行测试,必须使用特殊版本的 transformers cool, 但本质上我只是下载了 jam 四最小版本的权重, 大家很快就能看到。如果我们要起用思考模式,只需在聊天模板中传入开启思考的参数即可,对吧?所以我们只需设置 enable thinking 等于 true, 我 们运行它得到响应,然后直接把响应发出去。 所以你可以看到我在这里问的问题是,深度学习和金融领域有哪些常见的用力。接着答案就从这里出来了。如果我们想关闭思考功能,只需在这里设置 enable thinking 等于 false, 现在得到的答案其实非常相似,不过这次没有经过思考环节,而是直接给出了答案。因此你拥有开启或关闭思考功能的能力来完成这个过程。接下来,如果我们要向模型输入图像,可以看到我正在加载一张图片。 然后我们只需要获取处理器,我们只需传入一张图像即可。 你可以看到我们实际上只需将图像传入即可。这就是我现在正在做的。我们刚刚获取了处理器图像令牌,这样他就知道在这里插入图像。随后在定义输入时,我们传入文本输入。这本质上是经过应用聊天模板处理后的消息, 然后我们传入图像。在这种情况下,我们只传入了一张图片,并且确实可以看到我们可以完成这个过程。实际上我只输出了一百二十八个 token。 但你可以看到我们问的是这张图片是一个女孩和狗在海滩上。 我问他这张图片里到底发生了什么?你可以看到这张照片捕捉到了人与狗之间温馨可爱的瞬间。 这里是对正在发生情况的拆解。我们可以看到主体,可以看到互动关系。但在我把完整的设置的内容放进去之前就被截断了。 他在图像方面表现非常出色,而且速度也相当快。这是一件很酷的事情。如果我们想处理音频,基本上做同样的事情,所以这里我只有一个音频文件。那我就播放这段音频文件,让你们听一小段 在假面舞会中起舞。闲置的真理与直白的目光令人厌倦。流行滚动,点击拍摄今天我会是谁?或者不是。但这样的潮水仿佛沉睡般涌动。满意的无声无息,也无泡沫。 好的,所以你能听到这里其实是两个声音。我们可以看出,如果传入这个文件,我们基本上就是把实际的音频传进去,然后就能得到文本,然后我们只需运行它并处理即可。 果然如此,他会给我们一个输出。现在如果我们看看这里,他其实转录的相当不错,对吧?但你可以看到他非常准确的捕捉到了这里的这位女士的声音,以及那位男士的声音。 那么我会一定用这个代替 a s r 模型吗?大概不会吧。但如果你打算将它们串联使用,比如计划先接入 a s r 模型,再进入 l l m 模型,那你完全可以再次实现这一点。这里用音频还能做的另一件超酷的事 就是进行某种形式的翻译。所以在这里你可以看到我们定义了一个目标语言,在这个例子中是日语,我们定义原语言为英语, 我们可以直接告诉他好的,转录原语言的这段语音片段,然后将其翻译成目标语言。接着我们还能指定它如何格式化等输出要求。 果然,他确实做到了这一点。先以英文进行转录,随后给出日文译文。我把这段话复制到了 google translate 中,看起来大致准确。 所以别忘了这只是 erb 模型,对吧?这是一个非常小的模型,我们可以用更大的模型来处理这个,而且我的猜测是它在一些多元任务上表现可能也会更好。 所以如果你想运行小模型,可以在 t 四上跑。我这里实际用的是一块 t 四显卡。如果你想运行更大的模型,且不使用任何量化,你需要配备足够内存的设备,所以你是在看类似 h 一 百, rtx 六千 pro 这类东西。 但总体而言,无论是工作站模型还是这些小型模型,在各自的特定应用场景中都表现出色。 好的,所以该模型已发布在 hugging face 上,同时也登陆了 google cloud。 所以 如果你想部署更大的模型,你可以做到。 我觉得特别酷的一点是,你实际上可以部署那两个更大的模型。现在完全以无服务器方式使用 cloud run。 cloud run 现已支持使用 g 四 gpu。 这实际上是 nvi d i a r t x pro 六千,拥有九十六 g b v r a m。 你 可以加载完整版本并在无服务器环境中运行,且能自动缩容至令未来我也会探索这一点。总之,现在有四个新版 jam 发布, 这些的基础模型和指令微调模型都已发布,这里的机模型在微调等方面将会变得非常有趣。 我想我可能会制作一些视频,围绕小模型和大模型展开展示。当你拥有一个非常强大的基础模型时, 就像 jam 系列一直做的那样,你真的可以通过针对特定用力进行自定义微调来获得实实在在的好处等等。现在我认为这还不是 jam 四系列的全部型号。 我想接下来几个月我们可能会看到更多,但这确实是个很好的开端。让我们开始使用这些模型,并为您的特定用力进行测试。 总之,像往常一样,请在评论区告诉我你们的看法。如果有什么特别的内容,你想让我用这些模型展示一下。就像过去我做的一些 jama r g 视频那样, 那么也许我们可以看看如何对这些内容进行更新。正如我之前所说,我几乎肯定会制作一些不同的微调视频来展示这些模型实际上能做什么。所以如果你对这方面感兴趣,记得点赞订阅,我们下期视频见。暂别了。

google 两天前开源了一个模型,叫 g m 四编程能力排全球开源第三,完全免费商用协议,比 met 的 lama 还开放。一共出了四个版本,最大的三百一十亿参数,全激活编程竞赛评分两千一百五十, 最小的只有二十三亿参数,手机就能跑。最有的不是排名跟上一代比,编程从二十九分直接飙到八十分, 数学从二十分干到八十九分,翻了四倍,还能直接看视频看图片听语音,支持一百四十多种语言,上下文二十五万 to 肯。 最实用的一点,你可以拿它微调你自己的代码库, g p t 再强也是通用的。微调完的 jama 比 g p t 更懂你的项目公布,这次是把 gemini 的 能力塞进了一个免费模型,你觉得开源能追上币源吗?

今天凌晨,谷歌 deepmind 正式推出新一代开源大模型 jam 四,该模型与谷歌闭源旗舰 jamming 共享底层技术,也是时隔一年对 jamming 三的重大升级。此次谷歌一改此前自有协议采用 app 七二点零商业友好型许可证开源,开发者可无门槛自由修改、分发和商用。 新推出的四款不同规格模型,覆盖从手机边缘设备到工作站、服务器的全场景部署,在参数、效率上表现亮眼。三十一 b 版本更是跻身 a n a i 开源排行榜第三,所有模型均为多模态,支持图像、视频输入和一百四十多种语言。 谷歌还与 pixelo 沟通联发科合作优化端测 e to b e 四 b 可在手机、树莓派等设备完全离线运行。

大家好,今天来给大家实测一下,把 jam 四部署到手机上,到底能实现些什么?视频内容有点多,感兴趣的可以慢慢看完。首先是 ai 聊天,我先把手机切到飞行模式,全程离线使用,可以看到我问他能做什么,他回复的很流畅,反应速度也很快,注意回复这里我全程无加速。 然后是图片识别功能,我随手拍一张照片,问他看到了什么,他能很精准的识别出画面里的细节,解析的特别清楚。还有这个手机指令控制,我直接语音说在地图里找到北京,他立刻就能理解我的意思,自动打开地图应用。虽然现在没网加载不出来, 但整个指令识别和调用应用的过程都是在本地完成的,体验很惊艳。唯一不足的是他听不懂中文,只能英文沟通。还有这个小花园互动游戏, 我说在八号坑种植物,它就能听懂并执行操作说明模型,对自然语言的理解和交互能力都很强。这里依旧听不懂中文,只能英文沟通。最后是提示词工具箱,不管是改写文案、总结文本,还是写代码, 离线状态下都能直接生成,非常方便。整体体验下来, jam 四把 ai 能力真正做到了手机端本地化,不用联网,隐私性更好,功能也足够实用,未来手机端 ai 的 体验真的会越来越强。

就在四月二日,谷歌发布了 gmail 四,这是一个完全开源的多模态大模型系列,支持文本、图像和音频交互,而且采用 ipatch 二点零协议,可以免费商用,没有任何授权费用。 你有没有想过,把谷歌最新的大模型装在自己手机里,完全离线使用,不用花一分钱,还能保证自己的隐私,绝对安全。 就在四月二日,谷歌发布了 gms, 这是一个完全开源的多模态大模型系列,支持文本、图像和音频交互,而且采用 apache 二点零协议,可以免费商用,没有任何授权费用。 首先咱们得搞清楚 gammas 到底是什么,它和谷歌闭源的旗舰模型 gamem 三,共享底层技术,一共四个版本, e 二 b、 e 四 b 二十六 b 莓 e 和三一 b dens。 咱们普通人能用的就是前两个 e 二 b 和 e 四 b, 因为它们能在手机上直接运行,完全离线,而且不占太多空间。 e 二 b 大 概需要三点二 gb 的 存储空间, e 四 b 需要五 gb 左右。对现在的手机来说,这个空间压力不算大。 那要在手机上部署 game 四,需要什么样的条件呢?安卓手机需要安卓的十二以上,苹果手机需要 ios 十六以上,内存方面 至少八 gb ram, 六 gb 的 话可能会闪退。机型上,苹果推荐 iphone 十二级以上,安卓最好是中高端机型。有个特别提醒,华为手机不支持,因为谷歌服务的限制,这个得记清楚。 接下来是安卓端部署步骤,有两个方案可以选。第一个是官方推荐的谷歌 ai edge gallery, 你 可以在公共 play 里搜索下载,或者去 apk mirror 下载 apk 安装包, 打开应用后进入模型库搜索 j m 四,选择 j m 四 e 二 b 杠 it 或者 j m 四 e 四 b 杠 it 点击下载。下载的时候建议用 wifi, 毕竟文件有两到四 g b 流量,下载不太划算,下载完成后会自动激活,之后就能离线使用了。 第二个方案是开源的 m l c chat, 你 可以从 tapp 上下载这个应用,打开应用后点击加号,添加模型,选择 gemas 的 e 二 b 或者 e 四 b 版本,等待下载完成就可以了。不过国内用户可能会遇到问题,因为模型默认从 hugen face 下载,国内有时候访问不了。 这时候有两个办法,一个是用电脑访问 h f 杠 m 二二 o r 点 com 下载,点 g g u f 格式的文件,然后传到手机的 android data ai dot m l c dot m l c chat slash files 目录里,再在 app 里导入。 另一个办法是直接用手机访问镜像站下载。苹果手机的部署就更简单了,直接在 app store 搜索 m l c chat 下载安装, 打开应用后点击 download models, 找到 gamma 四系列,选择 e 二 b 或者 e 四 b 版本,下载完成之后就能直接离线对话了。 咱们再说说性能表现。 pixel 八 pro 运行 e 二 b 版本,每秒大概能处理十五个 tokens, 内存占用三点五 gb。 iphone 十五 pro 运行 e2b 的 话,每秒大概十二个 tokens, 内存占用三点二 gb。 小 米十四的速度稍微慢一点,每秒十个 tokens, 内存占用三点八 gb。 第一次运行的时候,系统会对模型进行优化,可能会有点慢,但是之后就会快很多。 这个模型最大的优势就是完全离线运行,不需要联网,所有数据都留在你自己的手机里,隐私绝对安全。而且它支持文本、图像和语音交互功能,和云端的大模型差不多,但不需要花一分钱,也没有 api 调用费用,可以永久免费使用。 最后给你几个注意事项, e to b 更清亮,速度更快,适合基础的对话需求。 e 四 b 的 推理能力更强,支持多模态任务,比如分析图像或者处理复杂问题。下载模型的时候建议用 w wifi, 这样能省不少流量。使用的时候最好把后台的其他应用关掉,这样能提升运行的流畅度。 现在的版本中文支持已经很好了,还支持一百四十多种语言,你不用担心语言障碍的问题。好了,今天的部署指南就到这里,你现在就可以按照我给的步骤,把 gms 装到自己的手机里,体验一下完全离线的 ai 大 模型。行动起来,把 ai 装进你的口袋。

不用联网,不用数据,就在你的手机也可以用上 ai, 而且还是 google 新出的 gmail。 四、这款开源而且非常智能的模型,打开之后是有这样的一个页面, 它支持如下的这些功能,支持图片识别、上传图片,进行 ai 对 话,也可以进行语音转录,还有就是 ai 聊天以及配置 skill promptlab, 这个我目前还没尝试这个有兴趣的小伙伴可以去尝试一下。我这边操作一下,这个是我已经下好的模型,我现在把网断掉。你好,然后他是别称他是你,哈哈,我说你好,这回明白了,调皮的粘吗?