这是今天最热门的动作牵引模型 scale, 由清华和智普 ai 联合发布的开源模型,它解决的一个问题呢,就是这种复杂快速的动作牵引问题, 例如角色转身,甚至还有很多人的这种交互的舞蹈,我们可以看到演示的效果都很不错。其他的模型以前都会出现什么穿帮啊,肢体乱飞等等问题,但是这个基本就没有 好,那我们来实际测试,看看到底如何。这是我为大家准备的简单的工作流,上传视频,上传图片,设置好分辨率提示词呢,我们可以很简单, 然后点击生成。呃,我觉得这个人已经不太像我,而且这个帽子这里还有一点穿帮,但是呢,确实整个动作还是非常流畅的,不管是转身还是手臂的前后空间甩动,都做的非常不错。 等后续呢,这个模型支持脸部表情的迁移之后,我觉得这个模型还是非常有潜力的。那么工作流已经给大家准备好了,点个关注不过分吧!
粉丝80获赞506

今天呢,给大家介绍一个新的利用姿势生成视频的模型,叫做 skill, 那 这个模型最大的特点呢,就是引入了一种新的姿势表示的方式,叫做 n l f pulse, 那 和传统的 open pulse 和 dw open pulse 不 一样, 那这个姿势呢,是一个三维的姿势,所以说呢,它能够完成非常多的功能,那我设计了九个测试场景,让大家充分的了解这个模型它的优势。那首先呢,和传统的姿势生成视频的模型一样,我们给定一个图片,给定一个驱动视频,那它可以生成一个非常棒的视频, 而且呢在人物的面部一致性上表现的是非常到位的,那同样呢,他还有姿势对齐的这个效果,那也就是如果我们给定的驱动视频 和我们的参考图片,他的姿势呢是不太一样的,那这个时候呢,我们的姿势会自动对齐到我们的参考图片上,那生成的视频呢,依然是无可挑剔的。 那由于 n l f 这个姿势格式呢,它是包含面部信息的,所以说从一定程度上,它可以驱动面部的一些变化,那我们在生成的视频当中呢,也可以看到关于面部的一些一致性的表现,那除此之外呢,它还可以生成超长视频, 比方说我这生成一百六十一帧,你会发现生成的这个效果,不管从姿势的一致性,色彩的表现,整体的构图,那都是非常棒的,而且呢中间是没有闪烁的。另外针对我们在视频生成领域非常棘手的一个难题,也就是 旋转的这种视频,那你会发现它的表现呢也依然非常的到位,那到这还没完,那它不光可以进行姿势的迁移,那同时呢也可以控制镜头的运动,那比方大家看一下我们的参考视频, 那在一开始呢,它有一个镜头旋转的动画,那我们利用 skill 这个模型的话呢,可以非常完美的将这个镜头旋转的动画给它表现出来,而这个是其他的模型呢,几乎是没有办法达到的。 所以说可以毫不夸张地讲, skill 这个模型是我们在知识迁移整个的领域当中表现最棒的一个模型。那大家现在看到的就是 skill 在 github 上的页面,那我们可以看到目前呢, k 神的 yy 六的扩展已经支持了这个模型,而且由于 n l f 这个姿势的重要性啊,所以说 k 神专门研发了一个扩展来提取和渲染 n l f 格式的这个姿势。 那如果大家想使用这个模型的话呢,只需要将 one y 六的扩展更新到最新版,然后我们可以在市力工作流里边找到 skill 的 这个工作流,大家把它拖拽到你的 confui 里边就可以了。那关于模型的下载的话呢, k 神依然提供了两种格式,那第一个呢就是 b f 幺六的, 那第二个呢就是 f p 八的,大家可以根据自己的算力情况来选择不同的模型。我把工作流呢也构建到了 running hub 上,大家可以通过 running hub 点森来访问这个平台。在 comfy 领域, running hub 是 一个非常棒的在线工作台,因为只要有新的扩展和新的技术出现,它都会第一时间跟进, 大家可以通过我视频描述区的邀请链接来注册 runnyhab, 这样可以获赠一千点的免费点数,另外你每天登录 runnyhab 也会有一百点的赠送,这样你就可以尝试你自己的工作流了。下面呢我们将会用九个工作流来详细的给大家介绍这个模型。那首先看一下这个模型的一个最基本的用法, 由于这个是一个姿势参考生成模型,所以说呢,我们这需要有一个驱动视频,一个参考图片,那在参考图片的选择上呢,我现在尽量的让它和驱动视频保持对齐。下面呢我们就需要提取整体的这个姿势, 但是你要注意啊,这个格式呢是 n l f 的, 那这个时候呢,我们就需要安装 k 神的另外一个扩展啊,大家看一下,这个扩展呢叫做 confui skill pose, 然后呢你才能够获取我们现在所用到的这些节点, 大家看一下,这些节点其实用起来是比较简单的啊,首先呢是一个姿势的提取,那这个姿势提取的话呢,非常有意思,它其实呢是将 v i t 方式给它转化成 dw 纹 pose, 所以说呢,它这儿加载了一个模型,这个节点呢由于在当 loft 功能,所以说如果这个模型不存在的话,它会自动把它下载下来,然后呢会用到我们的 v i tpos, 然后这儿用到优路威十模型。 那这个组合方式我们其实在 k 神的一些姿势提取的节点当中呢,已经见到过了,那同样利用这些模型的话呢,我们可以将视频以及参考图片的姿势呢全部给它提取出来,但是大家注意啊,提取出来的姿势呢是 dw pos, 而且呢它的输出呢是一个 json 数据,那这个时候我们用到的一个节点叫做 render n i l f post, 那 这个节点的作用呢,就比较多了,第一个呢,它可以做姿势的对齐,因为我们在这儿需要输入的内容呢,第一个就是手抠的这个姿势,那我们是用 n i l f predict 来检测一下第一针的姿势,当然这个姿势就是一个 n l f 格式的。那我们视频里边的这个姿势呢,是连到了 dw post, 而我们的参考图片的姿势呢,是连到了 reference dw post。 经过这样三个节点,我们可以将 我们提取出来的驱动视频的姿势,让它对齐到我们的参考图片里边。这是这个节点的第一个功能。那第二个功能呢,是将姿势的格式呢做一个转化, 因为呢,大家看一下,这儿输入的两个都是 dwpos, 而我们最终需要的是一个 n l f 的 姿势,所以说呢,它会将 dwpos 给它转化成 n l f 格式。那另外呢,就是渲染功能啊,它可以把这个 jason 格式的数据给它渲染成图片 展示出来给我们大家看到。那下面呢,我们看一下主模型的加载,这儿呢,我们加载了 skill fp 八的模型,然后呢, 使用了 light x 二 v 的 加速模型,开启了块儿交换,块儿交换的数量呢,设置成了二十五万二点儿一的 ve 以及我们的视觉模型。那这个呢,是我们的文本提示词的部分,那这个提示词我写的非常的简单,就是一个跳舞的美女,那下边呢,是整个的工作流当中比较重要的一个内容啊,因为我们最终是要生成一个图片的嵌入式项链, 那这个插入向量是怎么来的?首先我们要用视觉模型对参考图片做一个编码,然后我们来生成一个空的 图片的插入式向量,当然你也可以解释成生成一个空的浅空间。然后呢,我会用到两个节点,那这两个节点的用法其实和 steady dancer 是 一样的。首先呢,我们会把参考图片 给它加入到我们的 latent 当中,然后呢再把提取的姿势加到我们的浅空间当中,那后续我们采样的时候会用到。然后是采样的部分,关于采样的节点呢, case 又专门研发了一个,他现在把它命名成叫 v 二,那这里边其实做了一些优化啊,他把我们采样必须要用到的一些输入 放到这个节点里边儿,然后其他的内容呢,它放到了额外的参数这个输入项里边儿。首先是我们的调度器,这个我们使用六步踩样, shift 值呢,设置成了七点儿零。然后在额外的属性选项里边儿,我们开启了 context option, 说白了它具有滑动窗口的这种特性, 可以生成超长的视频。然后呢我们进行采样啊,就可以得到最终的这个效果。我们的分辨率呢,并没有用四八零乘以八十二,因为你详细去看 skill 这个模型,它的分辨率是五幺二 p, 而不是四八零 p。 大家要注意,我们最终生成的这个分辨率一定要能被三十二整除, 而我们像传统的外模型呢,一般是被十六整出就可以了,那这是我们最终生成的效果啊。首先呢我们来看一下姿势的迁移是没有问题的,对参考图片的对齐呢,也没有问题,而且人物一致性非常的强, 我们可以对比一下生成视频里的人物和参考图片的人物呢,是非常像的,那这就是 skill 最简单的一个工作流,那第二个工作流呢,其实跟第一个是一样的啊,呃,我们只是来验证一下这个滑动窗口的这个机制是不是有效果。 那大家看一下我这个视频的长度呢,是非常长的,那我现在提取了里边的一百六十一帧,也就是将近十秒的视频,那我们看下最终生成的效果, 这个是非常棒的,当然你可以将生成视频的长度呢,再给它调大,然后去检测一下它到底能生成多长的视频。下面呢,我们来看一下姿势的对齐, 因为我们在选取驱动视频和参考图片的时候呢,不敢保证这两个的视角是完全一致的,那比方说呢,我现在的视频是一个全身的,而我的参考图片呢是一个半身的,那这个时候呢,就需要进行姿势的对齐, 那我们给大家看到的这个工作流,它是自带姿势对齐功能的,我们最终生成出来的这个姿势已经对齐到了这个参考图片,它是一个半身的,和参考图片是一样的,那我们来看生成的效果,这个效果非常的漂亮,人物的一致性也非常的好,动作的迁移呢也非常的棒, 而且呢进行了姿势的对齐,所以说相比于 study dancer 或者是 one to all animation 来讲呢,它整体的效果的确要好很多。那这个工作流呢,我们是来测试一下 它对表情的这种控制怎么样,因为我们都知道 n l f 这个格式呢,它是自带面部数据的,所以说呢,我的驱动视频采取了一个比较近距离的视角,然后参考图片的视角呢,依然选择的比较近, 然后我们来看最终生成的效果啊,整体的动作迁移是非常完美的,面部的表情呢,不能说没有完全迁移啊,但是呢, 的确做的也不是那么细致,因为你详细去看这个姿势的话呢,面部的动作虽然有啊,但是并不是特别的清楚。那由于 n l f pos 呢是一个三 d 格式的姿势啊,所以说呢, 我们来测试一下它在旋转方面是不是可以完美的去生成一个视频。驱动视频呢,是一个美女站在无人机上 在做三百六十度的旋转,那参考图片呢,我选择了一个站在水中的女孩,首先我们看提取的姿势,那这个是没有问题的。 然后呢,我们看一下生成的视频,那大家可以非常惊喜的发现,这个模型能够把这种旋转的这种动作给它完美的表示出来,那我们之前讲到的其他模型好像几乎都不能完成这个功能,而且你要注意啊,我们从生成的这个效果上来看,它好像也支持镜头的一些运动, 不管是在最终的这个视频上面,还是在我们得到的这个姿势的视频上面,我们都可以看到镜头移动的一个效果,那下面呢,我们就来看一下他是不是可以控制镜头的移动,这也是我们之前用到的一个驱动视频,这个视频在一开始呢有一个镜头旋转的动画,那参考图片呢?这个我们之前也用过, 那我们来看生成的效果,大家看一下啊,重点呢还是人物在转,是吧?这个镜头是没有转的,我原本以为到这呢肯定就测试完了,后来不死心,我又给他加了一个 u n c 的 节点,大家看一下,我们把刚才的驱动视频 给它编码到我们的潜空间当中去,然后呢利用 uni 三 c 提取它的镜头的动作,给它连接到我们的 uni 三 c in bad 这个输入里边儿,等到这个时候你就会发现我们将镜头旋转的问题 完美的给它解决了。那通过这么多的工作流以及实力测试,你有没有发现 skill 这个模型好像是一个全能模型,啥都能干,不过也的确是这个样子,所以说呢,建议大家充分的关注我,做一个懂爱的人。

那今天呢,给大家介绍一个新的视频生成模型,叫做 one to all animation, 那 这个模型最大的特点呢,是进行姿势的迁移,那目测起来呢,目前这个视频生成的效果呢,是优于 one animation 的, 它有一个最大的特点,就是可以将任何视角的图片啊,应用到不同的姿势上面去,比方说 这是一个多半身的视角,那这是一个全身的,那么这个呢,并不会因为姿势和人物它整个的视角不一致而变得走形。 那这些呢,都是我实测的一些实力,大家看一下,目测起来呢,它的效果呢,的确要优于 one animate, 有 更少的违影,而且随着视频长度的增加呢,人物的质量呢,并不会产生衰减。这个模型还有一个非常大的特点,就是它可以无限的扩展, 那也就是它可以生成任意长度的视频。那下面呢,我们来看一下这个例子,那整个视频的长度呢,接近了三十秒啊,这是用一个工作流来生成的, 大家注意啊,随着整个视频的眼界,大家会发现动作的迁移呢,依然是非常完美的,不会像很多的模型啊,时间越长啊,人物呢就会变得越模糊,画面的质量呢也有明显的降低。那大家现在看到的就是 one two all animation 在 github 上的页面, 它目前提供的模型呢,有两个版本,一个是一点三 b 的, 一个是十四 b 的。 那如果你想在 ken 的 one y 六的扩展, 那大家可以打开视利工作流这个文件夹,可以看到这样一个文件,那这个文件就是 k 神提供的 one two all animation 的 视利工作流,关于模型的下载呢,它依然提供了两个版本,一个呢是 f p 幺六版的, 一个呢是 f p 八版的,大家呢可以根据自己的算力情况来选择不同的模型,那这儿呢,我们还是选择 f p 八版的,那同样我把工作流呢也构建到了 running hub 上,大家可以通过 running hub 点 c 来访问这个平台。在 confui 领域, running hub 是 一个非常棒的在线工作平台, 因为只要有新的模型和新的扩展出现,它都会第一时间跟进。大家可以通过我视频描述区的邀请链接来注册 runninghub, 这样可以获赠一千点的免费点数,另外你每天登录 runninghub 也会有一百点的赠送,这样你就可以尝试你 自己的工作流了。那么现在大家看到的就是 k 神提供的原版的 one two all animation 的 工作流,那它大致呢可以分成两个部分, 第一个部分呢是它生成了一个基础视频,而剩下的部分我们全部称之为扩展的部分,那每一次扩展呢,都会将视频的长度呢不断的向下延伸, 所以说按照这个思路来讲,它可以生成无限长度的视频。好,下面呢,我们就看一下这个工作流的一个基本结构。那由于我们是做知识的迁移,所以说首先呢,我们需要提供一个参考图片, 那第二个我们需要提供一个驱动视频,然后按照设定的分辨率分别对它们进行缩放。这里边呢,最重要的一个环节就是将这个姿势给它提取出来,那提取的节点呢,用到了配 神的另外一个扩展啊,叫做 one animate pre processor, 那 这个节点呢,我们需要传一个 model 过来啊,大家注意这个 model 里边呢模型呢主要有两个啊,一个就是提取姿势的 呃,另外就是一个 uluv 十的模型,那关于这块如果你不熟悉的话,那大家可以打开这个扩展的地址,然后关于下边每一个模型的下载地址,以及它需要放在本地的哪个目录里边,都有着非常详细的描述。另外的话呢就是我们需要将驱动视频啊给它连到 image 这个输入里边, 然后参考视频连到 reference image 里边,那我们就会得到这样四个输出项啊,下面为了大家看得清楚呢,我们现在把这个四个输出项呢都把它显示一下啊,那现在呢这四个输出项呢,我们现在都能看到了,第一个呢就是 postimage, 其实呢就是我们将视频里边的姿势给它提取出来了。 第二个叫做 reference postimage, 其实呢是将参考图片啊它的姿势给它提取出来,下面呢就是我们的参考图片。 再往下边有一个 reference mask, 就是 有一个遮罩,由于呢我们现在对于图片呢并没有任何的处理啊,所以说呢,这个遮罩基本上是空的,它是一个全黑的图片,但是大家要注意,虽然这个遮罩是空的啊,但是呢我们在工作流里边是用到这个遮罩作为一个关键的输入项的, 那下面呢就是模型的加载啊,这个就比较常规了,首先我们的主模型加载的就是刚才说的 one two all animation f p 八的模型, 然后呢我们这儿加载了一个 light x two a 的 加速模型,那同样开启了块儿交换,而且这个数量呢,我们设置成了三十二。然后呢我们加载 v e 文本编码器。大家注意啊,这个提示词呢,可以写得很笼统啊,因为我们现在测试的都是跳舞的视频,所以说呢,我这个提示词写的都是 a beautiful girl is dancing。 然后这呢有一些基本的配置项,比方说我们现在的针数呢是八十一针,但是你要注意啊,这八十一针指的是一次才要生成八十一针,而不是说我一共就生成八十一针。 那同样呢,由于呢是不断地扩展啊,所以说上一个视频和下一个视频之间呢,需要有一定的重叠,那这个重叠的帧数呢,我们是成了五。这里边比较有意思的就是 k 神关于 schedule 的 设计,其实是一个动态的调度,那大家会发现啊,这个 schedule 的 话呢, 会根据我们的步数啊,产生一定的曲线。下边呢就进到了我们基础视频生成的部分。这里边呢有两个非常重要的环节,那第一个环节叫做 add one to all reference invite 啊,其实是将图片的信息加入到我们的 latent 里边儿, 那还有一个叫做 add one to all post in bed, 其实是将我们的姿势信息加到我们的 latent 里边儿。那它具体怎么操作的呢?我们来看一下啊。首先呢,我们先生成一个空的切入式向量啊,你可以认为它 是一个空的 latent。 然后呢就进到我们的第一个节点,叫做 add one to all reference in bed 啊,其实就是将一个向量加到另一个向量里边儿,那要加到的基础向量当然就是我们刚才设定的这个空向量, 然后呢我们要把谁加进去,大家注意一个呢是我们的 reference image, 另外一个就是我们的 reference mask, 所以 说呢,通过这个节点就把我们的参考图片它的相关信息给它加入到我们这个浅空间里边去了,然后再往下边就是要把我们的姿势给它加到这个嵌入向量里边去,我们先要从这个姿势里边取八十一针出来, 因为呢我们不可能一次性生成,作为第一次呢,我们只能先生成前八十一针,完了之后呢用这个节点, 大家注意啊,他的输入项呢,其实是我们刚才生成的 in by 的, 以及我们刚才说到的姿势图片,大家注意啊,这个姿势图片呢有两个,第一个呢就是我们刚才说的驱动视频里边的姿势图片,第二个呢就是我们参考图片的姿势,下边呢就进行一个参照就可以了, 那关于彩样的各种各样的参数,其实呢我们在这呢已经定义好了,最主要的就是这个东西,那我们就先生成一个基础视频, 大家看一下啊,这个生成的效果还是非常棒的,那这就是我们说的这个工作流的第一部分啊,后边呢都是扩展啊,每个都一样, 那我们看一下它有什么不同?我们先把上一次生成的视频取过来,首先呢我们有一个辅助计算的节点,那这个节点是干嘛的呢?因为我们这个视频是有五针重叠的啊, 所以说呢,我们在做原始视频的时候呢,必须把后五帧给它去掉,那通过这个节点呢,可以非常方便地获取到去除了 overlap 之后的视频 以及我们的起始图片,那然后会经过我们这个节点,把它翻译到我们的浅空间里边去,同样也会用到这两个非常关键的节点啊,这两个节点我们在刚才已经说过了, 那一个呢,是将参考图片的信息加入到浅空间当中,一个呢是将姿势的信息加入到浅空间当中,然后再次进行采集啊,进行视频的扩展。扩展之后呢,我们需要将原视频 和新的视频给它拼接起来,那用到呢,依然是这个辅助计算的节点,但是不同的是,这儿呢没有连 new image 啊,因为没有新的视频生成。 而这儿呢,由于需要将两个视频拼接起来,所以说呢,原视频就是我们上一次生成的视频,而这个 new image 就是 我们这次采用生成的新视频。那后边呢,就可以有第二次扩展和第三次扩展。那这个节点呢,有两个非常重要的选项,第一个是这个叫 frames processed, 这个是你之前生成的所有视频的总长度,所以说呢,随着不断地扩展,这个值呢在不断地变大。另外呢,就是 下面这个选项说如果它要是帧数不够,我们应该怎么办?它目前选的模式是 pad with last, 也就是根据最后一帧进行扩展,所以说呢,到最后会有一些竞真的画面, 哎,也就它是不动的。那为什么会产生这样的问题呢?主要是因为这个工作流呢,是一个非自动化的,你需要根据加载的总帧数来设计一下到底要扩展多少次,那如果你匹配不合适的话,就会出现这样的情况,这是这个工作流的一个详细的结构,相对来说呢, 呃,是比较复杂的,用到了比较多的节点啊,所以说大家呢,一定要把这个思路捋清楚,然后呢大家注意一下,就是这个模型呢,还是有一定的缺点的, 那我们来看一下这个例子,这个例子呢,驱动视频没有发生变化啊,大家注意这个图片呢,比较怪,他用到了一种特殊的艺术风格啊,就是中国常说的皮影戏。那如果我用这样的图片作为参考图片,你来看一下生成的效果, 大家注意啊,整个人物其实相当于被重绘了,他并没有完全的按照你的参考图片来生成,所以说呢,这是大家需要注意的一个问题,参考图片不要选择特别的另类,还是要选择我们一些常见的这个图片。 那刚才我们也提到了,这个工作流呢,是一个非自动化的工作流啊,你必须手动的去匹配,所以说呢,我也给大家构建了一个完全自动化的工作流,那我们来看一下,那前面的处理的基本上是一致的啊,但是呢,我现在把总的真数 给它取出来了,叫做 total count, 然后在生成了基础视频之后,那我下边呢有一个自动化的扩展,这儿呢,我们用到了一个循环,那这个循环呢,我们用的是 for loop start 和 for loop end, 然后呢我们来计算一下一共要循环多少次,那这个次数的循环呢,我们不止一次的去计算过了 啊,这是总针数,那这是每次生成多少针?然后我们先用总针数除以每次生成多少针,完了之后呢,我们给它减掉一,有时候我们为什么要减掉一?因为你在这已经生成了一次了。然后呢我们进行一个上取整, 那下边的流程呢,其实是一个固定的,那我们将每次生成的视频给它连到 initial y 六一,那对应这儿也就是 y 六一。那下边这个流程跟我们刚才看到的扩展是一样的,那只不过就是最后生成的时候,我们需要给它更新到 y 六一,这个就可以了。 那我们看下最终生成的这个效果,跟刚才看到的是一样的,他后边呢依然有竞争的这个画面啊,因为我们选的是 pad with last。 那 为了看一下这个模型能生成多长的视频,那生成的质量到底怎么样?我也采用了一个非常长的视频,我现在取了四百八十帧, 然后参考图片呢是一个穿风衣的美女。然后呢我们来看一下最终生成的效果。这个呢就是我刚才给大家演示的二十八秒的那个视频啊,它生成的质量随着扩展呢,是没有明显的降低的,所以说呢,我觉得这个模型的质量呢是非常棒的。呃,但是呢,你要注意啊, 他的一致性的保持其实还是有问题的,那如果你详细对比生成的视频的人物和我们的参考图片,那个人物啊,这个一致性的相似度呢,不是特别的高。 当然这个跟什么有关呢?跟视角是相关的,如果在生成的视频当中,面部所占的像素比较大的话,那这个一致性的就会变得很强,但是像这种全身的视频,他基本呢可以保证整体的特征,但是五官的一致性呢,并没有那么完美 啊。这也是大家需要注意的一个问题。不管怎么讲,经过很多的测试之后,我们的确可以发现这个模型生成的质量呢,的确是要优于 one animate 的, 那建议大家呢也做一个尝试。好,今天呢,我们就说这么多,关注我,做一个懂爱的人。

哎呦喂,太卷了, c d 点事儿的抱坐屁股还没坐热两天智普就帅出开元新秀, c k l 明晃晃来砸场子,我和提巴那瓜娃子立马搬起小板凳排排坐,脚晃悠前排吃瓜看热闹 啊!大家好,我是 t 八啊,今天给大家介绍一下这个 scale, 我 们先给作者点个 star 啊,这是智普开源的一个项目,我们要知道啊,如果说我们现在能玩到各种各样啊非常棒的这个视频项目,是要也是要感谢智普 啊,从他开源第一个开个 video 开始,我们的视频的生态开始不断的完善,所以说啊,智普在其中还是有非常大的一个项目,所以呢,他确实每年都会开源一些非常棒的一个项目, 甚至这次把它的以前的一个核心项目 autem 也开源了,包括像智普的 tts 以及实时的这个视频动画等等,包括这个 scale 的 项目,这个项目呢,是在 one animate 的 一个基础上进行一个啊构建的, 它里面最核心的一个点呢,是它的一个 n l f 的 一个三 d 的 姿态预估啊,它可以直接把我们的图像特征 啊,通过他这个编码的方式获得一个三 d 的 一个体速的特征,同时呢绑定五十五个骨骼的关节 啊,所以说呢,我们可以看到他的动态非常丝滑,尤其呢,在这样一个转身等等啊一些复杂动作的情况下,可以获得极大的一个提高。目前我们其他项目都是没有办法 获得这样一个提高的,因为我们大部分都是用的普通的骨骼图,当你转身的时候,经常视频是无法啊分辨这个问题的,我们要通过各种骚操作,包括提示词等才能获取。当然这个项目实际测试下来呢,还是有一些缺陷的, 包括因为目前 k j 的 一个复现的方式啊,还是不完整的,我们可以看一下,作者也说了,目前呢在多人的 姿态和渲染提取中呢啊,这个面部的这个跟踪呢,还没有复现。另外 kj 针对这个项目呢,也单独做了一个仓库啊,这是我们这个姿势的一个仓库 啊,也是要把它更新到最新的。首先我们还是先来个人力哈普啊,这是我最长的 ai 工作台,每天都会上传最新的工作流,我们通过剪辑去链接注册会送一千点,每天更多一百点。今天呢我已经把这工作流上传了,我们来一个一个给大家说一下啊,首先我们先说一下它这个核心节点, 这个核心节点呢就是我们新的啊这个预处理器啊,这 n f 也就是他的三 d 的 姿态预估的处理器啊,他呢是刚才说过了,他会处理到非常多的骨骼点,同时呢会做成一个啊柱状的啊,一个三 d 加上深度的这样一个参考图 啊。在这个时候呢,我们一共有三个连接进去的地方给大家看一下,一个是 nifpos, 一个是 dwpos, 一个是 reference dwpos, 那 我分别说一下他们的一个作用啊,这边呢为了直观呢,我给大家看一下,把这个三个拉出来, 那有的时候呢,我们用法呢是不一样的啊,首先我们说一下啊,当我们把下面两个全部关闭的时候,我们可以看一下啊, 这时候呢,他的骨骼他是不包含头部的,因为截止到目前呢, k g 还没有复现这个部分,我相信他后续肯定是会想办法的啊,如果说我们用多人或双人的话,我们一定要把下面两个给关掉,否则的话他这个头会来回跳动啊,那就出问题了。 那第二种方式呢,就是我们把下面的 ref reference 把它给关闭,这时候我们可以看到他头部是有最重点了, 对不对?那我们再看一下第三个,我们两个一起对比下,第三个呢是把所有的都打开,那从我们这边看上去啊,他是不是一样的,对吧?但实际的效果呢是完全不一样的, 我们来看一下这两个视频啊,首先来说,我们看到左边他的脸部变化更大啊,右边的脸部变化就少一点,这就是我们第三个接口啊, reference 这个 pos 的 它的一个用途,当我们把这个关闭的时候呢啊,他的脸部的 啊,一个效果呢,就会明显的一个下降,同时呢我们提示词也会生成一定的作用,比如说我们这边写,如果说是写女人在跳舞,那男性呢,他也会出现一些女性的表现,哪怕我们加上 reference, 这个我们看一下, 对吧?右边的啊,他的发际就成了一个女性的一个发际,所以说呢,提示词虽然不是最重要的,但是也会起到一定的一个作用。下面我们来看一下工作流的基础的搭建啊,以及一些注意的事项。首先来说呢啊,这个项目呢,他的分辨率不是特别高,如果说我们看过官方的企鹅跳舞 会发现啊,姿态真的是非常的好,但是呢明显就觉得啊,这个像素包括它的画面的质感啊,就是感觉远不如这个 steady dance, 那 我们来看一下,因为它是在五一二分辨率啊,进行一个啊训练的,那也就是说呢,差不多在五一二乘八九六左右, 但是我们可以适当提高,适当提高呢,对于我们面部的一个生成呢,是有帮助的,但是呢并不像 steady dancer 啊,把它生成到一二八零那么清楚。另外呢,这个项目呢,跟我们其他的还不太一样啊,它是一个 从头深沉到底的这样一个项目,所以说呢,随着我们的一个增数啊,加大他的时间呢成几何的一个上升。我们看一下 k 学在这边做的处理,是加上了上下文的窗口,甚至把这个重叠窗口呢加到了非常的大 啊,也就是说呢,如果说没有特别大的情况下呢,他的脸部包括整体的一个变化会比较大的啊,这呢就是跟他预训练,因为是在八十一针上的一个情况是有关系的,但是我们看一下,通过这个情况呢,整体来说还是不错的,对吧?我们看一下啊,整体还是不错的 啊,跳舞什么都是没有太大问题,可以看到啊,这脸部就是不是特别清晰,我已经到一二八零了,而且是相对来说啊,比较啊大的这样一张人物。 那这个项目呢,目前来说最好的部分还是他的一个转身,因为他是三体骨骼的,对于我们各种啊复杂动作,比如说有些转身的 啊卧倒的这种动作来说,那是有一个太好的一个帮助了啊,特别适合这种项目,而且呢啊像这种骨骼的方式出来以后呢,我相信有很多啊,其他新的项目也会陆续的出来,所以说这个确实是一个隐喻的事情,当然他不是专,他是个非常不错的一个项目。 其他还有个点呢,就是我们看到这边要做数学表达式除以二啊,因为作者呢是在以我们的啊原视频的基础上啊,除以二的 啊去训练的他的这个骨骼图,所以说啊,这个就是一个固定的格式,没有什么太大的意义啊,就是我们按照这样制作就 ok 了。另外有一个啊会容易导致报错,这个点给大家说一下,就是我们这个整除啊, k 值设置的是十六,实际上是不对的啊,这里整除一定要是三十二, 否则的话你在做一些特殊啊长宽的这图片的时候呢,他是会报错的,所以说呢,我们要把这个整除改成三十二啊。下面我们再说一下双人的局限性,我们刚才说过了双人,因为现在啊他在一个头部的跟踪,就是脸部的关键点还没有进行一个复线,所以说我们把这两个给关闭。 这个时候呢,我们来对比一下看一下啊,刚才呢给大家看了一下,就是我跟真真跳舞的这样一个视频,我们先把它给滤镜一下, 我们看一下在八十一帧的时候就是还可以,对吧,整体还是可以的,但是我们看一下在这边啊,两百多帧的时候,后续会发现脸部的变化啊,开始变大, 然后呢当我们人交错以后,可以看到变成两个真身了,对不对?这就是目前的一个问题啊,所以说呢, 现在双人呢就是可以做,但是最好呢是做一些,比如说像什么蝙蝠侠啊,超人啊这种,对吧?或者卡通角色,然后呢他可以有一些重叠,但是尽量不要姿态进行一个完全的一个重叠,然后再回退,这个时候呢就容易出现这样的问题。 下面呢我们再看一下啊卡通人物的一个复现啊,卡通人物我们看到啊,复现的效果也是挺不错的对不对?他对于人形姿态的实际上问题都不大, 但是呢,他对于这个头升笔是有一定要求的,当我们把头升笔啊压缩到一定的情况下,他就不行了,我们来看一下我们这个是差不多是五到七头升的,类似我们真人的这个比例。我们来看一下这个三头升的 啊,可以看到啊,三头声带,无论是你参不参考脸部,最后都会发生啊这样一个问题,也就是说他没有办法把它进行识别到他是一个中的人,他只能重新去构建他的骨架啊,所以说 啊,在这方面呢, steady dancer 还是有更大的一个优势啊。最后我们还是把这个项目总结一下,那从这个姿态的表现来说,如果说不转身的情况下,无论是长视频还是清晰度来说,我更推荐 steady dancer, 但是呢,这个项目的意义还是非常重大的,因为他直接把这个三 d 谷歌姿态的预估给时装了,那后续我们新的这样的项目就真的是未来可期了,所以说确实是个里程碑的项目。 第二点呢,也是非常啊期待 k j 把多人面部姿态的啊这个追踪点给加上,那到时候呢,无论是多人双人 啊,都是可以的,因为目前呢,官方已经支持了八人的一个获取了,所以说哪怕你到时候做个女团也是可以的。另外呢,期待后续啊更新的项目呢,可以把这个训练机啊继续提高,让他的整体的 包括清晰度等等,再次有一个飞跃啊,真的是非常不错啊,非常感谢智普,那今天呢课程就到这里了,谢谢大家,记得给 t 八点个赞。

ok, 大家好,我是飞雪,那么这期视频主要给大家介绍的是最新的这个 skill 的 这个模型啊,那么这个模型的话是我们 kj 大 神做的一个康菲版的一个附线啊, 那么在目前的版本上面呢,它只支持一个单人和一个双人的一个动作的一个迁移,那么在后续的更新当中呢,它肯定是会支持一个多人的,因为这个项目的原声是支持多人的,那么还需要一些给社区一些时间。好吧, 那么目前这个工作流呢,我已经上传到了 lony hapa 上面, lony hapa 是 我最常用的一个云平台啊,你们第一次注册的话是会送我一千点的,每天登录都会送我一百点, 那么像现在的话,我其实就在那个 lony hapa 上面跑的。那么这个模型的优点呢,其实是对于复杂动作的一些迁移,那么很多动作其实在原本的那个 mni 上面是无法实现的,那么在目前这个情况下,它是完全可以做到一个 比较好的一个迁移的。但是呢,你们在迁移的过程中其实是需要注意几个点的,一个第一个点呢,就是你们加载的图片呢,是一定要符合我们正常人类的一个比例,也是也就是说啊,他的头身笔是要接近正常人类的, 他不管你的样貌或者说你放的图片是什么样子,那是没有关系的,但是你们的比例一定要是正常比例,否则的话他的骨骼图是无法贴入进去的,这是你们非常需要注意的一个点啊,就你们放什么图片都可以,但只要他的头身比是正常的就没有问题。 然后第二个点呢,这个东西的话,我目前在本地是没有办法运行的,那么最低的话,我猜测应该是需要个十六 g 的 一个显存的,因为我十二 g 的 话,虽然没有报显存直接退出,但是呢他直接卡在了那个参数当中,卡了很久都没有运行,那么基本上也是进内存当中在计算了。好吧, 那么这是我目前自己本地测下来的一些情况啊。那我跟大家讲一下,然后我们讲一下这个具体的一个工作流的运行那个模式啊,但是其中工作流当中呢,我其实已经标明的非常明确了,那么 这边呢,其实是他一个我们的一个分辨率的一个选择,那么其实呢,哪怕我设置了一个一二八零那个分辨率,他其实跑出来,哪怕你们在 demo 当中其实也看到了,他其实还是有一些模糊的,那么是基于这个模型的训练参数有关系, 他大多使用的是一个五幺二的一个训练参数,所以呢,他哪怕你设置了一个比较高的一个参数,就分辨率的一个参数,其实他出来的话也是比较模糊的。那么这个项目其最大的意义是对于骨骼的一个迁移的这一块的内容的出现啊, 只要再等一段时间,给社区一点时间呢,后面他的发展会越来越多的。那么这个其实就跟当初的 animate 一 样,他刚刚出来的时候其实问题也非常多,那么在社区的力量下一点点的把它完善,到了现在的话,他就相对来说已经非常好用了。好吧,都是任何的开源项目都需要一些时间的, 然后这个的话是设置我们的一个帧率,那么在双人的阶段当中呢,我建议大家就用一个八十一帧,因为我测试了一下,超过八十一帧之后,他他的动作的问题和人物的粘连状态会越来越明显,好吧,所以八十一帧是他相对比较合适的一个帧率, 那么在单人过程当中,那这点就会相对好很多,你们在网上设置多一点的帧数,他也能跑下去,好吧, 这是你们需要注意的个点。那么题词作用呢?他其实是有的,但是呢,他的因为他原本就是基于 anima 的 做的一个优化,做的一个新的一个模型,所以呢题词的作用有,但不多,好吧,但你如果写一些男生女生,或者说写一些动物什么之类的,那他是有一点点作用的。 然后这边你们需要注意啊,我这边做了两个开关,这个是 uni 三 c 的 一个开关,这个开关你们可以开他的整体的镜头的一个运镜效果会好非常多,但是他是非常之配置的,所以你们这个一定要根据自己的本地去做一个抉择啊,如果你们只是本地一个十六 g 的 显存,我建议大家就不要开这个东西了,好吧, 然后这个就是我们单人模式需要切换的一个东西,如果说你们是要开启单人模式的话,就要选这个 yes, 如果是要多人模式的话,就把这个 yes, 就 把这个关掉就可以了。这个是取决于我们面部状态的面部姿态的一个参考, 因为目前 k j 在 多人的状态下的面部识别是有问题的好吧,所以你们不要去用它,单人的话是没有任何问题的, 这个需要注意一下啊。然后这边我们把图片跟视频加载完之后呢,这边就正常把我网盘里的模型把它下载下来放进去。那么这下面这四个呢,其实都是比较常规的,之前做安妮美特的时候,你们肯定都是会有的,那么唯独上面的话是一个新的模型,这个的话反正所有东西网盘呢我都给他备好了,这备的非常齐全, 然后这边的话是做了一个图片信息的一个一个处理,然后处理完之后呢,我们就加载到了这三个空间, 那么这边的话你们不用去动他啊,这边都是定死的,那无非这个交换快的话,你们根据自己的配置去做一下,但是目前呢,由于新版本的康复 ui 呢,其实对于交换快交换这一块其实是冲突的,好吧,你们这一定要注意啊,所以我基本上会开个二十,如果你开四十的话是会出问题的,好吧,这个目前反正不兼容, 那么这边的话其实就是我们那个姿态跟面部的参考了,那么刚刚我跟大家说的面部参考其实就是这块东西,所以我给他加了一个主,方便我那边做一个开关,这块东西其实就决定了我们面部的一个参考,那么这边其实跟之前的安妮美特是一模一样的,就是一个姿态的一个迁移, 就连模连模型都是一模一样的,好吧,那唯一不同的是这一块的东西就是新的,对于我们的 scale 这块模型做的一个新的一个节点, 然后这边呢?然后下面的话,就是我刚刚说的一个 unit 三 c, 如果你们配置高一点的话,可以开启,但是时间会长非常多,好吧,要注意, 然后这边过来就不用管它了,它是这样的,正常的一个采药过程,我们不需要动它的。然后这边的话呢,我把它截了一帧掉啊,因为我发觉它输出的第一帧呢是有问题的,所以我把它截掉了,然后到这边我们就正常的一个和平为视频就好了。 整体的流程呢,其实你说难吗?也不难,比之前埃尼姆特其实还相对简化了一点,唯一的话对于配置要求其实反而比之前的埃尼姆特高了不少,因为像之前埃尼姆特的话,我本地十二级显存其实也是能跑的,那目前的话,我在本地跑一个八三二的话,其实都是跑不了的。 好吧,反正我运行是能正常运行到一个采药过程了,无非就是配置不够,反正已经帮你们全部都测试过了,其他的东西,缺的东西我都帮你们补充好了。好吧,那么跟大家讲一下网盘的内容啊,它其网盘内容其实相对来说跟自己安妮 mate 有 有点像,东西非常非常多啊, 那么像这边的话,正常是有这些模型,这些模型其实多常规的,那么唯一的话,这里多加了格力三 c 的 一个模型,然后这个的话是之前安尼美特其实也有的这两个姿态牵引的一个模型,然后这个就是我们这次会用到的这个大模型,那么这个模型其实也不小了,有十五点三 g 了, 那么 lara 好, 我们用的就是正常 k j 的 一个幺二八的一个 lara, 然后这就是我们这次新的一个姿态的这块的一个新新节点的一个模型, 然后这个是我们的战场的一个克里普的模型,然后 ve, 好 吧,模型其实就这点东西,但是呢,你说大,你说他少呢?也不少,因为杂七杂八东西内容还挺多的,反正我尽量每次做视频的时候都给大家归类,归的非常多清楚,好吧,方便你们在第一次学习的时候可以一次性把它放进去, 然后插件这边的话,我给他补充的非常全了,那么这次所用到的这三个新插件我都给它放进来了。像这个插件其实就之前做安妮美特的时候就是 最核心那个插件,那么包括这次的一个 kj 星座的一个 skill 的 这个 pose 的 这个插件,然后包括我们的分支节点这个插件我也放进来了,防止你们在做分支的时候又没有切换,然后导致下载错误。然后我们看下这三个插件啊,那么这个的话就是刚刚我跟大家说的 那个 kj 的 需要切换到这个分支插件分支的这个这块地方,那么我也会把这个简介,那个那个 地址留在我的简介处啊,你们如果想要自己去安装也可以,然后这块的话就是我们的那个之前安利美特那个插件,然后这就最新的这个节点的自姿态节点的这个插件,好吧,那么其实用到最新的就这三个插件,你们需要相对来说可能是本地没有的东西, 其他的话也就没有了,那么这期视频就这样子了,如果你们可以尝鲜的话可以去玩一玩,因为他对于动作的理解度的确比之前提升非常多。好吧,那么低显存的话,你们也可以去软件 app 上面去享用一下免费的那种玩法也可以,因为我跑了一下,基本上 如果不开 u n 三 c 的 话,基本上也就五分钟左右,那么你们本每天的话就也是能免费跑的。好,这期视频就是这样子了。

大家好,今天跟大家介绍一个这个 skill, 就是 一个更好的动作迁移的 技术啊,它跟我们的 animate 相比呢,有一定的优点啊。首先你像这种啊,我们看这个,它第一它又有转身,又有这个 啊,切,镜头类似于这种,其实安妮美蒂特有时候出来他会有一定的问题啊,当然这个也不是很完美的,比如说你看后面啊, 哎啊,你看后面多了个人啊,但是这个其实整体跑下来啊,还是感觉比比安妮美蒂特效果稍微更好一些啊,比如说你看这个其实就没有那个人了,这一跟抽卡有关系啊。再就是比如说这个 是吧,也是很好玩的,并且它支持各种次元的转换,你像这种二次元的转换也没有问题啊,看二次元的,最关键的啊,它这个双人双人迁移做的很丝滑啊,比如说类似于我这个 女儿,国王和所有和猴哥的啊,你看他这个转身过去也丝毫没有崩啊,当然这个棍子稍微有点崩啊,这个也是没有那么完美啊,对吧?大家看, 这个是原视频啊,两个人跳舞,然后,呃,两个人的就直接上传两个人的就可以了, 效果不错啊。嗯,也是推荐大家玩一下啊,本期对应的这个工作流呢,我也同步上传到了 ronnie happ 这边啊,你像这些新技术啊,这个其实是昨天才发布的技术,类似于这个啊,他的这个背影也迁移的很好。 呃,类似于这种新技术新玩法, ronnie happ 一 般会第一时间上新啊,也是比较适合小白去玩的, 因为我们不需要去考虑那么多配置环境和模型的问题,直接就可以玩了啊,如果是新用户呢,这边用我地址注册,还能送大家一千个积分啊。我们说一下这工作流具体怎么使用,一会再跟大家说一下。如果大家本地玩需要注意的地方啊, 首先呢,使用也很简单啊,大家第一在这里呢,就说视频的宽高,这个一定要注意,一个是宽,一个是高,有些因为很多新手朋友啊,他横屏的视频没有改过来,所以说造成了视频给截了一块啊,这个大家注意一下, 按照这个顺序来啊。然后下面呢,就是视频的时长,呃,这一块需要注意的啊,因为 首先这个模型啊,他基本是在十六针这里训练的,所以说我这里没给改啊,如果大家觉得动作不够丝滑的话,可以手动给改,把这个帧率改高一点, 但如果你把改高了的话,你这个简易预算这里啊,一定要把这个十六给改过来,比如说你这里改了二十四,那你这里也得改二十四啊,要不他运算不运算就出问题了,会造成视频就说 呃,变速啊。然后再就是说后面合并为视频,这几个帧率要统一起来,这边为了贴合他原模型训练效果一般,咱就十六就不变了,因为他用的底膜也是万二点一的技术。时常这边啊,这个团队说是 基本按八十一帧,也就五秒来训练的,但我这边实测啊,我这边跑了个十秒,效果也是不错的,并且啊,我这跑十秒时间稍微久点啊, 跑了四百多秒才跑完了,这一阵啊,电脑内存条崩了一根啊,所以说是四十八 g 内存跑的可能可能有爆显存了有点。 然后啊,这里改一下什么孙悟空和女儿国在跳舞,提示词改一下就可以了, 整体整体,其他的没什么了。再就有一点需要注意的啊,如果你跑单人的话,你需要把这个开关给开一下,单人的话他是支持。第一是多风格, 比如说类似于我们这里展示的,不管是这个卡通人物呢,还是说像这种毒液这种虚幻人物,还这种真实人物,还有那种 q 版的大头的,他都是完美支持的,但是双人的话暂时只对这种真实人物支持的比较好,像卡通的什么经常检测不到啊, 你看他这边也是就说是跟比例有关的啊,所以说使用的话唯一一点注意的就是这个位置啊,我们说一下这个本地,大家使用这个工作流需要注意的啊, 首先呢,大家需要安装一个新的节点啊,就这也是 k g 为了支持这个项目新做的一个节点安装的方法呢,一、推荐大家直接在节点目录里头,然后输入 c m、 d, 我 们把这个节点的路径给他拷贝下来就可以了啊, 装完这个之后呢,他这个节点就在这里头了啊,然后我们刷新一下看看。节点下载完之后呢,这边有个依赖文件啊,我们还需要装一下依赖文件,大家就进自己的环境目录下再装一下依赖文件就行啊,说过好多遍了,咱就不强调了, 现在就有一点呢,大家需要就说更新一下这个 one video 节点啊,之前这个,呃,之前这个模块呢是在分支里头啊,但现在已经更新到主节点了,所以说大家直接给他 point 更新一下主节点就可以了,一会更新完,更新完之后这里就显示他这有这个节点了,并且 视视力的工作流也有了,这个也就是在视力工作流上做做了一些改动啊,再就这工作流呢,他加了这个 uni 三四呀。所以说对于这个呃运镜的话,大家可以看一下,还能完美的,就说迁移原视频的运镜效果还是不错的啊。 然后剩下的呢,无非就是模型的存放了啊,这边我直接都把需要的模型放到整个 model 里头了,大家把这三个直接给拷贝到自己的 model, 或者说按照你的这个 model 直接放进去,如果有它会显示替换,如果没有就正好啊, 直接就可以运行了。剩下的也没啥了,其他的都是我们 y 二点一用的基础的东西,比如说 lightning 模型,还有 ve 等啊, 好嘞,整个项目还是值得玩一下的啊,效果确实也是不错的啊,更多的效果大家自己测一下吧。 然后呃节点还有模型呢,我都会同步放到网盘里头,大家从网盘里头呢找到今天发的日期啊,你像十二月十六日,然后所有的基本都在这找到今天的日期,然后下载工作流和模型就可以直接使用了。好嘞,谢谢大家,再见。

我们现在来看一下这个项目叫 one two all animation, 这个项目主要是解决在姿势迁移的时候的空间错位的问题,比方说这是一个真人的跳舞的视频, 如果你要把这个跳舞的动作迁移到像这种卡通人物的图片上,因为这个卡通人物它是非正常比例的,它的头特别大, 身体特别小,那如果说是用 one animated 的 话,它就会拉伸这个图片的比例,然后最终的效果就是这个原图就这个图片的比例会被拉伸,然后就变成了不像这个原来的这个图片了。 而这个 one two animation 这个项目就是专门用来解决这个问题的,就是要让这种比例不一样的角色图片迁移这种动作。它这个在用的时候需要注意几个点,第一个就是在这里上传一个动作的视频, 然后这里上传一个图片,点击这个运行就可以了,这里还需要去设置一下它的宽和高。另外在这里还需要根据这个视频的时长,假如说他这里是这个 每八十一针是一个窗口,如果说是你是低于八十一针,你在这里就把这些全都注掉就可以了。如果说是你每 高于一个八十一针,你就复制这样的一组往后排,最终他就可以生成特别长的这种视频, 是一次性迁移一个特别长的动作。他的核心的实现的点是在这里他首先会根据这个参考图进行适配这个圆动作的骨骼,比方说这里参考图是这个,他首先根据这个参考图 生成这个参考图的骨骼,然后他把这个视频的动作直接适配成这个参考图的这种骨骼, 最后他生成的这个效果就是这样的,所以说他能完美的去适配这种非正常比例的图片,他这个用法就是这么简单,我们现在来看一下他是怎么 安装的。那首先进入到这个康菲尔搅拌站,然后点击这个模型广场,找到这个 one two all animation 模型和工作流,点击进去,那这里可以免费下载, 点击这个确认下载,可以看到这个地方它是有两个部分,第一个是 model, 第二个是这个工作流,那这个 model 是 这个 one two or animation 的 用到的所有的模型,这个就是刚才演示的这个工作流,你需要准备一个这种整合包,那我这个就是官方的纯净包,就是里面什么都没安装,也没有模型,也没有插件。那如果说你在你现有的整合包上安装, 如果说你的这个整合包比较老了,可以点击这个 update 里面的 update comui, 点 bat 把它升级到最新版就可以了。 把下载下来的这个 model 直接复制到这个整合包的 comui 的 这里面,它这个 model 里面的文件夹都已经分好了,你直接复制就可以,如果有这种重复文件跳过就可以了。 然后我们打开这个康复医院管理大师,在这里点击添加康复医院这个整合包添加进来,这里切到这个整合包, 点击启动,那启动完以后把这个工作流直接拖过来,可以看到他缺了很多的这种节点,这节点都是爆红的,都是缺失的,那我们现在来给他补一下这个节点,我们先把它给关掉,点击这个工作流分析,把这个工作流文件直接拖过来, 然后点击开始分析,这里就可以分析出需要安装的节点,这个不用管它是一个节点组,这个工作流里面用到的一个节点组,这个不用安装,也不用管它,下面看一下,这里是显示未安装的,点击这个自动安装, 点击开始安装,再往下找这种没有安装的,点击这个自动安装,开始安装,继续安装好,都已经安装完了,这两个也是接电阻,不用管他,回到这个工作台,点击这个启动,这里还有两个没有安装,我们看一下,对,这个还没有安装, 点击自动安装,开始安装好,我们再回到这个工作台,点击启动,这样就可以了,这样都已经安装完了, 然后在这里点击上传一个视频,然后在这里上传一张参考图,然后在这个地方修改一下它的宽度和高度, 这个地方就是刚才说的,根据你这个视频的时长来确定这个节点组的数量,假如说你的视频特别长,你就多复制几个往后排就可以了。设置完以后,点击这个运行报错了, 这个错是非常常见的一个错误,就是 mobile 内部的什么什么什么什么的原因就是缺少这个依赖,那缺少的依赖的名字就是这个,这个非常好解决。那复制一下这个名字,我们先把这个 comui 给停掉, 在这个地方环境管理这里点击依赖管理,点击这个安装新依赖,把这个名字复制过来,回车这里就会展示出所有的版本,然后点击这个安装就可以了, 那安装完以后点击这个工作台再重新启动一下,现在再点击这个运行,那可以看到这个地方,他是先根据这个参考图来生成这个适配的骨骼。好,这样就生成完了最后的这个效果。 好,这个就是 one two or animation 动作迁移的这个项目的用法和它的这个安装方法。 做好了这个整合包,我也会直接上传到这个康复药搅拌站里,然后点击这个整合包,在这个就是 one two all animation 动作迁移整合包,点击进去就可以下载,下载完之后解压就能用了。