大家好,前天和大前天我给大家分享的那些工作流呢,全部都围绕了这个节点来进行工作的,将我们的素材图像按照提示词的语意来进行一个遮罩的一个提取, 那么今天这个工作流呢,仍然是使用到了这个节点,这次我们使用这个节点是将我们的素材图像进行一个遮罩,将遮罩分离出来之后,我们将遮罩的物体呢去为他擦除,清除之后得到一个没有人物的一个背景图像,然后我们对生成的 这张没有人物角色的这张背景图像我们进行一下优化,因为从这张图像上可以看到我们缩小,可以微弱的看到有一些人物的尾影,还有将人物擦除过之后,背景的物体变得扭曲的情况。然后我们就继续采用一些工作流节点呢 对这个图像进行一个优化,将人物为影去除的更好,可以让图像更合理一些。最后呢我们也可以再为没有人物角色的这张背景图像去在中间呢画上一个遮罩,再用新的提示词, 比如说我要在这个图像的遮罩里面呢去生成一个动物,我们就在提示词呢再输入一个新的动物,让他在这个背景图像上呢遮罩的基础上再生成一个新的动物, 比如说这个猛马象,这样的话我们就将之前两个人物所在的这个素材图像背景呢更换成了一个猛马象。那么今天呢主要是分享一下这个工作流, 但是呢,我今天分享的不仅仅是这一个工作流,总共包含了三个工作流,而最后的这个工作流才是将我们原素材图像 进行一个角色替换的一个功能。我们先来看第一个工作流哦,现在我们说第一个工作流,第一个工作流呢,我们使用了带两个人物的素材图像,使用这个几点输入 person, 将人物元素 来进行一个遮罩提取。提取出来之后,我们使用这个节点呢,将人物进行一个剔除,只留下一个背景,而且对人物的地方进行一个重绘,但是呢,这个效果并不是很好,可以看到 我们之前存在人物的这些地方呢,有一些伪影和模糊的地方。之后我们再用 checkpoint 模型呢,加上 focus inputs 这一组,几点加上这两个模型来对 去除人物的这个图像进行一个优化和重新生成。重新生成的这个结果我们可以进行一个左拉和右拉的一个对比,这是 刚才我们优化之前的这张图像。然后呢,现在是我们优化之后的这个图像,可以看到人物的伪影呢,变得越来越浅了,而背景这些数目也变得比较自然。那么呢,我们还可以继续使用第二个工作流来对他继续进行优化,这是第二个工作流, 他和第一个工作流的改变不是很大,只是加了几个节点,主要是加了这样一个节点,模糊遮罩区域。使用这个节点呢,可以让我们生成的结果图像去除两个角色的这个地方呢, 让他增加更多的模糊和模糊。边缘的控制也使用了遮罩加遮罩的一个混合,就是比如说我们想在素材图像的右上角,觉得这一块树木不好,我们可以自己去画一个遮罩 和这个节点生成的这个遮罩呢进行一个组合使用,这样的话就可以将我们提示磁声的遮罩和我们自己画的遮罩呢进行一个组合了。下面的这一组节点和我们第一个工作流的节点变化不是很大, 我们就是又加了一个采样器,总共使用两个采样器参数都是一样的来进行生成图像,这样优化过的图像呢,比第一个工作流生成的效果 会更好一些。我们来看我们最后的这个工作流,这个工作流我们使用这个节点输入了一个提示词 prs, 也就是人物,我们可以将图像上的人物呢提取出来作为遮罩, 但是呢,我在原素材图像又为他在这个区域又画上了一些遮罩,这是什么意思呢?就是给大家说明一下,如果是 我们在提示词输入之后,比如说有些图像当中的元素呢,你想为他提取出来作为遮罩,但是呢你又无法用提示词来进行精确遮罩的话,那么也是可以在我们的原素材图像上去进行一个遮罩编辑的, 编辑涂抹之后呢,你为它保存,也是能够去自己画一些遮罩为它加上去的。那么至于怎么让提示词生成的遮罩和我们画上去的这个遮罩进行一个组合,那么就使用到了这个节点, 这是一个遮罩加遮罩的节点,我们只要将这个节点生成的遮罩和我们素材图像上自己画的遮罩连接到这个节点上,就可以进行一个组合遮罩,然后我们再连接到 这个扩展遮罩这个节点上,这个扩展遮罩呢就是在我们已经生成的这个遮罩基础上,再在边缘再扩展二十个像素,为了避免出现人物轮廓线的这种情况,然后将遮罩的转换为图像,就可以看到生成的这个遮罩了。我们在使用这个节点 配上 inpent 遮罩模型。首先我们将遮罩模型呢去连接到这个节点上,这个遮罩模型 我们可以使用第一个,也可以使用第二个,这这种现在呢默认的选择这个第一个遮罩模型,它是经过 多个图像训练后的一个比较大的一个模型,生成出来的效果呢比第二个这个拉玛这个模型要好一点,这个拉玛呢是一个微小模型,他的计算量呢比较小, 所以生成的效果没有第一个好,我们就用第一个。那么第二个节点需要连接图像,这个节点连接的图像呢是连接我们的素材图像, 也就是原图。而第三个几点需要连接遮罩,我们就将这个遮罩加遮罩的这个几点,再加上这个扩展遮罩的这个几点呢? 生成后的这个遮罩去为它连接到 inpent 这个节点上就可以了。这个种子呢你可以选择随机,也可以选择固定,然后就能去除我们的人物了, 只剩下背景,这个时候呢图像可以看到背景呢有很多不规则和扭曲的一些伪影,所以说我们还需要进一步处理。这次呢我们就需要使用到 checkpoint 模型了,我使用的是 sd xl 的版本的模型,需要设置好正向提示词, 反向提示词,正向提示词呢,我们设置森林和树木,而反向提示词,我们需要将人物,动物,男人、女人这些提示词呢填写到反向提示词里面,避免生成新的图像, 出现一些人物或者是动物,因为我们要生成的新图像呢,我们要优化的图像只是优化森林和树木,这个时候我们需要使用这几个机电, 也就是 v a e 编码器,加上引 pent 混合的这个节点。将正向提示词和反向提示词连接到这个节点之后呢 连接 vae 的几点?下面呢,我们需要去连接图像了,我们将这个图像呢使用的是这张图像,就是上一步我们生成好的去除遮罩的图 图像去连接到这个节点上面,下面这个遮罩这个连接点呢,我们还是连接到上面的这个节点。下一步我们需要去连接 focus impance 这个节点,也就是焦点 impance 这个节点。 前天的视频呢,我给大家分享过,我们也使用到了这个 focus input 这个功能,他是需要使用这个几点呢?去使用两个模型,需要这两个模型,如果大家不知道这个两个模型需要放在哪里的话,可以先看我前天的视频, 或者是大前天的视频,我都讲过这个模型,我们将这个 focus input 模型呢去连接到这个节点的路径第二个连接点上将第三个连接点呢,我们连接到前面的这个节点上面,下面呢我们要使用到了这两个节点, 这两个节点呢是一个扩散模型自由度的一个节点,我们将前面的 checkpoint 模型,我们去连接到这个节点的第一个节点上面,输出节点的时候呢,用到这两个节点,再输出到我们的采样器节点上面,采样器节点我们连接了两个采样器进行一个生成, 因为我们用一个采样器进行生成的结果图像呢效果并不理想,所以说我们又使用了一个采样器,两个采样器的设置参数都是一模一样,然后呢生成的这个图像就是进行了一个比较大的一个优化,我们可以使用这个 in major a 加 in major b 的这个节点, 可以左右进行一个移动,你可以看到效果前和修过效果后的图像是什么样子。之后呢,我们从 v a e 解码器出来的这个节点呢,我们再去连接一个这样的一个节点,这个节点我们可以对它进行一个编辑,编辑我们在中间呢画一个遮罩,画完遮罩之后,我们可以使用这个图像进行一个输出,输出连接到新的提示词和反向提示词, 然后我们再用一套 focus impance, 这些节点呢和前面这些 focus impance 用过的这个节点都是一样的,我们只要把这一部分的节点呢复制一下, 给他复制到后面来来为他重新来进行一个生图,就可以将我们新的图像呢按照提示词来生成一个新的一个动物了,我们只要将这个连接点呢,他的 a 点连接到我们初始的这张 素材图像,然后就能和现在生成的结果图进行一个对比,那这样的一个生成流程和过程,这个效果还是明显意见的。好了,这就是今天给大家分享的所有的工作流这一整套如果大家需要研究或者使用的话, 可以到我的网盘里去免费下载,如果觉得我讲的还可以的话,请帮助我的视频呢增加一些平台的权重,帮我点击关注加三连,谢谢大家,我们下期视频再见。
粉丝1.9万获赞10.6万

大家好,今天分享的工作流是我们提供一个视频素材,通过这个工作流呢,我们可以替换视频素材里面的人物,或者呢你不替换人物,可以替换视频素材里面的背景,可以实现这种功能 效果。我们来整体看一下我们的这个工作流,这个工作流看着节点比较多,比较复杂,其实呢给大家梳理完成之后呢,他的工作流并没有那么复杂,从上到下给大家分好了节点组,我们来梳理一下他是怎么来运作的。首先第一个节点组是我们要读取我们视频素材信息的一个节点组, 在第一个节点里面,我们要生成结果视频的总针数,我设置的是十六针,也就是十六张图片,而这个视频素材呢,并非是十六针的视频素材,只不过我需要让他生成十六针用来测试,因为生成针数太多的话,生成的速度非常慢和显卡达不到要求。然后在这里呢,我通常是使用 塞子节点。什么是塞子节点呢?我们双击搜索节点,可以在这里呢找到这个塞子节点,将这个总帧数的节点去连接到这个塞子节点之后呢,我们可以对它进行一个命名,我命名为 number of prime, 也就是总帧数的意思。命名好之后呢,我们就可以在其他的节点组去 去使用 get 这个节点去找到总帧数的,刚才我们命名好的这个总帧数的这个 set 节点,我们就可以通过这个节点呢去输出去连接到其他节点组,我们就不用从这个节点组呢这个节点去连接到其他的节点组, 麻烦会产生这么乱的线条了,这样的话可以规整我们的线条,我省去我们比较杂乱的线条。可以从读取视频的这个节点呢,我们为他导出一个这个视频的总帧数的一个 size 节点,方便我们后面来使用。使用这个节点可以将我们上传的素材图像呢,进行一个图像宽度和高度尺寸的一个重置, 可以在这里呢对视频素材的尺寸呢进行一个自定义的一个重置,然后从右边这个节点,从这个节点的右边呢,我们可以为它导出再次节点,方便后面使用。同样我们也导出一个图像重置的,因位置节点方便后面来调用。好,下面我们来看第二个节点组。第二个节点组就是一个独 取我们要使用的模型的一个节点组,主要读取我们要使用的大模型,这里呢,我使用的是 sd 一点五的模型,同样我也为他导出了一个 size 接点,方便后边调用。这个名字呢,我们就取名为 sd 一点五,你取的名字要在后边调用的时候能够看懂,如果看不懂呢,你不知道调用哪一个?后边我又加载了一个 lora 模型, 不过这个老马模型呢,使用效果并不好,生成的视频效果不好的话,就不使用这个老马,你直接调用大模型就可以了。这里呢,我也同样将 ve 的模型还有随机种子数全部为他设置为 size 节点, 方便后边调用。在这个节点组里,我们设置好提示词,后面呢就需要设置一下抗冻带子的控制,这里我把能够有可能用到的抗冻带的节点呢,全部设置上来,比如说我们有可能用到 openpose 模型,还会用到软边缘模型, 还会用到深度模型,将这三个呢全部为他设置好。如果有哪个不使用的话,你可以直接将他的权重呢设为零就可以不使用了。如果使用哪个 connect, 就将它的权重为它设置为一,或者是设置为零点几,根据你自己的需求进行一个权重设置。在后面呢,我们将正向提示词 和反向提示词呢,也为它导出为 size 节点。下面我们就需要来看一下我们的生成遮罩的这个节点组。这个节点组呢,全部是为了生成遮罩而使用的。这里呢我使用的主要是这个节点,这个节点是一个新的扩展,大家可以去这个 github 这个网址呢去下载这个新的扩, 这个扩展也可以安装到 sable defusion 上进行一个运行。那我这里呢,是将它安装到抗 vui 扩展插件里面, 它的功能是可以对人物和背景分别进行一个遮罩,或者呢全部为它遮罩。我们可以通过这些开关去为它打开人脸遮罩,或者是身体遮罩,头发遮罩,还有衣服遮罩,或者是单独将背景进行一个遮罩,都可以进行一个开关选择。那么最下面这个数值呢,参数越低,它能计算出来的遮罩就越清晰, 参数越高呢,他可能就计算不出来。遮罩会生成全部的黑色地图,而没有遮罩,也就是说我们设置的参数越大,就越不容易生成遮罩,参数越小就越容易生成遮罩。 我们从上面的节点组去调用我们设置好的 size 节点,也就是这个图片尺寸重置这个节点,我们可以给他用盖子节点的方式呢,直接给他调用过来,然后连接到我们的这个新的 扩展这个起点上面就可以生成十六针的图像遮罩了,用来生成视频。这个遮罩呢,我是将背景全部位的遮罩出来,也就是人物是黑色,背景是白色,我们只对背景呢进行一个重绘,而人物不进行重绘,同样我们也为产生的遮罩呢去设置一个 size 起点,方便后边调用。 至于下边这里有一个 coco sediments 这个节点,这个呢也是用来分离我们视频当中呢图像的所有元素,他是用各种颜色进行一个分割,之后呢再通过选择哦一个颜色来进行遮罩的提取。不过这个功能呢是比较老的一个功能, 用它生成的遮罩效果呢没有现在新出的这个节点生成的遮罩呢清晰和好用,那么我们也可以弃用这个方法,只不过呢这里呢我将这些节点给大家列出来,是让大家知道我们之前呢也可以使用这种方法来生成遮罩。在这个节点组里呢,这个方法 没有进行使用,但是呢他的功能也给大家加上了,他会生成这样一个分割的视频,但是不会进行一个使用,只是给大家预览一下这种方法。通过这个遮罩机电,我们将这些遮罩呢全部设置为赛子机电,方便后边调用。之后我们就来到这个机电动画预设机电,在这个机电组里 全部都是一个动画的一个设置,包括动画模型的设置,在这个节点组的第一个节点,我们是直接通过上一个节点组 直接设置好的人物遮罩去为他调用过来,然后对遮罩呢进行一定的模糊和边缘扩展,可以通过这个节点,如果大家没有这些节点的话,可以通过右上角的这个提示,大家可以看到这个节点呢,他是来自于哪个扩展,大家可以搜索这个扩展去安装一下这个扩展,就可以使用这个节点了。 如果你的右上角没有显示这些信息,你可以来到管理里面,在最左边的这个选项里面去选择在井 号 id 的这个选项,倒数第二个选项,选择好这个,然后你就可以显示出右上角的节点信息了,你就知道这个节点的排序和他所来自的扩展插件的名字。好,我们继续往下看,下面呢,我们又连接到这个节点,这个节点什么意思呢?就是遮罩的控制范围,比如说现在这个数值, 他的控制范围呢是从零点三到零点七,也就是现在的控制范围呢比较小,那么这样的话,我们的生成的视频结果呢,他就比较接近我们原素材图像,不会偏离原素材图像太远,如果你要和原素材差距更大,生成的效果 距离更远的话,那么你可以将下面这个数值的区位的设置的大一些,设置为一,或者是设置为一点二,这样的话生成的结果图像呢就会偏离我们的素材图像更远,也就是生成的结果会更趋向我们的提示词或者是 ipo depth 参考图像后面呢,我们 就可以将它连接到浅空间噪声遮罩节点,直接输入到浅空间噪声这个节点。在下面我们设置好要使用的动画模型,这里呢我使用的是 v 三 sd 一点五的动画模型,然后为他设置好动画的上下纹长度,并且呢模型我们调用 ipo dapt 的模型, 直接到后面进行一个输出,输出到我们自己设置好的 set 节点,方便后边调用。我们来看一下 ipo delta 节点组。 ipo delta 节点组呢,这里上传了一张素材图像作为背景,这里呢有一个去背景的一个节点,因为我们直接要使用背景的话,我们不替换人物, 而是直接替换人物的背景的话,那么我们就可以不使用这个节点,直接将上传的素材图像呢,直接连接到 ipo debt 拼贴节点上面就可以使用了。如果你要是直接替换人物的话,比如说你上传一张人物的素材图像,就要将他的背景给这个 t 除闷,就 需要的使用这个节点,使用这个节点之后呢,将背景剔除之后,我们再给他连接到 ipo depth 拼贴节点上面,用来替换我们视频当中的人物,这就是 ipo depth 几点组的内容。现在准备好这些节点组之后,我们就可以来到最后一步 图书动画了,我们将之前设置好的这些塞子节点全部为它导入到采样器上面,比如说模型的塞子节点呢,直接连接过来,这些呢都是之前设置好的,包括提示词或者还有种子,设置好之后直接连过来就可以了, 连过来之后我们就可以直接输出视频,但是呢这是一个低分辨率的视频输出,我们后边还有一个高分辨率的视频 输出,那么我们就需要将低分辨率输出的这个视频动画呢,再为他输出一个这样的一个节点,设置好这个节点之后,我们就直接再生成高清图像的这个节点组呢,我们调用就可以,不过我所使用的这个节点组 高清放大图像可以不使用这个 set 节点,可以直接调用我们和这个节点组一样的 set 节点呢,去对它进行一个连接, 直接生成两倍放大的一个高分辨率的一个视频动画。比如说我们只替换这个视频的背景的话,我们需要在 come, nice 这三个节点上面呢,我们去怎么调呢?我们只换背景的话,我们只需要深度模型 就可以了。至于转边缘模型和动作模型呢,是不需要的,我们可以将权重为它设置为零就可以了,我们只需要设置一下深度模型 他的权重就行了。那么至于权重的高低呢?如果你想要生成的背景呢,和原素材的视频差距比较大,将权重呢设置的低一些, 如果你想上传效果和原视频素材比较像,而进行稍微的改变的话,就将权重设置度大一些。如果你只是想改个颜色或者是改一点点细节的话,你也可以加上软边缘的权重。 如果你只是要改变人物而不改变背景的话,你需要将人物骨骼模型权重设置到最大,设置为一软边缘模型,根据情况而定。如果你不想改变人物细节,不想改变人物的穿着,想要生成的视频呢,和原图的人物的穿着一模一样,只是改变颜色或者是细节的话,你可以加上软边缘的权重。 如果你要生成生成的人物上,我们上传到 ipo depth 起点组,比如说想要生成的视频呢,更像上传的素材,这张人物的话就需要调低软边缘的权重, 或者是不使用软边缘。但是呢,深度模型不管你是改变人物还是改变背景,都需要设置一定权重的深度模型,因为深度模型 用来保持一致性的。好了,那么这就是这个节点组的一个运行原理,这个工作流呢,我也放在我的碗盘里,供大家免费下载和学习使用。那么今天的分享呢,就到这里,如果大家觉得今天的这个工作流和讲解对你有帮助或者是对你有用的话,也请帮我的视频呢,点击关注加三连,我们下期视频分享,再见,谢谢大家!