粉丝1572获赞3409

终于有人把 ai 视频制作一次性说清楚了,本系列视频耗时两个月,制作共计两百四十小时,带你一口气七天,从小白到大神,全程干货无废话!配套的 ai 工具、学习资料,点赞、关注、评论留言 怎么样?刚才这段视频看起来是不是还挺专业的?这就是现在 ai 视频工具的强大之处,这些画面全都通过 ai 来生成,现在只要你有创意,并能清晰的把你的想法说给 ai, 也就是学会怎么写提示词,你想要什么样的画面,镜头的感觉和节奏是怎样的,即使你不会画画,不会拍摄,一样可以做出惊艳的视频。 接下来的内容,我会一步步带你从零开始,完整掌握 ai 视频的制作方法。除此之外,在本系列视频中用到的 ai 工具,提示词、速查脚本、参考工作图,还有目前 ai 视频的热门玩法,我都会整理起来,打包放到下方的置顶评论,有需要的伙伴可一部获取。 今天带大家解锁这款目前最主流的国产一站式 ai 创作平台吉梦。我们来到吉梦的首页,首先我们可以注意到它的界面分成了三大区块,第一块是上方的横板工具栏,它这里包括了图片生成、视频生成、数字人和动作模仿四个常用功能选项。 接着第二块是下方的 ai 作品展示区域,这里有非常多样的 ai 创作的作品,有发现选项下的图片作品。然后我们切换到短片选项下,还可以看到视频作品,我们点开一个看下效果。 这里是早间新闻,本是金城突发异想陆家嘴鲸线巨型雪王机甲,他这个是走的电影预告片的形式,可以看到他这里选用了最近热度很高的蜜雪冰城,雪王的一个主题, 在很多细节上也都做了处理,比如画面当中的一些文字。上海大炮准备完毕,安卓预警核心战备防御完 毕。那像这样一个视频,我们如果只看他的其中某一个分镜,其实元素也不算很复杂,但整体上完成度还是很不错的。 上海即将落成这样一座非凡的城市, 希望能为人类换取一线生机。我们再来看一看写实风格的视频作品, 我叫陈媛,我是住在东海时的幸存者,我已经三年没有见过任何人了,如果有人在外面, 请与我联系。胖虎,尝尝我给你新做的猫粮。可以看到 ai 对 于人物动物场景的刻画也是十分的细腻,除了人物稍带有一些 ai 感外,其他的元素我们如果不仔细看的话,可能都不会怀疑这些是由 ai 制作。三体什么时候到货啊? 虽然基梦可以直接用提示词生成视频,但是要制作这些质感比较好,完成度高的视频,我们还是需要靠参考图加提示词的方式去精准控制它的生成。 接着我们回到之前的界面,注意到这里的搜索栏,我们可以输入任何我们想要搜索的内容,比如我搜索蔡叉叉,他就会展示与搜索词关联的结果。我们点开一个作品,可以看到右侧会展示该作品用到的提示词,所用的模型以及比例等。最后一块是页面左侧数版工具栏,我们点击里面的生成, 此时就来到了我们最主要的工作区,这里的功能选项也是图片生成,视频生成,数字人和动作模仿,与刚刚首页上方的工具栏是一致的。之后的课程中我们都会依次学习到。接着我们点击资产, 这里是存放我们所有通过极梦生成的素材以及本地上传素材的区域,他按照图片,视频,画布,故事还有音乐对不同文件进行了分类。接着我们点击画布,此时会弹出一个新页面,那么在这个页面里,我们可以对图片进行细致的处理, 可以点击上传图片,上传我们的本地图片素材,也可以点击纹身图或者图生图,让 ai 生成图片素材。还可以选择上方的画笔工具,粗略的绘制一个草图。我们这里随便上传一张本地图片,然后可以看到在上方出现了一横排工具栏, 功能包括局部重绘、扩图、消除、细节修复、超清以及抠图。具体要怎样运用这些功能,我们会在后面的课程中详细学习。我们回到之前的页面,看到这里的会员标识,上方显示的数字是我们剩余的积分数,我们点开它 可以看到这里面会显示你的会员订阅情况,以及多个档位的会员订阅选项。目前非会员及梦每天会发放六十到八十的积分,那大家可以根据自己的实际需求酌情选择白嫖或者付费。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。下节课我们会详细学习图片的生 成。有些朋友可能会想问了,我们不是学 ai 视频制作吗? 为什么还要学 ai 生图呢?我们需要清楚的是,目前 ai 视频生成的三种路径,分别是文生视频、图生视频以及视频生视频。文生视频也就是通过文字描述直接生成视频,它是一个从无到有的过程,有较好的创新性,但难以精确控制,比较适合用来生成一些相对抽象写意风格的视频片段。 图生视频也就是以参考图片为基础来生成一些高完成度的视频, 而最后的视频生视频也可以理解为视频风格的转会,就是把 a 视频的视觉风格迁移到 b 视频上。 那在这三种生成路径当中,我们最主要去掌握的就是图生视频,因为在绝大多数情况下,我们是需要对画面进行一定程度的控制,那在实际的操作中,我们会发现很多时候我们没有办法很快的找到符合我们需求的参考图。因此想要学好 ai 视频的创作,学会 ai 图片生成也是不可或缺的一步。 我们来到图片生成的界面,可以看到在左边的方框这里我们可以去上传参考图片,然后在右边这个输入框里,我们可以输入我们的提示词, 我们首先来试试纹身图,在这里输入提示词,然后生成,稍作等待,我们就得到了一组纹身图的成品, 然后我们再在现有提示词的基础上上传一张参考图片,再来生成看一下,那这就是我们图生图的成品。不难发现,比起纹身图,使用图生图往往能够更好的控制,达成我们想要的效果。 那要想熟练的运用图生图,这里我们要知道一个非常关键的知识点,我们选择一张图片上传,然后我们仔细看一下这一个界面,在图片左下角这里,我们可以调节它的一个参考强度,这个数值越高,参考图对于影响最终生成图片的权重就会越大。 然后旁边还有一个抠图的选项,我们继续往下看,这里提示我们选择要参考的图片维度,也就是我们想要参考这张图片的哪一个方面。 第一个智能参考,它是以整张图片的各个元素作为参考对象,然后我们可以通过提示词对图片的局部进行一个修改。比如我们这里上传一张图片,然后在这里输入把图片上的背包换成浅绿色,那我们就可以得到一组只更换了原图背包颜色的一组图片。第二个 角色特征,他会识别出图片中的角色,然后捕捉一整个角色的特征,这对于我们控制角色的一致性会有很大的帮助。那我们这里也上传一张图片,然后让他在马路上滑滑板。 好,那我们可以看到他保留了原本角色的发型以及服饰搭配。第三个人像写真,他是用来捕捉人物的一个面部特征,比较适合来做一个换脸的效果。 比如我们上传一张图片,它自动识别,并用蓝框标出了面部,然后我们给到一组提示词,它这里生成了两张二次元风格和两张写实风格的图片,然后保留了原图人物的五官特征。 第四个主体识别,它会识别到图片中的主体,这个主体可以是人,也可以是动物、物件等,然后把主体和背景分离开,我们上传一张图片,看下效果,输入提示词生成,我们就得到了一组更换了背景的图片。 第五个,风格模仿,这个就很好理解了,就是参考图片的艺术风格。同样我们这里上传一张图片,然后输入提示词,这样我们就得到了与原图风格一致的一组图片。 第六个,边缘轮廓,我举一个例子你就能理解了,想必在座的各位一定有刷到过这种图片的,那这个呢,就是参考了某位哥哥的经典姿势轮廓生成出来的。 第七个,景深会用到这个参考维度的情况,通常我们这张参考图,他会有一个比较突出的层次感和纵深感,通过参考他的景深,我们可以凸显主体并虚化背景,增强了生成图片的镜头感。 第八个,人物姿势,这个也很好理解,就是捕捉出图片中人物的姿势动作。我们上传一张图片,选择人物姿势,然后给到提示词,他就给我们生成了一组与原图人物动作一致的图片。 那在了解清楚图片的不同参考维度之后呢?我们再来看一下这几个生图模型。目前吉梦这里一共是有五款生图模型,分别是三点一、三点零、二点一、二点零、 pro 和二点零。我们这里通过同样的一组提示词,分别用这个五款模型生成一次,看看效果会有什么样的一个区别。 那现在五款模型都生成好图片了,我们来看一下。首先是二点零生成的这组图片,就算抛开质感不谈,像后面的行星环也有不同程度的基变。然后是二点零 pro 的 这一组,可以明显感受到的是,它整体的光感会更加突出,但是仍具有较强的塑料感。 接着是二点一的这一组,也是延续了二点零 pro 组较强的光感,但是塑料感得到了一些虚弱。 再来看三点零的这组,不难发现这组图在质感上有了非常显著的提升,已经接近电影大片的感觉, 但是部分地方,比如人物投影以及后面的行星还存在不同程度的瑕疵。最后是三点零 pro 这一组,可以看到它不论是在画面质感还是氛围渲染等方面,都要比其他生图模型更加出色。基于这五款生图模型的表现呢, 绝大多数情况下,大家直接选用最新的模型即可。那以上就是本节课的全部内容, 大家好,今天我们来学习视频的生成,我们之前有提到过,目前生成视频的两种主要形式是文声视频和图声视频,那现在我就带大家一起尝试用这两种方式来生成视频。 我们来到视频生成的界面,我们在文本框这里输入一段提示词,下面的选项我们先保持默认,然后点击生成。好,那现在极梦已经生成出来了一个视频,然后我们再点击这里去上传一张参考图片,点击生成一下。 好,我们来看一下添加了参考图生成的视频效果,那这个视频相比于刚刚的视频,它不仅与参考图片更加的贴合, 同时也因为参考图精致的细节,让视频讲解官感提升了不少。那对于两种生成方式的选择呢?如果你想生成比较短的,创意性强的视频,那么就可以选择采用纹身视频的方式。 反之,如果你想要制作稍长一些的,需要精准控制的视频,那么就更适合采用图生视频的方式。现在我们再来看一下下面这一行选项,从左到右依次是选择视频模型、视频比例、尺寸,还有时长和运镜等。 这里我们着重来看一下不同视频模型它的一个区别。首先是 s 二点零模型, s 二点零模型它可以选择画面的比例,但是它的分辨率是默认无法选择的,时长也只能选择五秒。 然后是 s 二点零 pro, 它和二点零的选项是完全一致的,粉能够去选择画面的比例,分辨率和时长是不提供选择的。那再看到三点零模型,是不是一下子就感觉多了很多选项?首先呢,这里有一个新增的首尾帧选项, 点开之后还可以切换到智能多帧,那这个智能多帧呢,是吉梦在八月份新推出的一个功能,稍后我们会详细讲解这两个功能的使用。我们先继续看右边的选项,在这个比例选项这里呢,新增了一个分辨率的选项,我们可以选择七二零 p 或者一零八零 p, 不过要注意一零八零 p 的 积分消耗会比七百二十 p 贵一倍。然后时常这里呢,也是新增了十秒的一个选项,同样的,它相比于五秒的积分消耗也要贵一倍。最右边这里还新增了一个运镜,这里内置了十一款运镜样式,不过值得注意的是, 运镜的功能并不能与首尾帧或者智能多帧同时生效,如果我们上传了两张或以上的参考图,他的运镜功能就无法使用。最后我们再看一下三点零 pro, 可以 看到他这里选项一下子又少了很多, 我们能选择的只有视频的比例以及时长。特别注意的是三点零 pro 他的积分消耗直接由三点零的十点积分涨到了五十点。 所以我们在使用三点零 pro 去生成视频的时候,一定要确保参考图和提示词已经足够完善了再去使用,以免我们浪费太多的积分。那我们现在来尝试一下手尾针和智能多针的使用。首先是首尾针,我们先上传两张参考图片, 分别作为视频的手针和尾针,然后在文本框这里描述一下画面的运动方式,点击生成。好,我们来看一下效果。 接着我们再来使用一下智能多针,我们先上传几张参考图片,然后在图片之间的部分写上我们需要的画面转变方式,时常我们这里设置为三秒,全部设定完成之后,我们点击生成。好,我们来看一下效果, 他也是很好的演绎出了我们想要的四季变换的一个效果啊。那在我们之后去自由创作的时候,首尾针和智能多针都是非常实用的功能,如果你想提升视频创作能力,可以在课后多多去练习他们的使用,那以上就是本节课的全部内容。 大家好,今天我们来学习写提示词的两个技巧和两套公式技巧。意灵感页做同款。首先我们来到极梦的灵感页,我们来看一下其他人生成的作品, 比如我觉得这个还不错,我们看到右侧这里的做同款,点击它,它就自动把这张图的提示词、生图、模型等一系列参数全部帮我匹配好了。这里我们就直接可以用它来生成,如果想要调整也当然是可以的,比如我不想要竖版, 那我就把它的比例改成十六比九,然后点击生成,这样我们就通过做同款生成了这样一张成品图片。 技巧二,内嵌 deep seek 生成我们来到极梦的生成页,看到右下角的这个 deep seek, 点开它, 右侧就会弹出极梦内嵌的 deep seek 使用界面,那我们就可以在这里让 deep seek 辅助我们来写提示词。现在我输入一段要求,给到 deep seek 辅助我们来写提示词组合。 我们选择一套最佳的复制粘贴到左边的文本框里,调整一下参数设置,然后点击生成,这样一个通过 deepsea 辅助生成的视频就做好了。 那到这里可能就有人要问了,为什么我给 deepsea 提了要求之后,它生成出来的提示词都没有符合我的需求呢?这就需要使用我们的两套提示词公式,首先是生图的公式,风格加主体加光线色调加视角构图, 再加细节。我在 deepsea 这里写好要求,然后让他按照这套公式帮我生成提示词。同样的把提示词复制粘贴到左边的文本框中, 调整一下参数设置,然后点击生成。我们来看一下生成图片的一个效果,可以看到虽然个别图片有些小瑕疵,但是整体上画面还是很细腻有质感的。然后是生视频的公式风格,加主体加场景,加光线色调加运镜,再加动作。 同样的,我这里把视频脚本和提示词公式一并给到 deepsea, 点击发送,稍作等待之后,我们把提示词复制粘贴到左边的文本框,调整一下参数,然后生成。我们来看一下生成视频的一个效果, 那这个效果在没有使用参考图精准控制的情况下也还是不错的。那这两套提示词公式不光可以丢给 deepsea 来使用, 我们同样可以自己对照公式中每个结构的提示词库来自定义组合。相比于 deep seek 辅助,自定义能更好的满足我们个性化的需求。或者也可以 deep seek 辅助和自定义并用, 在确保准确的同时兼顾效率也是一个很不错的选择。没有提示词库的朋友也不用担心,我这里已经整理了一套相当全面的提示词库,对应到公式的每个结构都做了分类,有需要的伙伴可以一步下方评论区获取。 以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。下节课我们会学习以数字人对口型,感谢你的支持! 大家好,今天我们要学习的是数字人对口型。通过运用数字人功能,我们不需要真人出镜,也不要录音设备,只需要一张图片和一段文字, ai 就 能帮你生成一个会说话的数字人。首先我们来到极梦的生成页,第一步我们要准备一张现成的角色图片,或者通过 ai 生成一张角色图片。比如说我们没有现成的图片,那就先选到图片生成, 然后用纹身图的方式生成一张角色图片,那我这里设定为商务风、年轻女士、微笑、专业形象九比十六的比例。 在这里我们要注意两个点,其一是我们在描述人物神态的时候,要去根据我们想要他说的文案来选择合适的神态,避免角色表情神态与所说内容产生违和感。其二则是我们要根据我们期望生成的视频版式 去确定角色图的比例。比如你想生成视频之后发布到一些短视频平台,那么你就直接选到九比十六的比例,减少后期处理的一个工作量。生成形象之后,我们来到第二步选择数字人功能。 我们先把刚刚生成好的角色图上传,接着我们再上传或者生成音频,这里我就用 ai 来生成一段音频作为演示。点击生成音频,我们可以使用即梦内置的这些音色,或者上传一段本地音频去做一个音色克隆。相比于前者呢, 我们自己克隆出来的音色当然更加能够满足我们个性化的需求。那我这里就上传一段本地音频,他这个音频的时长需要在五到三十秒区间内,上传之后稍等一会, 它就自动克隆好了。我们提供素材的音色,然后我们在上方的文本框里输入我们准备好的文案,这里注意文案长度不能超过一百二十个字,我们点击确认。然后我们点开模型选择,可以看到这里有三种模式,上面的大师模式和快速模式是可以选择的, 而最下面的基础模式则处于一个无法选择的状态,那这里我们需要知道一个点,最下面的这个基础模式呢? 它只能够在我们上传角色视频的时候使用,而我们这里上传的是一张角色图片,所以不能够选择基础模式。需要注意的是, 大师模式的积分消耗为八点数每秒,快速模式为五点数每秒,而基础模式仅消耗一点数每两秒。三种模式,它的一个积分消耗差别还是挺大的,那大家可以根据你的实际情况来选择。最后我们点击生成视频,稍等片刻,一段数字人口播视频就做好了, 我们来看下效果如何。最新数据显示,全国重点城市二手房价格已连续下跌十五个月,越来越多的年轻人都不愿再为高房价去掏空家底,透支未来,纷纷选择躺平。对此你怎么看呢? 之后你就可以下载下来,放到后期工具去做进一步的处理。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习动作模仿的使用。感谢你的支持,我们下节课再见!最新数据显示, 全国重点城市二手房价格已连续下跌十五个月,越来越多的年轻人都不愿再为高房价去掏空家底,透支未来,纷纷选择躺平。对此你怎么看呢? 这还有人跟我说,哎,大家好,今天我们来学习极梦 ai 中一个特别有趣而强大的功能,动作模仿, 你只需准备一张图片和一段视频,就能让任何角色形象模仿出视频中的角色动作,轻松实现各种神奇又好玩的视频效果。 我们来到极梦的生成页,选择动作模仿。首先第一步,上传角色图片,我们把鼠标悬停到左边的方框上,那么他这里写到了可以支持全身图和半身图, 并且建议我们上传的人物图比例和动作视频保持一致。也就是说,如果我们想要获得更好的生成效果,要尽量去满足他这个要求。好,点击上传,我这里选择准备好的一张四比三的源头帽碟图片。 然后第二步,上传动作视频。我们点击上传动作视频,可以看到他这里的两个选项, 上面的选项提供了四个动作视频预设,但是靠这几个远远无法满足我们的创作需求。那我这里直接选择下面的选项,去上传一段动作视频,然后他弹出了几条上传视频的建议,同样的,我们上传的视频越符合他的要求,最后生成出来的效果也会越好。 我这里上传一段裁剪过比例的动作视频,它和刚刚图片的比例一样,也是四比三。最后一步,我们选择一个模型,那这里可以看到下面的零点一模型是无法选择的,只能去选择上面的 m 一 模型, 那相比于零点一模型, m 一 模型能支持更多的图片素材。如果你上传素材以后也发现零点一模型无法支持,那么直接选用 m 一 即可。然后点击生成,我们稍等片刻,一段动作模仿视频就做好了,我们来看看效果怎么样。 这样看下来,它的这个动作还原还是很不错的。 如果你做出来的效果不佳,可能是上传的素材有一些问题,比如动作视频的背景是否过于杂乱,分辨率是不是过低等等。大家可以根据即梦对于图片和视频的上传建议 去结合实际情况调整生成好的视频。我们还可以在导入后期软件当中去进一步加工创造属于你的大片。好了,以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。下节课我们会学习智能画布。感谢你的支持,我们下节课再见。 大家好,今天我们来学习极梦爱的智能画布工具。我们来到极梦,点击左侧的画布,它会自动跳转到智能画布的界面。 那智能画布有一些什么功能呢?首先我们在左侧可以看到三个选项,上传图片、纹身图以及图生图。它这里的纹身图和图生图我们之前已经详细讲解过了,这里我们就直接跳过。然后我们看到最上方这一排从左到右的选项,依次有实时画布、画幅调节、 文本工具以及画笔。除了实时画布以外,都是一些十分常见的基础工具。所以这里我们只关注一下实时画布这个工具。我们点开它会发现中间界面多出了一册预览图,如果你认为它没有达到我们的一个预期效果,那通过这个实时预览呢? 我们就可以针对有偏差的地方再去做一下编辑,不断调整,直到接近我们的预期为止。好,我们先把它关掉,我在这边先去上传一张图片,那这时候我们会发现上方又出现了一排工具,那这几个工具就是我们智能化部的核心功能了,首先我们来看一下局部重绘, 这个词对于一些接触 ai 工具比较多的朋友肯定不陌生了,那顾名思义,它是用来修改图像局部内容,替换元素或修正错误的。我们选择局部重绘,然后我们的光标就会变成一个画笔,比如我想修改下这个地方,我用画笔把它图出来, 然后在下方的文本框中去输入我们想要重新绘制的内容,然后点击重绘,他就按照我的要求把这个地方去做了一个修改。那对于我们升图升视频的过程中, 我们的图片往往会在细节上需要做出修改,因此局部虫会是一个相当实用和常用的工具。接下来我们看到消除笔,先讲消除笔呢,是因为它与局部虫会十分类似,点开之后我们的光标同样是变成了画笔,同样的我们去把想要消除的部分用笔涂出来, 然后点击消除,他就帮我消除掉了这个部分。在我们去修改图片的时候,消除笔也是会经常使用到的工具。无论是局部重绘还是消除笔,我们只需要注意,对于要修改的部分,我们一定要把它完全的涂出来,否则它生成的效果会产生偏差。 然后是扩图工具,它的用途是扩展图像画面范围,展示更多的场景。点击扩图,它会框出一个扩图的区域,在上面这里我们可以去调整一个扩图的倍数以及画幅比例,拖动扩图的边框,我们也可以去让他向上下左右任何一个方向去扩图, 然后在下方的文本框,我们可以描述想要他扩充的画面内容内容,当然也可以不进行描述,让他自动根据画面内容扩图。 接下来的工具就比较简单了,第一个是抠图工具,它可以一键抠出画面主体,分离背景,然后我们可以将抠出的主体放到其他图片场景中做一个背景替换。第二个是细节修复,它可以自动帮我们丰富画面的细节,我们点开看一下效果,是不是感觉画面瞬间多了很多细节。 第三个是超清以及智能超清,那在我们的图片做完其他的所有调整之后,我们可以先去给他超清一下,然后再用超清之后的图去生成视频, 这样我们视频最终生成的一个效果就会更好。最后来总结一下,今天我们重点学了实时画布、局部重绘、消除笔扩图、抠图、细节修复超清 以及智能超清这几款工具。这些工具都有着不同的作用,仅仅通过纹身图、图生图,往往不能一步达到我们想要的百分之一百的效果。学会有效的利用智能画布的工具, 能很好的弥补 ai 生图的不足,让最终效果不断向着我们的预期靠拢,这对于我们创作更好的视频是十分必要的。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习高效视频工作流。感谢你的支持,我们下节课再见! 大家好,今天我们来学习 ai 视频的高效工作流。相信大家都看过很多 ai 生成的视频,有的视频画面细腻,剧情连贯,而有的视频前后矛盾,漏洞百出, 同样都是 ai 生成的视频,为什么效果差别会这么大呢?学明白我这套 ai 视频高效工作流,你就能够让 ai 乖乖听话,在较短的时间内去达到我们想要的效果。我先问大家一个问题,你认为一个优质的 ai 视频应该满足什么要求呢? 我们从三个维度来拆解,第一,在视觉维度上要美,也就是画面要符合美学。第二,在动效维度要顺,也就是动态特效要自然顺畅。第三,在蓄势维度要清,也就是蓄势清楚,符合逻辑。 三个维度既受 ai 工具的影响,也受人为因素的影响。那我们就需要掌握这套高效视频工作流。 提分镜脚本转化为结构化提示词、纹身图、修图图声、视频配音后期合成。那我们用这套工作流来制作一下非常火的古装美女自拍 vlog。 首先我们打开 deepsea, 在 对话框输入我们的要求,让他帮我们制作一个分镜脚本, 好,接着再让他根据这个分镜脚本把每个分镜画面分别用提示词描述出来。 我们先把分镜一的画面提示词复制粘贴到极梦里面,这里我们用极梦最新出的四点零模型来进行纹身图。好,我们选择一张效果最好的图下载下来, 然后把它上传为参考图片,将分镜二的提示词也复制粘贴过来,用图生图来生成分镜二的画面。 接着我们选择两张效果最好的图片,把他们超清一下,这里因为图片的效果还不错,我就没有去放到智能化部里修图了。 如果你生成出来的图效果有问题,就先进行修图,再去超清画。然后我们再把分镜一的图片素材上传为参考图,将一开始生成的分镜脚本的分镜一复制粘贴过来,点击生成视频。稍等一会,我们的第一个分镜视频就做好了。 接着我们提取分镜一视频的尾帧,上传为分镜二的手帧参考图。把分镜二的图片素材上传为尾帧参考图,将脚本的分镜二复制粘贴过来,点击生成视频。稍作等待。我们的第二个分镜视频也做好了。 由于人物是没有开口说话的,所以我这里就跳过配音这一步。最后把视频放到后期工具中去,添加一个 bgm, 调整一下倍数,这样我们的一个古装美女自拍 vlog 视频就完成了。来看一下效果如何? 那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习提升视频连贯性。感谢你的支持,我们下节课再见! 大家好,今天我们来学习提升 ai 视频的连贯性。在上节课,我们提到过一个优质的 ai 视频的三个必要条件,其中两个条件分别是动效维度的 自然顺畅,还有蓄势维度的合乎逻辑。视频的连贯性就包括了画面连贯和故事连贯这两个方面。但是在我们去实际操作的过程中会发现, ai 跑出来的视频画面经常出现各种匪夷所思的动态效果,而在蓄势方面 也常常会遇到前后转折突悟或者主题意义不明等问题。那我们今天就通过这节课来解决这一系列问题。首先是画面的连贯性,我们之前有详细讲过提示词的写作技巧和公式, 这对于我们控制画面的连贯性是有很大帮助的。那现在我再带大家解锁一个更加强大的画面连贯控制技巧。首尾帧。首尾帧我们早在最初的界面认识就有提到过,顾名思义就是通过选定视频的首帧画面和尾帧画面,达到精准控制视频的生成效果。 此外,吉梦还新推出了一个智能多帧功能,我们以数码兽进化为例,首先用最基础的方式去生成一个视频,输入准备好的提示词,然后点击生成,稍等片刻。好,我们来看一下效果。那可以注意到 我在提示词写的从 a 变化到 b, 再变化到 c, 而最终生成的效果直接把中间 b 的 过程省略掉了。然后再来用智能多帧生成,依次上传五帧图片,接着在每两帧之间输入变化过程描述, 调整一下时长, 点击生成。稍等片刻,我们就得到了通过智能多帧生成的视频,不过细心的朋友一定注意到它的效果有些许问题,我们稍后进行对比。先来用首尾针分布生成,将四针图片依次两两上传,用首尾针生成一次视频, 在三个过程视频全部完成之后,放到剪映里面去拼接一下。好,我们现在来对比一下智能多帧和首尾帧的效果。不难看出,智能多帧虽然能够一步操作到位, 但是在过程中会出现一些与我们预期不符的画面。而通过首尾帧分布生成,虽然步骤相对繁琐, 但是每一步都接近百分之百的达成了预期的效果。因此呢,考虑到视频生成的随机性,相比于用一步到位的智能多帧,我们重点掌握好首尾帧的控制方法是一个更好的选择。然后是故事的连贯性,大到电影、剧集、综艺,小到我们每天刷的各种短视频, 他们绝大部分都是按照设定好的脚本来拍摄制作的。而视频脚本对于我们大多数非影视行业的普通人来说,其实是有一些门槛和难度的。因此呢, 我们就要去学会让 ai 工具来协助铲除脚本,不知道怎么操作的朋友也不用担心。这里我整理好了一套相当丰富的视频脚本素材,包括短视频、微电影等, 可以为给 ai 作为模板参考,能够铲除十分不错的视频脚本。有需要的伙伴可以一步下方评论区获取。那以上就是本节课的全部内容, 如果对你有所帮助,还望多多三连支持一下,下节课我们会学习保持视频一致性。感谢你的支持,我们下节课再见!大家好,今天我们来学习 ai 视频一致性的控制。与 我们上节课学习的视频连贯性相比,视频一致性的控制也同样重要。连贯性提升与一致性控制共同构成了 ai 视频创作的两个核心要点。为什么说一致性如此重要?想象一下,哪怕只是一个短视频, 如果主角的衣服颜色每一针都在变,前一秒还是写实风格,后一秒又变成了卡通风格,是不是很难看的下去?换做对质量要求更高的电影电视,这更不必说了,对于 ai 视频也同样如此,一致性的控制是我们创作优质作品必须熟练掌握的。 视频的一致性主要包含了三个方面,分别是风格一致性、场景一致性以及主体一致性。首先是风格的一致性,这里并非狭义上的风格,而是包括了风格和色调两种属性, 二者共同砥定了视频整体的氛围和基调。风格一致性的控制主要有两种方法,其一是提示词前置法,也就是把风格和色调相关的提示词放到整个关键词的最前面,我们输入一段提示词,前置的这一部分呢,就是描述风格和色调的提示词,我们点击生成 好,得到了这样一组国风写实油画的图片。接着我们将后面这段与风格色调无关的提示词替换掉,我们再来生成看看。 好,那这一组图片就很完美的延续了上一组图的风格特征。其二是风格参考法,也就是利用极梦图片参考维度中的风格参考来控制风格一致性,参考强度越大,越能够还原原图的风格特征。这种方法也比较适合一些难以三言两语描述出来, 或者是对于我们比较陌生的风格。我们选一张刚才的图片作为参考图,选择风格参考维度,再输入一组不同的提示词生成一下。 好,那我们可以看到,虽然人物场景都有所改变,但整体的风格与之前差别并不大。不过我们要注意的是,由于风格参考仅有两款较老的生图模型支持, 所以用这种方法生成出来的质量会比前一种方法要差一些。然后是场景的一致性。场景一致性的控制主要也有两种方法,其一是细节描述法,就是通过对场景进行相当详细并且保持一致的提示词描述,反复多次抽卡去筛选出场景相似度最高的图片。 我们输入一段提示词,前面这一大段就是描述主体以外的提示词来生成一张海边落地窗前的场景图片,接着我们将描述主体部分的提示词去给他替换一下,再次生成。 好,那我们可以看到除了主体更换以及色调略微的变化以外,场景的一致性保持的还是很不错的。其二是智能画布龙图法,就是凭借智能画布工具,将不同的主体融合到同一张场景图片,从而达到不同主体处于相同场景的效果。 我们先输入一段提示词来生成一张骑在飞龙背上的第一视角图片,然后点击去画布编辑, 我们选择消除笔,点击快速选择,我们同时选中飞龙和人物,首部点击消除,这样我们就得到了这张图片的纯背景。接着我们再用提示词去生成一张骑在天马上的第一视角图片,选择一张下载,然后上传到智能画布中, 点击抠图,那这里 ai 没有识别到翅膀的部分,我们用画笔去图出来,点击消除,这样我们就借助智能画布实现了不同主体在同一场景的效果。最后是主体的一致性,主体可以是人物、动物、植物甚至镜物等等, 而在大多数情况中,我们的主体都是人物,因此呢,我们这里就重点学习人物一致性的控制 人物一致性控制主要里有两种方法,其一是细节描述法,与场景一致性控制的第一种方法同理是通过对人物进行详尽且保持一致的提示词描述去控制人物一致性的方法。我们输入一段提示词,生成一组这样的抑郁少女的图片。 接着我们将提示词中描述人物特征以外部分的提示词全部替换掉,再点击生成。好,我们来看一下。 虽然两组图片的场景色调甚至人物动作都有所区别,但是人物的角色特征还是得到了很好的保留。其二是角色特征参考法,就是借助图片参考维度当中的角色特征来控制人物一致性。但是经过我多次实测之后发现这个方法其实相当难用, 除非你的角色特征相对简单,并且不去改变角色动作,否则我强烈不推荐大家用这种方法。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,感谢你的支持!
