无缝换装加换场景的丝滑 ai 视频,居然这么简单就能做!今天全程实操教学,新手也能直接拿捏! 第一步来到 loveart 新建视频生成器,用可零二点六或者 video q 二都可以。先设置好数版九比十六比例,然后上传咱们的主图给关键词,人物向前走,点击生成视频。重点来了! 生成后打开剪映,导入刚做的视频,在视频尾帧的位置,点击右上角导出帧画面,把尾帧保存下来。这一步是丝滑衔接的关键,千万别漏。 接下来打开图像生成器,选择刚才一样的九比十六比例,上传刚才导出的尾帧图片。关键词必须写清楚,保持图片中场景和人物的一致性,只将男人的西装变为红色西装,尺寸比例全程不发生任何变化。 等待生成后,你会发现除了西装变红,连倒影都同步变了模型一致性超强。直接下载这张图,然后回到视频生成器,切换到 video q 二还是九比十六比例。 上传刚下载的红色西装图片,关键词写转变为男人的上半身的特写镜头,移动镜头拉近移动变化, 设置五秒一零八零 p, 点击生成。为什么要这么做?核心思路就是让前一段视频的尾帧和后一段视频的手帧构图尺寸完全一致,通过剪映做每一页衔接,这样切换才会丝滑到看不出痕迹,直接生成的话根本达不到这效果。 生成后下载视频,最后在剪映里对齐首尾帧位置,比如调整一下红色西装画面的位置,跟之前的尾帧对齐比例,确认是九比十六, 搞定二零二六,杰士邦推出 ai 视频课,从入门到精通,零基础可学,帮助你的设计全方面商业落地,不走弯路,直达目的。欢迎点击右下角卡片预约咨询哦!关注我,让你的设计更高效!
粉丝11.9万获赞99.5万

各位伙伴们,今天我们来讲解可灵 ai 中的 ai 十一功能,不管是电商带货选品、服装行业展示,还是想要日常的提前预览穿搭效果,这个功能都能帮助我们高效的解决问题。 那么我们来到可灵的界面之后,可以看到画面的左侧,这里有一个 ai 十一的选项,我们点击进入 就能来到 ai 十一的操作界面,这个里面有两个功能,一个是 ai 模特,一个是 ai 换装,在换装之前我们肯定需要一个模特,那么第一个步骤咱们可以选择用 ai 来生成模特,也就是这个 ai 模特, 在这里我们可以去选择性别,年龄、肤色以及在下方去输入对于这个模特基础造型的描述,这里也同样的提供了 tips 提示词反推的窗口, 那么我们可以在下方来输入提示词看一下效果。这里我就先默认了他的模特设置,选择了女性、青年以及黄种人的肤色,下方的模特描述可以这样去书写, 接写上亚洲女性双麻花辫,黑色头发以及他穿着的服饰,还有他所站的环境,同时描绘了一下照片,要是写实风格,光线要明亮,整体是温暖和谐的氛围。 这里我们明确了体态、姿势、风格、背景描述都是比较简洁的,避免了复杂元素的干扰,方便后续换装时聚焦服装本身。 那么如果对于提示词没有把握的话,就可以点击反推的窗口去上传参考的模特图,让 ai 自动生成适配的提示词,接着再去进行手动的微调就可以了。 那么像参数设置的方面,看到左下角,这里可以去选择它的比例,这里我们可以选择九比十六, 同时还可以去选择生成的招售,这里我就直接选择四张像九比十六的尺寸的话可以较适用于电商直播以及短视频平台,非常的适合手机端的展示。下方的图片数量保持四张也是为了一次可以生成多张可挑选的最优效果, 那么咱们设置好之后就可以点击旁边的生成,那么稍作等待咱们就获得了 ai 给我们生成的模特,可以看到效果还是非常好的,如果我们不想要生成模特的话,也可以直接点击上方的 ai 换装, 在这里我们有一些官方预设的模特,点击官方模特的按钮就可以看到平台给我们提供的模特效果, 里面还是提供了非常多不同风格的预设模特的,包含了不同的性别,不同的穿搭场景,不同的年龄段,咱们可以直接点击就能够使用了,这样比较适合于快速的预览式衣效果。 那么如果我们有了现成的模特照片的话,也可以点击上方的自定义,在这里我们可以在这个添加模特的框框中 去上传我们的模特照片,这里重点要强调一下上传模特的规则,我们可以将鼠标移动到模特规则,这里可以查看模特规则的详情,他呢给出了推荐的图片和不推荐的图片案例,像多人的合照, 还有一些复杂的姿势,或者是图片的人物身体面部进行了严重遮挡的图片,像这一类的图片都会导致 ai 识别失败, 换装的效果会导致错乱,都是不推荐上传的,那么想要成功的给模特进行换装的话,可以去参考上方的这一些图片案例,比如说单人照,全身正面或者是半身的正面, 或者是未对衣服的区域进行严重遮挡,还有姿势比较简单的图片都是可以上传的,大家可以去看一下这些规则。那么到下方的这一个窗口,我们可以去上传服装,这里可以上传单件服装或者是多件服装, 同样的服装也有一定的上传规则,可以看到像平铺的服装图,单件服饰 没有遮挡,没有重叠,背景是干净的,以及花纹是清晰的。图片 ai 都是能够进行精准的识别的,那么像下方在同一张图片里存在多个衣服,或者是背景过于杂乱,花纹过于复杂, 一或者是透视的角度过大的话,这些情况都是不做推荐的。如果咱们想要一次性的上传多个服装的话,就可以点击旁边的这个多件,分别上传上装以及下装, 这样能够方便 ai 进行识别,以此来让模特一次性试穿全身的衣物效果。那么这里我们就以官方提供的模特为例, 选择一个模特,接着我们来上传服装的图片,首先上传上装,接着上传一张裤子的图片,上传好了之后我们可以选择生成的章数,这里我还是选择四张,设置好之后就可以点击生成, 生成好,我们来看一下最终的效果,哎,可以看到效果还是非常不错的, 不仅完整的保留了人物的长相特征,同时像衣服的款式以及穿戴之后的光影效果还原的都是十分自然的, 那么像这个功能对于电商行业的小伙伴来说是比较刚需的,无需再去搭建摄影棚,聘请模特上传服装图,就能够快速的生成穿搭的效果,大幅降低了拍摄的成本,提升了上新的效率。 那么日常穿搭的爱好者也能够通过这样的方式去预览服装上身的效果,避免踩雷还是非常方便的。 那么如果大家在操作过程中遇到了任何的问题,都可以借助上方的这一个使用指南,就可以进入到可灵 ai ai 十一的专属指南页面, 那么在这个页面里面就详细地介绍了 ai 十一的功能亮点,完整的操作流程,服装以及模特上传的规范,以及常用的一些问题解答,还有一些优质的案例都可以在这里去查看到, 不管是新手入门还是进阶的优化,都能够在这里找到解决方案,建议大家可以把它给收藏备用起来。那么如果大家在操作的过程中遇到了上传失败,换装效果不佳的问题,都可以在评论区留言哦,我都会帮助大家分析解决, 也可以留言想要学习的服装风格、试衣技巧,或许也会补充专项的教程,那么咱们下期视频见!

谁能想到一段多角色、有台词、音画同步的影视级视频,现在普通人也能随便生成了。可离 ai 三点零的到来,直接改写了 ai 视频创作的规则, 五秒连续生成,自定义镜头控制、多头音精准适配。这些之前想都不敢想的功能,现在人人都可以轻松上手。接下来就带你解锁可零三点零的最新创作玩法,看完就能直接出片!点开欧米尼创作面板,复制我们准备好的提示时,这里面包括了场景细节、 角色设定、声音、语言动作等等要求,直接粘贴在对花框里。模型选择视频三点零欧米尼,再根据我们自己的需求选择模式时长比例数量,这里我选择一零八零 p 十五秒十六比九,先生成一个试试。在等待了十来分钟后,一个完整的视频就呈现在眼前, 我们来播放看,可以看到视频质感还是很不错的,画面流畅丝滑无卡顿,针针衔接自然不生硬。 人物配音,普通话字正腔圆,美式发音标准,金腔地道不违和,口型也基本贴合,可以说是很优秀了。我们再来看看图片生成,听说三点零版本可以生成四 k 高清图了, 这里我上传了两个卡通形象,让可玲帮我生成一段儿童故事,做成连环画,模型依旧选择图片三点零欧米尼模式,我们就选四 k 比例四比三吧,先试试生成六张,等待几分钟后就好了。你还别说,这生成的儿童连环画确实很高清,画风暖萌治愈,还超贴合童趣, 线条细腻,色彩鲜亮,每一页的画面衔接自然又圆润,一眼就能看出他俩是好朋友,完全贴合儿童的审美和阅读节奏,人物形象灵动可爱, 分镜排版也很舒服,就这点话往平台上一发,妥妥吸引一批家长来看啊!以上就是这次分享的核心技巧,其实他的保障功能还远不止这些, 上手多试几次就能解锁更多创作惊喜,用简单的操作做出高质感的内容。不管是陪娃做趣味连环画,还是自己创作创意视频,可连 ai 三点零都能轻松拿捏。赶紧打开 app 去实操试试,期待大家的神仙作品出炉!

之前生成的 ai 视频是不是经常是这样,一眼就能看出来是 ai 做的,画面质感也不错,但就是不真实。让我用一分钟来拆解给你。我们用刚升级的可令三点零,把这些可以直接附用的控制方法给到你。第一招,主体一致性 很多 ai 视频开始假,核心原因只有一个,跨镜头人物一致性不稳定。在可令三点零里,先创建主体,可以直接上传一段五秒左右的视频来提取角色特征, 生成时开启主体绑定,让模型能像专业的选角导演一样,牢牢锁定主角道具与场景特征,任凭镜头如何推拉摇移, 视觉主体始终稳定如一。第二招,智能分镜。很多 ai 视频向摆拍,不是因为画面少,而是没有镜头组织,一个机位撑很久,或者景别跳得毫无铺垫。在可零三点零里,新增智能自定义分镜,自定义描述, 满足视频创作中不同景别多镜头需求,更自由、更精准、更可控。我居然输给了那头牛,他上过几天班呀?教大家如何快乐上班,你听听。 花了五分钟论证了这么个问题,更绝的是原生级文字,字形准确,信息无损。第三招,角色定向配音。过去 ai 视频在多人场景里的问题,不是声音不清楚,就是说话对象不明确,再加上口型生成不自然,看起来就很违和。 可零三点零里可以在提示词中直接指定角色和台词,比如这段提示词模型会根据文本里的角色指向 匹配对应人物的发声和口型,多人同框时都能精准可控。而且支持普通话、粤语、四川话至中英会语。如果你把这三步都搞定,视频质感会完全不一样。所以你会发现, ai 视频想要不像 ai, 关键不再多生成几次, 而是要把人物稳定住,把镜头顺序理清楚,再让声音明确对到角色。这三步跑完整, ai 视频的活人感就有了。视频里的提示词已经整理好了,有需要的朋友们可以自取。春节期间在家没事邀请好友一起玩视频,还能领免费会员和灵感值哦!我是 ta, ta 下期见!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分析发布,本期带你搞定纹身视频和图生视频。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享置顶评论直接领取,不用私信,不用等,现在点进去就能暴走,感兴趣的听 评论区扣六六六直接拿走,跟着流程走,轻松搞定第一集!哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了。可以看到里面包括了纹身视频、 图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品。咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手帧图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手抷图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图生视频的方式进行的创作,虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用图声视频的方式,但是我们进行工具的学习还是要从基础开始一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的 还是希望大家能够了解纹身视频的特征特性,对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 现在看到最上方这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型, 相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图上视频, 大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型 在纹身视频中的生成差异。首先来看看咱们使用可零一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果,效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下,也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能。 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下文声视频的设置。首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了, 但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到输入框的右下角,这里跟图片生成一样,也连接了 deep seek, 可以 让它来辅助我们书写提示词。同时可以看到 deep seek 左边有一个小灯泡的按钮,这个是科林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词 被添加到了输入框中。此外,在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。 我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中,很容易出现逻辑不通、形状崩坏的情况,那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。 如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式,在后面的课程中会重点讲解,再来看到第三个,这里我们可以来设置宽高比, 可以看到有三个常规选项,分别是十六比九、一比一以及九比十六,大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数, 这里保持默认的一条就可以,咱们生成视频的成本还是比较高的,只生成一条有助于我们及时根据生成的效果去调整提示词, 以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似,在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。最后再补充一些氛围修饰词。 而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 这个里面的固定镜头,手持镜头、镜头拉远,它们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。 而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果 模型。这里我们还是切换为视频二点六,接着点击下方的生成, 可以看到最终生成的效果还是非常流畅的,同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了题诗词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用图生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的, 很难生成出一致的视频效果。那么下节课将会详细的讲解如何进行图生视频的操作, 操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见!哈喽各位小伙伴们,在上一期的内容里,我们反复强调一个核心要点, 想要制作出可控性强的 ai 视频,图声视频是首选方案。相比于文声视频的随机性,图声视频能基于我们预设的图片精准把控画面主体与风格。 这里要特别提醒大家,本系列教程的知识点是环环相扣的,建议按顺序观看,避免遗漏关键操作细节,影响后续教程的学习。 接下来我们打开可零 ai 的 首页,看到左侧的视频生成功能,点击进入可以看到系统会默认跳转到图声视频的页面,也就是我们本期的核心操作区。 如果我们只做手帧图生视频的话,所有的模型都是支持手帧图生视频的,但是咱们目前选择的二点六模型是不支持上传尾帧的,尾帧图上传的 按钮是没有开启的,但是我们把模型切换为视频二点五,可以看到这里是支持首尾帧模式升视频,那么这节课咱们就先来用二点五模型来为大家进行演示。 如果大家已经跟着之前的课程制作了自己的 ai 图片,完全可以用自己的作品来进行练习。 如果还没有准备素材,真果也为大家准备了配套的练习图,方便大家同步操作。现在咱们点击 旁边的这个手绢图的操作框上传准备好的素材,上传好之后就可以来书写提示词了,那么我们下面来讲解一下图声视频的提示词书写技巧。 在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容进行描述,对画面运镜进行描述,以及对画面中事物的运动进行描述。 那么咱们在使用图声视频功能的时候,由于咱们的手帧图已经提供了完整的画面内容风格,所以我们完全可以省去画面内容描述的部分。 去掉之后,咱们生成视频的画面也会围绕着我们的参考图,也就是手真图而展开, 不会出现过多新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的匀近。那么以当前这一张图片为例, 这张图片是一只小狗在充满春天活力的大自然里开车的画面,那么咱们按照描述要求,第一步 先来描述镜头应境,应境决定了视频的视觉节奏,比如说咱们在这里先输入镜头,缓慢推进,那么这个指令会让镜头慢慢靠近主体,增强画面的沉浸感。 第二步描述画面的动态,这个部分咱们要进行拆分,拆分成主体动作和背景动态两个部分来写,让画面更加丰富。主体动作咱们可以针对图片中的小狗进行书写, 这里可以写上小狗抬手扶了一下眼镜,打开车门下车,走到草地上和小蓝鸟打招呼。 那么背景动态,为了让场景更加生动,我们可以去补充环境的细节,可以写上背景中的树叶,还有小草小花随风飘动, 天空中的小鸟快乐的飞翔。那么到这一步,咱们的提示词正写就完成了,可以看到整个指令没有多余的内容描述,全部都聚焦于动态与运镜。 当然写完之后也可以点击输入框右下角的这个 deep seek, 让 ai 帮助我们润色语句。那么至于下面的参数设置方面, 在图升视频的时候,输出的视频宽高比会和我们上传的图片宽高比保持一致,所以我们要设置的是生成时长以及生成的数量,那么像视频时长这里咱们需要根据动作复杂程度而设定。 如果提示词里面的动作较多,这里就建议把默认的五秒钟调整为十秒钟, 避免动作还没有做完,视频就结束了的情况出现。本次演示的动作比较简单,我们直接保持五秒就可以了。后面的视频生成数量,这里建议先生成一条,查看效果之后再根据需求进行调整, 这样能够节省创作的时间和算力。那么咱们直接点击旁边的生成来看一看效果, 向镜头缓缓推进,小狗用手扶了一下眼睛,再来跟小蓝鸟互动,这些呈现都非常的自然。与此同时,在可灵 a a 上,对于视频生成,除了我们刚刚要求的用手扶眼镜下车,让植物飘动这样简单的要求除外, 其实平台对于主体面部表情的刻画也算是当前平台的一大优势, 所以在此基础上,我们的提示词当中可以补充一个描述,比如说小狗用手摘下墨镜,露出惊讶的表情,写好之后可以再次点击下方的生成。这里需要注意的是,每次生成在动态表现上其实都是随机的, 偶尔可能会出现一个简单的动作生成不好的情况,所以有时我们需要多次尝试,从生成的结果中挑选一段好的效果进行保留,稍等一会视频就生成好。我们来看一下效果, 可以看到最终生成的效果在上一条视频的基础上,符合了提示词的新增需求,露出了惊讶的表情,整体的表现还是比较自然的,但是也可以发现,小狗摘下眼镜的时候,那个眼睛飞起来了, 说明它生成的时候还是会有一些不太合理的地方,这就需要我们去反复的生成视频, 去挑选更好的效果了。那么咱们前面练习的是固定场景下的简单动态,如果想要实现镜头跟随主体移动,甚至让画面出现原图中没有的新内容,该怎么去写提示词呢?那么还是这一张图,这次 我想要这只小狗一直开车,画面中会出现沿路的新事物,对于这种画面的描述,同样遵从描述运镜和描述画面中事物运动这样的方法。但有时候我们可能想不到用太好的提示词去描述画面, 所以此时可以借助克林 ai 上的反推提示词功能,可以看到,当我们把这个自己输入的提示词删除之后, 就会出现一行灰色的小字,请描述你想要生成的视频内容,或者是使用 deep seek 反推描述图片。那么我们这里点击这个 deep seek 反推就可以看到中间这里开始分析当前画面中的提示词了,同时在这个基础上也给出了运镜以及 事物运动的描述。一共是给出了三段提示词,我们可以自己稍微看一下哪一组提示词写的比较好,或者更加符合咱们的需求。在确定好使用的提示词之后, 我们就可以点击下方的立即生成。这里要注意一下的是,很多情况下,这一些提示词描述生成的效果 可能不是特别的理想,我们还需要进行手动的修改。比如说下方的这个墨镜反射着蓝天白云,车顶绿植叶片被风吹得沙沙作响。 这些 deep sea 优化过的提示词描述会过于的复杂,不够直观,我们可以将一些可能会造成混乱的语言描述给删除。向后面环绕下摇镜头展示全景要知道我们想要坐的汽车是向前运动的,如果此 时的镜头是环绕镜头的话,很快就会错过小狗开车无法展示车子向前行驶后的画面,那么咱们就可以不挑选这一组提示词。这里我觉得第二 组提示词的效果好像更加的好一些,我们可以直接点击下方的立即生成来看一下效果, 可以看到整体的效果还是不错的。小狗开车前进,镜头跟随移动,可以看到画面中也出现了新生成的原本图片里没有的事物, 而镜头的方向也是跟随着小车运动的,效果还是不错的吧。那么咱们最后来总结一下图生视频的核心创作技巧。 首先是提示词框架,咱们无需描述画面的内容,只需要聚焦于镜头的运镜和画面动态的表述。动态部分可以拆分为主体动作与 背景动态,如果有镜头移动后新场景的需求,补充新场景的元素进行描述就可以了。第二点是工具辅助技巧,咱们可以用 deep 反推生成基础提示词, 再根据需求手动的优化,避免复杂的描述影响画面的生成。第三点是参数与生图的技巧, 咱们可以根据主体动作复杂程度来调节视频的时长,同时咱们遇到动态不连贯的情况,可以多生成几次, 挑选最优的结果。其实图声视频的操作并不复杂,哪怕是用大白话描述运镜和动态也能生成不错的效果,关键在于掌握核心框架,然后举一反三,不断的尝试优化。 那么以上就是本期视频的全部内容啦,操作过程中有任何的问题都可以在评论区留言哦,如果觉得视频内容对你有帮助的话,可以点个一箭三连支持一下,咱们下期视频见。

用 c 的 生成十五秒视频,我用了七分钟,你呢?测试了三个平台,一个小云雀,一个可灵,还有个吉梦,我给大家看他的生成速度,提示词都是一样的,然后生成最快的可灵的,但是他这个只是双人对话的,没有任何的东西,但是提示词都是一样的, 他最后给我生成了个五秒小云雀,这个挺快,这个小云雀是我是十二点五十六提交的,提示词也是相当的带劲。然后咱们的吉梦呢? 同样的时间挺长,是我当前排队还有五万的,所有的东西我都没有充会员,所以说我建议大家如果想试的话,可以试这个小渔具,快还给力。

mua 哈喽兄弟,这是可灵非常适合新手的 ai 视频模型,能让你完全掌握视频中的表现效果。其口型的同步可能是目前最出色的打开可灵视频生成区的多模态编辑模式, 选择动作控制上传视频和图像后点击生成,就能获得细节惊人的风格化视频效果。最后啊,记得点个关注。

三分钟学会用 ai 制作虚拟偶像及翻唱视频,别划走,先看展示视频, 本条视频如果点赞收藏过万,我会把这个人物做成一个虚拟人账号。开始前的准备工作,制作虚拟偶像需要做以下四个核心的要素,一、人物设定角色性格、背景故事。二、歌曲文件 原创或翻唱音频,或者用 ai 生成。三、人物形象角色的视觉设计图。四、视频内容, mv 或短视频的演唱片段制作流程五大步骤第一步,设计角色故事,确定虚拟偶像的主题和背景故事,那我设计了一个 ai 觉醒的主 题,讲述了仿生机器人觉醒的故事。第二步,创作歌曲。我使用 solo 生成了 ai 音乐,用我自己的课程附赠的系统工具设计出了歌词和音乐的提示。 然后我使用 solo 的 人格模式固定了歌手的人生特色。一、选择人格模式,点击创建角色。例如这首歌我想保存一分四十八秒到两分钟时间段的这个空灵的女生,我需要自己记好时间点,后面会需要用。接着我点击这首歌,就是刚才选的那首歌, 这个歌里总共出现了三个歌手,所以这也就是为什么你要提前记时间点,接着选择你想要生成的固定的人生的歌曲。确定好歌曲以后,你就可以点击这个所有确认的选择,然后给你的歌手命名。假如我要保存一个空灵女神,我就写上名字, 然后你按照刚才设置的那个时间点去截取,可以拖拽它。选择固定好的时间点,刚才记的时间点,然后你可以添加歌手的信息和备注。音色特征,为了防止以后寻找一定要写上歌手的音色特征、风格这些词,然后点击保存,这样以后你所有的歌都可以用这个歌手的声音去演唱了。 完成后下载分轨文件进行混音处理。这里需要特别强调的是,音乐审美和提示词的选择非常关键,可以查看我的 solo 教程合集。第三步,设计虚拟偶像的形象。这一步可以分为三个子步骤,第一步,收集参考图,可以搜集服装、脸型、造型、动作场景等参考图片。 这一步需要花很大的时间精力,但是这个过程是非常有必要的,因为那么它可以帮助你积累审美经验,并且减少你的抽卡频率。这个过程可以帮助你获得更独特的作品。那第二步就是生成人物三十图,用 tiffin 或 lott 融合图 得到第一张人物图,然后通过我在 tiffin 设计的工作流一键生成人物三十图和 tpos 三 d 建模图。第三步就是设计场景,根据自己的人设剧本和参考图来设计成, 可以从知名的 mv 中获取灵感。我一开始脑海中也没有画面,于是我去看了 xj 和 spa 的 mv, 于是我就有了场景大概设计的画面。最后我在 tiktok 使用工作流生成了场景图。 note 的 使用非常方便,你只要做好自己的模板,以后以后你做任何工作都会效率非常快,只要稍微改一点提示词。第四步就是制作翻唱视频了,首先要设计分镜。设计分镜我一般都习惯在 luna 里上传人物小专案和场景图,还有人物参考图,使用 banana, banana 的 pro 模型,使用九比十六的比例进行唱歌的分镜设计,九宫格分镜, 只用这个提示词,把刚才生成的分镜图使用分镜拆分。提示词拆分了九个分镜的图片,然后选择几张满意的图片作为定稿。第三部,生成数字人视频 刚才生成的几张定稿图片,配合剪映里剪辑的音频片段和提示词,去极梦的数字人里生成数字人唱歌视频。第五步,制作完整的 mv。 那 mv 的 制作流程呢?其实和翻唱的视频流程是基本相同的,但需要注意的是, mv 的 剧本设计会更加的复杂完整,场景的设计细节也非常非常的多,而且我们还需要设计很多镜头与镜头衔接的提示词,去达到更好的过渡效果。那么想要深入的学习,可以关注我,获取更多的干货教程,或者报名我的课程系统的学习。

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分期发布,本期带你搞定提示词书写技巧。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成、配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举、提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享、置顶评论直接领取,不用私信,不用等,现在点进去 就能暴走,咱们直接开启课程,手把手带你做出第一条赚钱的 ai 动态们!各位伙伴们,通过第一期课程的学习,我们已经完整认识了可零 ai 界面, 相信大家课后都已经上手熟悉了各模块的位置,那么这一期我们就聚焦核心功能,文声图,重点讲解提示词的书写技巧。 很多同学生成图片不符合预期,问题大多都出在提示词上,掌握今天的方法,就能让咱们的 ai 创作更加贴近理想效果。咱们打开可灵 ai, 进入到图片生成的界面, 就自动跳转到了纹身图的操作框。咱们可以先在上方这一个区域去选择图片生成的模型,一般来说,数字越大,模型的版本越新,效果也会越好一些。 那么模型选择好之后,就可以在下方的这一个创意描述的这个大框框里去输入提示词,输入自己想要生成的内容,然后再选择下方对应的参数,直接生成就可以进行创作了。 看到最左边的这一个按钮,我们可以去选择生成图片的比例,这里已经预设了一些常用的比例,十六比九和九比十六分别对应着电脑和手机的适配宽高比,目前在克林里是不可以自定义设置尺寸的, 中间这一个按钮,咱们可以去设置一次性生成图片的数量。第三个按钮,这里可以去选择图片的分辨率,这些都可以根据需求进行选择,那么确认无物之后,就可以点击旁边的生成按钮, 直接生成图片。那么这个地方要明确一个核心原则,提示词描述越详细越精准,生成的效果也会更加的符合预期。那么看到这里,可能会有些小伙伴问,如果我连提示词都想不出来该怎么办呢? 这里为了帮助大家快速掌握系统的书写方法,我整理了一个通用基础公式, 五个 w 和一个 h。 熟悉其他领域的同学对于这个框架应该不陌生,它在 ai 创作领域同样适用。 这里的五个 w 分 别是 who、 what、 when、 where 和 why, h 则是号。第一个 who, 它呢是画面的主体,简单来说就是你想让 ai 生成的主体,简单来说就是你想让 ai 生成的核心对象,比如说人物、动物、建筑物品等等。 这个是提示词的基础,必须要明确小男孩、女孩、小猫小狗都是画面主体。第二个 what, 它是主体的特征,或者是它所处的状态, 比如说主体的穿着动作或者是核心行为。这里我来举个例子,我们打开可令 ai 的 图片生成功能,在提示词的窗口这里输入,穿着睡衣的少女优雅地坐在椅子上,像前面的穿着睡衣的少女就是 who, 优雅的坐在椅子上就是 what。 输入完成之后,直接点击下方的立即生成,就可以生成像这样的图片效果,呈现了核心主体和状态,既有少女这个核心对象,也有坐在椅子上的动作状态, 那么这个就是户加上 what 的 基础作用。第三个是 when, 它呢是时间描述,时间直接决定画面的光照和氛围,不同时间段的光影差异会让画面质感完全不同。 比如说中午的强光直射,傍晚的暖色调余晖,夜晚的静谧暗光,大家都可以试想一下。同样是少女坐在椅子上,加上清晨朝阳下和深夜台灯下生成的光照氛围,可以看出来是截然不同的。 第四个是 where, 它呢是场景地点,也就是主体所处的环境,比如说客厅、公园、战场、星空下、城墙边等等。回到刚刚的这个例子,我们只是描述了人在椅子上,克林给我们呈现的场景是这样的, 那么如果咱们把场景换成学校宿舍,可以看到画面里的空间感就会完全变化。第五个 why, 它呢是主体出现的原因或者是目的,这一点和 what 是 有些关联的,但是更加侧重行为的逻辑性,能够让画面更具有故事感。比如说穿着睡衣的少女坐在椅子上看着电脑,正在家里加班工作。点击生成 可以看到,相比于单纯的坐在椅子上看着电脑,加上目的之后,人物的状态会更加的贴合场景逻辑, 画面的修饰感也会更加的强一些。这里要注意一下的是, y 并不是 b 选项,简单的创作可以省略掉复杂修饰类的创作就建议补充一下最后一个号,它呢代表的是画面的风格与呈现的方式,这个是提升画面质感的关键, 它包括了绘画的风格,还有色调、构图、视角也包括在其中,同时还有画质参数。如果咱们没有这个部分的描述,生成的画面通常会偏日常普通, 加上之后能够快速地赋予画面艺术性。比如说在刚刚的提示词后面补充赛博朋克风格、冷色调、低角度、仰视视角,生成的画面就会从日常场景变为充满科技感的艺术创作作品。 那么像这六个要素,不用死记硬背,大家可以类比日常写作的逻辑,什么时间,谁在什么地方,做什么样的事情,为什么要这么做,以及呈现出来的风格是什么样的。最后再去补充一些氛围的修饰词,这样提示词就会变得非常的完整。 那么接下来我们结合可令 ai, 用一个完整的案例进行实操演示。这里我们来构建一个有故事感的提示词,暮春的雨夜,身着但青涩如裙的少女 撑着油纸伞站在古桥桥头等待晚归的家人。冷灰色调电影级氛围远景俯拍这里按照刚刚的提示词结构进行了书写,直接点击下方的生成, 可以看到生成的结果完全的符合提示词的描述,主体特征、场景氛围、画面风格都比较的理想,这样的提示词就是合格的完整提示词, 如果是商业接单,提示词的摺写会更加的简单一些,通常甲方会明确给出需求,直接作为提示词使用就可以了。那么如果大家暂时没有灵感,或者想要快速的生成素材, 可零 ai 内置的辅助功能也能帮上忙。看到文生图输入框的下方,这里有一个推荐,里面有很多的预设标签,比如说怪诞、虚实、丝绒、摩登,咱们可以点击任意的标签, 系统就会自动的填入对应的提示词。在创意描述这一个地方,那么生成的作品也就完全贴合未来战役的风格,效率是非常高的。这里大家如果觉得下面预设标签太少的话,也可以点击旁边的这一个换一换按钮, 不过可以看到替换后的预设标签的重复率还是比较高的。这个地方有一个更加优质的灵感获取渠道,就还是上一期所提到过的创意圈, 这个里面汇聚了大量创作者的优质作品,咱们点击任意的作品,就可以看到作者所使用的提示词,我们不需要完全的照搬,只用替换核心的元素就可以发挥自己的想象,这样既高效又能够保证质量。 外,咱们回到图片生成的界面,可以看到克林还支持 deep sea 提示词认色功能,咱们可以在创意描述这里输入简单的提示词,比如说一个男孩,接着点击下方的 deep sea, 可以 看到发送之后系统就会自动的认色补充细节,比如说男孩、草原奔跑、蓝天白云、阳光微风、短裤、运动鞋、草叶飞扬, 如果觉得这个提示词满意的话,就可以点击下方的立即生成,可以看到生成的效果也是不错的。但是这里要注意, ai 任色的随机性比较强,这里不建议直接使用,最好是根据自己的需求调整优化之后再去生成, 或者是自行转载详细的提示词,再使用该功能去优化表述。这里最后要说明一点的是,纹身图存在一定的随机性, 有时候会出现大部分满意,小部分不满意的情况。比如喜欢画面的构图,但是想要换风格或者是想要修改局部的细节, 这种需求可以通过可零 ai 的 参考生图功能实现,它能基于现有的图片调整风格或者是修改局部。这里由于时间的关系,这个功能具体操作我们放到下一期详细进行讲解。 那么以上就是本期文生图与提示词书写技巧的全部内容啦,建议大家课后结合今天的案例,替换核心元素实操练习,加深对于提示词逻辑的理解。可以把作品分享在评论区 们,相互学习,相互进步。如果操作中遇到任何的问题或者有其他想要了解的技巧,也欢迎在评论区留言。如果本期内容对你有帮助的话,别忘了点赞关注,方便获取后续教程的更新,咱们下期视频再见!

你敢信有人用 ai 做这种画风的漫画剧,几天就顶别人一个月工资,但更离谱的是,百分之九十的人连门都摸不着。没人告诉你第一步到底从哪下手,没人分享真正能跑通的方法,更没人提醒你哪些坑早就被人踩烂了。 但今天,我把这条从零到一的流程彻底拆给你看,你只要照着做,四十八小时内你的第一部剧就能上了线。首先, ai 慢剧到底是啥? 就是你刷到的那种动漫式短剧,一集接一集,剧情上头,画风带感。为什么全网都在抢着做?因为它的变线路径简单到吓人,用户要么花钱解锁,要么看广告分成,别小看那几秒广告,一旦跑起来,睡醒后台都在 进账。这才是为什么有人一天更三集,越做越上瘾,那时间有限,现在上车,相关的制作流程、提示词和 ai 工具 我都以文档的形式整理好了,感兴趣的六六六带走。如何制作一个 ai 视频?本期视频包含较多的技巧,我将分别用全景、大远景和近景特写这两个不同的景别片段,来教会你们如何处理大远景运镜 以及让人物近景特写的画面更加连贯。首先,我们要做的依然还是先拿到故事剧情的脚本。我们要知道, ai 生成图片或者是视频都是需要提示词的,而脚本中的故事情节就可以让我们对提示词 进行修改,生成的图片有更好的效果,所以这个环节是必不可少的。有了故事的剧情,我们就可以去生成对应脚本的图片, 也可以去确定人物。方法就是让 ai 生成人物提示词,我们进行简单的修改就可以拿去生成了,下一步就是 ai 视频生成的方式,我们一定要选择图片生成,这样才能保持视频整体的一致性。那么 ai 给我们的提示词要怎么修改?记住用连贯的自然语言描述画面的内容, 描述你想要的风格以及构图就可以了。有了图片,接下来就是 ai 视频的生成,可选择的平台有很多,即梦的话生成的效果很不错,音画同出性价比高。 海螺生成光影特效的场景表现都很不错,可灵的话生成出来的视频修改成本比较高。统一的话就是免费的表达人物的情绪很不错,但是不开会员免费等待的时间会比较高。维度生成动漫相关的效果比较好。 段位的话是早期的生成工具,成本高,但是效果也很好。独生视频的提示词结构就是动作加镜头加情绪或者照明。关于图片生成的平台,我建议用的是极梦,因为极梦四点零生成,人物形象更匹配。豆包的提示词。给大家看一个例子,这个是四点零模型的, 这个是四点五模型的,完全偏离了我们想要的结果,而且四点零模型是不需要花费点数的,极大的帮助了我们节省成本。配音的话可以使用极梦的数字人,还有剪映里面自带的配音,如果配音没有情绪,那就可以使用专门的配音软件表达出情绪。最后就是将视频剪辑出来就完成了制作。 那么我们先来讲全景大圆景运镜的效果。首先我们来做第一步,拿到故事的剧情脚本,让豆包给我们生成一份水漫金山的故事剧情 怎么写?豆包生成剧本脚本的提示词,以下是我常用的模板,直接分享给大家,大家直接拿去用就可以了。你是一位拥有三十年电影拍摄经验的世界顶级导演,擅长各类影片剧本创作。输出一个二十秒到三十秒的剧本,需要包含信号、时长、运镜方式、警别、图片生成提示词、 独生视频提示词、画面对应内容、旁白、音效等相关信息。得到我们想要的剧本后,我们打开即梦,确定人物,粘贴我们人物生成的提示词, 点击发送就会得到我们想要的图片。接下来生成画面内容,我们挑一个画面内容提示词来试一下,复制下来粘贴到极梦中,选择你满意的那一张就好了。我还做了一个该画面的背后视角, 可以看到前面这个和尚手上是有一根禅杖的,而背后视角没有,那么我就来教大家如何去修改这个图片,非常简单啊,将两张图片都给到极梦提示词,就这样告诉他,图一人物的背面又没有法杖了,帮我生成一根图一一样的法杖给图二角色, 法杖不要太大,根据图一的比例来生成,那么这样禅杖就出来了。发现位置不对,直接在文件夹里选择反转图像,只要图中没有太多的出入, 左右不一致的问题,都可以使用这个方法。接下来讲一下视频的生成,记住,如果要做大幅度运镜,我更推荐海螺,因为海螺有自由选择运镜的功能,依旧是以这个合上为例子,大家可以看一下我的首尾帧,视频生成提示词,非常简单的表达,加上海螺特有的运镜选择,先拉近 再右移动,左摇再拉远。关于这个运镜的选择,大家要是想了解更多的话,可以在弹幕上发送,想了解我会专门出一期如何使用海螺运镜功能的使用教程。 关于人物的配音,这里有一个技巧,希望可以帮助到大家。我们先用数字人生成一个你比较满意的人物配音,放到剪映当中,鼠标右键点, 点击音频分离,然后我们就可以更改我们想要的音色了,这样做出来的视频更有氛围感。视频片段都完成后,就可以剪辑你的视频了,加入你想要的音效,还有转场等,来看一下我制作的效果怎么样。 姐姐,我找到许仙在哪里了,就被关押在寺庙里面,但是他的身边有法海那秃驴的法师护着,我没办法将他救出来。姐姐你小心一点 哇, 不要再祸害他人,蛇精人妖殊途,还不束手就擒 下一个我们就来讲一下近景特写的技巧,开始的流程和上面是一样的,就不过多讲述了,得到你满意的图片后,这是我出的一些图片, 那么我们要如何让类似这样的镜头画面流畅的连起来呢?还是打开极梦想要完成这种一个镜头,将人物的神态表情在画面中表现的非常好的效果。我们直接用极梦的智能多帧功能,智能多帧不仅可以完成多图连贯,而且对于视频制作来说成本也是非常的低的。将图片放入图框中, 注意一定要调节好时间,紧促一点,时间就快一点,舒缓一点,时间就慢一点,这个非常的重要,给大家看一下不同时间下的效果,时间短一点,视频速度会太快,人物表情就会抽动, 时间太长, ai 的 随机性较强,会生成一些多余的画面,所以调整好每一个画面间隔的时间,生成出来的效果就会非常不错了。关于 ai 视频的剪辑,大家要运用好剪映里面的特效和转场,如果你生成的画面连贯性很高,那是非常不错的,但是无法衔接上的画面,我们要好好利用这个功能 来看。这里我做了一个类似人物回忆的效果,就是这个闪白转场,这边也是一样,加一个雷声和闪白转场更加会有感觉一点。 那么这期教学视频就是 ai 视频生成的流程和一些小技巧,希望可以帮助到大家。如果大家想要把 ai 视频给做好,还是要注意很多细节的,从提示词生成图片到视频的剪辑,虽然说起来好像很简单,但是想要做出好的 ai 视频还是需要大家花一点心思的,那么我们这期视频就到这里,姐姐 我找到许仙在哪里了,就被关押在寺庙里面,但是他的身边有法海那秃驴的法师护着,我没办法将他救出来,姐姐你小心一点, 不要再祸害他人,蛇精人妖殊途,还不束手就擒。

直到现在,很多人都不知道现在的 ai 已经能做到视频人脸的自然替换。这期视频我直接告诉你是怎么做到的。 大家好,我是九凡。不管你是做短视频带货、 ip 分 身、虚拟演员,还是不方便真人出镜,想降低拍摄成本,或者你只是单纯对 ai 好 奇,这个能力你迟早会用得到,而且新手小白也能直接上手。 在开始之前,你只需要准备两样东西,第一,一段你想要换脸的视频。第二,至少一张清晰、光线均匀的正脸照片。我这里使用的三张照片均由豆包 ai 生成。话不多说,直接打开可灵 ai, 选择可灵 o 一 模型。 在换脸之前,我们会先使用到 o e 的 主体功能,也就是创建一个参考角色。你可以选择官方创建的主体,反正我不用,我选择创建我的主体。点击加号进入创建多图主体界面证明图这里你可以从历史选择,也可以像我一样手动上传本地的一张正脸图。 如果你只有一张照片,我非常建议你使用 ai 智能补全功能,他会根据这张正脸自动生成其他角度帮你补齐视角,选一组你满意的就行。因为我自己准备好了图片,所以我选择手动上传两张补充视角图,最多可以上传三张。 上传完成后给主体起个名称,方便你后续调用标签,根据实际选择主体是人物就选人物。主体描述可以直接点智能描述,这是一个提示词反推的功能,你也可以在此基础上做出修改,反正我不改。 到这一步,我们的主体 lisa 就 创建好了。接下来就非常简单了,上传你准备好的视频,选择视频本地上传, 然后把刚才的主体 lisa 添加进去。接下来就是输入提示词,给 ai 下命令。 如果你想提高成功率,或者想多抽几个效果,这里一次性可以生成四个视频。如果你跟我一样,那就不用动原声,就是是否保留原视频的声音,最后点击生成。 如果你不是会员,还得耐心等待五到十分钟。如果你的时间比较值钱,可以点击这里开通会员最低一个月只要四十六,也就是我一天的工资,灵感值六百六。如果灵感值不够用,你可以升级会员或者购买灵感值。本质上你是在用钱换时间。 我们看一下成片效果。 ai 时代眼见不再为时,技术越容易被使用,我们越要保持判断力,别被欺骗,也别滥用,我们下期再见。

像这样的视频其实是用可灵 ai 做的,步骤很简单,跟着我步骤走,三十秒就能做好。首先我们点击这个更多分享链接就可以复制了, 然后来到我们的可灵 ai 这个软件,它就会自动跳转到同款视频内容,然后一键剪同款, 然后在你相册选择你想成片的照片, 点立即生成,等待三十秒视频就做好了。把视频下载到自己的手机里,快来试试吧!

像这样的 ai 视频如何生成的呢?下面我教给大家。第一步,点击右下角分享复制链接。 第二步,点进可领 ai 进去,点击允许点击右下角一剪同款, 然后在相册里添加你要的图片,点击立即生成,等待一下就生成好啦, 点击下载到相册就做好啦!整个流程简单,不用几分钟就做好啦!