粉丝6373获赞2.8万

仅用一段提示词,加一张图片,自动生成分镜,包含大全景、虚焦、特写等专业电影运镜 ai 声视频发展到现在,已经从能生成走到能好用了,可您这次三点零的升级,直接喊出了 o n y 创作生态的口号,今天我们就一条视频带你上手。首先是蓄势能力的突破, 开放自定义分镜体系,支持经典影视切近语法,满足专业创作者的多景别需求,同时把时长放宽到十五秒,支持精准时长控制,让 ai 生成从素材走向成片。比如这段素材,先上传一张你需要制作分镜的图片,输入以下这段提示词, 模型选择的话,我们就选择三点零阿莫雷比例以及生成数量,根据你想生成内容的时长来进行决定。之后我们就可以拿到一批分镜头,再点击视频生成自定义分镜,把你满意的分镜头呢,直接拖到自定义分镜里面,然后再对每个分镜头单独去进行描述模型,我们就选择三点零 时长比例,根据自己的需求去进行调整。之后我们点击生成, 可以看到呢,整个镜头的调度还是非常有电影感的。音画同步一直是 ai 视频的一个痛点,这次可令三点零音画同出,把语言支持拓展到五国语言加方言,同时实现基于主体的音色绑定, 哪能忘内?实现多国语言音画同步的话,我们只需要在深视频提示词里面标注好主角需要说的话就可以。最后是关于生成人物的一致性,我们可以通过官方的主体绑定来解决这个问题。点击资产,然后选择主体资产, 选择创建,选择添加图片,然后我们点击 ai 智能补全,稍等片刻,系统就会直接帮你补全你人物的三式图。我们还可以自定义主体的名称,以及上传绑定主体的音色。主体全部创建完毕之后,我们回到视频生成模式,用自定义分镜生成一段视频来看一下效果。 你根本不是警察,你少血口喷人,你们两个都是我的妻子。 以上这种方法呢,大幅降低生成的随机性,解决了多人角色纸带混乱的一个问题。可令这次升级其实是 ai 声视频从拼接式生成到一体化创作的一个节点,对于普通创作者来说,降低了专业创作的一个门槛,值得所有内容创作者去试一试。

怎么把画面从这样变成这样? 哈哈哈哈哈,我可以变成马尔福,也可以变成金刚狼,甚至我今天的全套装造身后的高级感背景,全都是 ai 现场捏的像这指哪打哪的动作控制到底怎么玩?接下来分三个阶段一次性给你讲透。 先打开可灵 ai 的 动作控制,记得一定要选最新的三点零模型。这次有个史诗级的更新,就是新增了主体库功能,再也不怕人物面部崩坏。分别上传一段视频和一张图片,神奇的事情就发生了。不管照片里是谁,都能完美复刻视频里的动作, 无论是跳舞、微表情, 甚至是那种魔性高难度的动作,他都能一比一还原。而且即使在高速运动中或者被大面积遮挡, ai 也能牢牢锁住人物长相。 以前影视剧的角色替换效果是这样的或者这样的。现在可以直接在这里上传原图,把人物面部替换为任何角色,再配合动作控制三点零模型, 人物就完美融入了表情,动作完全同步。你甚至可以把主角换成自带特效的虚拟角色。以前需要一个团队干半个月的特效,现在一杯咖啡的时间就能搞定。 这是我,这是用 ai 捏出来的。我不仅自带妆造,拍摄环境还能任意切换,这也是我觉得可零三点零动作控制最炸裂的一点,能够实现专业影视级的应用。 在这里上传你的照片,生成一张精修的人物场景图,然后在动作控制里上传你随便录的口播视频,加上这张精修图,一个带妆造带场景口型、动作丝滑的精致视频就生成了,真的实现了无痛做博主。 以前我们被设备限制,被场地限制,甚至还有颜值焦虑,但现在,只要你有好的脚本,好的创意, ai 就 能帮你完成剩下百分之九十九的执行。关注我,带你用 ai 把内容创作卷出新高度,我们下期见!

哈喽,大家好,我是你们的 ai 创意搭子,今天咱们来聊聊可灵三点零的保姆级上手教程,废话不多说,咱们直接上干货。现在开始 这次可灵三点零的更新,不光是底层框架全面升级,还把我们以前所有的视频生成流程来了一次大升级。 以前大家最关心的音画同步、主体一致性、长时间视频生成,这些核心痛点一次性给解决了。不仅能直接生成十五秒长视频,画面真实感直接拉满,人物的表情动作也更有戏。 今天就带大家把四个核心王炸功能一次性彻底吃透。 第一个王炸功能就是全新的智能分镜,你只要把完整的剧本台词写进提示词里,它就能自动读懂你的剧情识别、场景切换,自动给你调度警别机位。 hey, don't say that being here with you is already perfect! 说白了就是在视频生成里装了个专业导演,或者说给你配了多个机位,你甚至还能在提示词中描述不同的场景。 以前咱们用 ai 做剧情视频,要出不同景别和角度的分镜,但是你现在只需要一张人物场景图,描述你需要的镜头画面来生成视频。你也可以直接用九宫格来直接出视频, 人物的一致性和场景都能很好的被记住。 第二个功能,直接解决人物变脸的噩梦, 他就是可灵三点零全球首创的图声视频加主体参考功能。相信很多朋友都遇到过,生成视频的时候,人物跳舞、转身,脸就直接变了。 现在新增这个主体参考功能,就能完美解决这个问题。比如我们需要做双人对话镜头,这画面是看不到对面人物的脸部,但是我们可以加入主体,这样生成出来的视频就能有对方的视角画面了。 我怎么知道你有没有说谎?但是事实就是如此。第三个重磅升级全能音画系统,这次直接把口型同步、多人对话、多语种给玩到了极致。 这次的音画升级直接实现了文本和角色的精准音设。多人同框的场景里,你想让谁说话就让谁说话,彻底解决了多人对话纸袋混乱的难题。这茶刚泡好,你们都趁热尝尝! 这是一个 really wonderful gathering! 今夜最后一战, 我等与城池共存亡,末将誓死追随。人在城在,绝不后退! 今日嘅阳光都正到爆啊!啱啱烤好嘅牛油曲奇配埋冰牛奶,简直就系周末最幸福嘅时刻啦! 第四个核心升级就是全新的 omni 全能,参考三点零,一句话总结,更像更听话、更少崩! 这次的奥尼尔三点零相比上一代生成视频的主体,相似度直接大幅提升,整体更听话、更灵动,画面效果也很细腻,还能给主体添加专属音色,真正实现了主角从脸到声音的全程统一。 在首页点击资产,再点击主体资产,点击创建,现在还支持视频创建主体,你们可以亲自尝试一下,我这里上传准备好的角色素材, 点击智能补全,就能帮我生成好不同视角的角色。再点击上传音色,捕捉好角色名字和描述,以后每次生成都是能直接用的成熟主体,大大提升了咱们的创作效率,然后就可以在奥秘里使用主体了。 不管你是零基础新手还是专业创作者,都能靠它轻松做出高质量的 ai 视频。 恭喜你学会了,可零三点零徒生视频别忘了点赞关注,我们下期再见!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分析发布,本期带你搞定纹身视频和图生视频。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享置顶评论直接领取,不用私信,不用等,现在点进去就能暴走,感兴趣的听 评论区扣六六六直接拿走,跟着流程走,轻松搞定第一集!哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了。可以看到里面包括了纹身视频、 图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品。咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手帧图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手抷图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图生视频的方式进行的创作,虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用图声视频的方式,但是我们进行工具的学习还是要从基础开始一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的 还是希望大家能够了解纹身视频的特征特性,对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 现在看到最上方这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型, 相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图上视频, 大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型 在纹身视频中的生成差异。首先来看看咱们使用可零一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果,效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下,也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能。 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下文声视频的设置。首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了, 但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到输入框的右下角,这里跟图片生成一样,也连接了 deep seek, 可以 让它来辅助我们书写提示词。同时可以看到 deep seek 左边有一个小灯泡的按钮,这个是科林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词 被添加到了输入框中。此外,在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。 我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中,很容易出现逻辑不通、形状崩坏的情况,那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。 如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式,在后面的课程中会重点讲解,再来看到第三个,这里我们可以来设置宽高比, 可以看到有三个常规选项,分别是十六比九、一比一以及九比十六,大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数, 这里保持默认的一条就可以,咱们生成视频的成本还是比较高的,只生成一条有助于我们及时根据生成的效果去调整提示词, 以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似,在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。最后再补充一些氛围修饰词。 而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 这个里面的固定镜头,手持镜头、镜头拉远,它们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。 而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果 模型。这里我们还是切换为视频二点六,接着点击下方的生成, 可以看到最终生成的效果还是非常流畅的,同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了题诗词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用图生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的, 很难生成出一致的视频效果。那么下节课将会详细的讲解如何进行图生视频的操作, 操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见!哈喽各位小伙伴们,在上一期的内容里,我们反复强调一个核心要点, 想要制作出可控性强的 ai 视频,图声视频是首选方案。相比于文声视频的随机性,图声视频能基于我们预设的图片精准把控画面主体与风格。 这里要特别提醒大家,本系列教程的知识点是环环相扣的,建议按顺序观看,避免遗漏关键操作细节,影响后续教程的学习。 接下来我们打开可零 ai 的 首页,看到左侧的视频生成功能,点击进入可以看到系统会默认跳转到图声视频的页面,也就是我们本期的核心操作区。 如果我们只做手帧图生视频的话,所有的模型都是支持手帧图生视频的,但是咱们目前选择的二点六模型是不支持上传尾帧的,尾帧图上传的 按钮是没有开启的,但是我们把模型切换为视频二点五,可以看到这里是支持首尾帧模式升视频,那么这节课咱们就先来用二点五模型来为大家进行演示。 如果大家已经跟着之前的课程制作了自己的 ai 图片,完全可以用自己的作品来进行练习。 如果还没有准备素材,真果也为大家准备了配套的练习图,方便大家同步操作。现在咱们点击 旁边的这个手绢图的操作框上传准备好的素材,上传好之后就可以来书写提示词了,那么我们下面来讲解一下图声视频的提示词书写技巧。 在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容进行描述,对画面运镜进行描述,以及对画面中事物的运动进行描述。 那么咱们在使用图声视频功能的时候,由于咱们的手帧图已经提供了完整的画面内容风格,所以我们完全可以省去画面内容描述的部分。 去掉之后,咱们生成视频的画面也会围绕着我们的参考图,也就是手真图而展开, 不会出现过多新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的匀近。那么以当前这一张图片为例, 这张图片是一只小狗在充满春天活力的大自然里开车的画面,那么咱们按照描述要求,第一步 先来描述镜头应境,应境决定了视频的视觉节奏,比如说咱们在这里先输入镜头,缓慢推进,那么这个指令会让镜头慢慢靠近主体,增强画面的沉浸感。 第二步描述画面的动态,这个部分咱们要进行拆分,拆分成主体动作和背景动态两个部分来写,让画面更加丰富。主体动作咱们可以针对图片中的小狗进行书写, 这里可以写上小狗抬手扶了一下眼镜,打开车门下车,走到草地上和小蓝鸟打招呼。 那么背景动态,为了让场景更加生动,我们可以去补充环境的细节,可以写上背景中的树叶,还有小草小花随风飘动, 天空中的小鸟快乐的飞翔。那么到这一步,咱们的提示词正写就完成了,可以看到整个指令没有多余的内容描述,全部都聚焦于动态与运镜。 当然写完之后也可以点击输入框右下角的这个 deep seek, 让 ai 帮助我们润色语句。那么至于下面的参数设置方面, 在图升视频的时候,输出的视频宽高比会和我们上传的图片宽高比保持一致,所以我们要设置的是生成时长以及生成的数量,那么像视频时长这里咱们需要根据动作复杂程度而设定。 如果提示词里面的动作较多,这里就建议把默认的五秒钟调整为十秒钟, 避免动作还没有做完,视频就结束了的情况出现。本次演示的动作比较简单,我们直接保持五秒就可以了。后面的视频生成数量,这里建议先生成一条,查看效果之后再根据需求进行调整, 这样能够节省创作的时间和算力。那么咱们直接点击旁边的生成来看一看效果, 向镜头缓缓推进,小狗用手扶了一下眼睛,再来跟小蓝鸟互动,这些呈现都非常的自然。与此同时,在可灵 a a 上,对于视频生成,除了我们刚刚要求的用手扶眼镜下车,让植物飘动这样简单的要求除外, 其实平台对于主体面部表情的刻画也算是当前平台的一大优势, 所以在此基础上,我们的提示词当中可以补充一个描述,比如说小狗用手摘下墨镜,露出惊讶的表情,写好之后可以再次点击下方的生成。这里需要注意的是,每次生成在动态表现上其实都是随机的, 偶尔可能会出现一个简单的动作生成不好的情况,所以有时我们需要多次尝试,从生成的结果中挑选一段好的效果进行保留,稍等一会视频就生成好。我们来看一下效果, 可以看到最终生成的效果在上一条视频的基础上,符合了提示词的新增需求,露出了惊讶的表情,整体的表现还是比较自然的,但是也可以发现,小狗摘下眼镜的时候,那个眼睛飞起来了, 说明它生成的时候还是会有一些不太合理的地方,这就需要我们去反复的生成视频, 去挑选更好的效果了。那么咱们前面练习的是固定场景下的简单动态,如果想要实现镜头跟随主体移动,甚至让画面出现原图中没有的新内容,该怎么去写提示词呢?那么还是这一张图,这次 我想要这只小狗一直开车,画面中会出现沿路的新事物,对于这种画面的描述,同样遵从描述运镜和描述画面中事物运动这样的方法。但有时候我们可能想不到用太好的提示词去描述画面, 所以此时可以借助克林 ai 上的反推提示词功能,可以看到,当我们把这个自己输入的提示词删除之后, 就会出现一行灰色的小字,请描述你想要生成的视频内容,或者是使用 deep seek 反推描述图片。那么我们这里点击这个 deep seek 反推就可以看到中间这里开始分析当前画面中的提示词了,同时在这个基础上也给出了运镜以及 事物运动的描述。一共是给出了三段提示词,我们可以自己稍微看一下哪一组提示词写的比较好,或者更加符合咱们的需求。在确定好使用的提示词之后, 我们就可以点击下方的立即生成。这里要注意一下的是,很多情况下,这一些提示词描述生成的效果 可能不是特别的理想,我们还需要进行手动的修改。比如说下方的这个墨镜反射着蓝天白云,车顶绿植叶片被风吹得沙沙作响。 这些 deep sea 优化过的提示词描述会过于的复杂,不够直观,我们可以将一些可能会造成混乱的语言描述给删除。向后面环绕下摇镜头展示全景要知道我们想要坐的汽车是向前运动的,如果此 时的镜头是环绕镜头的话,很快就会错过小狗开车无法展示车子向前行驶后的画面,那么咱们就可以不挑选这一组提示词。这里我觉得第二 组提示词的效果好像更加的好一些,我们可以直接点击下方的立即生成来看一下效果, 可以看到整体的效果还是不错的。小狗开车前进,镜头跟随移动,可以看到画面中也出现了新生成的原本图片里没有的事物, 而镜头的方向也是跟随着小车运动的,效果还是不错的吧。那么咱们最后来总结一下图生视频的核心创作技巧。 首先是提示词框架,咱们无需描述画面的内容,只需要聚焦于镜头的运镜和画面动态的表述。动态部分可以拆分为主体动作与 背景动态,如果有镜头移动后新场景的需求,补充新场景的元素进行描述就可以了。第二点是工具辅助技巧,咱们可以用 deep 反推生成基础提示词, 再根据需求手动的优化,避免复杂的描述影响画面的生成。第三点是参数与生图的技巧, 咱们可以根据主体动作复杂程度来调节视频的时长,同时咱们遇到动态不连贯的情况,可以多生成几次, 挑选最优的结果。其实图声视频的操作并不复杂,哪怕是用大白话描述运镜和动态也能生成不错的效果,关键在于掌握核心框架,然后举一反三,不断的尝试优化。 那么以上就是本期视频的全部内容啦,操作过程中有任何的问题都可以在评论区留言哦,如果觉得视频内容对你有帮助的话,可以点个一箭三连支持一下,咱们下期视频见。

一次版本更新,直接甩出王炸 c 弹,四二点零横空出世,瞬间引爆整个 ai 视频圈。面对这位新王的强势踢馆,其他厂商是否还能站稳脚跟?我们一起看看其他大厂如何应对, 比如毫不示弱的可零 ai 全新可零三点零版本带来全新动作控制板块,只需要一张图片加一段想要模仿的动作视频即可,媲美专业级的动作捕捉视频效果,我们直接上实测,看看效果到底有多炸裂。 正是这期内容前,麻烦大家在评论区打上牛牛牛可灵 ai 早在二零二四年就开始了第一次的视频生成,一经发布就带来了大量的好评, 而与此同时,一场悄无声息的 ai 视频军备竞赛就开始了,而现在就在西单斯二点零的冲击下,可另以三点零模型加超强的动作控制来应战,直接上受到专业影视级动作捕捉的品质,而且是入门级的简单操作,只需要三步就可以实现,就必须推荐大家来试一下了 哇!动作控制打开可连 ai 官网即可看到非常丰富的功能以及不同的页面,还包括非常多的视频生成的效果展示。其他的我们后面再说,我们要首先体验的就是最新动作控制, 直接点击生成进入生成界面,点击动作控制即可进入到全新的动作控制操作面板,这里可以直接点击或者直接拖拽都可以导入,只需要添加一个想要模仿动作的视频,再导入一张人物照片, 在下方还有一个绑定面部主体,这里是可以非常有效的控制人物面部细节,增强面部一致性,有条件可以通过一个短视频来创建一下。 再往下这里的提示词区域可以填写一些特殊要求,继续向下,包括生成视频设置,最后点击生成即可开始等待。至于效果,那真的是一比一的还原,太强了。 现在可以正式的看回首页的更多功能了,拥有非常多强大的功能。对于图片生成、视频生成、动作控制、数字人这些都在生成这一大分组中可以直接进入, 与大多数生成平台的操作一样,选择好模型当然是推荐使用最新的。接下来参考图和提示词也都是一样,可以直接输入 最后下方的生成参数,设置确认后就是点击生成了这里一张图片需要消耗 e 零感知。 视频生成这里也一样,可以导入单张图片或者导入两张图片作为首尾帧。输入提示词可以选择词库和预设,用来提升画面更多细节。最后点击生成视频生成模型比较多样,不同的模型需要的灵感值也是不一样, 这里还要特别推荐一下灵感画布,这里是针对一整套内容创作的工作流程,通过简单描述开始的要求,到最后作品完成,一整套的工作流全部交给可灵还是很有意思的。 解锁更多玩法,简单易上手,任何人都可以成为 ai 大 师。可灵 ai 的 可玩性其实是非常强大的,特别是对于没有入门 ai 生成的用户,不用担心复杂,不会用海量的视频效果都可以一键制作。同款 在线网页版本、手机 app 版本都可以快速上手,在首页入眼就能看到非常多精彩的 ai 生成效果展示,不管是图片还是视频全都有,并且都是可以直接点击一键制作同款。 抛开其他不说,但说针对 ai 模板的应用,直接就可以让绝大多数的普通人都可以直接体验到 ai 生成的魅力。 要是你看到的作品,喜欢哪个就点击哪个,点击一键同款即可直接跳转到对应的 ai 生成界面。所有的 ai 生成效果都是非常简单,结合前面的详细案例分享,入门使用还是轻轻松松。 最后可连 ai 生成需要消耗灵感值每月赠送,自己免费白嫖,玩一玩也不错。今天的视频到这就结束了,如果你觉得本期视频对你有帮助,欢迎点赞、收藏、转发给正在学习的朋友。支持一波,我们下期视频很快就见!

如何在三十秒内制作手稿、变身视频?跟上这些步骤,第一步,打开可灵 ai app 第二步,选择视频生成。第三步,上传你的手稿图片。第四步,输入以下关键词,评论区可直接复制。 最后,点击生成手稿,变身视频就做好啦!

挑战一个视频丛林,教会你制作 ai 动漫短剧,注意,反套视频耗时两个月,共计一百八十分钟,一口气带你丛林玩转 ai 慢剧全流程,你将会学会剧本、脚本创作、人物分镜深沉。 ai 视频配音、配乐、剪辑成片,快艾特你想一起搞钱的朋友,花一小时直接上手!恭喜你刷到这条视频!这可能是你发现的二零二六年 最稳赚钱风口 a a 新品卖具,全民掘金时代正式来临!慢局赛道现在有多火呢?日成交破千万只是起点,各平台疯狂砸钱抢优质内容头部创作者,单分钟收益破 三到三万元不等!免费试开,吸粉付费!完整版变现,两条路径双管齐下,普通人也能快速变现。最重要的是,不用会画画,不用精通剪辑,零基础零成本也能轻松入门。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成、配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片!真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留分享!感兴趣的评论区扣六六六直接拿走!那么话不多说,咱们直接开始学习,让你的创意 完美落地,便是我回家之时。若我活着,定会满城红妆接你过门。 哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了,可以看到里面包括了纹身视频、图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品,咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手真图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手真图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图声视频的方式进行的创作。虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用徒生视频的方式,但是我们进行工具的学习还是要从基础开始,一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的还是希望大家能够了解纹身视频的特征特性, 对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 再来看到最上方,这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型,相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图 生视频,大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型在纹身视频中的生成差异。首先来看看咱们使用可令一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能, 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下纹身视频的设置,首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了,但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到 输入框的右下角,这里跟图片生成一样,也连接了 dipstick, 可以 让它来辅助我们书写提示词,同时可以看到 dipstick 左边有一个小灯泡的按钮,这个是柯林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词被添加到了输入框中。此外在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中很容易出现逻辑不通、形状崩坏的情况, 那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式, 在后面的课程中会重点讲解。再来看到第三个,这里我们可以来设置宽高比,可以看到有三个常规选项,分别是十六比九、一比一以及九比十六, 大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数,这里保持默认的一条就可以,咱们生成视频的成本还是比较高的, 只生成一条有助于我们及时根据生成的效果去调整提示词,以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似, 在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。 最后再补充一些氛围修饰词。而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 一个里面的固定镜头,手持镜头,镜头拉远,他们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果模型。这里我们还是切换为视频二点六, 接着点击下方的生成,可以看到最终生成的效果还是非常流畅的。同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了提示词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用徒生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的,很难生成出一致的视频效果。 那么下节课将会详细的讲解如何进行徒生视频的操作,操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见。

各位伙伴们,前几天克林三点零正式发布,这次的升级堪称颠覆性,从画面质感到功能体验,从单镜头创作到多镜头修饰, 从静态生成到动态连贯,全方位拉满 ai 视频的创作上线。那么今天这期视频我会把克林三点零的核心优势一一拆解,不管是新手创作还是专业内容生产, 都能快速上手。特意整理了 ai 工具包,提示词攻略,还有详细的操作文,感兴趣的评论区扣六六六直接拿走。那么话不多说,咱们直接开始学习,让你的创意完美落地,便是我回家之时, 若我活着,定用满城红装接你过门!优势之一,多镜头创作功能,这绝对是可零三点零最惊艳的升级, 仅凭一句提示词,就能生成同一场景下不同视角的复杂镜头训练。咱们打开可令 ai 找到一旁的生成按钮,进入生成界面,找到上方的视频生成,将模型修改为视频三点零,直接在这个位置上传一张图片, 接着输入一句包含不同景别的提示词,让可玲帮忙描述女子煮茶的画面,其中包含全景、中景以及特写镜头。接着咱们将左下方的参数设置中的生成时长调整为十五秒, 这也是可零三点零进行的一代升级,增加了五秒的生成时长。对于 ai 视频创作来说,更长的时长意味着能够承载更多的修饰内容,不管是做剧情片段、产品演示还是动态场景,都能有更加充足的时间去呈现细节。 设置好之后,点击下方的生成,咱们来看一下这一段十五秒的视频效果, 可以看到从全景到中景再到特写,机位切换非常丝滑,转场也毫无违和感,完全不用我们手动调节镜头参数,甚至连煮茶时水汽升腾的物理细节都还原的恰到好处。 这放在以前至少要分三次生成再进行剪辑,现在可以一步到位,创作的效率直接翻倍了。 来看看优势之二,音频功能升级 a a 视频的音化协同一直是行业难点,以往生成视频后需要单独用其他的步骤去配音频,调成形耗时又容易出现口型对不上的问题。 而可灵三点零直接把音频功能做到了模型内,我们结合刚刚的女子煮茶的案例做升级实操,在提示词中补充音频要求让女子在煮茶时说话,并且将背景音加入煮茶的水声和插设的鸟鸣声。大家来看看生成效果, 新茶煮好,慢品时光。 女子的台词清晰,语音也贴合角色设定,唇形和每一个字都是比较精准的进行了匹配,背景音和画面也融合的比较完美。由此可以看到,不仅是镜头语言,在音频功能方面,克林三点零也进行了进一步的提升。第三个优势,角色一致性有了质的飞跃。 相信大家在做 ai 视频时都遇到过这样的问题,镜头推拉摇移或场景轻微切换时,角色的五官、服饰、道具会突然变形, 关键的物体也有可能会消失,那么这也让许多剧情创作和连续镜头拍摄难以实现。而可零三点零针对这个痛点做了优化, 在镜头切换时,主体依然能够保持稳定一致,彻底告别镜头移动,角色就变得尴尬。那么我们再来做一个实操案例,将手真图进行替换,输入这一段提示词来测试一下一致性。 这段生成的视频镜头在切换的过程中,研究员和仪器的主体特征丝毫未变。这里值得一提的是,仪器内的液体的光影以及动态变化都是非常连贯自然的,液体的流动状态是非常真实的 下来。优势之四是它的文本渲染能力进行了大幅进化,在 a n 视频中加入文字元素是很多小伙伴的刚需, 以往的 a n 视频文本渲染的效果是比较差的,文字模糊变形是常态,无法满足实际使用的需求。 那么可零三点零对其进行了全新升级,尤其是带字号的文本。那么咱们将手真图上传一张咖啡厅内部的图片,提示词中规定了镜头的变化以及要求保持文字全程清晰无变形。我们来看一下生成效果,可以看到招牌上的带字笔画是非常清晰的, 字体也是非常标准的。镜头在推进以及拉远的过程中,文字是没有发生丝毫模糊和变形的。吧台屏幕上的小字也保持的不错,虽然不如大字那么清晰,但是也是可以辨别的,完全是能够满足观众的阅读需求的。那么除了基础的可零三点零模型, 本次还同步发布了一款重磅衍生模型,克林森 omni 模型,允许大家像搭配食材一样使用多张参考图像,分别定义角色、物体、环境,从而确保角色、物体与环境之间的高度一致性,同时还支持直接上传视频作为参考, 这是 ai 视频创作的一次全新突破,那么我们点击旁边的 omni 进入到操作界面,咱们在这个带加号的小框框中上传三张参考图,一张古风女子角色图、一张古风茶色场景图和一张复古插展的物体图。 接着我们输入提示词,让其参考角色场景以及物体生成。女子在插设主插的视频同时要保持角色五官、场景布局以及造型与参考图高度一致, 最后规定了一下镜头应景,那么我们可以来看生成的效果,可以看到最终的生成效果。视频里的女子茶社以及茶展完全还原了参考图的特征,三者的融合也是比较自然和谐的。但 其实也可以看到镜头转场的过程中还是会有一些画面的小瑕疵,这个时候就可以进行反复升图,获取更加好的效果。 那么以上就是克林三点零的核心优势介绍,这次升级让 a a 视频首次让人感觉不那么像零散的片段,而更像是连贯的场景,在真实感、虚实性、创作效率上都有了质的飞跃。当然在实操过程中可以看到克林三点零也并非完美无缺,但是不可否认的是, 这次升级已经为 ai 视频的创作打开了全新的大门,相信随着后续的持续优化,克林还会带给我们更多的惊喜。如果大家在使用过程中有什么技巧和问题,都可以在评论区留言交流, 我们一起解锁更多的克林三点零新玩法。喜欢本期视频的小伙伴别忘了点赞关注我们,下期再见!

挑战一个视频丛林,教会你制作 ai 动漫短剧,注意,反套视频耗时两个月,共计一百八十分钟,一口气带你丛林玩转 ai 慢剧全流程,你将会学会剧本脚本创作人物分镜深沉, 拍视频、配音配乐、剪辑成片,快艾特你想一起搞钱的朋友,花一小时直接上手!很多人都问, ai 漫剧真的能几天赚别人一个月的工资吗?答案是肯定的,但新手大多卡在不会做,不会避坑。今天结合实操案例,拆解 ai 漫剧完整制作流程,从选小说到生成分镜 角色,把关键步骤和技巧讲透,我实操几天已有收获。广告解锁加平台新激励,稳定出片,稳达收益目标。第一步,选合适小说新手别踩无授权的坑,我整理了可商业授权小说素材,省去找授权的麻烦。第二步,用小包子等 ai 工具把小说章节复制进去, 指令生成分镜脚本加角色设定三式图,定好外貌服饰,避免风格混了。第三步,用极梦生成画面,先输入角色提示词,选动漫风格抽卡,再用分镜脚本逐一升图。到这里, ai 慢剧的核心制作流程就走完了,优化细节、避坑指南和变现渠道我都整理成了文档,感兴趣的 评论区扣六六六直接拿走。那么话不多说,咱们直接开始学习,让你的创意完美落地,便是我回家之时。 若活着,定如满城红妆见你过门。各位伙伴们,通过第一期课程的学习,我们已经完整认识了可令 ai 界面, 相信大家课后都已经上手熟悉了各模块的位置,那么这一期我们就聚焦核心功能,文声图,重点讲解提示词的书写技巧。 很多同学生成图片不符合预期,问题大多都出在提示词上,掌握今天的方法,就能让咱们的 ai 创作更加贴近理想效果。 咱们打开可灵 ai, 进入到图片生成的界面,就自动跳转到了纹身图的操作框, 咱们可以先在上方这一个区域去选择图片生成的模型,一般来说,数字越大,模型的版本越新,效果也会越好一些。 那么模型选择好之后,就可以在下方的这一个创意描述的这个大框框里去输入提示词,输入自己想要生成的内容,然后再选择下方对应的参数,直接升成就可以进行创作了。 看到最左边的这一个按钮,我们可以去选择生成图片的比例,这里已经预设了一些常用的比例,十六比九和九比十六分别对应着电脑和手机的适配宽高比,目前在克林里是不可以自定义设置尺寸的。 中间这一个按钮,咱们可以去设置一次性生成图片的数量。第三个按钮,这里可以去选择图片的分辨率,这些都可以根据需求进行选择,那么确认无物之后,就可以点击旁边的生成按钮, 直接生成图片。那么这个地方要明确一个核心原则,提示词描述越详细越精准,生成的效果也会更加的符合预期。那么看到这里,可能会有些小伙伴问,如果我连提示词都想不出来该怎么办呢? 这里为了帮助大家快速掌握系统的书写方法,我整理了一个通用基础公式, 五个 w 和一个 h。 熟悉其他领域的同学对于这个框架应该不陌生,它在 ai 创作领域同样适用。 这里的五个 w 分 别是 who、 what、 when? where 和 why, h 则是号。第一个 who, 它呢是画面的主体,简单来说就是你想让 ai 生成的主体。简单来说就是你想让 ai 生成的核心对象,比如说人物、动物、建筑物品等等。 这个是提示词的基础,必须要明确,像男孩女孩、小猫小狗都是画面主体。第二个 what, 它是主体的特征,或者是它所处的状态, 比如说主体的穿着动作,或者是核心行为。这里我来举个例子,我们打开可令 ai 的 图片生成功能,在提示词的窗口这里输入,穿着睡衣的少女优雅的坐在椅子上,像前面的穿着睡衣的少女就是 who, 优雅的坐在椅子上就是 what。 输入完成之后,直接点击下方的立即生成,就可以生成像这样的图片效果,呈现了核心主体和状态,既有少女这个核心对象,也有坐在椅子上的动作状态, 那么这个就是互加上 what 的 基础作用。第三个是 when, 它呢是时间描述, 时间直接决定画面的光照和氛围,不同时间段的光影差异会让画面质感完全不同,比如说中午的强光直射,傍晚的暖色调余晖,夜晚的静谧暗光,大家都可以试想一下, 同样是少女坐在椅子上,加上清晨朝阳下和深夜台灯下生成的光照氛围,可以看出来是截然不同的。 第四个是 where, 它呢是场景地点,也就是主体所处的环境,比如说客厅、公园、战场、星空下、城墙边等等。回到刚刚的这个例子,我们只是描述了人在椅子上,克林给我们呈现的场景是这样的, 那么如果咱们把场景换成学校宿舍,可以看到画面里的空间感就会完全变化。第五个 why, 它呢是主体出现的原因或者是目的,这一点和 what 是 有些关联的,但是更加侧重行为的逻辑性,能够让画面更具有故事感。比如说穿着睡衣的少女坐在椅子上看着电脑,正在家里加班工作。点击生成 可以看到,相比于单纯的坐在椅子上看着电脑,加上目的之后,人物的状态会更加的贴合场景逻辑, 画面的修饰感也会更加的强一些。这里要注意一下的是, y 并不是 b 选项,简单的创作可以省略掉复杂修饰类的创作就建议补充一下最后一个号,它呢代表的是画面的风格与呈现的方式,这个是提升画面质感的关键, 它包括了绘画的风格,还有色调、构图、视角,也包括在其中,同时还有画质参数。如果咱们没有这个部分的描述,生成的画面通常会偏日常普通, 加上之后能够快速的赋予画面艺术性。比如说在刚刚的提示词后面补充赛博朋克风格、冷色调、低角度、仰视视角,生成的画面就会从日常场景变为充满科技感的艺术创作作品。 那么像这六个要素,不用死记硬背,大家可以类比日常写作的逻辑,什么时间,谁在什么地方,做什么样的事情,为什么要这么做,以及呈现出来的风格是什么样的。最后再去补充一些氛围的修饰词,这样提示词就会变得非常的完整, 那么接下来我们结合可令 ai 用一个完整的案例进行实操演示。这里我们来构建一个有故事感的提示词,暮春的雨夜,身着但青涩如群的少女, 撑着油纸伞站在古桥桥头等待晚归的家人。冷灰色调电影级氛围远景俯拍,这里按照刚刚的提示词结构进行了书写,直接点击下方的生成, 可以看到生成的结果完全的符合提示词的描述,主体特征、场景氛围、画面风格都比较的理想,这样的提示词就是合格的完整提示词。 如果是商业接单,提示词的串联会更加的简单一些,通常甲方会明确给出需求,直接作为提示词使用就可以了。那么如果大家暂时没有灵感,或者想要快速的生成素材, 可零 ai 内置的辅助功能也能帮上忙。看到文生图输入框的下方,这里有一个推荐,里面有很多的预设标签,比如说怪诞、虚实、丝绒、摩登,咱们可以点击任意的标签, 系统就会自动的填入对应的提示词。在创意描述这一个地方,那么生成的作品也就完全贴合未来战役的风格,效率是非常高的。这里大家如果觉得下面预设标签太少的话,也可以点击旁边的这一个换一换按钮, 不过可以看到替换后的预设标签的重复率还是比较高的。这个地方有一个更加优质的灵感获取渠道,就还是上一期所提到过的创意圈, 这个里面汇聚了大量创作者的优质作品,咱们点击任意的作品就可以看到作者所使用的提示词,我们不需要完全的照搬,只用替换核心的元素就可以发挥自己的想象,这样既高效又能够保证质量。 外,咱们回到图片生成的界面,可以看到可拎还支持 dipstick 提示词认色功能,咱们可以在创意描述这里输入简单的提示词,比如说一个男孩,接着点击下方的 dipstick, 可以 看到发送之后系统就会自动的认色补充细节,比如说男孩草原奔跑、蓝天白云、风筝笑容阳光、微风、短裤 裤、运动鞋、草叶飞扬。那么如果觉得这个提示词满意的话,就可以点击下方的立即生成,可以看到生成的效果也是不错的。但是这里要注意, ai 任色的随机性比较强, 这里不建议直接使用,最好是根据自己的需求调整优化之后再去生成, 或者是自行转载详细的提示词,再使用该功能去优化表述。这里最后要说明一点的是,纹身图存在一定的随机性, 有时候会出现大部分满意,小部分不满意的情况,比如喜欢画面的构图,但是想要换风格,或者是想要修改局部的细节, 这种需求可以通过可零 ai 的 参考生图功能实现,它能基于现有的图片调整风格或者是修改局部。这里由于时间的关系,这个功能具体操作我们放到下一期详细讲解。 那么以上就是本期文生图与提示词书写技巧的全部内容啦,建议大家课后结合今天的案例替换核心元素实操练习, 加深对于提示词逻辑的理解,可以把作品分享在评论区,我们相互学习,相互进步。如果操作中遇到任何的问题, 或者有其他想要了解的技巧,也欢迎在评论区留言。如果本期内容对你有帮助的话,别忘了点赞关注,方便获取后续教程的更新,咱们下期视频再见!

看好了,朋友们,最近全网都在找的这个卡里,一键将图片生成为视频的 ai 剪辑软件,还有很多朋友不知道在哪里下载保存安装,下面我就教会大家如何下载。 首先打开我们手机自带的应用商店,下载好这个软件,然后点击我们视频的右下角,这里有个小箭头,点进去找到分享链接,我们点击分享链接,然后打开我们刚才下载好的这个软件, 它这里会自动跳转出一个弹窗,如果说没有跳转的话,在上面搜索达兴宝库, 我们点进去找到资源包软件二,然后我们取消全选勾选卡二零下载保存安装就可以了。

密码的 ai, 大家是不是用 ai 生视频,老是排队八百年,结果还生成失败,那么今天主播就教大家不排队的方法,做出这个最近爆火的可死的鱼 ai 效果。 在 ai 图片生成里,导入一张前女友的照片,输入这段提示词,提示词我会放在评论区,就会 得到一张 q 版图片,之后再导入一张参考图,还有前女友图,输入这段提示词就能得到这种风格的图片。但最最重要的来了,在 ai 声视频里,把参考视频导入,还有刚刚的图片提示词,输入这段,点击生成这里只要排几分钟就好了,就会得到这段抖动视频。最后先把 版图片弄进来,用空像把人物抠出来,接着再导入一遍 q 版图片,把领带抠出来,开头打个位置关键针,一秒处把领带移动到人物上方,再把人物弄到上层,如果此时在移动领带,人物就能把领带遮住。之后在特效里拖入,左右摇晃还有震动,再往下面塞个白底,那么前面的动画就做好了。 接下来就简单了,只需要选中前面的片段,右键新建复合片段,再把生成的视频导入,随便拖入个转场,最后右键音乐识别歌词,给歌词加个动画,那么这个效果就完成了。


用可灵做出来的视频,画质很高,光影也好,就是看起来假。说实话,这个问题我研究了挺长时间的,发现不是工具不行,是用法不对。可灵三点零上线之后,我把这些坑重新踩了一遍,整理出来三个最有用的方法。 第一个是控制分镜,可零三零支持自定义分镜,最多六个镜头,每个镜头可以单独设置运动方式,推进、拉远、跟随、环绕都可以指定打动的画面,你用固定镜头拍到底,全程没有动感, ai 未拉满也没用, 换成跟随动作的镜头,紧张感立马就出来了。不懂分镜也没关系,智能分镜功能会帮你自动分配节奏。第二个是处理肤色, ai 生成的人物皮肤太完美了,光滑白嫩,一看就假。在提示词里面加上高原红皮肤细节、毛孔可见,这些描述,真实感立刻就上来了。 同时把 ai 位调低,画面会有一点颗粒感,反而更像真实拍摄的素材。这个逻辑说起来有点反直觉,但你试了就知道了。 第三个是主体绑定,跨镜头人物变形是 ai 视频最常见的坑,可零三点零有专门的解决方案, 上传一张角色正面图,或者一段五秒视频,开启主体绑定之后,不管生成多少个镜头,人物面部、发型、服装都会保持一致,最多可以同时绑定七个主体。三个方法加在一起,你的 ai 视频闲暇的问题基本上能解决大半。你现在做 ai 视频遇到的最大问题是什么?评论区说说。

可林突然发力,最新上线了六款不同大模型,可林 v 三图片可林 v 三欧米图片可林 v 三欧米首尾真可林 v 三欧米尼参考生成可林 v 三欧米尼视频参考 可林 v 三欧米尼视频参考模式上传参考视频加可选零到四张参考参考运镜风格升新视频和视频编辑指令修改原视频。可林 v 三欧米参考升模式 支持纯纹身视频或上传一到七张参考图片。 ai 参考图片风格内容智能分镜生成有声视频, 标准高品质双模式,五到十五秒可拎。 v 三 omni 首尾震模式上传一张图作为手帧或两张图作为手帧加尾帧。 ai 智能分镜生成有声视频,支持标准高品质双模式,五到十五秒可拎。第三代视频生成模型,支持纹身视频和图声视频,支持首尾帧控制。 标准高品质双模式,五到十五秒有声视频,画质和运动表现全面升级。可零第三代欧米尼图像模型支持纹身图和多图融合,最多十张参考图,支持四 k 超高清输出,主体特征一致性强, 适合多角色场景融合和风格迁移。可临第三代图像生成模型支持纹身图和图生图两种模式,光影质感和细节表现力全面升级。一 k 标签二 k 高清可选,八种画面比例覆盖各类场景需求。

今天尝试用 ai 做一条多分镜广告片, 接下来分享制作过程。首先在可零生成模特图,提示词可以多调几次,优化到满意的样子。然后准备一张产品图,为了让画面更丰富,我还生成了一些小熊软糖做装饰元素。接下来是策划分镜,我找了一个唇釉广告视频,直接让 ai 拆一下, 有画面描述景别运镜。接着把准备好的模特图、产品图还有装饰元素发给他,让他参考刚刚拆好的分镜结构。用我的素材去生成一套九宫格分镜提示词。 继续根据提示词去生成分镜图,这里可以多试几次,挑出满意的素材就可以去生成视频了。我是用新升级的三点零模型做的,它有个视频主题绑定功能,对保持人物和产品一致性非常有用。 点击这里创建主体,这里有我已经创建好的模特和产品,就是上传几张参考图,还可以给角色添加固定的音色。然后导入分镜图,选择对应的主体 提示词,就参考之前拆解的逻辑去写。可以打开这个智能分镜,自动帮你拆分镜头,选择视频时长三秒到十五秒,按需去调就行, 生成的效果还是很稳的。多分镜切换一下,模特和产品细节都对得上,瓶身的文字也没有崩坏。另外在自定义分镜里,能单独设置每个分镜的时长和画面内容,台词也可以直接写进去,用引号分隔。想做多一种视频,把文本换成对应语言,就能生成不同语种版本, 口型和语感都挺自然的,最后拼接起来就行。感兴趣的宝子可以趁着假期玩一玩,对小白非常友好。

尼玛的,乱七八糟的都是什么?想玩 ai g c 视频,但是被五花八门的工具搞晕了的观众老爷看过来,小凯一分钟给你讲明白!新手也能直接上手!首先搞懂三个基础概念, 文生视频,就是输入文字直接生成视频,最适合新手,不用任何素材。而图生视频,顾名思义就是上传一张图片, ai 根据你的提示词让图片动起来,一般这里的图用的都是分镜图。 最后参考生视频,意思是给 ai 一 些资产参考,比如人物场景,然后根据提示词生成视频。参考生视频的优点就是一致性超高,不用担心变形。 那资产是什么呢?以小卡举例,小卡的这个三式图就是小卡的人物资产,而咱们提前生成的场景就是场景资产,这些资产可以重复使用,不用每次都重新生成。对于还是小白的观众老爷,小卡的建议是,不管是哪个视频工具,都可以先用赠送的积分来尝试, 可以先从纹身视频开始一点点摸索,等到熟练了再考虑充 money 进去。好啦,观众老爷们还想了解哪个 a i g c 工具?评论区告诉小卡,我帮你踩坑,拜拜!

二零二六年全新 ai 视频课程正式上线开播,想必大家在平时刷内容时都见过不少出圈的 ai 视频作品,动画、漫剧、特效大片等等,这些作品之所以能脱颖而出,核心在于它不仅能轻松抢占高 流量,快速积累粉丝,更能直接对接商业变现。为了让大家不羡慕别人,不再做旁观者,我整理出了这套课程,全程用直白易懂的语言让大家快速吃透内容,真正做到学以直用,落地实操,从剧本、脚本、图片生成、镜头应景、 配音配乐,到剪辑成片,手把手代练,哪怕是新手也能做出质感堪比好莱坞级的 ai 视频。除此之外,还特意整理了课程资料,建议大家赶紧收藏关注,防止后续刷不到找不到。那么话不多说,现在正式开课, 上节课我们对克林 ai 的 文生图以及题诗词书写技巧有了初步的了解之后,这节课咱们来了解参考生图的使用方法。打开,点击图片生成, 进入到图片生成的操作界面之后,看到第二个分选项,参考生图。点击进入可以看到参考生图里包含了很多不同的功能,有单图参考、多图参考, 上面的风格转会也可以归类为参考生图,那么其中的单图参考我们在上传了一张图片之后,就可以选择对这张图片进行角色特征的提取, 人物长相的提取,或者是使用后面的通用电图。前两种很好理解,参考角色特征可以让生成的结果在面部和主体一致性上保持与参考图一致。 咱们可以点击下方的这个区域上传一张角色特征参考图,在上传好之后可以看到下方分别有两个滑块,这里可以调整人物面部的参考程度,以及下方可以调整主体物的参考程度。 那么像这个地方既然已经参考了主体提示词,书写中就不需要再对主体进行过多的表述了,那么这个地方咱们就可以直接书写 人物在图书馆,雨天傍晚景深效果。那么在生成之前我们需要注意的是上方的这个面部参考和主体参考的划桨在数值上并不是越高越好, 过高的数值会给 ai 的 发挥空间较少,人物在角度和姿势上的变化会与原图过于相似,有可能不能生成比较好的效果, 所以这里的数值我们通常可以保持默认。关于这个数值的高低呢,我们需要根据后面的生成结果来进行适当的调整,接着我们再对下方的参数进行调整,把图片的比例可以修改为三比四, 这样跟咱们的原图会更加的相似一些。图片数量这里我就选择四张,再来点击旁边的生成按钮来看一下效果,可以看到最终生成的效果还是与原图在人物长相特征还有穿着上是非常接近的, 发型也基本保留了原图的面貌,同时展现的背景也是我们所要求的,图书馆 以及雨天傍晚也具备了我们所需求的景深效果,那么这样一来咱们就完成了场景的替换。但是不难发现咱们生成的人物角度和原图是比较相似的, 同时人物可能也会出现一些结构不完整的情况,所以这个部分可以留给 ai 更多的发挥空间,咱们可以去调低主体物参考这个部分的数值, 将花块向左移动就可以了。像这些细节的调整,咱们就需要重复的进行生图,去挑选更加好的效果,那么这个就是角色特征的用法。再来看到后面这一个人物长相, 参考人物长相则是更加注重让生成的结果在面部特征与参考图保持一致,那么咱们还是使用刚刚的这一张人物图片,可以看到下方依旧是有一个参考强度的滑块,以此来控制对人物长相的参考程度, 这里我们还是先保持默认下方的提示词,这里咱们就可以去进行任意的描述了。这一次不需要参考人物的服装以及人物的发型, 所以我们现在可以对人物除了长相以外的部分进行细致的描述,这里我就要求的发型是双麻花辫, 衣服穿着时尚的吊带,我呢还想要运动场的紧身效果,同时咱们在镜头上也可以更加跳脱一些, 比如说俯视角度,那么书写好之后,还是可以把下方的这个比例给修改为三比四。接着就可以点击旁边的生成,可以看到最终生成的图片, 除了在人物长相上与原图是相似的之外,其余部分均符合咱们的提示词要求。 对于服装造型以及场景还有镜头的角度进行了修改,最后呈现的效果也是非常好的,大家都可以去尝试一下看看。那么再看到第三个通用点图 像,通用电图,它就类似于 stable diffusion 中的图生图是通过提示词描述来告诉 ai 我 们想要生成的结果在哪些方面与参考图保持一致,具体参考的内容是由提示词来控制的, 那么咱们还是利用刚刚这一张图片,可以看到下方也有一个参考强度的滑块,像这个参考强度其实也就类似于 sd 中的重绘幅度, 不过与重绘幅度相反,参考强度越高,生成的结果就越符合咱们上传的参考图。可以看到上方的大模型选择的窗口,这里目前可令 ai 上的模型版本是比较低的通用点图,仅支持图片一点零模型, 因此生成的效果可能不会特别的好。所以建议大家如果想要使用这样的图生图功能, 不如直接去到 sd 当中去生成。那么下方的创意描述之前有说过书写我们想要生成图片的内容, 这里克林 ai 连接了 deep seek, 那 么咱们可以把目前的这一段提示词给删除。框框中就出现了默认的一段话,咱们可以直接点击输入框中 出现的这个 deepsea 反推,让可灵 ai 内置的 deepsea 去反推咱们上传的这一张人物参考图片,点击之后就会出现 deepsea 的 对话框, 这里它给我们反馈了三段提示词,咱们可以来看一下亚洲女性,长直发,白色短袖上衣,牛仔裤,街道旁白色手提包,面对镜头微笑,旁边是真实藏背景 图纸的广告牌,有中文文字,墙的后面有大树、建筑物等等,整体画面是温馨和谐的,可以看到最终的反退结果还是比较准确的。 当然通过 diffic 反退的内容,除了在这里点击使用图文,也可以点击旁边的使用描述,让生成的提示词直接填充到下方的这个创意描述的框框中,我们可以对它进行修改与 优化,同时我们也可以点击下方的重新生成,让 deepsea 重新的进行反推。那么这个就是单图参考中三个功能的用法。 除了单图参考以外,我们还可以使用多图参考来生成想要的结果。那么什么是多图参考呢?就是我们可以分别上传主体参考、 场景参考以及风格参考的图片,把它们分别拖拽到对应的位置,这样一来生成的结果就会将咱们上传的三个参考图相互结合在一起。 比如说我们在主体这一个框框中上传刚刚的那一张女孩图片,弹出框框之后,我们点击确认,接着我们再上传一张场景图,我选择了一张草地的场景, 而风格这里我们先不上传,保持默认的写实风格,再往下翻。在下方的创意描述这里,我们写上一个女孩在公园的草 地上,将下方的比例修改为三比四,图片数量保持四张。接着点击旁边的生成,可以看到我们最终生成了四个结果, 虽然部分的图片中出现了一定的崩坏,但是也不难从中找出质量画面效果不错的结果, 可以看到这张的人物一致性保持的还是不错的,和背景的融合也比较的自然。那么我们生成好图片,如果想要查看历史记录的话,可以在图片生成的页面右上方有一个资产管理选项, 之前也有提到过,我们点击就会进入到资产界面,在这里可以查看咱们生成的视频图片以及音频,如果只想要查看视频的话,就点击视频按钮,只想查看图片的话,就点击图片按钮, 直接选择就可以查看对应的类型。那么如果咱们想要将图片或者视频下载到本地的话, 除了点击对应的图片进行下载保存之外,也可以通过右上方的这个批量操作的按钮,对图片进行批量的下载、收藏、 删除等等的操作。那么回到图片生成的界面来看到最后一个风格转会,风格,转会顾名思义就是将所上传的参考图在保持特征不变的情况下 转变美术风格,那么咱们上传刚刚的这张图,接着可以在下方的风格描述,这里描述我们想要的风格,可以转换为动漫二次元风格,三 d 建模风格等等各 各种各样的风格都是没有问题的,像可灵的官方也在下面给我们提供了不少的风格参考提示词,比如说咱们可以点击这个三 d 卡通等填充到输入框之后就可以点击旁边的生成, 可以看到生成的图像就对咱们的原图进行了转绘,人物的动作还有特征都是非常相似的,只有风格发生了改变,咱们还可以去尝试一下其他的风格, 比如说下方的童真插画点击生成,另外这种风格的转绘效果也非常的好,非常的可爱。 那么接下来咱们再来看一看如何对生成好的图片进行进一步的修改,那么咱们把鼠标旋至在需要修改的图片的上方,看到旁边这三个点的按钮,我们移动过来之后,下方就会跳出来不少的选项, 里面包括了生成视频、局部重绘、扩图消除、笔作为点图,画质增强。生成视频很好理解,就是以这张图片作为手帧进行视频的生成。 而局部重绘和 midori 或者是 stable diffusion 上的局部重绘一样,咱们点击就会弹出来这样的一 个框框,那么咱们现在的鼠标就会变成一个选区,画笔咱们可以去选择需要重绘的内容,比如说我们想要重绘这一个人物,咱们可以把这个画笔调大,然后把人物给选择出来。 选择好需要重绘的区域之后,我们就可以在下方去输入提示词,提示词的描述只用描述选择的范围就可以了,比如说这里我们描述一个穿着水手服的少女,点击旁边的开始重绘, 可以看到最终可令 ai 就 将咱们重绘的部分替换成了所描述的内容了。那么这里除了重绘之外,像扩图功能、消除笔作为电图,或者是后面的画质增强 都是字面意思比较好理解,大家都可以自己去尝试看看。那么学到这里,我相信大家对于可令 ai 的 图片生成和图片编辑相关的操作都有了一定的了解。总结一下 可以看到,相比于其他的 ai 视频生成网站,可零 ai 为我们提供的功能还是相当丰富的, 不仅在图片生成中提供了大量的编辑功能,同时还有 deep seek 去助力辅助我们写出更好的提示词。那么想要生成一个可控的视频画面,作为关键帧的图片是必不可少的, 所以了解了图片生成以后,想要生成好的视频,自然也就是水到渠成了。下节课我们就来讲讲如何用可灵 ai 来生成视频。在操作的过程中,有任何的问题都可以在评论区留言,甄果都会为大家解答,那么咱们下期视频见!