哇,这个 ai 平台真的绝了!你见过像 p 图一样 p 视频的吗?让学生穿上自己画的衣服是不是超有意思?还能把后面的背景一键换成舞台,再加一个小仙女在旁边,让他们说话动起来。大家好,我是小然,你们看,这是我画的太阳花, 还可以消除任意人物,是不是就是 p 图一样简单呢?这就是可怜新出的那个 o e 视频模型,用大白话就能改图片,甚至改视频里的任何东西。更夸张的是,你只需要提供几张图片,就能让甄嬛牵着狗和一个机器人在商场里溜达,镜头还可以从旁边跟拍, 还可以一键修改画面风格,只需要一条提示词就能完全搞定。现在你只要打开可灵,就能看到新上线的 o e 对 话框,这里支持随意上传图片或视频,多媒体编辑自由的很完全摸透你的心思,不管你发出什么指令,他都能够准确理解你的意图。 尤其要提的是这个上传主体功能,它可以根据你上传的内容生成三维式图,过程就像在游戏里捏脸一样顺手,不管是人物、环境、道具还是动物特效,基本什么都能传。 想让妈妈为你们感到自豪!如果你已经不满足 p 视频的功能,还可以用一个角色生成连贯的系列镜头,上传人物场景,生成第一段视频继续输入新指令,它还能够围绕同一角色和场景产出连贯情节。 这不就彻底解决了 ai 生成视频中角色不一致的难题吗?这简直就是视频界的百变魔子,让人人都能当导演,天马行空的想法瞬间可以实现。 如果你还想进一步调整视频,操作同样直观,像 p 图一样,随时可以添加、删除或替换其中的人物背景或其他元素。一句话描述,你想改什么,效果立马可见。用大白话 p 视频真的就是这么简单。嗯。
粉丝1333获赞7832

二零二六年,如果你要让我推荐一个设计类的最好用的 ai 工具,那没别的选项,一定是 loite, 它们最近还更新了超好用的一些功能,接下来就是一期超详细的保姆级教程, 一起来看一下。首先我们打开它的网站,右上角可以选择语言模式,我们选简体中文就可以了,中间的对话框输入你想让他做的事情。如果有图片,可以点击这个地方有一个链接,可以选择上传自己的图片,也可以把自己的图片 ctrl 加 c, ctrl 加 v 复制进去。 那这个地方的意思就是思考和快速出图两种模式,以及联网功能。图片模型我一般就直接选择用 banana, banana two 的 图片模型,视频模型我喜欢用可灵模型,三 d 也有 tripo, 总之这个就是一个汇集了各大类型的网站。我上传了一张图,新更新的橡皮工具真的很好用, 可以看到消除的非常干净。第一个超好用的功能,我最近更新的多角度,因为以前如果你发给 ai 一 张图,让它换一些别的角度,还有一点不可控,但是这个模型你点开以后会发现它有一个摄像头,你想要什么角度就拖到什么角度上, 然后再点击立即使用,就可以生成了。那这个就能最大程度保证它的主体和场景的统一性。第二个最近更新的超强功能就是它可以导出矢量格式的原文件了,这个应该是近期最大的突破,比如我让它生成了一套贴纸,然后再点矢量,可以看到它变成了 svg 格式了, 放到 adobe 家的 ai, 打开就是可以印刷的,怎么放大缩小都不会模糊,那我之前出的文创创业那一期,好多人问原文件的问题,现在已经解决了。第三个就是编辑文字,这个也是我日常用的很多的功能,海报上的文字可以直接修改, 没有原文件也没关系,而且改过的文字和之前的字体非常接近,全自动识别,并且做了字体设计, 所以我感觉它是具备非常专业设计思维的 ai agent, 非常省事。第四个就是精准编辑功能,在其他 ai 还在用文字表述修改意见的时候, loft 已经做到了,点一下就能精准识别编辑了。比如我放了两张图,点击海绵宝宝和孙悟空, 因为它有联网功能嘛,所以可以智能识别人物是谁,而且还提供了其他的选项,是否选中鼻子还是这个人的本身,那我们用第一个就行, 这里也是非常轻松地替换成功。第五个就是它的样机功能,这个做包装和品牌设计的朋友一定很喜欢,找到你想要做样机的图,或者你直接发文字让 lowlight 生成,也可以再点击上传贴样机的图,把图片去除背景,再点一下变成样机, 把图片拖到样机上,就能完美的实现贴图效果。它会自动适应转角或者褶皱,放大缩小都没有问题,真的很高级。那作为一个 ai 博主,同时也是一个设计师, lovelt 是 我用的最多的网站,它还有很多的应用场景,一期视频真的讲不完,后面我慢慢更新,我是苏苏,欢迎大家关注我主页还有更多的 ai 实用技巧可以去看看哦。

这样的视频是怎么做的?喂,云长吗?我,曹操啊,我想问问你最近怎么不回我电话?你以后不要再打电话,我怕玄德误会。 十秒钟教会你可灵二点六的新功能,动作控制。首先打开可灵,登录右边这里点摄视频上方,选择二点六动作控制, 左边上传参考视频,右边上传图片啊,甚至连题的词都不用写,直接点击生成。有了这个功能呢,哪怕我四肢不协调,也能丝滑的转行当舞蹈博主了。 而且啊,在动作迁移的细节上也是可圈可点,可以看到人物的微表情,也能成功的迁移过来啊,这功能直接让 ai 演员有演技了,除了表情呢,在舞蹈动作上也能做到一比一的复刻啊。这是电影霍元甲的镜头,这是可灵动作控制的效果, 这个在接下来漫剧的打斗上是一个非常不错的解决方案。最后,我知道大家想问什么,这是和其他模型同类型功能的对比效果啊,仅供参考。好了,话不多说,兄弟们火整起来六六三分地真好,贼 悠悠苍天,嗯,佛与我。

come on! let's give it a try wow, this is really smooth, i love it! ai 视频又有新的玩法,现在你可以控制任意角色,并且使用你指定的动作,这就是可零二点六的动作控制,不管是三 d 卡通、 二 d 平面还是漫画,什么风格都可以,操作也非常简单。现在马上教会你打开可灵官网,选择可灵 o 一、 将人物修改, 修改形象和被修改形象拖进对话框,并且在对话框中输入想修改的部分,我在这里输入。将学校旺旺达的元素融入到自身身上,选择生成。右边就是生成页面。 图片生成之后下载下来再选择动作控制,将保存的图片和需要模仿的视频分别拖拽进来,点击生成就可以了。用同样的方法,我还生成了两段视频,一起来看看成片吧!什么风格都可以,操作也非常简单。现在马上教会你 测试了很多动作控制 ai, 可您可以说是第一梯队了,无论是动作表情都是惊人的一致 以往很多虚拟角色都要使用动捕技术进行制作,成本高,周期长。这款 ai 完美解决了行业的痛点。 最后记住,替代设计师的不是 ai, 而是会使用 ai 的 设计师。想了解跟行业接轨更深的 ai 实战课,快来王氏教育全国都有实体校区哦!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分析发布,本期带你搞定纹身视频和图生视频。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享置顶评论直接领取,不用私信,不用等,现在点进去就能暴走,感兴趣的听 评论区扣六六六直接拿走,跟着流程走,轻松搞定第一集!哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了。可以看到里面包括了纹身视频、 图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品。咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手帧图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手抷图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图生视频的方式进行的创作,虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用图声视频的方式,但是我们进行工具的学习还是要从基础开始一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的 还是希望大家能够了解纹身视频的特征特性,对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 现在看到最上方这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型, 相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图上视频, 大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型 在纹身视频中的生成差异。首先来看看咱们使用可零一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果,效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下,也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能。 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下文声视频的设置。首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了, 但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到输入框的右下角,这里跟图片生成一样,也连接了 deep seek, 可以 让它来辅助我们书写提示词。同时可以看到 deep seek 左边有一个小灯泡的按钮,这个是科林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词 被添加到了输入框中。此外,在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。 我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中,很容易出现逻辑不通、形状崩坏的情况,那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。 如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式,在后面的课程中会重点讲解,再来看到第三个,这里我们可以来设置宽高比, 可以看到有三个常规选项,分别是十六比九、一比一以及九比十六,大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数, 这里保持默认的一条就可以,咱们生成视频的成本还是比较高的,只生成一条有助于我们及时根据生成的效果去调整提示词, 以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似,在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。最后再补充一些氛围修饰词。 而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 这个里面的固定镜头,手持镜头、镜头拉远,它们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。 而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果 模型。这里我们还是切换为视频二点六,接着点击下方的生成, 可以看到最终生成的效果还是非常流畅的,同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了题诗词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用图生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的, 很难生成出一致的视频效果。那么下节课将会详细的讲解如何进行图生视频的操作, 操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见!哈喽各位小伙伴们,在上一期的内容里,我们反复强调一个核心要点, 想要制作出可控性强的 ai 视频,图声视频是首选方案。相比于文声视频的随机性,图声视频能基于我们预设的图片精准把控画面主体与风格。 这里要特别提醒大家,本系列教程的知识点是环环相扣的,建议按顺序观看,避免遗漏关键操作细节,影响后续教程的学习。 接下来我们打开可零 ai 的 首页,看到左侧的视频生成功能,点击进入可以看到系统会默认跳转到图声视频的页面,也就是我们本期的核心操作区。 如果我们只做手帧图生视频的话,所有的模型都是支持手帧图生视频的,但是咱们目前选择的二点六模型是不支持上传尾帧的,尾帧图上传的 按钮是没有开启的,但是我们把模型切换为视频二点五,可以看到这里是支持首尾帧模式升视频,那么这节课咱们就先来用二点五模型来为大家进行演示。 如果大家已经跟着之前的课程制作了自己的 ai 图片,完全可以用自己的作品来进行练习。 如果还没有准备素材,真果也为大家准备了配套的练习图,方便大家同步操作。现在咱们点击 旁边的这个手绢图的操作框上传准备好的素材,上传好之后就可以来书写提示词了,那么我们下面来讲解一下图声视频的提示词书写技巧。 在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容进行描述,对画面运镜进行描述,以及对画面中事物的运动进行描述。 那么咱们在使用图声视频功能的时候,由于咱们的手帧图已经提供了完整的画面内容风格,所以我们完全可以省去画面内容描述的部分。 去掉之后,咱们生成视频的画面也会围绕着我们的参考图,也就是手真图而展开, 不会出现过多新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的匀近。那么以当前这一张图片为例, 这张图片是一只小狗在充满春天活力的大自然里开车的画面,那么咱们按照描述要求,第一步 先来描述镜头应境,应境决定了视频的视觉节奏,比如说咱们在这里先输入镜头,缓慢推进,那么这个指令会让镜头慢慢靠近主体,增强画面的沉浸感。 第二步描述画面的动态,这个部分咱们要进行拆分,拆分成主体动作和背景动态两个部分来写,让画面更加丰富。主体动作咱们可以针对图片中的小狗进行书写, 这里可以写上小狗抬手扶了一下眼镜,打开车门下车,走到草地上和小蓝鸟打招呼。 那么背景动态,为了让场景更加生动,我们可以去补充环境的细节,可以写上背景中的树叶,还有小草小花随风飘动, 天空中的小鸟快乐的飞翔。那么到这一步,咱们的提示词正写就完成了,可以看到整个指令没有多余的内容描述,全部都聚焦于动态与运镜。 当然写完之后也可以点击输入框右下角的这个 deep seek, 让 ai 帮助我们润色语句。那么至于下面的参数设置方面, 在图升视频的时候,输出的视频宽高比会和我们上传的图片宽高比保持一致,所以我们要设置的是生成时长以及生成的数量,那么像视频时长这里咱们需要根据动作复杂程度而设定。 如果提示词里面的动作较多,这里就建议把默认的五秒钟调整为十秒钟, 避免动作还没有做完,视频就结束了的情况出现。本次演示的动作比较简单,我们直接保持五秒就可以了。后面的视频生成数量,这里建议先生成一条,查看效果之后再根据需求进行调整, 这样能够节省创作的时间和算力。那么咱们直接点击旁边的生成来看一看效果, 向镜头缓缓推进,小狗用手扶了一下眼睛,再来跟小蓝鸟互动,这些呈现都非常的自然。与此同时,在可灵 a a 上,对于视频生成,除了我们刚刚要求的用手扶眼镜下车,让植物飘动这样简单的要求除外, 其实平台对于主体面部表情的刻画也算是当前平台的一大优势, 所以在此基础上,我们的提示词当中可以补充一个描述,比如说小狗用手摘下墨镜,露出惊讶的表情,写好之后可以再次点击下方的生成。这里需要注意的是,每次生成在动态表现上其实都是随机的, 偶尔可能会出现一个简单的动作生成不好的情况,所以有时我们需要多次尝试,从生成的结果中挑选一段好的效果进行保留,稍等一会视频就生成好。我们来看一下效果, 可以看到最终生成的效果在上一条视频的基础上,符合了提示词的新增需求,露出了惊讶的表情,整体的表现还是比较自然的,但是也可以发现,小狗摘下眼镜的时候,那个眼睛飞起来了, 说明它生成的时候还是会有一些不太合理的地方,这就需要我们去反复的生成视频, 去挑选更好的效果了。那么咱们前面练习的是固定场景下的简单动态,如果想要实现镜头跟随主体移动,甚至让画面出现原图中没有的新内容,该怎么去写提示词呢?那么还是这一张图,这次 我想要这只小狗一直开车,画面中会出现沿路的新事物,对于这种画面的描述,同样遵从描述运镜和描述画面中事物运动这样的方法。但有时候我们可能想不到用太好的提示词去描述画面, 所以此时可以借助克林 ai 上的反推提示词功能,可以看到,当我们把这个自己输入的提示词删除之后, 就会出现一行灰色的小字,请描述你想要生成的视频内容,或者是使用 deep seek 反推描述图片。那么我们这里点击这个 deep seek 反推就可以看到中间这里开始分析当前画面中的提示词了,同时在这个基础上也给出了运镜以及 事物运动的描述。一共是给出了三段提示词,我们可以自己稍微看一下哪一组提示词写的比较好,或者更加符合咱们的需求。在确定好使用的提示词之后, 我们就可以点击下方的立即生成。这里要注意一下的是,很多情况下,这一些提示词描述生成的效果 可能不是特别的理想,我们还需要进行手动的修改。比如说下方的这个墨镜反射着蓝天白云,车顶绿植叶片被风吹得沙沙作响。 这些 deep sea 优化过的提示词描述会过于的复杂,不够直观,我们可以将一些可能会造成混乱的语言描述给删除。向后面环绕下摇镜头展示全景要知道我们想要坐的汽车是向前运动的,如果此 时的镜头是环绕镜头的话,很快就会错过小狗开车无法展示车子向前行驶后的画面,那么咱们就可以不挑选这一组提示词。这里我觉得第二 组提示词的效果好像更加的好一些,我们可以直接点击下方的立即生成来看一下效果, 可以看到整体的效果还是不错的。小狗开车前进,镜头跟随移动,可以看到画面中也出现了新生成的原本图片里没有的事物, 而镜头的方向也是跟随着小车运动的,效果还是不错的吧。那么咱们最后来总结一下图生视频的核心创作技巧。 首先是提示词框架,咱们无需描述画面的内容,只需要聚焦于镜头的运镜和画面动态的表述。动态部分可以拆分为主体动作与 背景动态,如果有镜头移动后新场景的需求,补充新场景的元素进行描述就可以了。第二点是工具辅助技巧,咱们可以用 deep 反推生成基础提示词, 再根据需求手动的优化,避免复杂的描述影响画面的生成。第三点是参数与生图的技巧, 咱们可以根据主体动作复杂程度来调节视频的时长,同时咱们遇到动态不连贯的情况,可以多生成几次, 挑选最优的结果。其实图声视频的操作并不复杂,哪怕是用大白话描述运镜和动态也能生成不错的效果,关键在于掌握核心框架,然后举一反三,不断的尝试优化。 那么以上就是本期视频的全部内容啦,操作过程中有任何的问题都可以在评论区留言哦,如果觉得视频内容对你有帮助的话,可以点个一箭三连支持一下,咱们下期视频见。

一天学习一个技能,今天要学的是可灵 ai, 欢迎收看二零二六全新可灵 ai 系统教程。明明用的同一个工具,为什么别人做的视频就能一发入魂,符合预期效果, 而你的视频却像脱缰的野马一样浪费积分不说,结果还得全靠运气。今天这期全是技巧,手把手教你从零到一,搞定完整 ai 视频, 无论你是新手小白还是有一定经验的老手,学完都会有所收获。另外,视频里提到的所有工具、工作流框架和操作要点,我都整理成了一份懒人文档,需要这份文档的小伙伴一二三直接领。话不多说,咱们直接开整。 这节课我们就来讲解平台该如何使用。来到可灵 ai 的 首页,可以看到在首页当中展示了一些由其他作者生成的图片或者视频片段作品, 我们可以将鼠标悬置在对应封面的上方,如果是视频作品的话,可以看到视频就会进入自动预览播放状态。再点击之后打开预览,可以看到在右下方有一个一键同款选项,我们点击这里的一键同款, 此时就会来到生成页面,同时将刚刚我们所预览的由其他作者上传作品的相关参数设置为当前的生成参数。我们可以选择直接生成,也可以更改图片提示词或者当前使用的特效模板。点击左上方回到首页。 在首页当中展示的所有图片或视频内容,我们在点开预览时都是可以选择一键同款的,这为我们将来参考其他作者的图片或视频作品来生成自己想要的效果提供了极大的便利。 nice 在 首页的左上方有一个创意圈选项,点击这个选项可以看到,此时在这个位置提供了四个分类,分别是已经关注的作者发布的作品、其他作者发布的视频作品、其他作者发布的图片作品以及由其他作者发布的短片作品。 这里的短片和视频的区别是,通常视频是指的视频片段,可能是五秒或十秒钟左右,而短片则是由 ai 创作后,经过后期加工,通常长达几分钟的短片作品。 大家在初期生成视频或者生成图片时,一定要多参考其他作者在生成作品时所使用的提示词,这样能够提升学习效率,避免花费过多的成本试错。比如我们现在来看其他作者生成的图片,例如像这张 色彩十分艳丽,海边有很多漂亮的石头的图片,在打开之后可以看到具体的参数,我们主要查看的就是这里的提示词内容,当然具体该如何书写提示词,在之后的课程中也会给大家详细的讲解。虽说提示词的内容会根据生成的内容有所不同,但他们都会有一个通用的框架, 所以大家在生成图片时也不要吝啬去抄别人的提示词,这样才能不断的积累经验,快速进步。同样,我们在将图片升成为动态的视频片段时,也需要多多参考其他作者在生成视频时所使用的提示词技巧。例如像这个视频 可以看到作者描述的非常细致,画面当中的人在做什么,水下的鱼在做什么,天空中的海鸥在做什么,以及镜头该如何运镜, 海浪又有怎样的表现,几乎是事无巨细的描述了画面当中可运动的事物。关于将图片升成为动态视频的技巧, 我们在之后的课程当中一样会讲到。了解了创意圈功能,我们再看左上方的资产选项,在可灵平台中,我们之前生成过的所有 ai 作品都会储存在这个位置。在上方的下拉菜单中可以筛选生成的作品分类,例如我们可以选择查看图片或者选择查看视频。 此外,可连 ai 平台也是支持生成音频的,所以同样我们可以点击音频分选项查看之前生成的音频。我们继续来看左侧的分选项,在这里有一个创意特效选项,在点击进入后,展示了很多不同的 ai 视频的生成模板。用传统的方法生成 ai 视频, 无非就是手真生视频、上传图片外加提示词的描述,主要控制画面如何运动的是提示词,而在创意特效这里, 相当于将事物的运动状态用模板进行了规定,只要我们上传符合要求的图片,就可以让图片中的事物做出特定的运动。例如我们现在点 击这里的宠物出游 vlog, 可以 看到此时这里的要求是提供一张宠物图片。我们点击上方的选择特效选项,在弹出的菜单当中可以选择 其他特效。将鼠标悬置在对应特效选项的上方,可以看到此时开始播放视频,能够预览这个特效能够产出的效果,可以看到效果还是非常不错的。我们下面来看一些常用的工具,现在依然回到可怜 ai 的 首页, 在左侧创意特效选项的下方有图片生成,这是我们常用的工具,往往创作视频片段时,会先生成图片,再生成视频。 在点击之后进入生成页面,可以看到最上方有一个模型下拉菜单。目前最新的图片生成模型是二点一模型, 通常来说,模型的标号越高,生成效果就越好。不过有时更新的模型也意味着消耗的生成点数更多。目前使用极梦 ai 生成图片是免费的,而且效果也非常不错,所以综合考虑成本和效果, 目前建议大家使用极梦 ai 来生成图片。当然每个平台的模型都有其独到之处,大家选择适合自己的就好。在选择好生成模型之后,下面要做的就是在下方写入生成的提示词。此外,在最下方还可以选择生成图片使用的比例、 生成图片的张数以及生成图片的清晰度。可以看到当前可设置的最高清晰度是二 k 的 分辨率。其实像一些旧版的模型,因为本身的训练素材清晰度不高,所以最多只能支持到一 k, 这也是新版模型的好处,能够生成更加清晰的图片。 总的来说,生成图片其实作为关键的因素依然是提示词的书写。想要写好提示词,除了我们之前讲过的参考其他作者的提示词之外, 我们同样需要学习如何在提示词中准确的表述我们想要获得的效果。这样的表述方式其实是有一个通用的模板的,就像我们在学习语文时,通常会学习到要有主语、谓语、宾语一样,所以下节课我们会详细的讲解在文声图中提示词的书写技巧。 那么以上就是本期视频的全部内容,如果大家觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解文声图与提示词的书写技巧。通过上一期课程的学习,相信大家已经进行了一些简单的图片生成练习,这里简单补充一个小知识,那就是我们在进行平台操作教学时,这些平台会不断的进行更新,所以很有可能大家在看到这套课程的时候, 整个平台的操作界面会有一些细微的变化,但其基本功能和页面布局基本大同小异。我们主要使用的功能依然是图声图 或者文生图,以及之后要讲解的视频生成功能。所以大家在看到界面发生变化时,不用惊慌,简单摸索一下基本就能上手了。好的,我们回到提示词这个话题,在书写提示词时,通常描述越详细越好,这里有一个官方公式, 是五个 w 和一个 h, 拆开来讲的话其实就是五个单词,分别是 who, what, when, where 和 why 以及 who。 我 们下面一个一个来看,首先是 who, 也就是谁,这里描述的是画面的主体,像人物、动物、建筑等等类似的主体元素。第二个是 what, 也就是主体的特征,或者说主体处在一个什么样的状态。例如现在我们返回文声图,在提示词窗口描述一个穿着时尚的少女, 就是 who 坐在沙发上,也就是 what, 然后点击生成,可以看到最终生成的结果,就展示了一个穿着时尚的少女坐在沙发上,既有主体本身,也有主体存在的状态。 我们继续来看第三个问,也就是什么时候发生的?描述生成图片的时间段,其实主要影响的是图片的光照和氛围,例如像中午和傍晚,显然两者在自然环境中,它们的光照氛围是不同的。而如果是夜晚, 在户外可能会有路灯,在室内可能会有室内的灯光。因此, when 时间是影响生成图片光照氛围的重要因素。而第三点是 where 在 哪里发生?这个点主要用于描述主体所存在的场景。例如刚刚我们生成的这张图片,一个穿着时尚的少女坐在沙发上,少女对应的是 who, 坐对应的是 what, 沙发对应的就是 where。 我 们继续往下讲,最后一个点就是 y, 也就是这个主体为什么会出现在这里。这点和 what 有 些类似,依然是在描述人物当前的状态,比如人物在工作,人物在骑自行车,人物在开车等等。不过相比于 what, y 所体现的是更加具体的事情, 而非像普通的站立、端坐或者是躺下这种基础状态。而最后一个就是后,这一点对应画面更深层次的修饰,比如画面构图、视角、风格、色调等等。 通常没有这些描述,生成的画面就偏向日常,而有了这些描述,能够赋予画面更多的艺术性。例如,我们可以要求图片是赛博朋克风格,整体的色调是冷色调、暖色调,或者视角是十分罕见的仰视或俯视视角。 到这里,我们的五个 w 和一个 h, 它们具体的含义就讲解完了,不过这几个点还是比较多的,要死记硬背会比较困难。但其实大家在实际操作时可以想想平时是如何写作的,无非就是在什么样的时间,什么样的人在什么地方做什么。 然后为了赋予当前的画面,有什么样的基调可以修饰一下,例如像天灰蒙蒙的,或者是阳光明媚。 ok, 我 们现在回到可灵 ai, 用我们刚刚所学习的知识,更加细致的来书写一下提示词。首先来描述主体,例如这里我们书写一个长相英气的亚洲女孩, 梳着麻花辫,穿着古代盔甲,在战场上查看伤员。为了渲染战场悲壮的气氛,我们再加上天灰蒙蒙的,更进一步的,我们可以描述一下后,也就是构图色调等等。例如冷色调、电影氛围、 地面视角。如果大家是在做商单,那就更简单了。通常来说,甲方所提的要求,我们稍微将这个要求转换为 ai 更好理解的准确描述,就可以直接用做关键词了。下面点击生成看一看效果如何吧。 可以看到最终生成的效果非常符合提示词的描述,长相英气的亚洲女孩,梳着麻花辫,穿着古代盔甲,在战场上查看商源。同时生成的两张图片,内容也是天气灰蒙蒙的,有电影氛围, 冷色调,且拍摄的角度是位于地面视角。这个例子还是比较简单的,大家可以套用我当前所书写的提示词格式,将里面的具体内容进行替换,自己亲手生成一张符合描述的图片,可以让你对操作的印象更加深刻。在使用 ai 生成图片时,想要让生成的图片更加出彩, 或者你是运营账号,想要账号获得更多的关注,其实最为重要的就是生成日常生活中不那么容易看到或者看不到的东西。比如现在我们将刚刚的提示词删除,来生成一个人型的,穿着牛仔服的猫,戴着牛仔帽, 拿着左轮枪,我们点击生成看看效果如何。想象一下,一个猫像人一样站立,穿着牛仔服,戴着牛仔帽,拿着左轮枪,这种场景在现实生活中是很少能看到,这就和我们的日常生活形成了一个明显的反差, 想让自己的 ai 作品能够脱颖而出,需要的就是这种反差感。当然,如果有时实在没什么好的点子,但没事的时候又想生成几张图片作为将来的素材。其实可怜 ai 也提供了很多预设选项,可以看到在提示词输入窗口的下方有很多四字词语,我们点击这个词语, 点击这里的废土末日,可以看到在提示词输入窗口就自动填入了和废土末日相关的提示词。这是可灵 ai 上为我们预设的模板,直接点击生成,片刻之后图片就生成好了。可以看到可灵 ai 当中预设的模板想象力也非常的丰富,除了像废土末日, 我们可以点击右侧的刷新按键,以此来更换一批模板。不过这里给出的模板倒不是很多,基本上刷新几次就能看到有很多重复的。想要生成更富有创意的内容,不妨像我们上一节课说的, 在可怜 ai 平台的创意圈当中,查看由其他作者生成的作品,在这里可以十分方便地获取其他作者在生成图片时使用的提示词内容。我们不一定要完全照搬,可以将提示词中的元素替换为自己想要的元素,来发挥自己的创意。 回到图片生成页面,可以看到平台也十分贴心的提供了一个 deep sync 功能,我们点击打开这个功能能够十分方便的帮助我们润色原本比较简单的提示词,例如现在在 deep sync 当中输入一个少女,然后回车发送,可以看到此时内置的 deep sync 会回执一些消息,这 些消息丰富了原本枯燥的提示词。我们将鼠标悬置在给出的回值消息上方,可以选择对应的提示词,直接使用这个描述将提示词填入后,直接点击生成,看一看生成的效果如何吧。 可以看到经过 deepsea 的 润色,最终生成的效果呈现出了一种十分梦幻的氛围。当然,由 deepsea 生成的提示词不是特别建议大家直接使用, 生成的效果也不错,但终究是随机性很高。我们最好在生成之后根据自己的想法对提示词进行修改,或者先尽可能对图片的内容描述详细,再使用 dyp 对 提示词进行润色。总而言之,获取提示词的方法有很多, 想要生成好的图片,最简单的方法就是多参考由其他作者生成作品使用的提示词,因为每次生成都是随机的,哪怕使用的提示词是一样的,生成的结果也会有所差异,所以不必担心侵权的问题, 要知道纹身图也不是万能的,因为本身纹身图伴随着很强的随机性,这就导致生成的图片结果可能会产生有一小部分我们不满意, 但大部分满意的结果,那这个时候有没有什么办法能够修改图片当中我们不够满意的那一小部分,而其他部分能够保留呢?或者说我们喜欢的是图片的内容以及画面的构图,但是希望能够给图片换一个美术风格,有没有什么办法能够实现呢?其实是有的, 这就是上方我们点击切换分选项,只用参考生图功能。由于时间的关系,这个部分我们就放到下节课来详细讲解。以上就是本期视频的全部内容,如果大家觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解可灵 ai 中的参考生图。参考生图功能共有四种模式,分别是参考角色特征、参考人物长相、通用电图风格转会 以及多图参考。其中参考人物特征可以让生成的结果在面部和主体一致性上保持与参考图一致, 而参考人物长相则更加注重让生成结果在面部特征上与参考图保持一致。至于通用电图功能则是通过提示词的描述来告诉 ai 我 们想要生成的结果在哪些方面与参考图保持一致。具体参考的内容是由提示词来控制的。 多图参考功能,它允许我们上传一张以上的参考图,然后参考每一张我们所上传的参考图,配合提示词的描述生成最终的结果,这个功能通常用于主体和场景之间的融合, 例如让指定造型的人物在指定的场景当中做出怎样的动作,同时也可以指定生成结果是怎样的风格。最后,风格转会,顾名思义 就是将所上传的参考图在保持特征不变的情况下转换美术风格,我们下面就对这些功能逐一进行讲解。首先来看角色特征参考, 点击这里的加号,上传一张角色特征参考图,可以看到在上传好之后,下方有两个滑块,分别可以调整面部的参考程度以及主体的参考程度。既然参考了主体,那么在提示词中就不再需要对主体进行过多的描述, 我们主要描述主体之外的部分,这里我们就书写人物坐在咖啡厅阳光明媚的午后,紧身效果 在生成之前,我们需要注意的是上方的面部参考和主体参考划块在数值上也并不是越高越好, 过高的数值会给 ai 留下更少的发挥空间,导致人物在角度和姿势上的变化和原图过于相似,有时反而不能生成好的效果,所以这里的数值我们通常保持默认就好。当然最终数值的高低我们要根据生成的结果来实时的调整, 下面点击生成看一看效果如何吧。可以看到最终生成的效果还是与原图在人物的长相特征和穿着上非常接近的,发型也基本保持了原图的面貌, 同时展现的背景也是在咖啡厅以及阳光明媚的午后,也具备了我们所要求的紧身效果。我们现在可以尝试将主体参考强度适当降低,因为不难发现当前的生成结果人物的角度和 原图过于相似,同时人物在胳膊的部分也出现了一些比例不够得当,结构不够完整的情况,所以对于这些部分,我们就需要给 ai 更多的发挥空间。再次点击生成, 可以看到这次生成由于降低了主体参考的数值,我们所获得的图片生成结果在人物的身体上生成的更加完整, 比例也变得更加得当了,并且整个咖啡厅的呈现也比先前生成的更加明显。我们下面来看人物长相参考生图 机切换到人物长相参考生图的分页,同样上传一张图片,我们依然是以刚刚这个人物为例,可以看到在这里同样有一个参考强度的滑块,以此来控制对人物长相的参考程度。我们还是保持默认,提示词方面就可以任意描述了,因为此时并不需要参考人物的服装以及人物的发型, 所以现在我们可以对人物除了长相之外做更多的具体要求,例如短发,穿着时尚的冬装围巾, 绝景紧身效果,同时在镜头上也可以更加跳脱,例如俯视角度。在书写好提示词后,再次点击生成,可以看到,由于现在我们使用的是人物长相参考生图,因此像人物原有的长发特征 以及穿着白色长袖的特征都没有对生成的结果有任何的干扰。图片除了在人物长相上与原图相似之外,其余部分均符合提示词的描述。我们下面再来看通用电图这个功能,通用电图类似于 stable diffusion 当中的图生图, 在生成结果上会保留较多的原图特征,但目前可能 ai 上的模型版本较低,通用电图仅支持一点零模型,因此生成效果不是很好。所以建议大家想要使用这样的图生图功能,不如直接去 stable deviation 当中生成,这里我们就不再赘述,我们下面再来看多图参考功能。 刚刚我们说过,这项功能通常是让主体背景和风格进行融合的功能,例如现在我们首先上传一张主体人物的图片,然后再上传一个场景的图片,最后再上传一个风格的参考图片, 下面来书写提示词,这里我们就书写人物在沙滩上散步,然后直接点击生成,可以看到此时就生成了符合提示词描述的结果。但不难发现,虽然我们参考了场景和风格这样多张图像,但最终选用多图参考生成的效果并没有展现我们在参考图中所上传的场景以及 风格图片,所以目前这个功能还不是特别的好用,或者说我们当前上传的图片参考并不能发挥这个功能的最佳效果。可以看到,在这个功能的下方有很多推荐选项,是可令 ai 官方所推荐的上传的参考图的内容,在点击之后 会自动将这些参考模板加入到图片预备窗口中,而提示词方面也会自动书写模板的提示词描述,我们再使用官方模板来生成一下,看看效果如何。可以看到这次生成的结果就相比之前好了不少, 我们下面再来讲解最后一项功能,就是风格转会,这项功能可以保持角色特征不变的情况下转换图片的美术风格。 我们依然是上传一张图片,在上传好之后,可以在提示词输入框描述我们想要的风格,但风格本身是一个比较抽象的词汇,比如二次元风格,每个作者也有不同的画风,所以可以看到在下方可 连 ai 官方也给出了很多风格的名称,比如现在我们点击这里的三 d 卡通风格,然后点击生成,可以看到最终生成的效果,和原图相比,在画风的转换上还 是非常彻底的。我们再来尝试一个扁平风格,点击生成可以看到这样扁平风格的生成效果一样十分优秀,成功的保留人物特征的同时,将美术风格进行了彻底的转换。我们最后来讲解一下生成时要设置的参数,在风格转会中,我们能够设置的参数只有一次性生成多少张图片, 生成的图片张数越高,需要消耗的点数也越多,大家可以根据自己生成的需求来选择合适的张数。而在参考生图和纹身图当中,可以设置的参数就比较多了。首先来看纹身图,在下方我们可以设置生成图片的比例, 常见的比例十六比九,九比十六,一比一都是有的。同样可以设置生成的张数,也可以设置生成时的分辨率,通常家用电脑显示器的分辨率就是二 k 左右,所以这里我们保持默认就行。而在参考生图当中,我们同样可以设置生成的分辨率 以及生成的张数,在设置宽高比时需要注意,最好根据我们生成的内容来实时的调整。例如现在我们想要生成一个人物的三式图,最好就使用二十一比九或者十六比九的比, 以便于三式图的画面更容易展示完整。而如果想要生成海报或者某个人物的半身像,我们通常就选择三比四的比例。 如果想要生成电脑壁纸的话,我们就选择十六比九,想要生成手机壁纸的话,就选择九比十六,这些都是我们在生成时通常会用到的参数设置。那么以上就是关于参考生图的相关知识,如果觉得本节课的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解可灵 ai 的 纹身视频。首先来到可灵 ai 首页,点击左侧的视频生成功能,此时就来到了视频生成页面,可以看到视频生成包括纹身视频和图生视频以及多模态编辑三种方式。我们今天主要讲解纹身视频。 先来看最上方有一个下拉菜单,在这里可以选择视频生成时使用的模型,目前最新的模型是二点五 turbo 模型,这也是当前效果最好的一个模型,相信将来也会推出标号更高的,像三点零、三点五等模型。 无论是纹身视频还是图生视频,大家在选择模型时就选择标号最高的,通常效果也会越好。我们下面来简单对比一下,看一看新旧版本的模型和图生视频以及纹身视频,它们生成的效果都有什么差异?首先来看用可零一点六模型生成的纹身视频效果 提示词。我们书写的是一个道士扛着一块比人还大的球形石头走在青石板路上,周围是竹林和杂草,草木随风晃动,可以看到生成的效果非常不尽人意。不仅生成的人物并不是一个道士, 人物手上的石球也并没有提示词要求的那么大。我们再来对比一下用二点五 turbo 模型在纹身视频的方式下生成的效果如何。可以看到,这次生成的效果就非常不错了,不仅生成的人物是道士,而且手中石球的大小也符合了提示词的要求。 总的来说,二点五 turbo 模型在生成效果上确实要远优于旧版模型。当然,想要获得更好的效果,依然推荐大家使用图生视频。 我们继续来看一个例子,像这条视频就是使用二点五 turbo 模型使用图声视频的方式生成的效果,可以看到整个画面的呈现非常稳定,人物的动作也比较流畅自然,而且像石块的质感,人物的服装设计,周围的场景构图都要远比使用文声视频要效果更好。 我们再来看一个用旧版模型在图生视频的情况下,同一张图片生成的效果,可以看到这次的视频效果就远不如刚刚我们使用二点五模型生成的效果,不仅人物的动作非常僵硬,在运动的时候人物也出现了稍许的变形,在大小比例上、人体结构上 都不尽人意。那么通过以上的对比不难发现,使用可连 ai 平台生成视频,在效果上图生视频要大于文生视频 版本标号更高的视频模型要大于版本标号更低的视频模型。我们来到创意圈当中来看一看由其他作者生成的视频作品。 随意点开一个可以看到这条视频,它使用的就是图生视频手帧图生成的方式。再任意点开一个,可以看到这条视频依然是使用了手帧图生视频的方式,再点开一个,同样如此,使用的是首尾帧生成视频。 所以大家需要明白,目前市面上百分之九十八的视频作品可以说都是用图声视频的方式生成的。虽说纹身视频的生成效果目前使用二点五 tab 模型也不错,但其在美术风格、画面构图内容的可控性上、 随机性都太高了,即便能够生成想要的效果,也会花费巨大的生成成本。所以我们今天讲解纹身视频的主要目的,更多的是希望大家了解纹身视频的特性,将来正常使用视频生成功能,可以说绝大多数情况使用的都是徒生视频。 我们下面再来看一下纹身视频的参数设置。首先是提示词,这里就按照正常纹身图的方式书写提示词,再加上对运镜和画面当中事物运动的描述即可。如果实在不知道该如何写的话,可以看到这里也连接了 deepsea, 同时可令 ai 官方也提供了一些推荐的提示词模板,点击一下就可以将模板加入到上方的输入窗口。 此外,在生成视频的同时,下方还有一个音效生成的开关,目前这个选项是免费的,不妨把它勾选上。不过不得不说生成的效果在音效匹配上还是比较差劲的,大部分情况下还是要把生成的视频放进剪辑软件当中,后期配音。然后最下方是生成模式的选择, 目前二点五 turbo 模型只支持高品质模式,而像其他版本的模型,比如一点六模型,在下方就可以切换标准品质模式。不过经过测试,在任何版本的模型下都建议大家使用高品质模式,不然效果会非常差劲。然后就是视频生成的秒数,有五秒和十秒可选, 这是大部分视频生成平台提供的秒数生成选项。这里建议大家非必要的话不要选择十秒,因为十秒钟的时间很长,这就使得画面当中的事物在运动过程中很容易发生逻辑不通、形状崩坏的情况。 五秒钟的视频是比较稳妥的,也满足大部分的分镜头时长需求。如果实在要使用十秒钟的生成时间,不妨使用首尾帧生成的方式。然后就是这里的生成宽高比设置,可以看到是三个常规的选项, 十六比九,一比一和九比十六。最后是视频生成的条数,保持默认的一条就可以了,因为生成视频成本还是很高的,只生成一条有助于我们去及时的根据生成效果调整提示词来获取更好的效果。 我们下面回过头来看一下提示词的书写技巧。其实纹身视频和纹身图非常类似,在之前的课程中我们讲解过纹身图提示词的书写技巧,无非就是画面主体主体在干什么,画面所属的时间,以及画面当中出现的各种事物、氛围、色调等等。 而在纹身视频当中,除了对画面的描述之外,还多出了两个部分需要描述,例如像我们刚刚所加载的这个提示词模板,第一句话固定镜头,这句话就是对镜头运镜的描述,除了固定镜头之外,也可以让镜头逐渐向前推进,镜头环绕拍摄等等。 而第二个则是画面当中事物运动的描述,例如这里描述了中心有一个小小立方体科技核心旋转,其中这个旋转就是对它的描述。所以总结来说,在纹身视频时,提示词主要描述的有三个方面,分别是画面内容、 画面当中事物的运动以及镜头的运镜。以我们刚刚生成的纹身视频作品为例,可以看到这里的描述。 首先第一句话镜头向前推进,就是在描述运镜,而像中间的暖光环境,棕色兔子戴着金丝眼镜,报纸标题清晰可见,桌面周围散落着几颗方糖,这些就是画面内容的描述,而剩余的用手推了下金丝眼镜,背景窗帘微微摆动, 这就是对画面当中事物运动状态的描述。我们来看一下生成的效果如何吧,可以看到最终生成的效果还是非常自然流畅的,同时像暖光环境,兔子推眼镜以及咖啡杯飘着热气,还有画面当中的方糖、 窗帘、报纸,这些事物都符合了提示词的描述。所以我们总结一下,就目前的 turbo 二点五模型而言,其在生成质量上已经和文声视频相差无几, 不仅是画面当中事物的运动,还是视频中画面的质感,相比于先前版本过低的模型生成的画面可以说是脱胎换骨,但我们依然推荐使用徒生视频的方式 来生成 ai 视频片段,毕竟现在生成一条 ai 视频的成本不低,直接使用文生视频固然方便,但具体的画面构图、画面风格以及画面当中主体的形象,对于只用文字描述生成视频来说,其随机性还是比较大的, 没有太大的必要用这么高的视频生成成本对生成效果进行施挫。所以我们下节课就会详细讲解如何进行徒生视频。如果觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们 就下期视频再见!大家好,我们这期视频来讲解如何制作徒生视频。在上一期视频中,我们反复强调,在大多数情况下,我们制作 ai 视频用的都是徒生视频, 它是一个可控性非常强的功能。这里要强调一下,大家在学习视频中的知识点时,最好不要跳着去观看,这样很容易遗漏重要的知识点。我们下面来讲解一下图生视频的提示词书写技巧。来到可灵 ai 的 首页,点击视频生成功能 时,会默认来到徒生视频的页面。如果我们只是做手真徒生视频的话,在下拉菜单当中的所有视频模型都是支持手真徒生视频的。我们今天依然使用视频二点五 turbo 模型来为大家进行演示。如果大家学完了上一期视频, 制作了一些自己的 ai 图片的话,也可以用自己的 ai 图片来生成今天的视频,如果没有的话可以看到可连 ai 官方也给出了一些推荐的图片选项,同时在点击之后,下方也会出现匹配的提示词描述。我们今天的演示就使用已经准备好的图, 将图片上传到预备窗口后,下面开始书写提示词。在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容的描述,对画面运镜的描述,以及对画面当中事物运动的描述。今天我们使用图 无声视频功能,其实就可以省去对画面当中内容的描述部分。因为本身图片已经给到了充足的画面当中内容的描述信息,所以此时在提示词当中,如果我们将来打算生成的视频不会随着镜头的移动而出现新的画面内容,我们更多要做的事情就是描述画面当中事物的运动 以及镜头的运镜。以当前的图片为例,这张图片是一个人型的大灰狼,在一个充满蒸汽朋克风格的办公室里面看报纸的情 行。按照描述需求,我们首先来描述一下镜头的运镜,例如现在我们描述镜头缓慢推进,在描述好镜头之后,下面来书写对画面当中事物运动的要求。这个部分的描述我们也需要细致拆开来看。首先描述的自然是主体, 狼人将报纸靠近头部,用手扶了一下眼镜。在描述完主体之后,很多情况下我们还需要描述主体周围环境的变化,例如当前的环境角色所处的空间出现了很多机械齿轮, 我们就可以描述背景中的机械齿轮在转动,灯光轻微闪烁。在描述好了镜头运镜主体和背景的运动之后,我们就可以设置参数准 备生成了。当然在生成之前也可以用 deep seek 来润色一下当前的提示词。至于参数方面,和文声视频不同,在图声视频的时候输出的视频宽高比会和我们上传的图片宽高比保持一致, 所以我们要设置的是生成的秒数以及生成的条数。在设置生成秒数时也需要注意,如果在提示词中,我们要求人物所做出的动作比较 多,可能有时需要将视频生成的秒数从五秒调整为十秒,留给人物充足的时间去做出提示词里面所要求的动作,否则你会发现动作做到一半,剩余的动作就不会做出来了。我们此次演示要求的动作比较少,所以直接点击生成看一看效果如何。 一段时间后视频就生成好了,我们来看一看效果如何吧。可以看到最终生成的效果还是非常符合提示词的要求的,且人物整体的动作也十分自然流畅。向镜头缓慢推进,狼人将报纸靠近头部,用手扶 了一下眼镜背景中的机械齿轮在转动,这些内容都成功的生成了出来。不过像灯光轻微闪烁这样的描述在生成结果中体 现的就并不是十分明显。出现这种情况是模型本身的特性决定的,经过测试,即便更换描述方法,也依然很难生成这种由模型特性决定的无法生成的东西。所以各位同学在遇到这种情况时,只能尝试更换视频生成平台,或者放弃对这个部分动态呈现的需求。 在可怜 ai 上,对于视频的生成,除了我们刚刚要求的将头靠近报纸,用手扶眼镜,让机械齿轮转动这样简单的要求外,其实平台对人物面部表情的刻画也算是当前平台的一项优势。所以在此基础上,我们在提示词当中来补充 一个描述,那就是在用手扶了一下眼镜后,露出惊讶的表情,写好之后再次点击生成。需要注意的是,每次生成在动态表现上其实都是随机的,偶尔会出现一个简单的动作生成的并不好的情况,所以有时我们需要进行多次尝试,从生成结果中选出一张好的效果进行保 留一段时间后,视频就生成好了,我们来看一看效果如何吧。可以看到,最终生成的效果就在上一条视频的基础上,符合了提示词新增的要求,露出了惊讶的表情, 整体的表现还是比较自然的。我们下面再来看第二个实操案例。像当前生成的这个狼人看报纸的视频,几乎都是固定场景下人物做出简单的动作,但当我们要求镜头跟随画面当中的主体一起运动,这样一来镜头中会出现图片当中之外的内容时,我们又该如何书写提示词呢? 下面重新上传一张参考图片,可以看到这张图片是一台老旧的公交车在战火中向前飞驰,穿过破碎的建筑的画面。对于这种画面的描述, 同样遵从描述运镜和描述画面当中事物运动这样的方法。但有时我们可能想不到太好的提示词去描述画面,所以此时可以借助可 ai 上自动反推提示词的功能可以看到,在这里,当我们删除提示词输入框中的内容后,会出现两行灰色小字,请描述你想生成的视频内容,或使用 deep seek 反推描述图片。我们点击这里的 deep seek 反推,可以看到右侧就开始分析当前画面的提示词,同时在此基础上也给出了画面当中事物的运动描述以及 镜头的运镜。一共给出了三组提示词,我们需要自行判断一下哪一组提示词写的比较好,或者符合我们的要求。在确定好要使用的提示词后,我们直接点击提示词使用。不过需要注意的是,很多情况下,这些提示词描述生成的效果都不是很理想, 我们还需要手动修改。例如这里的冲天而起的黑色烟柱遮蔽了半边天空,这样的描述极有可能使得整个画面充满黑色烟柱遮挡主体, 所以最好将这句描述删除。然后是镜头的描述,当前 deepsea 所给出的镜头描述是镜头推进,但要知道我们上传的参考图汽车是向前运动的,如果与此同时镜头还向前推进,那么很 快就会错开公交车,无法展现公交车向前行驶后的画面。所以我们现在需要将镜头修改为镜头跟随公交车向后运动,这样一来就可以拍摄公交车向前行驶后的画面。在确认好提示词后,我们就直接点击生成,一段时间后视频就生成好了,来看看效果如何吧。 看到整体的效果还是不错的,公交车艰难前行,两侧道路冒出火星,同时随着镜头的向前推进,可以看到画面中心生成了原本图片里没有的电线杆,而镜头方面也会随着公交车向后运动 跟随拍摄。不过我们不难感受到当前的画面公交车行驶的过于缓慢,并不能突出整个镜头的紧张感,所以我们可以进一步的修改提示词描述,现在将第一句话当中的艰难前行修改为飞速行驶, 同时将第二句话修改为公交车两侧的道路不断发生爆炸,火焰纷飞,然后再次点击生成来看一看生成的效果如何吧。可以看到这次生成镜头就明显紧张刺激了很多,不仅公交车的速度 有明显的提升,同时像道路两旁的爆炸也让整个镜头的氛围提升了一个档次。总的来说,图生视频的操作并不复杂,在很多时候即便提示词什么也不写,视频生成模型也会根据图片本身的内容来使画面当中应该运动的物体 去做出自然的运动。而题诗词的描述我们既可以使用可令 ai 官方的 deep seek 辅助,同时自己描述时也基本上都是日常生活中的大白话去描述画面中事物的运动。以 镜头的运镜,而且在描述这张图片时,好用的描述方式也许换一张图片又不好用了,所以图声视频的提示词并没有特定的描述方法。大家只要记住整体的描述框架,即描述运镜,描述画面当中事物的运动,以及有时可能需要描述镜头移动后新出现的物品, 这样就可以在将来的徒生视频中举一反三,基本每次都能生成理想的画面。以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。大家好,我们这期视频来讲解如何使用首尾真生视频功能。 什么是首尾针生视频呢?首针的意思就是视频开头时的画面,而尾针就是视频结束时的画面。在生成视频时分别上传手针和尾针,最终生成的视频效果就会让视频当中事物的运动以手针开始,尾针结束,以此来达成控制视频画面当中 事物运动轨迹的目的,这就叫做首尾真生视频。所以我们首先来讲解一下如何制作首尾真图片。共分为两种情况,第一种情况是画面当中的场景不变,事物发生变化,此时我们就需要用到包含大语言模型的 ai 工具,比如豆包 ai。 以这张图片为例,我们需要表现的是图片当中 紫色的雾气逐渐散去,同时天空下起大雨,最终人物身上的伤口愈合,人物展现出开心的表情。可以看到这一系列画面都是出现在同一个场景下的, 主要的变化在于天气以及人物身上的伤口,还有画面当中的紫色雾气。那么该如何实现场景内容不变,只改变画面当中我们要求的事物呢? 直接上传参考图,然后给豆包 ai 提要求就可以。我们已经将包含了紫色雾气的图片上传到了豆包当中,现在提出要求去除画面中所有的紫色雾气,其他内容保持 不变,然后点击生成,可以看到此时生成的结果就成功的消除了画面当中的紫色雾气,而画面的其余部分均没有发生改变。 更进一步的,我们将生成好之后的图片也保存到电脑上,点击下载。在下载好之后,我们再次以生成好的图片为基底,将其上传到豆包上作为参考图来生成下一张画面当中产生变化的图片。例如现在我们要求让图片中下起大雨,人物伸手去接雨水,其他内容保 持不变。再次点击生成,可以看到这次生成的结果,画面的表现依然十分出色。在画面的其他内容保持不变的前提下,我们成功的让画面当中下起了大雨,并且人物伸手去接住雨水。如果还需要进一步的修改图片的内容,比如说我们刚刚展示的让人物身上的伤口消失,露出开心的表情, 大家依然是将生成好的图片下载下来,重复这个操作。这样一来就像生成漫画一样,保持了场景的固定,改变了画面当中事物的运动状态。有了这些首尾帧,我们进一步的想要生成视频就简单多了。来到可令 ai 找到图生视频,需要注意的是,目前在可令 ai 上 支持首尾帧升视频的模型就只有二点一模型、一点六和一点五模型。最新的二点五 turbo 模型是不支持首尾帧升视频的,所以最终的表现效果可能不如我们之前演示的视频那样的效果。我们此次演示就使用视频二点一模型, 然后将手帧图上传到这个位置,而尾帧图上传到这个位置,在上传好之后,上方可以预览手帧图和尾帧图分别是什么样子的大图效果。而下面要做的事情就是描述提示词。其实有了首尾帧图片的引导,此时的提示词就显得没那么关键了,因为图片当中不仅清晰的呈现了画面内容有什么, 也呈现了画面当中事物的运动变化。同时首尾帧的背景相同,取景相同,所以镜头也是固定的状态。 如果聊胜于无,我们最好还是要描述一下,以确保生成的更加精确。提示词我们就书写,紫色雾气散去,天空下起大雨,人物伸手接雨水,在写好之后,直接点击生成,看一看效果如何 吧。可以看到最终生成的效果,人物整体的动作表现还是很流畅的,同时像紫色雾气散去,天空下起大雨,这样的天气变化也呈现的十分自然。不过在下一个镜头当中,我们还需要表现人物身体上的伤口不断愈合,然后露出开心的表情。 但是可以看到在可灵 ai 平台只支持手帧尾帧生成,如果想要再加入一张图片作为中间帧,是不支持这样的功能的。但经过测试,大家可以看这样一个片段,我们通过剪辑软件在后期 将不同的片段之间进行衔接的时候,片段与片段之间虽然都在同一场景下,但衔接的部分出现了明显的画面的画质宽高比 的细微变化,这种变化虽然不大,但却很容易察觉,会十分影响整个视频的流畅度和观看体验。因此当我们想要使用多张图片来生成一个长镜头时,就需要用到极梦 ai 了。来到极梦 ai 的 首页,点击左侧的生成选项,可以看到极梦 ai 同样支持首尾帧升视频, 而在下方的下拉菜单当中,我们展开首尾帧。这个下拉菜单可以看到目前新增了一个智能多帧选项,在点击之后允许我们导入多张图片。 如现在我们分别将第一针图片紫色雾气已经散去,第二针图片,天空中下起大雨,人物伸手去接雨水。第三针人物表现的很开心,身上的伤口逐渐愈合。这三张图片作为手针,中间针和尾针 导入到上面,这样一来就可以一次性生成十秒钟的视频,并且视频之间的衔接不会出现明显的卡顿。在图片和图片之间可以看到有一个添加画面描述的位置,我们点击这个位置,在上方就可 输入视频生成的提示词。描述,首先来描述第一张和第二张之间画面中事物变化的描述,天空下起大雨,人物伸手接雨水,点击确认。然后再来描述第二张和第三张之间画面中事物变化的描述。人物身上的伤口逐渐愈合,露出开心的表情,点 击确认。大家可能会注意到,在这个位置我们可以继续上传第四张图片,甚至是第五帧图片,来不断的在有伪真图的前提下,将整个视频的生成延续下去。 这个功能无疑是非常适合用来生成一个较长的视频片段的,当然它需要消耗的点数也比较多。我们现在点击生成来看一看在吉梦 ai 上, 这种长视频片段通过多帧生成的方式效果如何吧?可以看到我们在使用了多帧生成功能之后,整个画面的表现变得非常平滑流畅,在片段和片段之间的衔接上,并没有出现刚刚我们所见到的那样的卡顿, 整体的效果还是十分自然的。不过使用这种方式能够生成的分辨率极限不高,最多只支持七二零 p, 不 过这些都不是问题,我们之后也会讲解提升视频画面清晰度的方法。我们刚刚说了,此时演示的是第一种类型,就是场景整体保持 不变,只改变画面当中某些事物的运动。而使用首尾针生成的第二种类型则是画面当中有较大的变化,例如像这样的九尾狐画成人形的视频效果,可以看到九尾狐的图片和人形的图片在背景和人物主体上都完全不同, 那么这种效果是如何制作的呢?方法也非常简单,我们同样首先来制作首尾针图片,首先手针图方面大家可以自由发挥,例如现在我们就以这个九尾狐的图片作为手针图, 将这张图片上传到豆包 ai 上,然后进一步的提出要求。提示词我们就书写以参考图的色调、氛围、光影设计为参考,设计出这个九尾狐的人类形态,并出现在华丽的宫殿中。 现在点击生成一段时间后,图片就生成好了,如果对生成的结果不满意,可以进一步的提出要求,对图片进行修改。 例如我们继续要求生成的人类形态最好是穿中国古风服装,并且是中国古代美女黑色头发,宫殿也是中国古代宫殿风格,与参考图的 古风绘画风格保持一致。眼睛是正常人类的眼睛,现在点击生成可以看到这次生成的结果,在美术风格和造型上与原图我们所上传的这个狐狸相比就十分接近了。我们下面要做的事情就是回到视频生成平台,分别上传首尾帧图片提示词方面我们就书写 首尾狐狸化为人形,然后点击生成。在生成的时候需要提醒大家,像这种手真图和伪真图在构图内容甚至光照设计上完全不同的画面,其实在很多情况下 ai 是 难以完成自然的转换的, 甚至有时会出现直接切换画面,并没有出现画面当中事物运动变化后呈现伪真图画面的情况。出 这种情况的原因可能本身就在于首尾真图片之间过于割裂,还有一部分原因就是当前的视频生成模型并不具备这样的能力, 所以我们只能尝试更换视频生成平台,或者调整首尾真图片,让他们之间尽可能保留一些关联,比如像九尾狐狸,他们的尾巴是存在关联的,我们现在来看一看生成的效果如何吧。 看到整个视频前后的变化还是十分自然的,画面的主体成功的从狐狸形态变成了人类形态,并且转换过度,并没有出现很生硬的感觉。那么以上就是本期视频的全部内容,如果觉得内容对你有帮助,也不妨点赞关注支持一下,我们 就下期视频再见。大家好,我们这期视频来讲解一些常见的 ai 视频运镜技巧。大家在使用各种 ai 视频生成平台生成视频的时候,几乎是很难在视频生成的参数设置中看到和运镜相关的设置的,通常都要通过提示词的描述来设置,所以 ai 视频生成的运镜技巧 其实就是提示词的书写技巧。常见的视频运镜有这么几个,固定镜头,镜头拉近、镜头拉远、 环绕镜头,手持镜头,镜头跟随镜头转换场景细去刻刻变焦、延时摄影。 我们下面就对这些镜头逐一进行讲解。需要说明的是,今天讲解的视频生成我们用到了两个平台,分别是可灵 ai 和吉梦 ai。 不 过大家不用担心,虽然平台不同,但提示词的描述技巧是大同小异的,大家将来在使用其他的 ai 视频生成平台生成 ai 视频时,同样可以用相同的技巧。 首先来看固定镜头,固定镜头的描述其实非常简单,以这个视频为例,就是我们上一节课生成的一个视频片段,可以看到它的描述就是固定镜头, 风吹动人物的头发。所以在生成固定镜头的时候,我们只需要在镜头描述上描述固定镜头即可,没有什么特殊的技巧。再来看镜头拉近相关的例子,同样是我们先前看过的一则 ai 视频,可以看到这就是镜头拉近所展现的视频效果,镜头从远景不断的推向事物主体, 或者是我们想要表达的位置,和固定镜头一样简单,想要制作镜头拉近的效果,就直接在提示词中描述镜头拉近,镜头推进或者镜头靠近什么物体, 用这样非常直观的描述就可以生成对应的效果,而镜头拉远同样是这个道理。例如像我们在极梦 ai 上生成的这则视频, 看到镜头离人物越来越远,人物穿登山服在山顶看向镜头半身近景,远处是连绵不绝的山脉,有瀑布。在生成视频时,我们使用的提示词就是镜头逐渐拉远,同样是一个非常直观的描述,没有特别的生成技巧。 下面再来看环绕拍摄镜头。首先来看第一个案例,可以看到这个环绕拍摄镜头,首先环绕的效果并不是十分明显,而且在镜头当中人物在不断的对镜头说话。因此在生成的时候, 如果在提示词当中只描述镜头环绕拍摄,在有些情况下可能会导致画面的主体也产生动态效果,特别是像人这种活物。所以在生成环绕镜头的时候,我们可以追加一些提示词来限定画面当中主体的运动。比如说像这样一条视 频提示词,我们描述人物保持不动,镜头快速环绕人物拍摄,这样既增强的环绕效果,同时也保持了画面当中主体的静态。我们下面再来看手持镜头该如何生成。 这里需要说明的是,我们今天这期视频所讲解的所有镜头,都推荐大家使用图生视频的方式进行生成。在很多情况下,手真图的内容会极大程度上决定能够生成的视频类型。就比如说接下来我们要看的手持镜头拍摄,可以看到视频中的人物左手拿着相机, 右手在不断的比划着什么,嘴巴也在不停的解说,之所以会产生这样手持相机的效果,极大程度上是因为我们的手真图就生成了手持相机的效果。 而提示词我们就需要描述手持自拍视角,一个古风美女一边走路一边对着镜头讲话,背景是中国仙侠古风建筑山瀑布。 其中对于镜头的描述就是手持自拍视角,当然也可以是手持相机自拍这样的描述方式,只要是类似的描述,通常都可以让视频成功的生成出来,重点还是在于手真图需要是手持相机的样式, 我们下面再来看镜头跟随的效果如何生成。这同样是我们先前的课程当中生成过的视频片段,可以看到像这个公交车在行驶的过程当中,相机就不断的跟随这个公交车向后退,在生成镜头跟随的 ai 视 频时,镜头的运动方向并不固定,如果说主体向前运动,镜头就向前运动,而像这个视频主体向后运动,镜头就跟着往后拉远, 有可能主体在运动过程中发生了转向,那么镜头也会随之发生转向。所以描述的重点在于镜头跟随什么,什么向哪个方向运动。大家在描述提示词时,重点注意跟随两个字,需要让镜头跟随主体向某个方向去运动。 如果说主体运动的方向在运动过程中发生了转向,那我们就不需要描述镜头具体的运动方向,只需要描述镜头跟随什么主体去运动就可以。 我们下面再来看一个生成起来有难度的镜头画面,这就是西区苛刻变焦。首先来看一个失败的案例,可以看到,在这个案例中, 提示词的描述是西区苛刻变焦镜头,图片中的人物大小不变,背景大小改变,但实际上生成的结果却是镜头不断的拉远, 同时到了视频的后半段,画面当中凭空的出现了一些石块,并且穿过人物,这显然是一个非常失败的生成效果。所以我们下面再来看一个成功的例子,可以看到,像这条视频中,我们就成功的生成了稀缺刻刻变焦镜头,人物的主体大小、轮廓保持不变,同时人物身后的背景 不断的变远。在这条视频的提示词描述中,我并没有强调要生成稀奇刻刻变焦镜头,只是描述固定镜头图片中的人物大小不变,背景不断变化。显然这样的提示词描述成功的限制了画面当中人物的大小, 同时也听从了提示词中的指示,让背景不断发生变化。所以大家在生成稀缺各个变焦镜头时,可以尝试这样的描述,不要去强调要生成稀缺各个变焦镜头,反而是要说明固定镜头,同时让画面当中的背景发生变化。我们下面再来看延时摄影镜头, 想要生成这样的镜头,描述方式也非常简单直接。在提示词中描述延时摄影、光影快速运动、固定镜头、斗转星移四季变换。其中延时摄影、光影快速运动和固定镜头基本上是适用于所有的画面内容的, 而像斗转星移四季变换通常适用于户外的场景。如果要表现城市景观,可能就要描述城市中的人和汽车快速的运动,并且强调速度之快,甚至出现了残影,用这样的方式来描述延时摄影的效果,像这种短时间内的延时摄影效果,我们通过这样的描述就 可以做出视频当中的事物快速运动的效果。那如果是时间跨度更长的延时摄影呢?比如像当前这个画面,我们想要表现一年的四季变换,此时就需要用到首尾帧生成,甚至是多帧生成。 可以看到像这个视频,我们就是使用多帧生成的方式进行制作的画面,从春天、夏天到秋天、冬天,展现了一年当中的四季变换。那么这种效果是如何制作出来的呢? 方法也非常简单,我们首先利用图片生成功能,生成一张任意季节下的图片,这里我们生成了一个春夏季节的图片,在生成好之后,利用参考图生图功能,将图片上传到下方的图像预备窗口当中。提示词我们就描述 将图片中的季节更改为什么季节,例如这里我的描述是把图片改为秋季,其他保持不变。可以看到此时生成的结果,画面当中的树叶就变黄了,但整体的画面构图,包括河流的形状和走向,远处的雪山 都保持了不变。按照同样的方式将图片再更换为冬季,这样一来我们就获得了三个季节的画面效果。当然,如果想要四季更加分明,大家也可以生成一些春季的效果。在完成这些工作之后,我们就需要用到 极梦 ai 的 智能多帧功能,这项功能我们之前的课程中讲解过,分别将春夏秋冬的图片上传上来,而提示词方面,我们就描述相同的内容,延时摄影、光影、快速运动、斗转星移、秋冬之间的转换。同样是描述延时摄影、光影、快速运动、斗转星移 片本身的内容就表明了季节的更替,所以无需在提示词中再去强调。这样一来,我们最终就获得了像这样四季更替的视频效果。我们下面再来看镜头转换场景该如何制作。什么是镜头转换场景呢?就好比现在我们所观看的这条视频, 在沙漠中打开了一扇华丽的大门,在打开之后是完全不同的场景。想要生成这样的镜头,其实本质上是生成一个推镜头或 说镜头拉近。但是我们需要在提示词中描述镜头快速向前推进,同时打开大门,穿过大门后进入到了一个什么样的世界中。通过这样的描述,我们就完成了镜头转换场景的效果。 不过需要强调的是,这样的生成并非每次都能成功,有时可能打开大门后,后面依然是和原先的世界一样的场景,然后突然变换到我们所描述的场景。所以大家在生成这样的转换镜头时,可以多尝试几次, 从中挑选一个比较好的结果。在一些电影和游戏中,还有一种镜头类型也十分常见,那就是第一人称视角,能够提升观众的代入感。 可以看到,像这则视频就是以第一人称视角所呈现的。提示词的描述就是镜头沿着轨道快速向前,云海翻涌,是一个类似于过山车的第一人称视角。 对于这种视角的镜头描述同样主要取决于图片的内容,可以看到,我们在生成图片时,描述的便是第一人称视角 前方是什么什么样的景色。所以在生成视频时描述就非常简单了,我们只描述镜头沿着轨道快速向前,云海翻涌。再来看一个例子,像这则视频是人物以 第一人称视角骑着自行车在田间小路中前行的画面描述依然是第一人称视角在田野间的小路骑自行车。不过这条视频是采用纹身视频的方式生成的。 总结来说,大家想要生成第一人称视角的视频,画面主要描述的就是第一人称视角,然后前方有怎样的景色。到了这里,在制作 ai 视频时常见的几个镜头类型我们就讲解完了, 大家如果有其他的镜头类型,也欢迎在评论区补充。总的来说,想要生成这些不同的镜头,操作起来并不是十分困难。生成怎样的镜头,其实很多时候做决定的是手势词的描述也比较简单,通常都是一些大白话, 如镜头向前推进、向后拉、环绕拍摄、手持镜头等等。重点需要注意的就是这个稀缺苛刻变焦镜头,在提示词中描述的反而是固定镜头,同时保证画面当中的主体不变,背景发生变化。那么以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞、关注、支持一下,我们就下期视频再见!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分期发布,本期带你搞定提示词书写技巧。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成、配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举、提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享、置顶评论直接领取,不用私信,不用等,现在点进去 就能暴走,咱们直接开启课程,手把手带你做出第一条赚钱的 ai 动态们!各位伙伴们,通过第一期课程的学习,我们已经完整认识了可零 ai 界面, 相信大家课后都已经上手熟悉了各模块的位置,那么这一期我们就聚焦核心功能,文声图,重点讲解提示词的书写技巧。 很多同学生成图片不符合预期,问题大多都出在提示词上,掌握今天的方法,就能让咱们的 ai 创作更加贴近理想效果。咱们打开可灵 ai, 进入到图片生成的界面, 就自动跳转到了纹身图的操作框。咱们可以先在上方这一个区域去选择图片生成的模型,一般来说,数字越大,模型的版本越新,效果也会越好一些。 那么模型选择好之后,就可以在下方的这一个创意描述的这个大框框里去输入提示词,输入自己想要生成的内容,然后再选择下方对应的参数,直接生成就可以进行创作了。 看到最左边的这一个按钮,我们可以去选择生成图片的比例,这里已经预设了一些常用的比例,十六比九和九比十六分别对应着电脑和手机的适配宽高比,目前在克林里是不可以自定义设置尺寸的, 中间这一个按钮,咱们可以去设置一次性生成图片的数量。第三个按钮,这里可以去选择图片的分辨率,这些都可以根据需求进行选择,那么确认无物之后,就可以点击旁边的生成按钮, 直接生成图片。那么这个地方要明确一个核心原则,提示词描述越详细越精准,生成的效果也会更加的符合预期。那么看到这里,可能会有些小伙伴问,如果我连提示词都想不出来该怎么办呢? 这里为了帮助大家快速掌握系统的书写方法,我整理了一个通用基础公式, 五个 w 和一个 h。 熟悉其他领域的同学对于这个框架应该不陌生,它在 ai 创作领域同样适用。 这里的五个 w 分 别是 who、 what、 when、 where 和 why, h 则是号。第一个 who, 它呢是画面的主体,简单来说就是你想让 ai 生成的主体,简单来说就是你想让 ai 生成的核心对象,比如说人物、动物、建筑物品等等。 这个是提示词的基础,必须要明确小男孩、女孩、小猫小狗都是画面主体。第二个 what, 它是主体的特征,或者是它所处的状态, 比如说主体的穿着动作或者是核心行为。这里我来举个例子,我们打开可令 ai 的 图片生成功能,在提示词的窗口这里输入,穿着睡衣的少女优雅地坐在椅子上,像前面的穿着睡衣的少女就是 who, 优雅的坐在椅子上就是 what。 输入完成之后,直接点击下方的立即生成,就可以生成像这样的图片效果,呈现了核心主体和状态,既有少女这个核心对象,也有坐在椅子上的动作状态, 那么这个就是户加上 what 的 基础作用。第三个是 when, 它呢是时间描述,时间直接决定画面的光照和氛围,不同时间段的光影差异会让画面质感完全不同。 比如说中午的强光直射,傍晚的暖色调余晖,夜晚的静谧暗光,大家都可以试想一下。同样是少女坐在椅子上,加上清晨朝阳下和深夜台灯下生成的光照氛围,可以看出来是截然不同的。 第四个是 where, 它呢是场景地点,也就是主体所处的环境,比如说客厅、公园、战场、星空下、城墙边等等。回到刚刚的这个例子,我们只是描述了人在椅子上,克林给我们呈现的场景是这样的, 那么如果咱们把场景换成学校宿舍,可以看到画面里的空间感就会完全变化。第五个 why, 它呢是主体出现的原因或者是目的,这一点和 what 是 有些关联的,但是更加侧重行为的逻辑性,能够让画面更具有故事感。比如说穿着睡衣的少女坐在椅子上看着电脑,正在家里加班工作。点击生成 可以看到,相比于单纯的坐在椅子上看着电脑,加上目的之后,人物的状态会更加的贴合场景逻辑, 画面的修饰感也会更加的强一些。这里要注意一下的是, y 并不是 b 选项,简单的创作可以省略掉复杂修饰类的创作就建议补充一下最后一个号,它呢代表的是画面的风格与呈现的方式,这个是提升画面质感的关键, 它包括了绘画的风格,还有色调、构图、视角也包括在其中,同时还有画质参数。如果咱们没有这个部分的描述,生成的画面通常会偏日常普通, 加上之后能够快速地赋予画面艺术性。比如说在刚刚的提示词后面补充赛博朋克风格、冷色调、低角度、仰视视角,生成的画面就会从日常场景变为充满科技感的艺术创作作品。 那么像这六个要素,不用死记硬背,大家可以类比日常写作的逻辑,什么时间,谁在什么地方,做什么样的事情,为什么要这么做,以及呈现出来的风格是什么样的。最后再去补充一些氛围的修饰词,这样提示词就会变得非常的完整。 那么接下来我们结合可令 ai, 用一个完整的案例进行实操演示。这里我们来构建一个有故事感的提示词,暮春的雨夜,身着但青涩如裙的少女 撑着油纸伞站在古桥桥头等待晚归的家人。冷灰色调电影级氛围远景俯拍这里按照刚刚的提示词结构进行了书写,直接点击下方的生成, 可以看到生成的结果完全的符合提示词的描述,主体特征、场景氛围、画面风格都比较的理想,这样的提示词就是合格的完整提示词, 如果是商业接单,提示词的摺写会更加的简单一些,通常甲方会明确给出需求,直接作为提示词使用就可以了。那么如果大家暂时没有灵感,或者想要快速的生成素材, 可零 ai 内置的辅助功能也能帮上忙。看到文生图输入框的下方,这里有一个推荐,里面有很多的预设标签,比如说怪诞、虚实、丝绒、摩登,咱们可以点击任意的标签, 系统就会自动的填入对应的提示词。在创意描述这一个地方,那么生成的作品也就完全贴合未来战役的风格,效率是非常高的。这里大家如果觉得下面预设标签太少的话,也可以点击旁边的这一个换一换按钮, 不过可以看到替换后的预设标签的重复率还是比较高的。这个地方有一个更加优质的灵感获取渠道,就还是上一期所提到过的创意圈, 这个里面汇聚了大量创作者的优质作品,咱们点击任意的作品,就可以看到作者所使用的提示词,我们不需要完全的照搬,只用替换核心的元素就可以发挥自己的想象,这样既高效又能够保证质量。 外,咱们回到图片生成的界面,可以看到克林还支持 deep sea 提示词认色功能,咱们可以在创意描述这里输入简单的提示词,比如说一个男孩,接着点击下方的 deep sea, 可以 看到发送之后系统就会自动的认色补充细节,比如说男孩、草原奔跑、蓝天白云、阳光微风、短裤、运动鞋、草叶飞扬, 如果觉得这个提示词满意的话,就可以点击下方的立即生成,可以看到生成的效果也是不错的。但是这里要注意, ai 任色的随机性比较强,这里不建议直接使用,最好是根据自己的需求调整优化之后再去生成, 或者是自行转载详细的提示词,再使用该功能去优化表述。这里最后要说明一点的是,纹身图存在一定的随机性, 有时候会出现大部分满意,小部分不满意的情况。比如喜欢画面的构图,但是想要换风格或者是想要修改局部的细节, 这种需求可以通过可零 ai 的 参考生图功能实现,它能基于现有的图片调整风格或者是修改局部。这里由于时间的关系,这个功能具体操作我们放到下一期详细进行讲解。 那么以上就是本期文生图与提示词书写技巧的全部内容啦,建议大家课后结合今天的案例,替换核心元素实操练习,加深对于提示词逻辑的理解。可以把作品分享在评论区 们,相互学习,相互进步。如果操作中遇到任何的问题或者有其他想要了解的技巧,也欢迎在评论区留言。如果本期内容对你有帮助的话,别忘了点赞关注,方便获取后续教程的更新,咱们下期视频再见!

一天学习一个技能,今天要学的是可灵 ai, 欢迎收看二零二六全新可灵 ai 系统教程。明明用的同一个工具,为什么别人做的视频就能一发入魂,符合预期效果, 而你的视频却像脱缰的野马一样浪费积分不说,结果还得全靠运气。今天这期全是技巧,手把手教你从零到一,搞定完整 ai 视频,无论你是新手小白还是有一定经验的老手,学完都会有所收获。另外,视频里提到的所有工具、工作流框架和操作要点,我都整理成了一份懒人文档。 话不多说,咱们直接开整,这节课我们就来讲解平台该如何使用。来到可灵 ai 的 首页,可以看到在首页当中展示了一些由其他作者生成的图片或者视频片段作品, 我们可以将鼠标悬置在对应封面的上方,如果是视频作品的话,可以看到视频就会进入自动预览播放状态。在点击之后打开预览,可以看到在右下方有一个一键同款选项,我们点击这里的一键同款 时,就会来到生成页面,同时将刚刚我们所预览的由其他作者上传作品的相关参数设置为当前的生成参数。我们可以选择直接生成,也可以更改图片提示词或者当前使用的特效模板。点击左上方回到首页。 在首页当中展示的所有图片或视频内容,我们在点开预览时都是可以选择一键同款的,这为我们将来参考其他作者的图片或视频作品来生成自己想要的效果提供了极大的便利。 nice 在 首页的左上方有一个创意圈选项,点击这个选项可以看到,此时在这个位置提供了四个分类,分别是已经关注的作者发布的作品、其他作者发布的视频作品、其他作者发布的图片作品以及由其他作者发布的短片作品。 这里的短片和视频的区别是,通常视频是指的视频片段可能是五秒或十秒钟左右,而短片则是由 ai 创作后,经过后期加工,通常长达几分钟的短片作品。 大家在初期生成视频或者生成图片时,一定要多参考其他作者在生成作品时所使用的提示词,这样能够提升学习效率,避免花费过多的成本试错。比如,我们现在来看其他作者生成的图片,例如,像这张 色彩十分艳丽,海边有很多漂亮的石头的图片,在打开之后可以看到具体的参数。我们主要查看的就是这里的提示词内容,当然具体该如何书写提示词,在之后的课程中也会给大家详细的讲解。虽说提示词的内容会根据生成的内容有所不同,但它们都会有一个通用的框架, 所以大家在生成图片时也不要吝啬去抄别人的提示词,这样才能不断的积累经验,快速进步。同样,我们在将图片升成为动态的视频片段时,也需要多多参考其他作者在生成视频时所使用的提示词技巧。例如,像这个视频 可以看到作者描述的非常细致,画面当中的人在做什么,水下的鱼在做什么,天空中的海鸥在做什么,以及镜头该如何运镜, 海浪又有怎样的表现,几乎是事无巨细的描述了画面当中可运动的事物。关于将图片升成为动态视频的技巧, 我们在之后的课程当中一样会讲到。了解了创意圈功能,我们再看左上方的资产选项,在可灵平台中,我们之前生成过的所有 ai 作品都会储存在这个位置。在上方的下拉菜单中可以筛选生成的作品分类。例如我们可以选择查看图片,或者选择查看视频 外,可连 ai 平台也是支持生成音频的,所以同样我们可以点击音频分选项查看之前生成的音频。我们继续来看左侧的分选项,在这里有一个创意特效选项,在点击进入后,展示了很多不同的 ai 视频的生成模板。用传统的方法生成 ai 视频, 无非就是手真生视频上传图片外加提示词的描述,主要控制画面如何运动的是提示词,而在创意特效这里, 相当于将事物的运动状态用模板进行了规定,只要我们上传符合要求的图片,就可以让图片中的事物做出特定的运动。比如我们现在点 击这里的宠物出游 vlog, 可以 看到此时这里的要求是提供一张宠物图片。我们点击上方的选择特效选项,在弹出的菜单当中可以选择其他特效。将鼠标悬置在对应特效选项的上方,可以看到此时开始播放视频,能够预览这个特效能够产出 的效果,可以看到效果还是非常不错的。我们下面来看一些常用的工具,现在依然回到可怜 ai 的 首页,在左侧创意特效选项的下方有图片生成,这是我们常用的工具,往往创作视频片段时,会先生成图片,再生成视频, 再点击之后进入生成页面,可以看到最上方有一个模型下拉菜单。目前最新的图片生成模型是二点一模型, 通常来说,模型的标号越高,生成效果就越好,不过有时更新的模型也意味着消耗的生成点数更多。目前使用极梦 ai 生成图片是免费的,而且效果也非常不错,所以综合考虑成本和效果, 目前建议大家使用极梦 ai 来生成图片。当然每个平台的模型都有其独到之处,大家选择适合自己的就好。在选择好生成模型之后, 下面要做的就是在下方写入生成的提示词。此外,在最下方还可以选择生成图片使用的比例、生成图片的张数以及生成图片的清晰度。可以看到当前可设置的最高清晰度是二 k 的 分辨率。其实像一些旧版的模型, 因为本身的训练素材清晰度不高,所以最多只能支持到一 k, 这也是新版模型的好处,能够生成更加清晰的图片。 总的来说,生成图片其实作为关键的因素依然是提示词的书写。想要写好提示词,除了我们之前讲过的参考其他作者的提示词之外, 我们同样需要学习如何在提示词中准确的表述我们想要获得的效果。这样的表述方式其实是有一个通用的模板的, 像我们在学习语文时,通常会学习到要有主语、谓语、宾语一样,所以下节课我们会详细的讲解在文生图中提示词的书写技巧,那么以上就是本期视频的全部内容,如果大家觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解文声图与提示词的书写技巧。通过上一期课程的学习,相信大家已经进行了一些简单的图片生成练习,这里简单补充一个小知识,那就是我们在进行平台操作教学时,这些平台会不断的进行更新, 所以很有可能大家在看到这套课程的时候,整个平台的操作界面会有一些细微的变化,但其基本功能和页面布局基本大同小异。 我们主要使用的功能依然是图生图或者纹身图,以及之后要讲解的视频生成功能。所以大家在看到界面发生变化时,不用惊慌,简单摸索一下基本就能上手了。好的,我们回到提示词这个话题,在书写提示词时,通常描述越详细越好。这里有一个官方公式, 是五个 w 和一个 h, 拆开来讲的话其实就是五个单词,分别是 who, what, when, where 和 why 以及 who。 我 们下面一个一个来看,首先是 who, 也就是谁,这里描述的是画面的主体, 像人物、动物、建筑等等类似的主体元素。第二个是 what, 也就是主体的特征,或者说主体处在一个什么样的状态。例如现在我们返回文声图,在提示词窗口描述一个穿着时尚的少女, 也就是 who, 坐在沙发上,也就是 what, 然后点击生成,可以看到最终生成的结果,就展示了一个穿着时尚的少女坐在沙发上,既有主体本身,也有主体存在的状态。 我们继续来看第三个问,也就是什么时候发生的。描述生成图片的时间段,其实主要影响的是图片的光照和氛围,例如像中午和傍晚,显然两者在自然环境中,它们的光照氛围是不同的。而如果是夜晚, 在户外可能会有路灯,在室内可能会有室内的灯光。因此,问,时间是影响生成图片光照氛围的重要因素。而第三点是 where 在 哪里发生?这个点主要用于描述主体所存在的场景,例如刚刚我们生成的这张图片,一个穿着时尚的少女坐在沙发上,少女对应的是 who, 坐对应的是 what, 沙发对应的就是 where。 我 们继续往下讲,最后一个点就是 y, 也就是这个主体为什么会出现在这里。这点和 what 有 些类似,依然是在描述人物当前的状态,比如人物在工作,人物在骑自行车,人物在开车等等。不 过相比于 what, y 所体现的是更加具体的事情,而非像普通的站立、端坐或者是躺下这种基础状态。而最后一个就是后,这一点对应画面更深层次的修饰,比如画面构图、视角、风格、色调等等。通 通常没有这些描述,生成的画面就偏向日常,而有了这些描述,能够赋予画面更多的艺术性。例如,我们可以要求图片是赛博朋克风格,整体的色调是冷色调、暖色调,或者视角是十分罕见的仰视或俯视视角。 说到这里,我们的五个 w 和一个 h, 它们具体的含义就讲解完了,不过这几个点还是比较多的,要死记硬背会比较困难。但其实大家在实际操作时,可以想想平时是如何写作的,无非就是在什么样的时间,什么样的人在什么地方做什么, 然后为了赋予当前的画面,有什么样的基调可以修饰一下,例如像天灰蒙蒙的,或者是阳光明媚。 ok, 我 们现在回到可灵 ai, 用我们刚刚所学习的知识,更加细致的来书写一下提示词。首先来描述主体,例如这里我们书写一个长相英气的亚洲女孩, 梳着麻花辫,穿着古代盔甲,在战场上查看伤员。为了渲染战场悲壮的气氛,我们再加上天灰蒙蒙的,更进一步的,我们可以描述一下后,也就是构图色调等等。例如冷色调、电影氛围、 地面视角。如果大家是在做商单,那就更简单了。通常来说,甲方所提的要求,我们稍微将这个要求转换为 ai 更好理解的准确描述,就可以直接用做关键词了。下面点击生成看一看效果如何吧。 可以看到最终生成的效果非常符合提示词的描述。长相英气的亚洲女孩,梳着麻花辫,穿着古代盔甲,在战场上查看商源。同时生成的两张图片,内容也是天气灰蒙蒙的,有电影氛围, 冷色调,且拍摄的角度是位于地面视角。这个例子还是比较简单的,大家可以套用我当前所书写的提示词格式,将里面的具体内容进行替换,自己亲手生成一张符合描述的图片,可以让你对操作的印象更加深刻。在使用 ai 生成图片时,想让生成的图片更加出彩, 或者你是运营账号,想要账号获得更多的关注,其实最为重要的就是生成日常生活中不那么容易看到或者看不到的东西。比如现在我们将刚刚的提示词删除,来生成一个人型的,穿着牛仔服的猫,戴着牛仔帽, 拿着左轮枪,我们点击生成看看效果如何。想象一下,一个猫像人一样站立,穿着牛仔服,戴着牛仔帽,拿着左轮枪,这种场景在现实生活中是很少能看到,这就和我们的日常生活形成了一个明显的反差, 想让自己的 ai 作品能够脱颖而出,需要的就是这种反差感。当然,如果有时实在没什么好的点子,但没事的时候又想生成几张图片作为将来的素材。其实可怜 ai 也提供了很多预设选项,可以看到在提示词输入窗口的下方有很多四字词语,我们点击这个词语, 点击这里的废土末日,可以看到在提示词输入窗口就自动填入了和废土末日相关的提示词。这是可灵 ai 上为我们预设的模板,直接点击生成片刻之后图片就生成好了。可以看到可灵 ai 当中预设的模板想象力也非常的丰富,除了像废土末日, 我们可以点击右侧的刷新按键,以此来更换一批模板。不过这里给出的模板倒不是很多,基本上刷新几次就能看到有很多重复的。想要生成更富有创意的内容,不妨像我们上一节课说的, 在可联 ai 平台的创意圈当中查看由其他作者生成的作品,在这里可以十分方便地获取其他作者在生成图片时使用的 提示词内容。我们不一定要完全照搬,可以将提示词中的元素替换为自己想要的元素,来发挥自己的创意。回到图片生成页面,可以看到平台也十分贴心地提供了一个 deep seek 功能,我们点击打开这个功能能够十分方便地帮助我们润色原本比较简单的提示词, 比如现在在 deepsea 当中输入一个少女,然后回车发送,可以看到此时内置的 deepsea 会回值一些消息,这些消息丰富了原本枯燥的提示词。我们将鼠标悬置在给出的回值消息上方, 可以选择对应的提示词,直接使用这个描述,将提示词填入后,直接点击生成,看一看生成的效果如何吧。可以看到,经过 deepsea 的 润色,最终生成的效果 呈现出了一种十分梦幻的氛围。当然,由 deepsea 生成的提示词不是特别建议大家直接使用,虽然生成的效果也不错,但终究是随机性很高。我们最好在生成之后根据自己的想法对提示词进行修改,或者先尽可能对图片的内容描述详细,再使用 deepsea 对 提示词进行润色。 而言之,获取提示词的方法有很多,想要生成好的图片,最简单的方法就是多参考由其他作者生成作品使用的提示词。因为每次生成都是随机的,哪怕使用的提示词是一样的,生成的结果也会有所差异, 所以不必担心侵权的问题。但要知道纹身图也不是万能的,因为本身纹身图伴随着很强的随机性,这就导致生成的图片结果可能会产生有一小部分我们不满意, 大部分满意的结果,那这个时候有没有什么办法能够修改图片当中我们不够满意的那一小部分,而其他部分能够保留呢?或者说我们喜欢的是图片的内容以及画面的构图,但是希望能够给图片换一个美术风格,有没有什么办法能够实现呢?其实是有的, 就是上方我们点击切换分选项,使用参考生图功能,由于时间的关系,这个部分我们就放到下节课来详细讲解。以上就是本期视频的全部内容,如果大家觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解可令 ai 中的参考生图。参考生图功能共有四种模式,分别是参考角色特征、参考人物长相、通用电图风格转会 以及多图参考。其中参考人物特征可以让生成的结果在面部和主体一致性上保持与参考图一致, 而参考人物长相则更加注重让生成结果在面部特征上与参考图保持一致。至于通用电图功能则是通过提示词的描述来告诉 ai 我 们想要生成的结果在哪些方面与参考图保持一致。具体参考的内容是由提示词来控制的。 多图参考功能,他允许我们上传一张以上的参考图,然后参考每一张我们所上传的参考图,配合提示词的描述生成最终的结果。这个功能通常用于主体和场景之间的融合, 例如让指定造型的人物在指定的场景当中做出怎样的动作,同时也可以指定生成结果是怎样的风格。最后,风格转会,顾名思义 就是将所上传的参考图在保持特征不变的情况下转换美术风格,我们下面就对这些功能逐一进行讲解。首先来看角色特征参考, 点击这里的加号,上传一张角色特征参考图,可以看到,在上传好之后,下方有两个滑块,分别可以调整面部的参考程度以及主体的参考程度。既然参考了主体,那么在提示词中就不再需要对主体进行过多的描述, 我们主要描述主体之外的部分,这里我们就书写人物坐在咖啡厅阳光明媚的午后。紧身效果 在生成之前,我们需要注意的是上方的面部参考和主体参考滑块在数值上也并不是越高越好, 不高的数值会给 ai 留下更少的发挥空间,导致人物在角度和姿势上的变化和原图过于相似,有时反而不能生成好的效果,所以这里的数值我们通常保持默认就好。当然最终数值的高低我们要根据生成的结果来实时的调整, 下面点击生成看一看效果如何吧。可以看到最终生成的效果还是与原图在人物的长相特征和穿着上非常接近的,发型也基本保持了原图的面貌, 同时展现的背景也是在咖啡厅以及阳光明媚的午后,也具备了我们所要求的紧身效果。我们现在可以尝试将主体参考强度适当降低,因为不难发现当前的生成结果人物的角度 和原图过于相似,同时人物在胳膊的部分也出现了一些比例不够得当,结构不够完整的情况,所以对于这些部分,我们就需要给 ai 更多的发挥空间。再次点击生成, 可以看到,这次生成由于降低了主体参考的数值,我们所获得的图片生成结果在人物的身体上生成的更加完整,比例也变得更加得当了, 并且整个咖啡厅的呈现也比先前生成的更加明显。我们下面来看人物长相参考生图。点击切换到人物长相参考生图的分页,同样上传一张图片,我们依然是以刚刚这个人物为例,可以看到在这里同样有一个参考强度的滑块,以此来控制对人物长相的参考程度。 还是保持默认,提示词方面就可以任意描述了。由于此时并不需要参考人物的服装以及人物的发型,所以现在我们可以对人物除了长相之外做更多的具体要求,例如短发、穿着时尚的冬装围巾、 雪景紧身效果,同时在镜头上也可以更加跳脱,例如俯视角度。在书写好提示词后,再次点击生成,可以看到,由于现在我们使用的是人物长相参考生成,因此像人物原有的长发特征 以及穿着白色长袖的特征都没有对生成的结果有任何的干扰。图片除了在人物长相上与原图相似之外,其余部分均符合提示词的描述。我们下面再来看通用电图这个功能,通用电图类似于 stable diffusion 当中的图生图 在生成结果上会保留较多的原图特征,但目前可能 ai 上的模型版本较低,通用电图仅支持一点零模型,因此生成效果不是很好。所以建议大家想要使用这样的图生图功能,不如直接去 stable de fission 当中生成,这里我们就不再赘述,我们下面再来看多图参考功能。 刚刚我们说过,这项功能通常是让主体背景和风格进行融合的功能,比如现在我们首先上传一张主体人物的图片,然后再上传一个场景的图片,最后再上传一个风格的参考图片,下面来书写提示词,这里我们就书写人物在沙滩上散步,然后直接点击生成, 可以看到此时就生成了符合提示词描述的结果。但不难发现,虽然我们参考了场景和风格这样多张图像,但最终选用多图参考生成的效果并没有展现我们在参考图中所上传的场景以及风格图片,所以目前这个功能还不是特别的好用, 或者说我们当前上传的图片参考并不能发挥这个功能的最佳效果。可以看到在这个功能的下方有很多推荐选项, 可令 ai 官方所推荐的上传的参考图的内容。在点击之后会自动将这些参考模板加入到图片预备窗口中,而提示词方面也会自动书写模板的提示词描述,我们再使用官方模板来生成一下,看看效果如何。可以看到这次生成的结果就相比之前好了不少, 我们下面再来讲解最后一项功能就是风格转会,这项功能可以保持角色特征不变的情况下转换图片的美术风格。 我们依然是上传一张图片,在上传好之后,可以在提示词输入框描述我们想要的风格,但风格本身是一个比较抽象的词汇,比如二次元风格,每个作者也有不同的画风,所以可以看到在下方可 连 ai 官方也给出了很多风格的名称,比如现在我们点击这里的三 d 卡通风格,然后点击生成,可以看到最终生成的效果,和原图相比,在画风的转换上 是非常彻底的。我们再来尝试一个扁平风格,点击生成可以看到这样扁平风格的生成效果一样十分优秀,成功的保留人物特征的同时,将美术风格进行了彻底的转换。我们最后来讲解一下生成时要设置的参数,在风格转会中,我们能够设置的参数只有一次性生成多少张图片, 生成的图片张数越高,需要消耗的点数也越多,大家可以根据自己生成的需求来选择合适的张数。而在参考生图和纹身图当中,可以设置的参数就比较多了。首先来看纹身图,在下方我们可以设置生成图片的比例, 像常见的比例十六比九,九比十六,一比一都是有的。同样可以设置生成的张数,也可以设置生成时的分辨率,通常家用电脑显示器的分辨率就是二 k 左右,所以这里我们保持默认就行。 而在参考生图当中,我们同样可以设置生成的分辨率以及生成的张数。在设置宽高比时需要注意最好根据我们生成的内容来实时的调整,例如现在我们想要生成一个人物的三式图,最好就使用二十一比九或者十六比九的 比例,以便于三式图的画面更容易展示完整。而如果想要生成海报或者某个人物的半身像,我们通常就选择三比四的比例。 如果想要生成电脑壁纸的话,我们就选择十六比九,想要生成手机壁纸的话就选择九比十六,这些都是我们在生成时通常会用到的参数设置。那么以上就是关于参考生图的相关知识,如果觉得本节课的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解一下和平台相关的问题,来看一看如何在可灵 ai 上免费获取灵感值, 如何让视频生成的速度更快。我们首先来看第一个获取灵感值的方法。来到可灵 ai 的 首页,我们点击左下方的个人主页 选项,来到主页之后,可以看到上方有一个灵感任务,我们点击进入。目前这里有两个任务都可以获得灵感值,其中一个是用 ai 所制作的短片,被评为可灵精选作品, 每次可以获得三千灵感值。然后是按次数入选可灵精选可以额外获得大量的灵感值。可以看到这里只要有五个入选可以额外获得一万点灵感值,而有十个入选可以获得两万点灵感值。不 过需要注意的是,获取的灵感值有效期是三十一天,大家在获取之后最好能快速的把这些灵感值消耗掉。回到首页,我们再来看第二个能够获取灵感值的方法,可以看到在下方有一个消息中心选项,在点开之后会弹出官方所发布的一些消息, 在这些消息当中,有一些是让我们填调查问卷的,如第一个填写调查问卷即可获得一百点灵感值,我们将消息信息往下拉, 通常来说,这样的调查问卷几乎每个月都会发放一次,只要填写问卷一般就能获得灵感值,所以在这个位置我们同样是可以获取到灵感值的,并且不像上一个方法那样,需要作品被评选为精选才可以获取。 我们再来看获取灵感值的第三种方法。点击左上方的创意圈选项,可以看到在创意圈上方有一个活动专区,我们点击右侧查看更多。这里就罗列了目前或者说近期可 连 ai 上举办的有关 ai 生成相关的活动,这些活动可以获取的灵感值非常丰厚。在每个活动的右下方有一个火焰标识,这个标识通常代表着当前活动关注的人数越多,奖励就会越丰厚, 同时竞争也会越激烈。比如看这样一个活动是全球新影像创作大赛,这里标注的大奖是一点五万美金,所以活动的关注度非常高。我们点击进入,通常在活动页面可以进行作品投稿或者查看由其他作者上传的作品,自然也能在这个页面看到投稿的详细说明以及 参赛的注意事项。回到活动专区的页面,需要注意的是活动目前的状态,比如刚刚我们所查看的这个全球新影像创作大赛活动,在这个位置显 显示他是评奖中的状态,这通常就意味着已经无法投稿了,进入了评选阶段,所以最多我们可以鉴赏一下由其他作者上传的作品,或者帮他们投个票。而像上方这两个活动,可以看到在这个位置会标注距截稿日期还有多少时间。我们点击进入这个活动,这个活动并没有在新的页面打开 说明是可领官方举办的活动,可以看到这里的一等奖有三个名额, 我们继续将页面往下拉,在这个位置可以查看其他作者上传的参赛作品,可以看到目前的参赛作品只有八十九个,而我们刚刚所查看的获奖名额足足有十八个名额, 所以像这样的活动我们去投稿的话,能够获奖的概率还是比较高的。大家在创作初期还没有充足的经验的情况下,如果想要获奖,不妨多参加一些这样的小活 活动,在参加的时候一定要注意活动规则,比如有些活动会要求点赞数不少于一百,或者对发布的内容有一定的限制,一定要查看好活动规则再参加比赛。如果大家希望自己上传的 ai 作品能够获得更多的热度,也可以查看评论区的置顶评论,考虑加入我们组 建的 ai 社区,大家相互点赞,提高作品热度。在这里可以注意到,在活动所获取的灵感值以兑换码的形式发放,有效期为一年。 我们这里来讲解一下灵感值规则。来到会员页面,点击上方灵感值这里的查看明细,然后点击下方的灵感值规则,可以看到我们通过不同渠道所获取的灵感值,它们的有效期是 不同的。需要注意,通过常规会员所获取的灵感值,它的有效期是自发放日起的一个月,也就是说,假如你是黄金会员,那么每个月能够获得的灵感值是六百六十点,当月即便没有用完,下个月也会重置。所以大家一定要按照自己 生成视频或者图片的需求来选择合适的档位,不然没用完的话,这部分灵感值就会被浪费掉。我们最后来讲解一下关于视频生成速度的问题。 相信大家在使用过后会发现,我们生成一张图片可能一分钟都用不了,但生成视频往往需要花费几分钟的时间。以生成五秒钟的视频为例,通常来说,生成一秒钟的视频 要的帧率是二十五帧,也就是生成五张图片,以此五秒钟的视频总计要生成一百二十五张图片,然后还要将这些图片整合成一个完整的视频, 所以所需的时间要长很多,并且可怜。 ai 就是 一个专门生成视频的平台,所以在平台上生成视频的用户数量要远大于生成图片的用户数量,而人越多可能就需要花更长的时间排队,所以大家想要获得更高的视频生成效率,可以考虑错峰生成。 通常来说,周一到周五的下午使用人数是最多的,而像周六、周日或者是清晨,平台的使用人数较少,通常生成视频的速度也更快。那么以上就是目前几个常见的灵感值的获取方法,如果觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这期视频来讲解可灵 ai 的 纹身视频。首先来到可灵 ai 首页,点击左侧的视频生成功能,此时就来到了视频生成页面,可以看到视频生成包括纹身视频和图生视频以及多模态编辑三种方式。我们今天主要讲解纹身视频。 再来看最上方有一个下拉菜单,在这里可以选择视频生成时使用的模型,目前最新的模型是二点五 turbo 模型,这也是当前效果最好的一个模型,相信将来也会推出标号更高的,像三点零、三点五等模型。 无论是纹身视频还是图生视频,大家在选择模型时就选择标号最高的,通常效果也会越好。我们下面来简单对比一下,看一看新旧版本的模型和图生视频以及纹身视频,它们生成的效果都有什么差异。首先来看用可零一点六模型生成的纹身视频,效果 提示词,我们书写的是一个道士扛着一块比人还大的球形石头走在青石板路上,周围是竹林和杂草,草木随风晃动,可以看到生成的效果非常不尽人意。不仅生成的人物并不是一个道士, 人物手上的石球也并没有提示词要求的那么大。我们再来对比一下用二点五 turbo 模型在纹身视频的方式下生成的效果如何。可以看到这次生成的效果就非常不错了,不仅生成的人物是道士,而且手中石球的大小也符合了提示词的要求。 总的来说,二点五 turbo 模型在生成效果上确实要远优于旧版模型。当然,想要获得更好的效果,依然推荐大家使用图生视频。 我们继续来看一个例子,像这条视频就是使用二点五 turbo 模型使用图声视频的方式生成的效果。可以看到整个画面的呈现非常稳定,人物的动作也比较流畅自然,而且像石块的质感,人物的服装设计,周围的场景构图,都要远比使用文声视频要效果更好。 我们再来看一个用旧版模型在图生视频的情况下,同一张图片生成的效果。可以看到这次的视频效果就远不如刚刚我们使用二点五模型生成的效果,不仅人物的动作非常僵硬,在运动的时候人物也出现了稍许的变形,在大小比例上,人体结构上 都不尽人意。那么通过以上的对比,不难发现,使用可怜 ai 平台生成视频,在效果上,图生视频要大于文生视频, 版本标号更高的视频模型要大于版本标号更低的视频模型。我们来到创意圈当中,来看一看由其他作者生成的视频作品。 随意点开一个,可以看到这条视频,它使用的就是图生视频手帧图生成的方式。再任意点开一个,可以看到这条视频依然是使用了手帧图生视频的方式,再点开一个,同样如此,使用的是首尾帧生成视频。 所以大家需要明白,目前市面上百分之九十八的视频作品可以说都是用图声视频的方式生成的。虽说纹身视频的生成效果目前使用二点五 tab 模型也不错,但其在美术风格、画面构图、内容的可控性上, 随机性都太高了,即便能够生成想要的效果,也会花费巨大的生成成本。所以我们今天讲解纹身视频的主要目的,更多的是希望大家了解纹身视频的特性,将来正常使用视频生成功能,可以说绝大多数情况使用的都是徒生视频, 我们下面再来看一下纹身视频的参数设置。首先是提示词,这里就按照正常纹身图的方式书写提示词,再加上对运镜和画面当中事物运动的描述即可。如果实在不知道该如何写的话,可以看到这里也连接了 deepsea, 同时可令 ai 官方也提供了一些推荐的提示词模板,点击一下就可以将模板加入到上方的输入窗口, 目前这个选项是免费的,不妨把它勾选上。不 不得不说生成的效果在音效匹配上还是比较差劲的,大部分情况下还是要把生成的视频放进剪辑软件当中,后期配音。然后最下方是生成模式的选择, 目前二点五 turbo 模型只支持高品质模式,而像其他版本的模型,比如一点六模型,在下方就可以切换标准品质模式。不过经过测试,在任何版本的模型下都建议大家使用高品质模式,不然效果会非常差劲。 然后就是视频生成的秒数,有五秒和十秒可选,这也是大部分视频生成平台提供的秒数生成选项。这里建议大家非必要的话不要选择十秒,因为十秒钟的时间很长,这就使得画面当中的事物在运动过程中很容易发生逻辑不通、形状崩坏的情况。 秒钟的视频是比较稳妥的,也满足大部分的分镜头时长需求。如果实在要使用十秒钟的生成时间,不妨使用首尾针生成的方式。然后就是这里的生成宽高比设置,可以看到是三个常规的选项, 十六比九,一比一和九比十六。最后是视频生成的条数,保持默认的一条就可以了,因为生成视频成本还是很高的,只生成一条有助于我们去及时的根据生成效果调整提示词来获取更好的效果。我们下面回过头来看一下提示词的书写技巧。 其实纹身视频和纹身图非常类似,在之前的课程中我们讲解过纹身图提示词的书写技巧,无非就是画面主体,主体在干什么,画面所属的时间,以及画面当中出现的各种事物、氛围、色调等等。 在纹身视频当中,除了对画面的描述之外,还多出了两个部分需要描述,例如像我们刚刚所加载的这个提示词模板,第一句话固定镜头,这句话就是对镜头运镜的描述,除了固定镜头之外,也可以让镜头逐渐向前推进,镜头环绕拍摄等等。 而第二个则是画面当中事物运动的描述,例如这里描述了中心有一个小小立方体科技核心旋转,其中这个旋转就是对它的描述。所以总结来说,在纹身视频时,提示词主要描述的有三个方面,分别是画面内容、 画面当中事物的运动以及镜头的运镜。以我们刚刚生成的纹身视频作品为例,可以看到这里的描述。 首先第一句话镜头向前推进就是在描述运镜,而像中间的暖光环境,棕色兔子带着金丝眼镜,报纸标题清晰可见,桌面周围散落着几颗方糖,这些就是画面内容的描述,而剩余的用手推了下金丝眼镜,背景窗帘微微摆动, 这就是对画面当中事物运动状态的描述。我们来看一下生成的效果如何吧,可以看到最终生成的效果还是非常自然流畅的,同时向暖光环境兔子推眼镜以及 咖啡杯飘着热气,还有画面当中的方糖、窗帘、报纸,这些事物都符合了提示词的描述。所以我们总结一下,就目前的 turbo 二点五模型而言,其在生成质量上已经和纹身视频相差无几, 不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前版本过低的模型,生成的画面可以说是脱胎换骨。但我们依然推荐使用图声视频的方式 生成 ai 视频片段,毕竟现在生成一条 ai 视频的成本不低,直接使用文生视频固然方便,但具体的画面构图、画面风格以及画面当中主体的形象,对于只用文字描述生成视频来说,其随机性还是比较大的, 没有太大的必要用这么高的视频生成成本对生成效果进行施错。所以我们下节课就会详细讲解如何进行图生视频。如果觉得本期视频的内容对你有帮助,也不妨点赞、关注、支持一下,我们 就下期视频再见。大家好,我们这期视频来讲解如何制作图声视频。在上一期视频中,我们反复强调,在大多数情况下,我们制作 ai 视频用的都是图声视 频,它是一个可控性非常强的功能。这里要强调一下,大家在学习视频中的知识点时,最好不要跳着去观看,这样很容易遗漏重要的知识点。我们下面来讲解一下。图声视频的首页,点击视频生成功能 时,会默认来到徒生视频的页面。如果我们只是做手真徒生视频的话,在下拉菜单当中的所有视频模型都是支持手真徒生视频的。我们今天依然使用视频二点五 turbo 模型来为大家进行演示。如果大家学完了上一期视频, 制作了一些自己的 ai 图片的话,也可以用自己的 ai 图片来生成今天的视频,如果没有的话可以看到可连 ai 官方也给出了一些推荐的图片选项,同时在点击之后,下方也会出现匹配的提示词描述。我们今天的演示就使用已经准备好的图片, 将图片上传到预备窗口后,下面开始书写提示词。在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容的描述,对画面运镜的描述以及对画面当中事物运动的描述。今天我们使用 图声视频功能,其实就可以省去对画面当中内容的描述部分,因为本身图片已经给到了充足的画面当中内容的描述部分,因为本身图片已经给到了充足的画面当中内容的描述部分,因为本身图片已经给到了生成的视频 会随着镜头的移动而出现新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的运镜。以当前的图片为例,这张图片是一个人形的大灰狼在一个充满蒸汽朋克风格的办公室里面看报纸的情。 按照描述需求,我们首先来描述一下镜头的运镜。例如现在我们描述镜头缓慢推进,在描述好镜头之后,下面来书写对画面当中事物运动的要求。这个部分的描述我们也需要细致拆开来看。首先描述的自然是主体, 狼人将报纸靠近头部,用手扶了一下眼镜。在描述完主体之后,很多情况下我们还需要描述主体周围环境的变化。例如当前的环境角色所处的空间出现了很多机械齿轮,我们就可以描述被 背景中的机械齿轮在转动,灯光轻微闪烁。在描述好了镜头运镜,主体和背景的运动之后,我们就可以设置参数准备生成了。当然,在生成之前也可以用 deepsea 来润色一下当前的提示词。至于参数方面,和文声视频不同,在图声视频的时候,输出的视频宽高比会和我们上传的图片宽高比 保持一致。所以我们要设置的是生成的秒数以及生成的条数。在设置生成秒数时也需要注意,如果在提示词中,我们要求人物所做出的动作比较多, 可能有时需要将视频生成的秒数从五秒调整为十秒。留给人物充足的时间去做出提示词里面所要求的动作,否则你会发现动作做到一半,剩余的动作就不会做出来了。我们此次演示要求的动作比较少,所以直接点击生成看一看效果如何。 一段时间后视频就生成好了,我们来看一看效果如何吧。可以看到,最终生成的效果还是非常符合提示词的要求的,且人物整体的动作也十分自然流畅。向镜头缓慢推进,狼人将报纸靠近头部,用手扶 了一下眼镜背景中的机械齿轮在转动,这些内容都成功的生成了出来。不过像灯光轻微闪烁这样的描述在生成结果中体 现的就并不是十分明显。出现这种情况是模型本身的特性决定的,经过测试,即便更换描述方法,也依然很难生成这种由模型特性决定的无法生成的东西。所以各位同学在遇到这种情况时,只能尝试更换视频生成平台,或者放弃对这个部分动态呈现的需求。 在可怜 ai 上,对于视频的生成,除了我们刚刚要求的将头靠近报纸,用手扶眼镜,让机械齿轮转动这样简单的要求外,其实平台对人物面部表情的刻画也算是当前平台的一项优势。所以在此基础上,我们在提示词当中来补充 一个描述,那就是在用手扶了一下眼镜后,露出惊讶的表情,写好之后再次点击生成。需要注意的是,每次生成在动态表现上其实都是随机的,偶尔会出现一个简单的动作生成的并不好的情况,所以有时我们需要进行多次尝试,从生成结果中选出一张好的效果进行保 留一段时间后,视频就生成好了,我们来看一看效果如何吧。可以看到,最终生成的效果就在上一条视频的基础上,符合了提示词新增的要求,露出了惊讶的表情, 整体的表现还是比较自然的。我们下面再来看第二个实操案例。像当前生成的这个狼人看报纸的视频,几乎都是固定场景下人物做出简单的动作,但当我们要求镜头跟随画面当中的主体一起运动,这样一来镜头中会出现图片当中之外的内容时,我们又该如何书写提示词呢? 下面重新上传一张参考图片,可以看到这张图片是一台老旧的公交车在战火中向前飞驰,穿过破碎的建筑的画面。对于这种画面的描述, 同样遵从描述运镜和描述画面当中事物运动这样的方法。但有时我们可能想不到太好的提示词去描述画面,所以此时可以借助可 ai 上自动反推提示词的功能。可以看到,在这里,当我们删除提示词输入框中的内容后,会出现两行灰色小字,请描述你想生成的视频内容,或使用 deep seek 反推描述图片。我们点击这里的 deep seek 反推,可以看到右侧就开始分析当前画面的提示词,同时在此基础上也给出了画面当中事物的运动描述以及 镜头的运镜。一共给出了三组提示词,我们需要自行判断一下哪一组提示词写的比较好,或者符合我们的要求。在确定好要使用的提示词后,我们直接点击提示词使用。不过需要注意的是,很多情况下这些提示词描述生成的效果都不是很理想, 我们还需要手动修改。例如这里的冲天而起的黑色烟柱遮蔽了半边天空,这样的描述极有可能使得整个画面充满黑色烟柱,遮挡主体, 所以最好将这句描述删除。然后是镜头的描述,当前 deepsea 所给出的镜头描述是镜头推进,但要知道我们上传的参考图汽车是向前运动的,如果与此同时镜头还向前推进,那么很 快就会错开公交车,无法展现公交车向前行驶后的画面。所以我们现在需要将镜头修改为镜头跟随公交车向后运动,这样一来就可以拍摄公交车向前行驶后的画面。在确认好提示词后,我们就直接点击生成,一段时间后视频就生成好了,来看看效果如何吧。 看到整体的效果还是不错的,公交车艰难前行,两侧道路冒出火星,同时随着镜头的向前推进,可以看到画面中心生成了原本图片里没有的电线杆,而镜头方面也会随着公交车向后运动 跟随拍摄。不过我们不难感受到,当前的画面公交车行驶的过于缓慢,并不能突出整个镜头的紧张感,所以我们可以进一步的修改提示词描述。现在将第一句话当中的艰难前行修改为飞速行驶, 同时将第二句话修改为公交车两侧的道路不断发生爆炸,火焰纷飞,然后再次点击生成来看一看生成的效果如何吧。可以看到,这次生成镜头就明显紧张刺激了很多,不仅公交车的速度 有明显的提升,同时像道路两旁的爆炸也让整个镜头的氛围提升了一个档次。总的来说,图生视频的操作并不复杂,在很多时候,即便提示词什么也不写,视频生成模型也会根据图片本身的内容来使画面当中应该运动的物体 去做出自然的运动。而题诗词的描述,我们既可以使用可令 ai 官方的 deep seek 辅助,同时自己描述时也基本上都是日常生活中的大白话去描述画面中事物的运动,以 镜头的运镜,而且在描述这张图片时,好用的描述方式也许换一张图片又不好用了,所以图声视频的提示词并没有特定的描述方法。大家只要记住整体的描述框架,即描述运镜,描述画面当中事物的运动,以及有时可能需要描述镜头移动后新出现的物品, 这样就可以在将来的图声视频中举一反三,基本每次都能生成理想的画面。以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞、关注、支持一下,我们就下期视频再见!

这是一条报价两千的时尚短片,而我只用三个小时的时间就挣到了两千块钱。从落地到交付,全程没有一帧实拍,模特动作自然,皮肤纹理细腻,视频质感真实,甚至我的朋友都认为这就是实拍视频。 下面我将分享我的创作思路,让新手小白也能手搓核弹。在我们开始生存视频之前,我们要了解一个概念,那就是大多数视频生存 都是用文字结合图片去控制的,只有这样才能精准把控视频的风格、动作、构图甚至氛围。用更直白的话来说,其实文字就像导演和编剧告诉模型拍什么,怎么拍,而图片就像化妆师告诉模型人物和画面必须像什么。 所以我们只要生成视频当中每一个镜头的参考图片,就能确定该镜头的主体风格和氛围。结合这只时尚短片,我们优先将人物主体三式图和大头照生成出来。这里我采用的是 noblana, 因为它是市面上最强图片生成模型,生成出来的图片都高度还原, 甚至精细到皮肤、毛孔、人物发丝。在完成这些以后,我们开始逐个生成镜头中的图片。如果生成出来的图片我们不满意,那我们就一定要接着抽卡或者检查一下自己提示词的问题, 因为图片好不好直接关系着你这个镜头的质量。等我们所有的图片处理完毕以后,直接丢进我们的生成软件里面,用图片参考生成视频,这样生成出来的视频质量都大差不差。如果大家按照我的步骤还是不行,那应该就是模型本身的问题。

来不及实拍了,今晚就要快啊! claim, 快快告诉我是怎么做的!创作思路可拆解成这三组镜头,蜻蜓引导、香水亮相、香水细节展示、模特出镜互动模型式可零三点零奥秘,并涉及到主体参考、图片参考等功能。 进入 m 页面,在一堆主体的最左边点击创建主体,选择这次的商品图片可淋香水,没有商品的其他视角的话,可以点击 i 智能补全。稍作等待,我们就有了几组素材,选一组合适的, 有重复,多余的素材也可删除。智能描述商品填写名字,我们就有了可灵香水这个主体,同样也制作了机械蜻蜓主体,这样能确保香水和蜻蜓生成时趋于稳定,香水瓶上的文字也不会走样。 参考图为两张不同的丛林环境图和香水。至于此环境的图片,主体用到可灵香水和机械蜻蜓提示词主要描述了蜻蜓的入场行为轨迹,最后带出香水出镜,于是就有了 参考图为香水瓶左下角特写和香水瓶头部的特写。主体用到可淋香水瓶,这次用到了自定义分镜,分别描述两张图片对应的两个镜头,于是也就有了 制作模特主体并选择音色来保证声音一致性,也可以自己上传本地音色,然后以模特拿着香水瓶单张图片作参考, 主体选择可灵香水瓶和模特提示词,着重描述了模特如何与香水互动,以及最后说出那句可灵的品牌名。于是 今晚就要的电商广告,你学会了吗?

ai 动作可控性又上了一层,这次可零二点六的更新,从表情模仿、手部细节、高难度动作,再到生成时长都进行了全面升级。 点赞关注咱们教程走起!首先打开可零 app, 点击动作控制,现在只需要上传一张人物图和原始动作驱动视频,就可以把动作一键迁移了。这次更新之所以强,是因为它解决了很多原来动作迁移无法解决的小细节问题。 首先就是表情控制非常自然,细节做的很到位,比如眼镜腿的反光、脖子连带运动等等。而且他让 ai 表达出情绪有了可能。 小声说一句,以后演员塌房也更好换脸了,他的手部表演也更加清晰,挑战高难度手部结印也完全不在话下。 对于舞蹈、体操这种高难度动作,克林二点六已经可以做到零穿帮了,动作那个流畅自然。 你看这个围巾的摆动完全符合物理规律,而且它最高支持三十秒生成时长,完全不用千分动作既然能生成这么长,那我就送你一首我最喜欢的 go west 来结束本篇视频吧。 we will fly so high, tell all our friends goodbye, we will talk like you。

哈喽,同学们大家好,本节课程讲解如何制作图片与提示词描述的书写技巧。怎么去书写呢?相信同学们听完上节课后,一定在下边练习了一下,生成图片,我们的提示词呢,它的描述一定是越详细越好,有一个官方的公式叫做五 w 一个 h, w 一个 h 其实比较难记,我自己改了一下,叫做五个旺,一个号,旺是什么?就是 w 开头的五个单词就是 who, what, when, where, why, 一个号呢?就是怎么了?这也是国内做活动的时候经常用到的一个公式了,非常的万能。我们一个一个看一下, who 就是 是谁, 也就是整个画面当中的主体,可以是人、动物、植物都可以。然后第二个是 what, 就是 这个主体它怎么了?其实这里就是对主体的一个描述, 比如说一个漂亮的女人穿着紫色的睡衣,在床上躺着,试一下呀,我们来点击一下,立即生成,或者这样问自己是一个什么样的主体,是一个什么样的人,是一个什么样的菜,什么样的动物?这个就是 what, 所以 刚刚讲到的一个是 who, 一个是 what, 第一个是主体,第二是主体,他怎么了?第三就是问,就是时间,也就是说画面发生的时间节点是什么时候?他其实和下面的威尔很像,这两个点都是主要来描述背景,一个是场景的,就是在哪里发生, 问,就是这个时间点,其实他是一个点缀,比如说我填写的是早上七点,清晨炎热的夏天,他其实对整个画面的光源有一个非常强的影响,甚至是一些历史的时间节点, 比如说文艺复兴时期呀,工业革命时期呀,这都是问包含的,所以问就是时间。接下来是 where, where 很 重要啊, 就是这个人在哪里?最后一个就是 why 是 为什么,就是他为什么会出现在这里啊?这一点其实和 what 很 像,就是描述这个主体在干什么,比如说在喝咖啡,在沐浴,在跳舞,大笑,钓鱼啊等等等等。 ok, 再下一个就是画面更深层次的一些细节描述,这里有很多点啊, 比如说构图,像什么黄金比例构图、对称构图、对角线构图,或者是视角鸟刊图,仰视、平视,这些都可以去描述,甚至画面风格,你想要赛博朋克风,现代主义风,还是八零年代的风? 然后是色调,暖色系还是冷色系,光影效果呀,质感呀,这些都是它的一个模板。但这个模板呢?说实话,死记硬背还是比较困难的。同学们,先记住这几点, 主体,主体在干什么?主体在哪里?干什么?然后什么样的视角拍摄这张图片,其实主要记住这四点就可以了。 ok, 回到我们的纹身图这个页面,我们先根据讲到的这五个,望一个号这个套路,这个模板去写一下提示词。第一个是主体,一个女孩她是主体, 那么我们再把这个主体描述的更加细节一些,一个长相甜美的女孩,一个身材火辣的女孩,性感的女人,帅气的男人都可以,然后她怎么了? 第二个是描述主体的特征,比如说穿着黑色的长裙,麻花辫,白色的帽子, ok, 然后接下来就是场景了,对吧? 走在清晨的街道,这不又描述场景,又描述了时间和地点,清晨,清晨就是时间,街道是地点,然后再修饰一下他的一些更多细节,手里拿着一瓶啤酒,远景现代主义风格,现代主义风格就是想让整个画面是现代风,而不是说动漫风,然后自然光打 有光的感觉。 ok, 这个就是一个基本的,根据我刚刚这个套路里边写出来的一个关键词,这些关键词并不是说那些套路里边提到的要点都要写上,根据自己想象的画面里边有什么元素去书写提示词就可以了。我们这些写完之后呢,点击立即生成,看一下它的效果。 ok, 长相甜美的女孩,穿着黑色的长裙,麻花辫,白色的帽子,走在清晨的街道,手里拿着一瓶啤酒,远景现代主义风格,自然光,这个就是一个图片生成的方式。讲的这个例子呢比较简单, 你们可以根据刚刚那个公式自己写出来一个关键词,这样子你的记忆会更加深刻,那么这样一张图片就做好了。 ok, 这些是怎么去自己填写关键词?那么有个套路就是这里有个推荐,推荐这里呢,其实就是关键词的模板,当我们在征途的时候,或者今天没什么事干,我打开了可怜 ai, 我做一些比较有趣的图片或者视频,但是没有灵感,我们就可以在这里去使用,比如说点击这个,点击一下这里就会生成关键词,我们点击立即生成,看一下它的效果。不过这里的模板并不是那么的多,那么除了模板呢,平台也非常的人性化,有一个 type c, 他 们把 type c 的 接口接入到了这里边, 那么这里是怎么去使用呢?它这里边有一个模板是内嵌到这里边的,我们不需要去写的那么详细,我们只需要把自己的创意放进来,让他来帮我们润色。或者我不会写关键词,我就想写一个城市设计, 我就想这样子去写,它会帮我们去润色来完善这个关键词,这个是它很强大的一个要素之一。我们来看一下它的效果,是不是它已经把我们的一个城市设计延伸到这么长了?这些我们来点击一下,立即生成,看一下效果, 是他的一个用法,叫做提示词的润色,当我们的提示词很小,不知道有哪些细节可以写的时候,就可以直接把它放过来,让它帮助我们润色。 第二个呢就是告诉他我们想要生成的一个东西,比如说我今天想要生成一个戴着墨镜的长颈鹿,我们点击回车, ok, 那 么我们想做什么?他就会把 ai 平台可以接受的 ai 提示词生成出来,我们直接点击去使用就好了。 在我们调用的时候啊,我们可以直接点击使用关键词,总而言之,关键词的书写方式有很多种,那么最简单高效的又想生成好看的图片呢?其实就是抄,就是借鉴,大家不要总害怕呀,老师,我如果抄别人了,和他做的一个一模一样的怎么办呀? 记住, ai 制作有版权,但是 ai 关键词是自由的,没有听说只能我一个人用,其他人都不能用,那是不可能的呀, 语言也是自由的呀,并且你让同一个关键词生成一千次,他会给你生成一万种不同的图片或者视频,不用担心完全一模一样。在前期抄别人的关键词主要是看别人怎么去写的,他为什么能够生出来这么好看的图片,用到哪些奇特的关键词,我们去研究这个部分是最主要的, 这样子会进步的更快。 ok, 所以 文生图是非常重要的。为先学习 ai 生成视频,要先学会 ai 生成图片,本节课程就给大家讲到这里,同学们,我们下节课再见!拜拜!

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分期发布,本期带你搞定试衣功能。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留分析感,点进去就能暴走,感兴趣的评论区 扣六六六直接拿走,跟着流程走,轻松搞定。第一集各位伙伴们,今天我们来讲解可灵 ai 中的 ai 十一功能,不管是电商带货选品、服装行业展示,还是想要日常的提前预览穿搭效果, 这个功能都能帮助我们高效的解决问题。那么我们来到可零的界面之后,可以看到画面的左侧这里有一个 ai 十一的选项,我们点击进入 就能来到 ai 十一的操作界面。这个里面有两个功能,一个是 ai 模特,一个是 ai 换装,在换装之前我们肯定需要一个模特,那么第一个步骤咱们可以选择用 ai 来生成模特,也就是这个 ai 模特。 在这里我们可以去选择性别、年龄、肤色以及在下方去输入对于这个模特基础造型的描述。这里也同样的提供了 dipstick 提示词反推的窗口, 那么我们可以在下方来输入提示词看一下效果,这里我就先默认了他的模特设置,选择了女性青年以 及黄种人的肤色,下方的模特描述可以这样去书写,直接写上亚洲女性双麻花辫,黑色头发以及他穿着的服饰, 还有他所站的环境,同时描绘了一下照片,要是写实风格,光线要明亮,整体是温暖和谐的氛围。 这里我们明确了体态、姿势、风格,背景描述都是比较简洁的,避免了附加元素的干扰,方便后续换装时聚焦服装本身。 那么如果对于提示词没有把握的话,就可以点击反推的窗口去上传参考的模特图,让 ai 自动生成适配的提示词,接着再去进行手动的微调就可以了。 那么像参数设置的方面,看到左下角,这里可以去选择它的比例,这里我们可以选择九比十六, 同时还可以去选择生成的章数,这里我就直接选择四张,像九比十六的尺寸的话,比较适用于电商直播以及短视频平台,非常的适合手机端的展示。 下方的图片数量保持四张也是为了一次可以生成多张可挑选的最优效果。那么咱们设置好之后就可以点击旁边的生成, 那么稍作等待咱们就获得了 ai 给我们生成的模特,可以看到效果还是非常好的。如果我们不想要生成模特的话,也可以直接点击上方的 ai 换装, 在这里我们有一些官方预设的模特,点击官方模特的按钮就可以看到平台给我们提供的模特效果, 里面还是提供了非常多不同风格的预设模特的含盖了不同的性别,不同的穿搭场景,不同的年龄段,咱们可以直接点击就能够使用了,这样比较适合于快速的预览式一效果。 那么如果我们有了现成的模特照片的话,也可以点击上方的自定义, 在这里我们可以在这个添加模特的框框中去上传我们的模特照片。这里重点要强调一下上传模特的规则,我们可以将鼠标移动到模特规则,这里可以查看模特规则的详情, 他呢给出了推荐的图片和不推荐的图片案例,像多人的合照,还有一些复杂的姿势,或者是图片的人物身体面部进行了严重遮挡的图片,像这一类的图片都会导致 ai 识别失败, 换装的效果会导致错乱,都是不推荐上传的。那么想要成功的给模特进行换装的话,可以去参考上方的这一些图片案例,比如说单人照,全身正面或者是半身的正面, 或者是未对衣服的区域进行严重遮挡,还有姿势比较简单的图片,都是可以上传的,大家可以去看一下这些规则。那么到下方的这一个窗口,我们可以去上传服装, 这里可以上传单件服装或者是多件服装,同样的服装也有一定的上传规则, 可以看到像平铺的服装图,单件服饰没有遮挡,没有重叠,背景是干净的,以及花纹是清晰的,图片, ai 都是能够进行精准的识别的。那么像下方在同一张图片里存在多个衣服, 或者是背景过于杂乱,花纹过于复杂,一或者是透视的角度过大的话,这些情况都是不做推荐的。如果咱们想要一次性的上传多个服装的话,就可以点击旁边的这个多件,分别上穿上装以及下装, 这样能够方便 ai 进行识别,以此来让模特一次性试穿全身的衣物效果。那么这里我们就以官方提供的模特为例, 选择一个模特,接着我们来上传服装的图片。首先上传上装,接着上传一张裤子的图片,上传好了之后我们可以选择生成的章数,这里我还是选择四张,设置好之后就可以点击生成, 生成好我们来看一下最终的效果,哎,可以看到效果还是非常不错的, 不仅完整的保留了人物的长相特征,同时像衣服的款式以及穿戴之后的光影效果还原的都是十分自然的。 那么像这个功能对于电商行业的小伙伴来说是比较刚需的,无需再去搭建摄影棚,聘请模特上传服装图,就能够快速的生成穿搭的效果,大幅降低了拍摄的成本,提升了上新的效率。 那么日常穿搭的爱好者也能够通过这样的方式去预览服装上身的效果, 避免踩雷还是非常方便的。那么如果大家在操作过程中遇到了任何的问题,都可以借助上方的这一个使用指南,就可以进入到可灵 ai ai 十一的专属指南页面, 那么在这个页面里面就详细地介绍了 ai 十一的功能亮点,完整的操作流程,服装以及模特上传的规范,以及常用的一些问题解答,还有一些优质的案例都可以在这里去查看到, 不管是新手入门还是进阶的优化,都能够在这里找到解决方案,建议大家可以把它给收藏备用起来。那么如果大家在操作的过程中遇到了上传失败,换装效果不佳的问题,都可以在评论区留言哦,我都会帮助大家分析解决, 也可以留言想要学习的服装风格、试衣技巧,后续也会补充专项的教程。如果本期内容对你有帮助的话,别忘了给个一键三连获取后续的更新教程,那么咱们下期视频见!

氪金没必要白嫖,我教你!今天分享的是全网爆火的可灵 ai 无线积分版,让你无限使用,没有广告的烦恼,亲测可用,还有没拿到的宝子们抓紧啦,因为不知道什么时候会被和谐。 首先点右下角分享键分享复制链接,复制成功后我们打开这个蓝色小鸟,没有的话就去安装一个,打开后会弹出一个资源包, 如果没有弹出,就在这里搜索七梦宝库,然后打开这个文件夹,找到这个软件,保存下载安装就可以用了。

可零三点零究竟能不能下替 c 蛋二点零这条视频给你结论众所周知啊,即梦最近的一波骚操作,将广大 ai 创作者的三观都震碎了, 高级会员一个月一万五千的积分直接降成六千一百六十,这波涨价将近二点五倍! vip 一 条十五秒的视频,两百一十积分, 刚才用我那聪慧的脑瓜一丧,好家伙,这一条十五秒的视频要十七块啊,这比可灵还贵!可灵一条十五秒的幺零八零 p 视频,现在才六块三毛多。此时此刻,我想说,不怪你涨价,怪我太穷了。 在价格相差如此之多的情况下,可灵的动态效果究竟能不能下提吉梦呢?请接着往下看这两个模型。经我这么久的研究,我总结出一套分别比较适应他俩的提示字母版。 可灵的提示词描写,动作描述要直白,要适合短视频时长。场景描述要简洁,不要塞太多镜头语言和镜头运动也要区分开, 急慢的提示词描写主体加动作加场景加镜头语言加光线加氛围,并明确说动作描述要直接,要适合短视频时长。感兴趣的小伙伴可以记一下啊。我综合以上几点,分别为他们准备了一套提示词, 是极梦的提示词,我们使用极梦的多模态参考生成,我们看看效果如何。 虽然有 bug, 但我们可以看到整体的打斗还是比较流畅的,动作也基本符合提示词。看完极梦,我们再来看看可灵的表现如何。我们先用可灵的灵三模型,使用多模态参考生成看下提示词如下, 这效果只能说拉完了都不知道他俩在干嘛,整个感觉像嗑药了一样,还是把希望寄托于可灵三点零模型吧,三点零模型的智商是要比灵三模型高的,希望不要翻车。这次我直接用手真伸,我们来看看效果如何。 这打斗效果一言难尽啊,就像没有武功一样,虽然效果比可灵差,但在我眼 中看到了可能性。如果我们将分镜少做一个提示词,再精准一点,即使达到极闷的动态效果也不是没有可能的。虽然相对来说难度要大的多,但也算是给了我们除了极闷之外的另外一种选择,你们觉得呢?好了,本期视频就到这里,咱们下期见。

你们想要的可爱的魔性舞蹈来啦!首先打开可林,搜索下列数字, 进入首页,按一键循环,然后替换成你家宝宝的照片就可以一键生成,下面来欣赏你家宝宝吧!