欢迎各位观众老爷来到小卡的直播间,今天小卡邀请到了可零三点零欧米。大家好,我是小可,以及大家熟知的吉梦 s 二。大家好,我是梦梦。今天小卡将对两位升视频的能力进行一个大比拼,事不宜迟,我们马上开始, 那我们先让小可自己讲解一下奥秘的功能吧!没问题,直接展示这次的新模型,在保持了之前模型的主体库的基础上,允许各位观众老爷自定义镜头, 最多支持一条视频,分成六个可控的镜头,让各位可以完全的控制自己的视频产出。除此以外,各位观众老爷在创建主体的时候,支持上传自定义音色,一键绑定主题,超级方便。最后动作模仿功能也是进行了更新,不信你看。 不愧是小可,新功能确实超多,那接下来让我们把视角转移到吉梦 f 二的身上吧! i think i get it now! 轮到我了,和小可一样,我也可以支持纹身图生和多穿射视频,虽然没有主体库,但是我的识别度也超高,不用担心崩脸。 同时我也支持各位观众老爷上传音色进行人物绑定,也支持上传视频进行动作模仿哦, 肯定是我更厉害,明明是我更厉害!好了好了,这个问题我们交给观众老爷们回答吧!观众老爷你觉得呢?
粉丝163获赞4354

今天尝试用 ai 做一条多分镜广告片, 接下来分享制作过程。首先在可零生成模特图,提示词可以多调几次,优化到满意的样子。然后准备一张产品图,为了让画面更丰富,我还生成了一些小熊软糖做装饰元素。接下来是策划分镜,我找了一个唇釉广告视频,直接让 ai 拆一下, 有画面描述景别运镜。接着把准备好的模特图、产品图还有装饰元素发给他,让他参考刚刚拆好的分镜结构。用我的素材去生成一套九宫格分镜提示词。 继续根据提示词去生成分镜图,这里可以多试几次,挑出满意的素材就可以去生成视频了。我是用新升级的三点零模型做的,它有个视频主题绑定功能,对保持人物和产品一致性非常有用。 点击这里创建主体,这里有我已经创建好的模特和产品,就是上传几张参考图,还可以给角色添加固定的音色。然后导入分镜图,选择对应的主体 提示词,就参考之前拆解的逻辑去写。可以打开这个智能分镜,自动帮你拆分镜头,选择视频时长三秒到十五秒,按需去调就行, 生成的效果还是很稳的。多分镜切换一下,模特和产品细节都对得上,瓶身的文字也没有崩坏。另外在自定义分镜里,能单独设置每个分镜的时长和画面内容,台词也可以直接写进去,用引号分隔。想做多一种视频,把文本换成对应语言,就能生成不同语种版本, 口型和语感都挺自然的,最后拼接起来就行。感兴趣的宝子可以趁着假期玩一玩,对小白非常友好。

各位伙伴们,前几天可灵三点零正式发布,这次的升级堪称颠覆性,从画面质感到功能体验,从单镜头创作到多镜头修饰, 从静态生成到动态连贯,全方位拉满 ai 视频的创作上线。那么今天这期视频我会把可灵三点零的核心优势一一拆解,不管是新手创作还是专业内容生产都能快速上手。优势之一,多镜头创作功能,这绝对是可灵三点零最惊艳的升级, 仅凭一句提示词就能生成同一场景下不同视角的复杂镜头训练。咱们打开可令 ai, 找到一旁的生成按钮, 进入生成界面,找到上方的视频生成,将模型修改为视频三点零,直接在这个位置上传一张图片, 接着输入一句包含不同景别的提示词,让可玲帮忙描述女子煮茶的画面,其中包含全景、中景以及特写镜头。接着咱们将左下方的参数设置中的生成时长调整为十五秒, 这也是可零三点零进行的一代升级,增加了五秒的生成时长。对于 ai 视频创作来说,更长的时长意味着能够承载更多的修饰内容,不管是做剧情片段、产品演示还是动态场景,都能有更加充足的时间去呈现细节 设置好之后,点击下方的生成,咱们来看一下这一段十五秒的视频效果, 可以看到从全景到中景再到特写,机位切换非常丝滑,转场也毫无违和感,完全不用我们手动调节镜头参数,甚至连煮茶时水汽升腾的物理细节都还原的恰到好处。 这放在以前至少要分三次生成再进行剪辑,现在可以一步到位,创作的效率直接翻倍了。 来看看优势之二,音频功能升级 a a 视频的音化协同一直是行业难点,以往生成视频后需要单独用其他的步骤去配音频,调成形耗时又容易出现口型对不上的问题。 而可灵三点零直接把音频功能做到了模型内。我们结合刚刚的女子煮茶的案例做升级实操,在提示词中补充音频,要求让女子在煮茶时说话,并且将背景音加入煮茶的水声和插设的鸟鸣声,大家来看看生成效果。 新茶煮好,慢品时光。 女子的台词清晰,语音也贴合角色设定,成型和每一个字都是比较精准的进行了匹配,背景音和画面也融合的比较完美。由此可以看到,不仅是镜头语言,在音频功能方面,克林三点零也进行了进一步的提升。第三个优势,角色一致性有了质的飞跃。 相信大家在做 ai 视频时都遇到过这样的问题,镜头推拉摇移或场景轻微切换时,角色的五官、服饰、道具会突然变形, 关键的物体也有可能会消失,那么这也让许多剧情创作和连续镜头拍摄难以实现。而可零三点零针对这个痛点做了优化, 在镜头切换时,主体依然能够保持稳定一致,彻底告别镜头移动,角色就变得尴尬。那么我们再来做一个实操案例,将手真图进行替换,输入这一段提示词来测试一下一致性。 这段生成的视频镜头在切换的过程中,研究员和仪器的主体特征丝毫未变,这里值得一提的是,仪器内的液体的光影以及动态变化都是非常连贯自然的,液体的流动状态是非常真实的。 优势之四是它的文本渲染能力进行了大幅进化,在 ai 视频中加入文字元素是很多小伙伴的刚需, 以往的 ai 视频文本渲染的效果是比较差的,文字模糊变形是常态,无法满足实际使用的需求。 柯零三点零对其进行了全新升级,尤其是带字号的文本。那么咱们将手真图上传一张咖啡厅内部的图片,提示词中规定了镜头的变化以及要求保持文字全程清晰无变形。我们来看一下生成效果,可以看到招牌上的带字笔画是非常清晰的, 字体也是非常标准的,镜头在推进以及拉远的过程中,文字是没有发生丝毫模糊和变形的。吧台屏幕上的小字也保持的不错,虽然不如大字那么清晰,但是也是可以辨别的,完全是能够满足观众的阅读需求的。那么除了基础的可零三点零模型, 本次还同步发布了一款重磅衍生模型,克林森 omni 模型,允许大家像搭配食材一样使用多张参考图像,分别定义角色、物体、环境,从而确保角色、物体与环境之间的高度一致性。同时还支持直接上传视频作为参考, 这是 ai 视频创作的一次全新突破。那么我们点击旁边的 omni 进入到操作界面,咱们在这个带加号的小框框中上传三张参考图,一张古风女子角色图、一张古风茶色场景图和一张复古插展的物体图, 接着我们输入提示词,让其参考角色、场景以及物体生成。女子在插设主插的视频同时要保持角色五官、场景布局以及造型与参考图高度一致, 最后规定了一下镜头应景,那么我们可以来看生成的效果,可以看到最终的生成效果。视频里的女子茶社以及茶展完全还原了参考图的特征,三者的融合也是比较自然和谐的。但 其实也可以看到镜头转场的过程中还是会有一些画面的小瑕疵,这个时候就可以进行反复升图,获取更加好的效果。 那么以上就是克林三点零的核心优势介绍,这次升级让 a a 视频首次让人感觉不那么像零散的片段,而更像是连贯的场景,在真实感、虚实性、创作效率上都有了质的飞跃。当然在实操过程中可以看到克林三点零也并非完美无缺,但是不可否认的是, 这次升级已经为 ai 视频的创作打开了全新的大门,相信随着后续的持续优化,克林还会带给我们更多的惊喜。如果大家在使用过程中有什么技巧和问题都可以在评论区留言交流,我们一起解锁更多的克林三点零新玩法,我们下期再见!

仅用一段提示词,加一张图片,自动生成分镜,包含大全景、虚焦、特写等专业电影运镜 ai 声视频发展到现在,已经从能生成走到能好用了,可您这次三点零的升级,直接喊出了 o n y 创作生态的口号,今天我们就一条视频带你上手。首先是蓄势能力的突破, 开放自定义分镜体系,支持经典影视切近语法,满足专业创作者的多景别需求,同时把时长放宽到十五秒,支持精准时长控制,让 ai 生成从素材走向成片。比如这段素材,先上传一张你需要制作分镜的图片,输入以下这段提示词, 模型选择的话,我们就选择三点零阿莫雷比例以及生成数量,根据你想生成内容的时长来进行决定。之后我们就可以拿到一批分镜头,再点击视频生成自定义分镜,把你满意的分镜头呢,直接拖到自定义分镜里面,然后再对每个分镜头单独去进行描述模型,我们就选择三点零 时长比例,根据自己的需求去进行调整。之后我们点击生成, 可以看到呢,整个镜头的调度还是非常有电影感的。音画同步一直是 ai 视频的一个痛点,这次可令三点零音画同出,把语言支持拓展到五国语言加方言,同时实现基于主体的音色绑定, 哪能忘内?实现多国语言音画同步的话,我们只需要在深视频提示词里面标注好主角需要说的话就可以。最后是关于生成人物的一致性,我们可以通过官方的主体绑定来解决这个问题。点击资产,然后选择主体资产, 选择创建,选择添加图片,然后我们点击 ai 智能补全,稍等片刻,系统就会直接帮你补全你人物的三式图。我们还可以自定义主体的名称,以及上传绑定主体的音色。主体全部创建完毕之后,我们回到视频生成模式,用自定义分镜生成一段视频来看一下效果。 你根本不是警察,你少血口喷人,你们两个都是我的妻子。 以上这种方法呢,大幅降低生成的随机性,解决了多人角色纸带混乱的一个问题。可令这次升级其实是 ai 声视频从拼接式生成到一体化创作的一个节点,对于普通创作者来说,降低了专业创作的一个门槛,值得所有内容创作者去试一试。

各位伙伴们,前几天克林三点零正式发布,这次的升级堪称颠覆性,从画面质感到功能体验,从单镜头创作到多镜头修饰, 从静态生成到动态连贯,全方位拉满 ai 视频的创作上线。那么今天这期视频我会把克林三点零的核心优势一一拆解,不管是新手创作还是专业内容生产, 都能快速上手。特意整理了 ai 工具包,提示词攻略,还有详细的操作文,感兴趣的评论区扣六六六直接拿走。那么话不多说,咱们直接开始学习,让你的创意完美落地,便是我回家之时, 若我活着,定用满城红装接你过门!优势之一,多镜头创作功能,这绝对是可零三点零最惊艳的升级, 仅凭一句提示词,就能生成同一场景下不同视角的复杂镜头训练。咱们打开可令 ai 找到一旁的生成按钮,进入生成界面,找到上方的视频生成,将模型修改为视频三点零,直接在这个位置上传一张图片, 接着输入一句包含不同景别的提示词,让可玲帮忙描述女子煮茶的画面,其中包含全景、中景以及特写镜头。接着咱们将左下方的参数设置中的生成时长调整为十五秒, 这也是可零三点零进行的一代升级,增加了五秒的生成时长。对于 ai 视频创作来说,更长的时长意味着能够承载更多的修饰内容,不管是做剧情片段、产品演示还是动态场景,都能有更加充足的时间去呈现细节。 设置好之后,点击下方的生成,咱们来看一下这一段十五秒的视频效果, 可以看到从全景到中景再到特写,机位切换非常丝滑,转场也毫无违和感,完全不用我们手动调节镜头参数,甚至连煮茶时水汽升腾的物理细节都还原的恰到好处。 这放在以前至少要分三次生成再进行剪辑,现在可以一步到位,创作的效率直接翻倍了。 来看看优势之二,音频功能升级 a a 视频的音化协同一直是行业难点,以往生成视频后需要单独用其他的步骤去配音频,调成形耗时又容易出现口型对不上的问题。 而可灵三点零直接把音频功能做到了模型内,我们结合刚刚的女子煮茶的案例做升级实操,在提示词中补充音频要求让女子在煮茶时说话,并且将背景音加入煮茶的水声和插设的鸟鸣声。大家来看看生成效果, 新茶煮好,慢品时光。 女子的台词清晰,语音也贴合角色设定,唇形和每一个字都是比较精准的进行了匹配,背景音和画面也融合的比较完美。由此可以看到,不仅是镜头语言,在音频功能方面,克林三点零也进行了进一步的提升。第三个优势,角色一致性有了质的飞跃。 相信大家在做 ai 视频时都遇到过这样的问题,镜头推拉摇移或场景轻微切换时,角色的五官、服饰、道具会突然变形, 关键的物体也有可能会消失,那么这也让许多剧情创作和连续镜头拍摄难以实现。而可零三点零针对这个痛点做了优化, 在镜头切换时,主体依然能够保持稳定一致,彻底告别镜头移动,角色就变得尴尬。那么我们再来做一个实操案例,将手真图进行替换,输入这一段提示词来测试一下一致性。 这段生成的视频镜头在切换的过程中,研究员和仪器的主体特征丝毫未变。这里值得一提的是,仪器内的液体的光影以及动态变化都是非常连贯自然的,液体的流动状态是非常真实的 下来。优势之四是它的文本渲染能力进行了大幅进化,在 a n 视频中加入文字元素是很多小伙伴的刚需, 以往的 a n 视频文本渲染的效果是比较差的,文字模糊变形是常态,无法满足实际使用的需求。 那么可零三点零对其进行了全新升级,尤其是带字号的文本。那么咱们将手真图上传一张咖啡厅内部的图片,提示词中规定了镜头的变化以及要求保持文字全程清晰无变形。我们来看一下生成效果,可以看到招牌上的带字笔画是非常清晰的, 字体也是非常标准的。镜头在推进以及拉远的过程中,文字是没有发生丝毫模糊和变形的。吧台屏幕上的小字也保持的不错,虽然不如大字那么清晰,但是也是可以辨别的,完全是能够满足观众的阅读需求的。那么除了基础的可零三点零模型, 本次还同步发布了一款重磅衍生模型,克林森 omni 模型,允许大家像搭配食材一样使用多张参考图像,分别定义角色、物体、环境,从而确保角色、物体与环境之间的高度一致性,同时还支持直接上传视频作为参考, 这是 ai 视频创作的一次全新突破,那么我们点击旁边的 omni 进入到操作界面,咱们在这个带加号的小框框中上传三张参考图,一张古风女子角色图、一张古风茶色场景图和一张复古插展的物体图。 接着我们输入提示词,让其参考角色场景以及物体生成。女子在插设主插的视频同时要保持角色五官、场景布局以及造型与参考图高度一致, 最后规定了一下镜头应景,那么我们可以来看生成的效果,可以看到最终的生成效果。视频里的女子茶社以及茶展完全还原了参考图的特征,三者的融合也是比较自然和谐的。但 其实也可以看到镜头转场的过程中还是会有一些画面的小瑕疵,这个时候就可以进行反复升图,获取更加好的效果。 那么以上就是克林三点零的核心优势介绍,这次升级让 a a 视频首次让人感觉不那么像零散的片段,而更像是连贯的场景,在真实感、虚实性、创作效率上都有了质的飞跃。当然在实操过程中可以看到克林三点零也并非完美无缺,但是不可否认的是, 这次升级已经为 ai 视频的创作打开了全新的大门,相信随着后续的持续优化,克林还会带给我们更多的惊喜。如果大家在使用过程中有什么技巧和问题,都可以在评论区留言交流, 我们一起解锁更多的克林三点零新玩法。喜欢本期视频的小伙伴别忘了点赞关注我们,下期再见!

一次版本更新,直接甩出王炸 c 弹,四二点零横空出世,瞬间引爆整个 ai 视频圈。面对这位新王的强势踢馆,其他厂商是否还能站稳脚跟?我们一起看看其他大厂如何应对, 比如毫不示弱的可零 ai 全新可零三点零版本带来全新动作控制板块,只需要一张图片加一段想要模仿的动作视频即可,媲美专业级的动作捕捉视频效果,我们直接上实测,看看效果到底有多炸裂。 正是这期内容前,麻烦大家在评论区打上牛牛牛可灵 ai 早在二零二四年就开始了第一次的视频生成,一经发布就带来了大量的好评, 而与此同时,一场悄无声息的 ai 视频军备竞赛就开始了,而现在就在西单斯二点零的冲击下,可另以三点零模型加超强的动作控制来应战,直接上受到专业影视级动作捕捉的品质,而且是入门级的简单操作,只需要三步就可以实现,就必须推荐大家来试一下了 哇!动作控制打开可连 ai 官网即可看到非常丰富的功能以及不同的页面,还包括非常多的视频生成的效果展示。其他的我们后面再说,我们要首先体验的就是最新动作控制, 直接点击生成进入生成界面,点击动作控制即可进入到全新的动作控制操作面板,这里可以直接点击或者直接拖拽都可以导入,只需要添加一个想要模仿动作的视频,再导入一张人物照片, 在下方还有一个绑定面部主体,这里是可以非常有效的控制人物面部细节,增强面部一致性,有条件可以通过一个短视频来创建一下。 再往下这里的提示词区域可以填写一些特殊要求,继续向下,包括生成视频设置,最后点击生成即可开始等待。至于效果,那真的是一比一的还原,太强了。 现在可以正式的看回首页的更多功能了,拥有非常多强大的功能。对于图片生成、视频生成、动作控制、数字人这些都在生成这一大分组中可以直接进入, 与大多数生成平台的操作一样,选择好模型当然是推荐使用最新的。接下来参考图和提示词也都是一样,可以直接输入 最后下方的生成参数,设置确认后就是点击生成了这里一张图片需要消耗 e 零感知。 视频生成这里也一样,可以导入单张图片或者导入两张图片作为首尾帧。输入提示词可以选择词库和预设,用来提升画面更多细节。最后点击生成视频生成模型比较多样,不同的模型需要的灵感值也是不一样, 这里还要特别推荐一下灵感画布,这里是针对一整套内容创作的工作流程,通过简单描述开始的要求,到最后作品完成,一整套的工作流全部交给可灵还是很有意思的。 解锁更多玩法,简单易上手,任何人都可以成为 ai 大 师。可灵 ai 的 可玩性其实是非常强大的,特别是对于没有入门 ai 生成的用户,不用担心复杂,不会用海量的视频效果都可以一键制作。同款 在线网页版本、手机 app 版本都可以快速上手,在首页入眼就能看到非常多精彩的 ai 生成效果展示,不管是图片还是视频全都有,并且都是可以直接点击一键制作同款。 抛开其他不说,但说针对 ai 模板的应用,直接就可以让绝大多数的普通人都可以直接体验到 ai 生成的魅力。 要是你看到的作品,喜欢哪个就点击哪个,点击一键同款即可直接跳转到对应的 ai 生成界面。所有的 ai 生成效果都是非常简单,结合前面的详细案例分享,入门使用还是轻轻松松。 最后可连 ai 生成需要消耗灵感值每月赠送,自己免费白嫖,玩一玩也不错。今天的视频到这就结束了,如果你觉得本期视频对你有帮助,欢迎点赞、收藏、转发给正在学习的朋友。支持一波,我们下期视频很快就见!

国产大模型的这个使用体验真的是一言难尽啊。刚刚呢,我给这个快手的可灵充值了会员,因为我想用他的 ai 能力做一段视频 啊,他提示我积分不够需要充值,因为我真的确实想做嘛,所以我就充值了。本来以为花了点钱就可以很快解决这个问题,结果啊,你们看一下他给我生成的这个效果,就是他给我生成的这个视频。我都不知道为什么, 我明明一个中国人,而且我的提示词是经过不同的 ai 帮我去润色和修改的,应该是没什么问题的。结果呢,它生成出的视频居然有这些,这是阿拉伯文吗?还是什么文?我这怎么用完全用不了,我都不知道为什么它的这个模型能笨到这个程度,是是我哪里做的不对吗?

从零基础彻底教会你可零 ai! 注意,本系列视频耗时一个月,将带你一口气彻底学会可零 ai 视频制作,带你从零基础小白入门进阶!由于视频太长,本套教程分析发布,本期带你搞定纹身视频和图生视频。这套课程全程利用 ai 工具辅助, 从剧本创作、角色形象设计、分镜头图片生成,到 ai 视频生成,配音配乐、剪辑成片,每一部都给你标准化流程, 没有废话,全是实操,跟着练就能出片,真正做到零基础也能快速赚钱。更重磅的是,教程里独家整理的 ai 慢举提示词、关键词库、免费 ai 工具清单,全都毫无保留!分享置顶评论直接领取,不用私信,不用等,现在点进去就能暴走,感兴趣的听 评论区扣六六六直接拿走,跟着流程走,轻松搞定第一集!哈喽,各位伙伴们,这期视频来讲解如何利用可灵 ai 进行视频生成的操作。 咱们打开可灵 ai 的 首页,点击左侧的视频生成的按钮,咱们就能挑战进视频生成的创作界面了。可以看到里面包括了纹身视频、 图生视频动作控制、多图参考、多模态编辑五种方式。那么我们在开始视频创作的学习之前, 先来到创意圈来看一看其他作者生成的视频作品。咱们可以随意的点开,可以看到画面的右侧,它使用的是图生视频手帧图生成的方式进行的视频创作。咱们再点开一个, 看到这条视频依然还是使用的手抷图参考生图的方式,咱们再点开一个,看到这边也是同样的, 这也能够看出来,市面上目前绝大部分的视频作品可以说都是用图生视频的方式进行的创作,虽然说利用纹身视频的方式使用现在的最新模型进行创作,效果也是不错的, 但是在美术风格、画面构图内容的可控性上,随机性也会更高一些,虽然还是能够生成理想的效果,但是花费的成本也会更高。那么咱们想要获得较好的视频效果的话, 这里还是更加的推荐大家使用图声视频的方式,但是我们进行工具的学习还是要从基础开始一步一步进阶的,所以这节课咱们来讲解纹身视频的主要目的 还是希望大家能够了解纹身视频的特征特性,对后面课程的学习会更加的有帮助。咱们回到视频生成的界面,点击第一个纹身视频,跳转到纹身视频的操作框, 现在看到最上方这里有一个下拉菜单,在这里我们可以选择视频生成时候所用到的模型,目前最新的模型是视频二点六模型,这也是当前效果最好的一个模型, 相信未来也会持续的推出更多标号更高的模型。那么无论是纹身视频还是图上视频, 大家在选择模型的时候可以选择数字更大的,通常效果也会更加的好一些。那么接下来咱们就来简单的对比一下,看一看新旧版本的模型 在纹身视频中的生成差异。首先来看看咱们使用可零一点五模型生成的纹身视频的效果, 在下方的提示词框框中输入提示词,点击生成,可以看到最终的生成结果,效果并不是那么的好, 不仅生成的人物并不太像一个樵夫,同时人物手上的干柴也没有提示词中要求的那么高。这里我们再来对比一下二点六模型生成的视频效果。 可以看到用二点六模型生成的效果有了明显的提升,不仅生成的人物是一个樵夫,而且扛着的干柴高度也符合了提示词要求。总的来说,二点六模型在生成效果上 确实要比旧版的模型好很多,即便是在纹身视频的情况下,也能生成较好的效果。同时二点六模型是支持音画同步生成的,非常的智能。 那么如果我们不需要自动生成音频,想要后期自己再去搭配音频的话,可以点击下方的这个按钮去关闭音画同步。通过对比不难发现,使用可灵 ai 平台生成视频 版本标号更高的视频模型,效果要好于版本标号更低的视频模型。接着咱们再来看一下文声视频的设置。首先是提示词, 这个地方就按照之前所讲过的纹身视频的提示词格式进行书写就可以了, 但是在它的后面要加上对运镜和画面当中事物运动的描述,比如说这段提示词描述了画面中的女孩,还有风格 镜头也进行了描述,以及后面对于女孩动作的描述。那么这里如果大家实在不知道如何书写的话,可以看到输入框的右下角,这里跟图片生成一样,也连接了 deep seek, 可以 让它来辅助我们书写提示词。同时可以看到 deep seek 左边有一个小灯泡的按钮,这个是科林 ai 官方提供的一个推荐的提示词模板, 点击就可以看到中间出现了一个新的区域,这个里面有镜头、运镜、速度、景别等等的一些提示词推荐,咱们点击一下就可以看到该提示词 被添加到了输入框中。此外,在生成视频的同时,下方还有一个音画同步的按钮,刚刚有提到过。 这里要注意的是, ai 直接随机生成的音频效果可能并不会直接符合咱们的语气, 分段生成的音频也可能不够连贯,那么我们在进行短片创作的过程中,大部分情况下还是把生成的视频放进剪辑软件当中进行后期配音的。 我们再看到画面最下方左边,这里目前二点六模型只支持高品质模式, 而像其他版本,比如说视频一点六在左下方就可以切换为标准模式进行视频生成。不过经过测试,在任何版本的模型下都建议大家使用高品质模型,不然生成的效果可能不会太好。 再来看到第二个按钮,咱们可以来选择生成视频的时长,这里有五秒和十秒可供选择,这也是大部分视频生成平台提供的时长生成选项, 这里建议大家先使用五秒,因为十秒钟的时间较长,目前 ai 生成较长视频的过程中,很容易出现逻辑不通、形状崩坏的情况,那么五秒钟的视频会更加稳定一些,也满足大部分的分镜头时长需求。 如果实在要使用十秒钟的生成时间的话,可以采用首尾帧生成的方式,在后面的课程中会重点讲解,再来看到第三个,这里我们可以来设置宽高比, 可以看到有三个常规选项,分别是十六比九、一比一以及九比十六,大家都可以根据需求去进行选择。第四个按钮,咱们可以来选择生成视频的条数, 这里保持默认的一条就可以,咱们生成视频的成本还是比较高的,只生成一条有助于我们及时根据生成的效果去调整提示词, 以此来获得后面更好的表现效果。那么介绍完参数,咱们再回来重点看一下提示词书写技巧。其实纹身视频和纹身图非常的类似,在之前的课程中,我们有讲解过纹身图提示词书写技巧,五个 w 和一个 h, 什么时间,谁在什么地方,做什么事,为什么要这么做,以及呈现出来的风格要是什么样的。最后再补充一些氛围修饰词。 而在纹身视频当中,除了对画面进行描述之外,还多出来了两个部分需要描述,就像刚刚咱们所打开的这个提示词模板库, 这个里面的固定镜头,手持镜头、镜头拉远,它们都是对镜头运镜的描述,也就对应着刚刚提示词的这个部分。 而第二个则是画面当中事物运动的描述,例如这里就描述了女孩边看着电脑边拿起一旁的咖啡喝了一口。 所以总结来说,在纹身视频时,提示词主要描述的有三个部分,分别是画面内容、画面当中事物的运动以及镜头的运镜。那么咱们就以这一段提示词为例,来看一下生成的效果 模型。这里我们还是切换为视频二点六,接着点击下方的生成, 可以看到最终生成的效果还是非常流畅的,同时像光线明亮,女孩喝咖啡,还有画面当中的电脑窗帘,这一些事物都符合了题诗词的描述。 像目前的二点六模型,它在质量上已经和图生视频相差无几了,不仅是画面当中事物的运动,还是视频中画面的质感。相比于先前过低的版本模型生成的画面可以说已经提升了不少。 但这里还是推荐使用图生视频的方式来生成 ai 视频片段。咱们现在生成一条 ai 视频成本不低,直接使用文生视频虽然很方便,但是只用文字描述来生成视频的话,随机性是非常大的, 很难生成出一致的视频效果。那么下节课将会详细的讲解如何进行图生视频的操作, 操作过程中有任何的问题都可以在评论区留言哦,咱们下期视频见!哈喽各位小伙伴们,在上一期的内容里,我们反复强调一个核心要点, 想要制作出可控性强的 ai 视频,图声视频是首选方案。相比于文声视频的随机性,图声视频能基于我们预设的图片精准把控画面主体与风格。 这里要特别提醒大家,本系列教程的知识点是环环相扣的,建议按顺序观看,避免遗漏关键操作细节,影响后续教程的学习。 接下来我们打开可零 ai 的 首页,看到左侧的视频生成功能,点击进入可以看到系统会默认跳转到图声视频的页面,也就是我们本期的核心操作区。 如果我们只做手帧图生视频的话,所有的模型都是支持手帧图生视频的,但是咱们目前选择的二点六模型是不支持上传尾帧的,尾帧图上传的 按钮是没有开启的,但是我们把模型切换为视频二点五,可以看到这里是支持首尾帧模式升视频,那么这节课咱们就先来用二点五模型来为大家进行演示。 如果大家已经跟着之前的课程制作了自己的 ai 图片,完全可以用自己的作品来进行练习。 如果还没有准备素材,真果也为大家准备了配套的练习图,方便大家同步操作。现在咱们点击 旁边的这个手绢图的操作框上传准备好的素材,上传好之后就可以来书写提示词了,那么我们下面来讲解一下图声视频的提示词书写技巧。 在上一期文声视频当中,我们讲解了提示词的三个组成元素,分别是对画面内容进行描述,对画面运镜进行描述,以及对画面中事物的运动进行描述。 那么咱们在使用图声视频功能的时候,由于咱们的手帧图已经提供了完整的画面内容风格,所以我们完全可以省去画面内容描述的部分。 去掉之后,咱们生成视频的画面也会围绕着我们的参考图,也就是手真图而展开, 不会出现过多新的画面内容。我们更多要做的事情就是描述画面当中事物的运动以及镜头的匀近。那么以当前这一张图片为例, 这张图片是一只小狗在充满春天活力的大自然里开车的画面,那么咱们按照描述要求,第一步 先来描述镜头应境,应境决定了视频的视觉节奏,比如说咱们在这里先输入镜头,缓慢推进,那么这个指令会让镜头慢慢靠近主体,增强画面的沉浸感。 第二步描述画面的动态,这个部分咱们要进行拆分,拆分成主体动作和背景动态两个部分来写,让画面更加丰富。主体动作咱们可以针对图片中的小狗进行书写, 这里可以写上小狗抬手扶了一下眼镜,打开车门下车,走到草地上和小蓝鸟打招呼。 那么背景动态,为了让场景更加生动,我们可以去补充环境的细节,可以写上背景中的树叶,还有小草小花随风飘动, 天空中的小鸟快乐的飞翔。那么到这一步,咱们的提示词正写就完成了,可以看到整个指令没有多余的内容描述,全部都聚焦于动态与运镜。 当然写完之后也可以点击输入框右下角的这个 deep seek, 让 ai 帮助我们润色语句。那么至于下面的参数设置方面, 在图升视频的时候,输出的视频宽高比会和我们上传的图片宽高比保持一致,所以我们要设置的是生成时长以及生成的数量,那么像视频时长这里咱们需要根据动作复杂程度而设定。 如果提示词里面的动作较多,这里就建议把默认的五秒钟调整为十秒钟, 避免动作还没有做完,视频就结束了的情况出现。本次演示的动作比较简单,我们直接保持五秒就可以了。后面的视频生成数量,这里建议先生成一条,查看效果之后再根据需求进行调整, 这样能够节省创作的时间和算力。那么咱们直接点击旁边的生成来看一看效果, 向镜头缓缓推进,小狗用手扶了一下眼睛,再来跟小蓝鸟互动,这些呈现都非常的自然。与此同时,在可灵 a a 上,对于视频生成,除了我们刚刚要求的用手扶眼镜下车,让植物飘动这样简单的要求除外, 其实平台对于主体面部表情的刻画也算是当前平台的一大优势, 所以在此基础上,我们的提示词当中可以补充一个描述,比如说小狗用手摘下墨镜,露出惊讶的表情,写好之后可以再次点击下方的生成。这里需要注意的是,每次生成在动态表现上其实都是随机的, 偶尔可能会出现一个简单的动作生成不好的情况,所以有时我们需要多次尝试,从生成的结果中挑选一段好的效果进行保留,稍等一会视频就生成好。我们来看一下效果, 可以看到最终生成的效果在上一条视频的基础上,符合了提示词的新增需求,露出了惊讶的表情,整体的表现还是比较自然的,但是也可以发现,小狗摘下眼镜的时候,那个眼睛飞起来了, 说明它生成的时候还是会有一些不太合理的地方,这就需要我们去反复的生成视频, 去挑选更好的效果了。那么咱们前面练习的是固定场景下的简单动态,如果想要实现镜头跟随主体移动,甚至让画面出现原图中没有的新内容,该怎么去写提示词呢?那么还是这一张图,这次 我想要这只小狗一直开车,画面中会出现沿路的新事物,对于这种画面的描述,同样遵从描述运镜和描述画面中事物运动这样的方法。但有时候我们可能想不到用太好的提示词去描述画面, 所以此时可以借助克林 ai 上的反推提示词功能,可以看到,当我们把这个自己输入的提示词删除之后, 就会出现一行灰色的小字,请描述你想要生成的视频内容,或者是使用 deep seek 反推描述图片。那么我们这里点击这个 deep seek 反推就可以看到中间这里开始分析当前画面中的提示词了,同时在这个基础上也给出了运镜以及 事物运动的描述。一共是给出了三段提示词,我们可以自己稍微看一下哪一组提示词写的比较好,或者更加符合咱们的需求。在确定好使用的提示词之后, 我们就可以点击下方的立即生成。这里要注意一下的是,很多情况下,这一些提示词描述生成的效果 可能不是特别的理想,我们还需要进行手动的修改。比如说下方的这个墨镜反射着蓝天白云,车顶绿植叶片被风吹得沙沙作响。 这些 deep sea 优化过的提示词描述会过于的复杂,不够直观,我们可以将一些可能会造成混乱的语言描述给删除。向后面环绕下摇镜头展示全景要知道我们想要坐的汽车是向前运动的,如果此 时的镜头是环绕镜头的话,很快就会错过小狗开车无法展示车子向前行驶后的画面,那么咱们就可以不挑选这一组提示词。这里我觉得第二 组提示词的效果好像更加的好一些,我们可以直接点击下方的立即生成来看一下效果, 可以看到整体的效果还是不错的。小狗开车前进,镜头跟随移动,可以看到画面中也出现了新生成的原本图片里没有的事物, 而镜头的方向也是跟随着小车运动的,效果还是不错的吧。那么咱们最后来总结一下图生视频的核心创作技巧。 首先是提示词框架,咱们无需描述画面的内容,只需要聚焦于镜头的运镜和画面动态的表述。动态部分可以拆分为主体动作与 背景动态,如果有镜头移动后新场景的需求,补充新场景的元素进行描述就可以了。第二点是工具辅助技巧,咱们可以用 deep 反推生成基础提示词, 再根据需求手动的优化,避免复杂的描述影响画面的生成。第三点是参数与生图的技巧, 咱们可以根据主体动作复杂程度来调节视频的时长,同时咱们遇到动态不连贯的情况,可以多生成几次, 挑选最优的结果。其实图声视频的操作并不复杂,哪怕是用大白话描述运镜和动态也能生成不错的效果,关键在于掌握核心框架,然后举一反三,不断的尝试优化。 那么以上就是本期视频的全部内容啦,操作过程中有任何的问题都可以在评论区留言哦,如果觉得视频内容对你有帮助的话,可以点个一箭三连支持一下,咱们下期视频见。
![Nano Banana 2 + 可灵3.0制作Ai视频 在本期可灵3.0教程中,我将拆解我个人的图像到视频工作流程,带您从完全初学者成长为AI电影制作的导演。我们将使用Higgsfield AI和Nano Banana 2模型,创建专业、多镜头的、看起来真实无比的AI视频。
大多数AI电影制作因为糟糕的场面调度和拙劣的AI提示词工程,最终看起来像一个“变异的怪物”。我将向您展示如何使用Gemini提示词充当您的编剧,以及如何利用原生音频支架来实现完美的口型同步和情感深度。
[本期内容]
AI角色一致性:使用Morphic AI和Nano Banana 2创建完美的角色表。
五层基础:AI提示词工程大师课(场景、角色、动作、镜头、音频)。
Higgsfield AI秘诀:如何使用“Elements”和“@”标记来锁定您的角色。
多镜头Kling 3.0:设置复杂序列,同时避免出现“AI融化”效果。
#ai #ai视频 #ai影视 #ai电影 #可灵](https://p3-pc-sign.douyinpic.com/image-cut-tos-priv/9c80b710ec6f4814ef1379e110cefbc6~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2093126400&x-signature=m%2FCvxDbr2jWmxaTDvdbPxPxa%2F1Y%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=20260503081039230A7E932BF59E8382EF)
hahaha, i can't believe we actually made it out together i told you nothing in this world could keep me from you this is it no turning back now we go in together we come out together that's the deal。 各位好,我是 nova, 欢迎回到云桥网络频道,今天我们就来深入聊聊可零三点零 手把手教你打造电影感十足的短片,同时确保角色形象从头到尾都保持一致。我会教大家如何把一个完整的故事拆解成一系列连贯的镜头,以及如何拣写提示词,才能最大程度地生成完美的画面。在这个教程里,我会先教大家如何搭建故事框架并把握情感节奏。 接着,我们会打造一个贯穿始终的统一的角色形象。最后,我会一步步拆解我私藏的电影话提示词框架。第一步,你要先进入导演的角色。 我的习惯是在动手设计角色之前,先在脑海里把整个场景构想出来。案例视频提示词,云桥网络频道免费获取说实话,亲眼见证自己的奇思妙想变为现实,才是整个创作过程中最让人上瘾的环节。 如果你正对着空白屏幕毫无头绪,别担心,我会手把手带你从零开始,一步步破局。第一步,我们可以请像 gemini 这样的 ai 来当我们的虚拟编剧。你只需要把核心创意贴进去,让他帮你把故事大纲梳理出来,拆解成三到四个情感节点。 你需要用简洁的句子来描述动作,而更重要的是角色内心的感受。 接下来让 ai 概括角色的身份、性格、特点和着装,浓缩成精炼的两到三句话,这样能保持重点突出, 最后让它生成多角度的角色设定提示,正面、背面、侧面以及特写镜头全部采用中性背景。 现在让 gemini 充当导演来选举具体的摄像机机位。对于每一个分镜, ai 都需要定义其镜头类型,例如用广角镜头凸显人物的孤独,或用特写镜头直击情感深处、摄像机的角度与运镜方式,以及观众具体应产生何种感受。最后让 gemini 把你的方案转化成简短有力的提示词, 并针对可灵三点零进行优化。即使你不用可灵三点零,也照样可以用。这份精确的分镜列表在你惯用的其他视频工具里生成并制作单帧动画。 在我自己的项目里,我更喜欢亲自担任导演。先在脑海中构思画面,我会直接使用生成器把我构思的具体画面实现出来。对于这场惨烈的战斗,我需要用面部表情来修饰, 要显得脆弱不堪、精疲力竭,并且满面沉垢。我这里用的是 muffle i 和 nano banana 二模型,不过你爱用啥工具就用啥。我生成了几个特定角度, 正面、侧面和全身照。在每个提示词里都保留这些战斗细节,以保证风格统一。搞定这些角度后,我就着手制作一份主角色设定表,马库斯搞定,注意看那些沙粒、汗水和喷溅的血迹。细节拉满,彻底摆脱了那种光滑塑料感的 ai 味儿,皮肤质感相当逼真, 生成的角度越多,角色形象就越稳定统一。不过像这种只有四个镜头的短片项目,有这些角度就够用了。 我对第二位主角艾琳娜也如法炮制,看这凌乱的发型和战损风格的服装,细节刻画的相当到位。两个主角都定稿后,我们就可以开始搭建基础场景了。 第一个场景我用的是 nano banana 二这个工具,并以艾琳娜和马库斯的角色设定表为参考。 成果如下,我为其使画面生成了四个不同的版本。现在选对开局画面直观重要,你得切换到导演模式,好好规划一下镜头调度。 我对这组镜头的规划是先来一个他们大笑的广角镜头,接着是艾琳娜说台词的特写,最后是马库斯向他伸出手的镜头。正因如此,我需要特定的站位距离和眼神互动 来看看这几个镜头。情绪渲染绝了,但两人的脸贴得太近了,一旦我让他们开口说话,或者马库斯的手一动, ai 就 很难把它们区分开。它们之间需要留出足够的活动空间。 这个镜头里距离是合适的,但艾琳娜身体往后仰着,由于她正望着天空, ai 就 不得不去预测他头部的运动轨迹,才能实现眼神对视,而这几乎总会导致画面出问题。 现在看这两位,他们已经有了很棒的眼神互动,这位后面大笑的镜头做了完美的铺垫。最关键的是他们之间有足够的物理间隔,这样当马库斯在第三个镜头里伸手时, ai 就 不会把他们的脸糊成一团,变成畸形的怪物。我们就从这里面选一个来用。 每一个完美的纹身视频提示词都构注在五层基石之上,即场景、角色、动作、运镜和音效。但当你使用图声视频时,方法就简单多了, 把你的输入图像当做一个定位锚。图像已经定好了基调,所以你的文本提示词只需列出要拍的镜头即可。要想做对每个镜头都必须严格遵循一个四段式结构。 第一,时间码,精确的时长,比如零到四秒,四到八秒,还有镜头方向,也就是镜头的构图方式。在这个视例里,开场是一个广角镜头,接着镜头推进给艾琳娜和马库斯特写,最后定格在他手部的细节特写上。 第三点,肢体动作,角色在做什么?最后一点,原声音频总是在动作之后出现在 这个视例中。对话仅出现在中间的镜头里,并标注上角色名称和语音语调。现在我来快速演示一下如何在 hicfield 里实际操作制作这段动画。你可以选择上传动画的首帧和尾帧,接着开启多镜头模式,这样你就能一次性生成最多六个镜头。 只需把我们写好的那四个镜头分别粘贴到对应的区块里,再设置好时长就行。 最后来看看元素选项卡,这个功能简直被严重低估了。你可以在这里上传角色设定图,用来锁定角色的精确形象。你只需要从不同角度上传角色图片,然后给它起个名字就行。 因为我已经提前把马库斯和艾琳娜添加到这里了。这样在提示词里用艾特符号标记它们,就能确保形象完美一致。 i can't believe we actually made it out together i told you nothing in this world could keep me from you hahaha。 好 了,下一个例子,我们重点讲讲如何为对口型正确设置对话。要做到这一点,最好使用原声的音频括号格式。 首先打一个括号,给角色分配一个标签,然后明确定以角色的具体语气和情绪,最后把对话内容用引号括起来,这是最靠谱的方法。不过像语音线播放或马库斯势力角色说这类更简单的格式也同样可行。 this is it no turning back now we go in together we come out together that's the deal。 我 完全是从小白起步的,但只要你看看我以前的视频,就能看到我的成长轨迹,也就是说,你肯定也能做到。

免排队提示词限制少,比 sims 二还好用,你敢信吗?二零二六年了,生成个十五秒的视频居然还要排队十小时,出来的视频不仅降至 提示词,还处处受限,两星期前大家还吃 sims 两是全网救星。结果提示词限制多到零,稍微带点水分,复杂逻辑 就因为回归原因无法生成。千万别再给 cels 站等二零二六,真正的视频生产队,我觉得只有可零三点零。现在可零三点零已经正式接入星月梦 ai, 直接免排队免费体验。对比 cels 二完全可以平替,第一 速度秒杀,直接调用满血版,钻率不降是不卡顿,生成速度快,不用等能达到 cels 二点。 cadence 二不敢生成的提示词,可零三直接有语义理解拉满,只要不是太过分,稍微擦边都能用第三 帧四 k 电影质感。如果说 cadence 是 在短视频内容上体验更好,可零三出来的每一帧直接能当大片素材,物理碰撞交互,真实到可怕。大模型每天都在进化, ar 每天都在说谁要淘汰谁。但真正的玩家从来不会纠结,因为没有垃圾的模型,只有单一的工具广告营销需要。可离三的真实质感节奏,分镜又 season, 更有网感的镜头, 其在各个 app 之间仿佛横跳。充会员不如直接用星月梦 ai, 星月梦 ai 集成了市面上所有主流的纹身视频生图模型,甚至我们还内置了数十万条提示词库,哪怕你是小白,耗用五百年出大片,已经把可灵三点零的满血版入口和新手入门文档准备好了。

兄弟们,最近网文圈和短篇投稿是不是被朱雀搞疯了?你熬夜构思的脑洞,辛辛苦苦改出来的稿子,就因为中间让 ai 帮着润色了一下,结果送到编辑那一测,好家伙, 朱雀检测直接给你干到百分之一百,全线飘红。编辑连正文都没看,反手就是一个退稿,理由是 ai 文不收。 说实话,这真的很憋屈。虽然咱们常说纹好可破,但在这种一刀切的硬性检测面前,你的故事可能连初审那关都闯不过去。既然检测机制在升级,咱们的工具也得净化。今天正式官宣, 星月写作 ai 去痕功能正式上线,这个功能就是专门为了解决这种误杀而生的。咱们直接上暴力测试看。这段是朱雀官网给的对测试案例朱自清的背影,我们把它原文直接复制到星月 写作的巨痕模块里,点击开始,它不是简单的同义词替换,而是底层逻辑的重构,它会保留你的爽点和文风, 但会彻底抹掉那些死板的模型特征。再把处理后的稿子送回朱雀测一遍看,结果 ai 率直接降到了百分之零。这里我们再让 deepsea 随便生成一篇文章,丢给星月的 ai 去痕看看, 能看到就 deepsea 的 水平检测直接飘红。我们再把它丢到星月 ai 去横玩,回到朱雀直接百分之零 ai 率。托尼是写番茄长篇短篇投稿,还是公众号文章? 在朱雀面前,你现在就是个纯手工马字的原创大神。我一直认为公 是辅助,脑洞才是灵魂,上线这个功能是为了让好故事不被算法埋没。 我也一直认为 ai 力从来不是评判一个故事好坏的标准。想看你的文章续航后能降到多少评论区留下小月六六六体验星月写作。

可灵正式进入三点零时代,真实感、意志性、可控性这几个硬指标都达到了全球领跑的程度。以前啊,视频里面人物转头、侧脸遮挡多角度的时候,啊脸呐 特别容易崩。现在不仅能够全程稳住,甚至能媲美专业的动骨技术。三点零从可用到可控,再到专业调度,创作者可以用文字、 图片、声音、视频混着输入,直接拿到可用的影视继承片。新增加的智能分镜功能最为惊艳 你呀!只要输入文本描述, ai 就 能够自动理解剧本的逻辑,自主调动景别和机位,深层具备情绪递进的长镜头。所以,我们每一个人的导演时代真的不远了。关注我,为你分享更多的行业前沿资讯!

挑战一个视频丛林,教会你制作 ai 动漫短剧,注意,反套视频耗时两个月,共计一百八十分钟,一口气带你丛林玩转 ai 慢剧全流程,你将会学会剧本脚本创作人物分镜深沉, 拍视频、配音配乐、剪辑成片,快艾特你想一起搞钱的朋友,花一小时直接上手!很多人都问, ai 漫剧真的能几天赚别人一个月的工资吗?答案是肯定的,但新手大多卡在不会做,不会避坑。今天结合实操案例,拆解 ai 漫剧完整制作流程,从选小说到生成分镜 角色,把关键步骤和技巧讲透,我实操几天已有收获。广告解锁加平台新激励,稳定出片,稳达收益目标。第一步,选合适小说新手别踩无授权的坑,我整理了可商业授权小说素材,省去找授权的麻烦。第二步,用小包子等 ai 工具把小说章节复制进去, 指令生成分镜脚本加角色设定三式图,定好外貌服饰,避免风格混了。第三步,用极梦生成画面,先输入角色提示词,选动漫风格抽卡,再用分镜脚本逐一升图。到这里, ai 慢剧的核心制作流程就走完了,优化细节、避坑指南和变现渠道我都整理成了文档,感兴趣的 评论区扣六六六直接拿走。那么话不多说,咱们直接开始学习,让你的创意完美落地,便是我回家之时。 若活着,定如满城红妆见你过门。各位伙伴们,通过第一期课程的学习,我们已经完整认识了可令 ai 界面, 相信大家课后都已经上手熟悉了各模块的位置,那么这一期我们就聚焦核心功能,文声图,重点讲解提示词的书写技巧。 很多同学生成图片不符合预期,问题大多都出在提示词上,掌握今天的方法,就能让咱们的 ai 创作更加贴近理想效果。 咱们打开可灵 ai, 进入到图片生成的界面,就自动跳转到了纹身图的操作框, 咱们可以先在上方这一个区域去选择图片生成的模型,一般来说,数字越大,模型的版本越新,效果也会越好一些。 那么模型选择好之后,就可以在下方的这一个创意描述的这个大框框里去输入提示词,输入自己想要生成的内容,然后再选择下方对应的参数,直接升成就可以进行创作了。 看到最左边的这一个按钮,我们可以去选择生成图片的比例,这里已经预设了一些常用的比例,十六比九和九比十六分别对应着电脑和手机的适配宽高比,目前在克林里是不可以自定义设置尺寸的。 中间这一个按钮,咱们可以去设置一次性生成图片的数量。第三个按钮,这里可以去选择图片的分辨率,这些都可以根据需求进行选择,那么确认无物之后,就可以点击旁边的生成按钮, 直接生成图片。那么这个地方要明确一个核心原则,提示词描述越详细越精准,生成的效果也会更加的符合预期。那么看到这里,可能会有些小伙伴问,如果我连提示词都想不出来该怎么办呢? 这里为了帮助大家快速掌握系统的书写方法,我整理了一个通用基础公式, 五个 w 和一个 h。 熟悉其他领域的同学对于这个框架应该不陌生,它在 ai 创作领域同样适用。 这里的五个 w 分 别是 who、 what、 when? where 和 why, h 则是号。第一个 who, 它呢是画面的主体,简单来说就是你想让 ai 生成的主体。简单来说就是你想让 ai 生成的核心对象,比如说人物、动物、建筑物品等等。 这个是提示词的基础,必须要明确,像男孩女孩、小猫小狗都是画面主体。第二个 what, 它是主体的特征,或者是它所处的状态, 比如说主体的穿着动作,或者是核心行为。这里我来举个例子,我们打开可令 ai 的 图片生成功能,在提示词的窗口这里输入,穿着睡衣的少女优雅的坐在椅子上,像前面的穿着睡衣的少女就是 who, 优雅的坐在椅子上就是 what。 输入完成之后,直接点击下方的立即生成,就可以生成像这样的图片效果,呈现了核心主体和状态,既有少女这个核心对象,也有坐在椅子上的动作状态, 那么这个就是互加上 what 的 基础作用。第三个是 when, 它呢是时间描述, 时间直接决定画面的光照和氛围,不同时间段的光影差异会让画面质感完全不同,比如说中午的强光直射,傍晚的暖色调余晖,夜晚的静谧暗光,大家都可以试想一下, 同样是少女坐在椅子上,加上清晨朝阳下和深夜台灯下生成的光照氛围,可以看出来是截然不同的。 第四个是 where, 它呢是场景地点,也就是主体所处的环境,比如说客厅、公园、战场、星空下、城墙边等等。回到刚刚的这个例子,我们只是描述了人在椅子上,克林给我们呈现的场景是这样的, 那么如果咱们把场景换成学校宿舍,可以看到画面里的空间感就会完全变化。第五个 why, 它呢是主体出现的原因或者是目的,这一点和 what 是 有些关联的,但是更加侧重行为的逻辑性,能够让画面更具有故事感。比如说穿着睡衣的少女坐在椅子上看着电脑,正在家里加班工作。点击生成 可以看到,相比于单纯的坐在椅子上看着电脑,加上目的之后,人物的状态会更加的贴合场景逻辑, 画面的修饰感也会更加的强一些。这里要注意一下的是, y 并不是 b 选项,简单的创作可以省略掉复杂修饰类的创作就建议补充一下最后一个号,它呢代表的是画面的风格与呈现的方式,这个是提升画面质感的关键, 它包括了绘画的风格,还有色调、构图、视角,也包括在其中,同时还有画质参数。如果咱们没有这个部分的描述,生成的画面通常会偏日常普通, 加上之后能够快速的赋予画面艺术性。比如说在刚刚的提示词后面补充赛博朋克风格、冷色调、低角度、仰视视角,生成的画面就会从日常场景变为充满科技感的艺术创作作品。 那么像这六个要素,不用死记硬背,大家可以类比日常写作的逻辑,什么时间,谁在什么地方,做什么样的事情,为什么要这么做,以及呈现出来的风格是什么样的。最后再去补充一些氛围的修饰词,这样提示词就会变得非常的完整, 那么接下来我们结合可令 ai 用一个完整的案例进行实操演示。这里我们来构建一个有故事感的提示词,暮春的雨夜,身着但青涩如群的少女, 撑着油纸伞站在古桥桥头等待晚归的家人。冷灰色调电影级氛围远景俯拍,这里按照刚刚的提示词结构进行了书写,直接点击下方的生成, 可以看到生成的结果完全的符合提示词的描述,主体特征、场景氛围、画面风格都比较的理想,这样的提示词就是合格的完整提示词。 如果是商业接单,提示词的串联会更加的简单一些,通常甲方会明确给出需求,直接作为提示词使用就可以了。那么如果大家暂时没有灵感,或者想要快速的生成素材, 可零 ai 内置的辅助功能也能帮上忙。看到文生图输入框的下方,这里有一个推荐,里面有很多的预设标签,比如说怪诞、虚实、丝绒、摩登,咱们可以点击任意的标签, 系统就会自动的填入对应的提示词。在创意描述这一个地方,那么生成的作品也就完全贴合未来战役的风格,效率是非常高的。这里大家如果觉得下面预设标签太少的话,也可以点击旁边的这一个换一换按钮, 不过可以看到替换后的预设标签的重复率还是比较高的。这个地方有一个更加优质的灵感获取渠道,就还是上一期所提到过的创意圈, 这个里面汇聚了大量创作者的优质作品,咱们点击任意的作品就可以看到作者所使用的提示词,我们不需要完全的照搬,只用替换核心的元素就可以发挥自己的想象,这样既高效又能够保证质量。 外,咱们回到图片生成的界面,可以看到可拎还支持 dipstick 提示词认色功能,咱们可以在创意描述这里输入简单的提示词,比如说一个男孩,接着点击下方的 dipstick, 可以 看到发送之后系统就会自动的认色补充细节,比如说男孩草原奔跑、蓝天白云、风筝笑容阳光、微风、短裤 裤、运动鞋、草叶飞扬。那么如果觉得这个提示词满意的话,就可以点击下方的立即生成,可以看到生成的效果也是不错的。但是这里要注意, ai 任色的随机性比较强, 这里不建议直接使用,最好是根据自己的需求调整优化之后再去生成, 或者是自行转载详细的提示词,再使用该功能去优化表述。这里最后要说明一点的是,纹身图存在一定的随机性, 有时候会出现大部分满意,小部分不满意的情况,比如喜欢画面的构图,但是想要换风格,或者是想要修改局部的细节, 这种需求可以通过可零 ai 的 参考生图功能实现,它能基于现有的图片调整风格或者是修改局部。这里由于时间的关系,这个功能具体操作我们放到下一期详细讲解。 那么以上就是本期文生图与提示词书写技巧的全部内容啦,建议大家课后结合今天的案例替换核心元素实操练习, 加深对于提示词逻辑的理解,可以把作品分享在评论区,我们相互学习,相互进步。如果操作中遇到任何的问题, 或者有其他想要了解的技巧,也欢迎在评论区留言。如果本期内容对你有帮助的话,别忘了点赞关注,方便获取后续教程的更新,咱们下期视频再见!

用可灵做出来的视频,画质很高,光影也好,就是看起来假。说实话,这个问题我研究了挺长时间的,发现不是工具不行,是用法不对。可灵三点零上线之后,我把这些坑重新踩了一遍,整理出来三个最有用的方法。 第一个是控制分镜,可零三零支持自定义分镜,最多六个镜头,每个镜头可以单独设置运动方式,推进、拉远、跟随、环绕都可以指定打动的画面,你用固定镜头拍到底,全程没有动感, ai 未拉满也没用, 换成跟随动作的镜头,紧张感立马就出来了。不懂分镜也没关系,智能分镜功能会帮你自动分配节奏。第二个是处理肤色, ai 生成的人物皮肤太完美了,光滑白嫩,一看就假。在提示词里面加上高原红皮肤细节、毛孔可见,这些描述,真实感立刻就上来了。 同时把 ai 位调低,画面会有一点颗粒感,反而更像真实拍摄的素材。这个逻辑说起来有点反直觉,但你试了就知道了。 第三个是主体绑定,跨镜头人物变形是 ai 视频最常见的坑,可零三点零有专门的解决方案, 上传一张角色正面图,或者一段五秒视频,开启主体绑定之后,不管生成多少个镜头,人物面部、发型、服装都会保持一致,最多可以同时绑定七个主体。三个方法加在一起,你的 ai 视频闲暇的问题基本上能解决大半。你现在做 ai 视频遇到的最大问题是什么?评论区说说。

今天来实测一下,谁家图片处理能力更强啊,理解能力更强啊, 因为我们是做电商的,往往都需要嗯,下载别人的图片的,然后更改背景,更改尺寸啊,这些更改细节的操作。所以呢,呃,我今天给大家演示一下啊。首先呢, 首先我问了一下豆包国内最能打的一些 模型是哪些,他给我提供了一下这几个排序,首先是千问,然后呢,可零还有这些不知名的啊, 所以我就首先用千问来去做这个图,比如说我给他发了一张图,用这张图我我叫他, 我叫他保持产品主体不变,更改背景,然后保持文字也不变。然后呢,他给我来了一个这个,好像几乎没什么改变,是不是?然后我说我不喜欢这个,我想要改成莫兰迪渐变灰的一种背景, 他还是没怎么变,我以为我的,我以为我这个文字是有问题的错别字的,我把我把它写成正确的文字,还是这样子的,几乎没啥变,而且颜色更暗了。 然后呢,我又用季梦,季梦来去做,季梦,前面给我做了一张,还可以,这张图片还可以, 但是给他做第二张的时候,他半天也不给我出来,现在已经过去十分钟了,还在排队,还没给我出来,可能是不是因为算力不行,一直没有出来,然后呢,我又把它丢给 jimmy, jimmy 均买来给我出折,速度非常非常快,你看,我同样是这样的一个要求啊,他很快就给我出来了,而且给我的更换的背景是一种写实型的风格,这种背景是非常非常不错的,而且他通过角度啊, 构图啊,这都是非常非常好啊,美感性很强的, 然后我说我不喜欢这种风格,我想要,我希望要莫兰迪渐变浅灰的风格,然后他也很快就给我搞出来了,你看 直接在上面加了个滤镜的感觉,你看感觉是非常非常好,不管是构图啊还是配色啊,美感啊, 都远远超过另外两个。所以我今天想说什么呢?虽然国内的这些像千万啊,豆包啊,可怜这些大模型 在在国际上测试说是已经很强了,比如说千万是说是全球排名第二或者第三,但在实际能力方面,跟这些国际主流的大模型还是有一定的差距啊,有很大的差距。从我实测的 测试来看啊,尤其是处理速度,处理速度跟这个菌栏完全没得比,可能是因为算力方面,可能也可能是我们的技术代差方面还是有差距,所以如果有机会,还是我建议尽量用国外的大模型 处理速度啊,不管是呃,图片啊,视频啊,还有处理一些比较复杂的事情,都会更快更强。今天就分享到这里,下期再见。

尼玛的,乱七八糟的都是什么?想玩 ai g c 视频,但是被五花八门的工具搞晕了的观众老爷看过来,小凯一分钟给你讲明白!新手也能直接上手!首先搞懂三个基础概念, 文生视频,就是输入文字直接生成视频,最适合新手,不用任何素材。而图生视频,顾名思义就是上传一张图片, ai 根据你的提示词让图片动起来,一般这里的图用的都是分镜图。 最后参考生视频,意思是给 ai 一 些资产参考,比如人物场景,然后根据提示词生成视频。参考生视频的优点就是一致性超高,不用担心变形。 那资产是什么呢?以小卡举例,小卡的这个三式图就是小卡的人物资产,而咱们提前生成的场景就是场景资产,这些资产可以重复使用,不用每次都重新生成。对于还是小白的观众老爷,小卡的建议是,不管是哪个视频工具,都可以先用赠送的积分来尝试, 可以先从纹身视频开始一点点摸索,等到熟练了再考虑充 money 进去。好啦,观众老爷们还想了解哪个 a i g c 工具?评论区告诉小卡,我帮你踩坑,拜拜!


是哪家 ai 视频生成模型让美国顶尖媒体 fast company 赞不绝口?答案让人很自豪,是中国的可灵。最近,可灵三点零系列模型宣布全球全量开放,被 fast company 评为正重新定义 ai 视频生成的标准。外媒的盛赞并非空穴来风,全球权威 ai 评测机构 artificial analysis 的 最新榜单显示, 零三点零 pro 以一千两百四十分的阿瑞纳 e i o 评分稳居视频生成领域榜首。那么,其颠覆性到底在哪里?答案是它攻克了行业两大史诗级难题,填平了 ai 视频恐怖谷,终结了行业灵异片。过去, ai 视频有两个鬼故事,一是物体运动违反物理规律让人出戏。 二是角色在多镜头下变脸崩坏,毫无一致性可言。克零三点零实现了双杀。首先,它如同内置的物理规律引擎,动作控制三点零媲美专业动捕技术,在人物转头、侧脸等复杂动作下 生成的视频能够保持更高的连贯性和真实感。其次,他通过主体参考上传手帧图结合提示词等多模态方式,攻克了角色一致性这个大难题。 你只需上传参考图, ai 生成的视频不仅在人物动作流畅性上保持高水平一致性,还在表情迁移上与原主体保持高度一致,人设不再崩坏。让我们一起看看首批吃螃蟹的创作者,如何用可灵三点零玩出新高度。先来看 pose 的 作品,他为 q 马金奖作品共三元制作了番外过去元大年夜 逛三园,什么园?未来园?爸爸?什么是未来园啊? 看到可灵三点零方言表现惊艳,语句自然,甚至擅长方言味的塑料普通话,这意味着 ai 视频能精准捕捉并表达细腻的地域文化。同时,作者也惊叹,可灵的主体参考加智能分镜加音画同步是划时代的。快来看!作者 justin 用可灵三点零生成的香水广告,定义了何为商业级。可用 心中模特的容颜与华服在多个机位切换下稳得一批。悬浮的香水瓶与飘落的花瓣,运动轨迹优雅且逼真,证明了可灵在一致性与物理真实感上的双重稳定,标志着一个关键转变, ai 视频正从创意玩具 升级为可满足品牌严苛要求的可靠生产工具。最后看看作者佳琦的灌篮高手二创。在创作中,可灵三点零展示了极致可控性, 上传角色三式图就能创建一个全程不崩坏的数字演员。新出的智能切镜功能也让作者连连点赞,让我们感慨,凭借智能分镜、主体参考、动作控制、音画同步等功能的 all in one 整合,可令三点零进化成了能理解意图调度、镜头管理修饰的 ai 导演, 或者可以专注于故事本身而将专业调度交给 ai。 截止二零二五年十二月,可令已拥有超六千万创作者,生成超六亿视频。人人皆是大片导演的时代真的来了,专业的影视级表达能力正飞入寻常百姓家,快和我一起试试吧!