粉丝26.3万获赞75.8万

极梦 ai 卡审严重怎么解决?本视频包含极梦 ai 审核流程、卡审原因以及解决办法和案例验证。极梦的内容审核覆盖生成前预审核、生成中实时审核、 生成后终审三个环节,任何一个环节触发规则都会直接终止生成,统一对外显示生成失败。先说卡审原因,用户粉丝实践中发现,除了官方公布的违法违规版权、 ip、 知识产权、虚假宣传外,这些原因也会导致卡审。 一、磁屏风控不是敏感词,是重复词,你同意账号短时间内反复生成同一句提示词,会被判定批量刷内容,直接卡审。二、 参考素材尺寸,经过多次测试,上传素材比例不可超过二比五或者五比二,无则极易导致生成失败。三、 参考图,素材误判,图片有人脸轮廓将触发肖像风控图片有特殊痕迹,阴影角度奇怪,大概率触发身价风控。真正冷知识纯纹身视频约等于最容易过 福生视频约等于审核最严视频,参考生约等于卡审重灾区。四、最隐蔽的一条提示词中的人民,大概率导致卡审不是名人,是任何名字,小白、小蓝、小明、张三这类身份词加称为吉梦,会判定,可能指向真人预告。下期视频讲吉梦 ai 退款原因、排名以及退款方式。

你用寂寞 cds 做视频,人脸总是审核不通过,经过我的实测,这两个邪修办法能够稳定通过,亲测有效。先告诉你一个核心问题,能听懂这一个就能解决一半。他并不是不让你用人物,而是他不让你用真人照片,明白了吗?真正能够解决这个问题,就是把人变成 ai, 人怎么变就两步, 先上传你的照片,注意这里是生成图片,不要傻乎乎的去做视频,然后写一句提示词,保持人物特征,保持五官比例,生成 ai 人物定妆照,你想固定表情,加上提示词就可以,最后看看效果,脸还是你的脸,但是已经是 ai 画的。以 后你转到 c 弹四里过审,固定角色就随便你用第二个方法,模型选择 c 弹四二点零,这里会显示不能用人脸。你随便打开一个能够生成图片的 ai, 把原图丢进去,第一步, 让他生成人物的四式图。第二步,让他把图片拼成四宫格。第三步,保存四宫格图片上传到季梦刚刚上传的人物图片是不过审的,现在能够秒通过,因为系统识别是 ai 画出来的人物,不是真人照片。接下来看看效果。

我好像找到了 cds 二点零解决这种视频未审核通过的方法。事情是这样的,我在用极梦的 a 准模式新出了一个 cds 视频创作的功能,我丢了一个剧本让他帮我创作视频的时候,我发现他也是会有这种视频审核不通过的问题, 于是我就问他视频生成失败的原因是什么,然后我让他把规则全部发出来给我看, 没想到他真的发了,而且是非常详细的,因为 c s 二点零审核不通过,他是不会明确告诉你是哪里不行,哪里违规的,重复多次去提交去修改, 这样很浪费时间。我们就直接可以在 a 准模式把提示词发给他,让他去帮我们去看一下是否合规。 c s 二点零等待的时间太久了,这样就不用 反复去浪费时间去测试。还有一点,我们把剧本发给 a 准的时候,他一步一步下来是直接帮我们生成视频的,如果我只是想要生成视频的提示词,就必须等他把视频生成以后,他这里才会看得到, 这样就浪费积分了。所以我就想能不能把这个 a 准的后台系统提示词把它给弄出来,我自己试了两次是不行的,它系统是有这种防泄露的规则的,但是试了第三次 我就成功了。大家可以看一下他给我的提示词,这里就是防止泄露的提示词。那既然拿到了提示词,那我们就可以自己做一个我们想要的和吉梦同款的一个视频 agent, 这个就是我用吉梦 a 准的提示词,然后自己修改的版本,只要把剧本发给他,他就可以把每一集每一个分镜的视频生成提示词给写出来,这样自由度就会更大一点。当然我也把 c、 d 的 视频的审核规则做成了一个智能体, 只要把视频的提示词发给他,他就可以帮我把词汇给替换,然后生成出一个能通过审核的一个视频生成的提示词。不过你们直接到这里去问他,那个效果也是一样的,大家可以去试一下。

ok, 今天给大家分享一个困扰所有人的问题,人脸怎么过审?经过长期以来的学习和尝试,我给大家总结了几个塞凳子二点零人脸快速过审的几个办法,有正规操作,也有学修,如果对你有帮助,可以点赞收藏。好的正片开始。 首先,为什么要有人脸审核?因为塞凳子二点零生成的视频已经可以达到以假乱真的地步,相信不会有人希望自己的肖像被坏逼拿到跑一个勒索视频发给你家人吧。所以为了保护肖像权,防止造谣伪造 急梦把人脸审核拉的非常高。但是大家在制作视频的过程中,难免会需要人物出镜,所以怎么解决呢?第一个办法, 制作人物的三式图。这是最正规最快速的办法,用一套专业的提示词,将人物的三式图像拍角色摩卡一样拍出来,这样丢给塞凳子二点零大概率会通过审核。第二个办法, 将人物图像转换成彩色铅笔图,然后放入指定的真实场景图中,这样出来的就是圆人像, 或者将圆人像图转换成黑白颜色铅笔图,然后在视频生成时加入上色等提示词,就可以得到完整人物图。 三个办法,利用 agent 模式,我们可以将分镜中的人物面部扣除,或者图调上传人物三式图作为参考,让 agent 自行将面部五官补全,等于给 ai 找个事情做,我个人觉得非常好用,小云雀也适用。第四个办法, 将分镜中的人脸或者三式图中的面部用手绘或者 ps 在 脸上画上红线,形成网格,模型便会自动修复去除红线。有一点一定要注意,就是眼睛的位置一定要横竖两条红线相交,这样通过的概率也会大大提升。好了, 以上就是几个人脸快速通过审核的斜修方法,如果大家有更好的办法,也可以发在评论区让主播学习一下。这个系列的视频我也会持续更新,希望对你的作品有帮助。那我们下次再见。

极梦 ai 卡审严重怎么解决?本视频包含极梦 ai 审核流程、卡审原因以及解决办法和案例验证。极梦的内容审核覆盖生成前预审核、生成中实时审核、 生成后终审三个环节,任何一个环节触发规则都会直接终止生成,统一对外显示生成失败。先说卡审原因,用户粉丝实践中发现,除了官方公布的违法违规版权、 ip 知识产权、虚假宣传外,这些原因也会导致卡审。 一、磁屏风控不是敏感词,是重复词,以同一账号短时间内反复生成同一句提示词,会被判定批量刷内容,直接卡审。二、参考素材尺寸,经过多次测试,上传素材比例不可超过二比五或者五比二,无责即意,导致生存失败。三、参考图书财务判, 图片有人脸轮廓,将处肖像,风控图片有特殊痕迹,阴影角度奇怪,大概率触发真假风控。真正冷知识纯文生视频 约等于最容易过徒生,视频约等于审核最严视频,参考生约等于卡审重灾区。四、最隐蔽的一条提示词中的人民,大概率导致卡审不是名人,是任何名字,小白、小蓝、小明、张三 这类身份词加称谓,即梦会判定可能指向真人预告。下期视频讲即梦 ai 退款原因、排名以及退款方式。

你用积木 cds 做视频,是不是一传人脸就失败?试了几十次,全卡在审核。今天分享一个邪修办法,亲测有效。现在积木审核有多严?真人不行,长得像 ai 的 真人也不行。 其实底层逻辑他非常简单,就是真实度太高了,他怕侵权。解决方法也非常的简单,就是让图片像人, 但又不像人。把图片做风格转会,保留五官特征,但看着像画的,我反复试了几十种风格,目前最稳的就是豆包自带的彩铅画,跟原图最像, 又能稳定过审。你拿这张彩铅画当参考图,他就不提示包含人脸的违规了。然后再给一段真实视频当风格参考,让他生成真实的效果。两张图一结合,就是你想要的实测相似度在百分之九十以上, 你做视频完全够用。这才是真正的邪修办法。觉得有用点赞收藏,记得关注,不然你找不到我!

a 圈炸缸了!横空出世的 happy horse 直接踩着 cds 二登顶全球第一!它完全开源音画同出,自动锁、人物一致性、自动分镜。可以说,现在普通人入局做慢剧变得更加简单了。这条视频看完,你接下来四十八小时可能都睡不着觉。 因为看完他,你再也找不着任何借口说自己不知道 ai 漫剧怎么开始。是不是觉得一集赚四位数的故事像骗局?但更扎心的是,百分之九十的人连验证他真假的机会都没有,卡在一堆工具里,泡在杂乱教程里 折腾半天,连个能上传的第一集都做不出来。今天所有破事到此为止。 ai 漫剧是什么?就是你刷到停不下来的动漫短剧。 能吃上肉的关键就俩按钮,付费解锁和广告分成。你要做的不是费劲发明机器,而是学会按一下这个赚钱按钮。视频中用到的专属 ai 提示词、免费工具包和入门课程,我已经全部整理完毕。感兴趣的三三三。 近年来,随着 y b、 缩耳、海螺乃至国内的万象可林吉梦等模型的涌现,深沉式 ai 视频技术经历了飞速发展,极大的降低了动态影像的创作门槛。 然而,当创作者试图从生疏零散的短片转向创作具有专业水准的长视频内容时,仍然面临着两大核心技术难题。这两个挑战分别是确保跨镜头角色的一致性,以及实现视频片段无缝拼接的连贯性。那么,克服这些挑战, 对于我们构建沉浸式的视觉体验和提升作品的专业水准至关重要。这期视频,我们将深入探索和剖析并系统梳理当前主流的技术解决方案和创作工作流程。从 ai 视频的脚本创作、分镜设计、浮生视频镜头动态控制, 再到最终的 ai 视频剪辑和配音,全程揭秘 ai 视频是怎么做的,内容很详细,涉及到的所有 ai 视频工具都完全免费,你费,国内朋友,要不咱先收藏一下, 准备好了吗?让我们开启这场零成本的 ai 造梦之旅吧!这个视频给大家分享一下。 ai 视频极速工作流主要的话是针对 ai 视频的可控性进行分享的, 那么 ai 生成视频的质量只要有两大原因导致的。第一个就是模型,不同的 ai 软件它所用的模型是不一样的,所以我们在使用不同的 ai 软件生成视频的时候,这个质量会有一定的差异,那么 模型就可以决定我们 ai 生成视频的一个下限。第二个部分就是提示词的部分,我们提示词是可以决定视频生成质量的一个上限的, 一个完美的提示词往往会比普通的提示词生成的质量要好得多。那么我们如何去精准的生成自己想要的视频和效果呢?首先第一步我们需要先思考清楚 我们想要生成的效果适合哪一个模型,因为我们不同的模型,不同的软件生成的质量它是有所区别的。比如说皮卡这个 ai 软件,它生成的视频 就比较适合做这种皮克斯风格。但如果说我们想要去生成一些带有特效比较好看,比较明显的一种效果视频,就可以用到含有 ai, 它做特效效果是比较好的,如果我们想做一些电影质感的比较偏写实的,我们可以选择用可林 ai。 但如果说我们想要生成一些各个风格都有,通用性比较强的一个视频,我们可以用到题目 ai, 比如说这个是哎呦, 有一些电影这个哎呀大家写实的,所以大家一定要明白,不同的它 ai 软件, 它擅长的领域不一样,我们要根据自己需要的一个风格去选择最合适的模型。第二个部分就是我们提示词的编辑部分, 一定要写出恰当的一个提子,我们才可以生成更好的一个视频效果。那么我们生成视频跟生成图片是有一定的差距的,因为图片是一个静态的表达,所以我们只需要将图片内所有的信息详细的描述清楚就可以生成。 那我们在生成视频的时候是多了动态体式词的部分,就是告诉 ai 我 这个画面当中的内容它是如何运动的。 那一个好的提示词结构是什么样的呢?主要分为四个部分,第一个部分就是我们的运镜部分,运镜就是相机的距离、拍摄的角度,移动的方式等等,这个就是我们镜头的运动方式。 第二个部分就是场景,有一个明确的背景场景。第三个是主体,我们这个视频当中的主角是哪一个?还有额外的细节,包括很多部分,比如说我们的画风,我们的画面色调,还有我们的光线,还有我们的主体运动等等。 ok, 我 们来看一个案例,这个视频是一只鸟在丛林当中飞翔,这个画面的一个效果,一般人会怎么去描述?他们可能就会直接 描述一只鸟在丛林飞,但如果我们只是这样普通的去进行一个描述,我们可能生成的视频效果就会是这样子的,一个怪韵,要宾要动的拓杖。 那如果说我们要用一个恰当的提示词去描述,那这个结构应该是运镜加上主体,加上场景,加上额外的细节,应该怎么描述?应该说 f p v 镜头跟随拍摄一只白色羽毛的老鹰快速地穿过丛林,对吧?那这个 f f p v 镜头还有跟随拍摄是运镜? ok? 我们一只白色的老鹰,那就是我们的主体整理我们的这个场景额外的细节,就比如说快速的穿越,快速的就是额外的细节。那么我们这样子去编辑这个提示词,就可以生成一个剂量更高的视频啊啊 a rare weekend, but endless work and chores who knows what tomorrow will bring wait is this for me like that guy said you never know what flavor the next one will be hmm why not mmm so sweet like the surprise of stealing easter eggs after all oh my god how are you so fluffy forget the kpi right now none of that seems to matter the world is still noisy but as long as i keep this hug in my heart i feel like have the strength to face tomorrow good night my alice hello 各位同学们大家好,欢迎大家来到我们本期 midi jenny 的 一个零基础视频教程,那么我们在上一期有给大家讲解过我们 zoom out 的 一个使用方法对不对? 这节课给大家讲解一下杠杠 i w。 与杠杠 video 的 一个使用。好,那杠杠 i i w。 其实是我们图生图的一个权重,以以及我们提示词两个权重的一个比较好。话不多说,我们一起来进入 mate jennie 的 一个界面,给大家来演示一下。 好,首先我们来到对话框,我们点击斜杠,然后输入 image, 然后再输入一个 a cut, 我们输入一只猫,点击回车发送给我们的 mate jimmy, 好, 这样它就已经给我们生成了一张猫咪的一个图片,对不对?我们选择第一张进行放大,依然在对话框这里输入一个斜杠,然后选择 emoji, 然后长按这张图片,把这张图片的链接拖动到对话框里面来, 再输入空格那提示词,我们就输入一个一只狗,那我们参考图给的是猫,但是我们的提示词给的是狗,对不对?好,那这两者显然是一个相矛盾的状态, 这一个的生成指令到底应该听谁的?所以这个时候呢,我们可以加入 i w 指令来解决定,所以我们空格点输入杠杠 i w 在 空格在后面去进行一个数字的一个输入,首先我们给他一个零点五的权重, 好,点击回车发送给我们的 mate jennie, 这个零点五的权重就意味着在生成的时候,我们这张 图片的参考就只占百分之五十,更多的则则是在参考我们的提示词来生成结果。好,我们一起来看到我们生成的图片,大家可以看到这四张图片基本上都有着狗子的一个特征,对不对?基本上是看不出猫的一个影子。好,我们再来实验一下,我们重新 输入斜杠,然后选择 emoji, 同样我们长按这张猫咪的图片,给它拖动到对话框里面来,同样我们输入一个 g, 输入之后我们再输入杠杠 i w 这次数值我们给它更改成一点二五的一个状态, 最后点击回车发送给我们的 mate jennie, 好, 图片已经生成完毕了,我们打开来看一下。好,这一次的狗子,它是就稍微带了一些猫咪的一个特征,对不对?虽然有一些看起来像狗,但是我觉得它的一个面部骨骼结构更加倾向于一只猫了。 那么我们再做最后一次测试,我们依然按照之前的一个步骤。好,我们把这个图片拖动到我们的对话框里面来。 好,拖动好了之后,我们在后面再输入一个狗的提示词,然后再杠杠 i 档为我们数级,这次给到一个一点九,最后点击回车发送给我们的 midday jennie, 好, 现在我们打开这一个图片来看,那我们这一次生成的这一组图片,我觉得它几乎已经偏向于猫的一个范畴了,对不对? 可能大概还保留了百分之十到百分之二十的一个狗字的特征,但是如果说硬要说,我觉得可能给它划分为猫会更加准确一点。我们总结一下 i w 指令,我们在图生图的时候去使用它的功能来强调 或者是调节。在生成的时候,我们生成的这个结果是更加偏向于我们输入的提示词啊,这是根据我们 i w 后面 数字所所决定的,数字的值越高,那么生成的这个结果偏向的,我们参考图的值就会高一点,那么数数值越低,就更加偏向于我们的一个提示词。接着来讲一下我们 video 这个指令的相关功能,借我们自己来生成一张图片。 好,我们选择 imagine, 输入一个女孩,点击回车发送给我们的秘籍专利。好,我们可以看到,其实我们图片生成的过程,它是有一个不清晰到清晰的一个过程,对不对? 好,如果说我们想要这个生成的过程,那么我们应该怎么去操作?这里我们正好就可以使用到我们 video 的 一个功能了, 如果说我们已经生成了图片,我们可以点击这个信封,这个时候我们就可以得到一组 c 的 值。好,我们复制一下这一组的 c 的 值,然后继续回到我们的服务器, 在对话框输入 image, 再把我们的提示词给它输入进去,最后我们再把 c 的 值也输入进去,在 c 的 值后面,我们可以加上我们 video 的 一个指令了。都输入好了之后,我们点击回车发送给我们的 midgen。 好, 大家可以看到我们就又生成了一组这样的图片,对不对? 我们想要获取这个图片的生成过程视频,我们操作方法跟获取随机种此处是一样的,我们点击这个信封。好,大家可以看到我们的 mejini 就 给我们发送了一条信息,这个时候我们可以点击这个链接, 我们访问一下这个网站,这个时候他就给我们生成了一个视频,等待他加载一下。好,我们点击播放。那这个时候我们就可以得到一组 我们四张图片的生成过程啦,大家有需要的话可以去进行操作一下。好,那么本期视频关于 i w 以及 video 指令的一个使用就已经给大家讲解完毕啦,大家看完视频之后可以多多去练习一下。我们本期视频到这里就结束了,我们下一期视频再见。

打开火山引擎官网并登录菜单,选择极梦 ai, 找到极梦 ai 视频生成三点零幺零八零 p, 点击开通服务,默认免费使用去开通确认开通疑似创建应用失败,需要先实名认证一下,打开个人中心, 根据需要选择企业认证或者个人认证,输入姓名和身份证号,认证完成。 再次点击开通服务,开通成功。以产品详情点击获取密钥, 即新建密钥,点击继续 开始配置 open club, 更新本地软件包列表, 安装 p i p, 然后安装 request 包,创建虚拟环境, 激活虚拟环境,安装 request 包, 验证安装退出虚拟环境。第三步,在工作目录分别创建核心脚本,提交任务脚本和查询任务脚本。 第四步,让 open clone 自动接种迪梦 ai, 注意先把接种的密钥替换成自己的,然后将以上内容通过对话发送给 open clone, open clone 会协助生成基础代码框架, 接入完成, 生成一段三秒的视频, 注意在提示词后面备注,帮我优化, openclaw 会协助帮你优化提示词,然后再生成视频, 任务提交成功。生成视频一般需要几分钟,可以手动查询或者设置定时查询。结果 生成完成。 打开看一下结果, 大功告成。

今天群里出了个离谱的事,有个兄弟跑 ai 视频,连传个普通的风景照都被秒了,整个账号相当于废了。大家都以为是平台的接口崩了,但我帮他顺了一遍这几天的报错记录,发现没那么简单。他不是卡了 bug, 而是踩到了大厂审核系统里一条极少有人知道的暗线。很多人以为 ai 每次生成失败,只是单次拦截,改改次重试就行,大错特错。大厂的风控底座是有记忆的,你平时看到的驳回提示在底层代码里对应的危险等级完全不同。如果提示检测到人脸信息,这只是 最基础的视觉拦截,说明底图没做好伪装不扣分。如果提示输入的文字不符合规则,说明你的踩了敏感词库已经给你亮了黄牌。 如果提示图片或视频内容不符合规则,说明素材触碰了底层限制,有不符合平台规范的元素,直接开始扣大分。最严重的是提示视频未通过审核,这大概率是画面里出现了知名人物角色,触发了人工拦截。对那个兄弟就是无视了这些警告,拿着大号疯狂去试探评的底 触发次数一多,账号隐藏的信用分直接清零。在这套连坐机制下,你的权重会被死死锁在最低级,这在技术上可能就是被静默降权了。所以现在哪怕他发个风景照,风控引擎都照样无情隔断。 玩 ai 视频,千万别拿大号去当风控算法的测试品。大厂的策略一直在暗改,群内大佬也都在复盘,最新的安全生成编想一起抱团的老规矩,我是老关,每天带你看透 ai 的 底层逻。

之前全网疯传解决 cds 二点零人脸失败的方法全都失效了,今天给大家分享最新的解决人脸上传失败的方法,清澈好用。第一种网格法,用这段提示词在面部添加红色网格线。 第二种分离法,用这两段提示词拆分人物身体和人脸,打破算法的识别逻辑,上传处理后的图片模型会自动修复面部细节,同时避开拦截还在被卡人脸审核的宝字,快去试试吧!我是西西,主页还有更多有用的 ai 教程哦!

挑战从零开始,彻底地教会你极梦 ai 从打开电脑开始讲起,警告本视频耗时一千六百八十小时,制作共计十小时,包 含极梦所有基础操作讲解、爆款案例、实操演示,从 ai 技巧到 ai 思维,一口气带你入门 ai 视频。并且为了保证课程效果,所有教学课程中用到的集齐配套脚本我都整理了,我都整理了直接三三百三十三次取拳打 sora 脚 tvo。 相信大家最近都被极梦 cds 二点零疯狂刷屏了吧, 就我个人的体验下来,可以毫不夸张的说,这可能是极梦 ai 最颠覆性的一次更新,伟大无需多言,因此我加班加点创作了这套教学视频,带你轻松掌握 cds 二点零玩法。这期视频我们就先一起来看看它到底有多牛。首先,我们进入极梦主页, 在视频生成里面可以看到全新的 cds 二点零模型,目前我们只能在首尾帧和全能参考这两个功能上用到它 默认的参数设置。生成一段视频消耗三十个积分点,现在仅仅只能参考两张图片 切换到全能参考,这时候最多就可以同时上传九张图片进来,消耗的积分依然不会增加,但如果我们上传进来的是视频,那么扣除的积分就会大幅度的提高了。 cs 二点零是一个能够混合参考的多模态模型,除了可以给它提供参考视频外,我们还能给它提供参考音频和对应的图片一起混合参考。正是因为 cs 二点零有着这样一个交互参考的特性,因此它的玩法就非常丰富了, 这些在教程的后面都会一一给大家演示。我们先来测试一下 cadence 二点零首尾帧的功能,这里给他上传一张女生在滑雪的图片进来,提示词输入女生完成一系列高难度的滑雪动作。我们来看看生成的结果, 可以看到 cadence 二点零对复杂的动作和物理规律的表现,相比过往的视频模型是有着非常明显的提升的。 同样的提示词用之前的视频三点零模型来生成,对比一下可以看到动作就没有那么真实自然了,而且生成出来的女生样貌一致性保持度也没有 cadence 二点零做的好。 另外, cadence 二点零首尾针对细微的文字保持度也是有所加强的。例如这里就上传一个化妆品的广告案例中的一张图片进来,输入对应的变化提示词,我们把原图放大来看一下, 可以看到瓶身上的文字其实是非常清晰的,但由于字体太小了,这是非常不利于模型进行计算和裁样的。案例中是用之前的三点零视频模型来制作,乍一看啊,没有什么问题,但如果放大拉近来看,这些细小的文字还是会有扭曲的情况出现。 这次我用 cadence 二点零来对比测试了一下,很明显 cadence 二点零对于这种细小的文字保值度会更好一些,有着更高的细节精度, 这对 ai 产品广告制作来说啊,是一个很好的提升。在首尾帧功能里面,我们只能上传两张图片,那如果我们要做多张图片的串联过度,就可以切换到 cadence 二点零最核心的全能参考功能, 这里面就可以直接给它上传最多十二个素材进来,例如这里给它上传四张图片,同样可以在这里实现多图首尾帧串联的效果。 现在我想通过这四张图片实现幼狼成长蜕变的过程,最终朝天咆哮。在全能参考里面,我们要调用素材有两个方法,一是点击这边的引用参考按钮, 这样啊就可以选择对应的素材了。还有一个更快捷的方法,就是在贴纸里面直接输入这个符号,那么就可以快速的弹出上传素材调用框,这里选择第一个图片提示词输入,把它作为手帧,通过这样用提示词的方式把素材一关联起来,那么我们就可以得到这样的效果了。 不知道同学们最近有没有在网上刷到过一篇这样的视频啊,抓紧时间,月亮要坠下来了, 这种效果,这种分镜的视频我用 cds 二点零帮我们一键复刻,做出来的效果大家可以看一下, 同学们可以做个对比,看一下它是不是从零到一,每一个镜头分镜以及我们想要展示的人物,替换人物都做得非常好。 然后关键词具体怎么书写的也很简单,首先上传所有我们需要参考的素材,比如说参考人物以及替换人物以及参考视频的分镜运动等等等等,都是不管你这个是炫技视频,打斗视频、格斗视频、跳舞视频,所有的步骤逻辑是相通的啊, 只需要我们替换素材即可。那么这里的修饰也很简单,将视频一也就是这个视频一里的人物想要替换成我的个人形象,后边月神 c g 的 形象换成另外一个。我用 ai 生成出来的图片,后边是修饰人物聚义,由什么什么组成。参考视频一里边的运镜、转场、构图、氛围和光彩。 视频最后展出,以这个人为落瓣,展示他的人物炫酷背景,全程一镜到底,这就是我的修饰关键词。 其实这个关键词大家可以直接复制当成一个模板,未来如果我们有多个,比如说两个人物作参考,加上一个视频的动作,直接用这个模板把里边视频 人物去改,特别是网红跳舞跳火了,对吧?那么我们去复刻,那么复刻的时候我又不会跳舞,怎么办呢?我们就可以用 ai 去帮助我们去复刻跳舞的动作,甚至我们可以改变场景,改变人物。比如说我用 ai 生成了一个人物,我是想让这个人物当做我的主 ip 去学习别人去跳舞。我的关键词是如何修饰的, ok, 怎么去修饰呢?首先参考图上传进来,再加上参考视频。好了,以上就是本节课的全部内容,如果对你有所帮助,还请多多三连支持一下 大家在实际操作时遇到任何问题也非常欢迎在评论区留言,我会尽可能回复大家的问题。配套的 cds 二点零使用文档和学习资料也已经打包放在置顶评论,那我们下节课不见不散。大家好,这节课我们来学习 ai 脚本的制作。 要编写一个好的剧本,首先我们需要学习如何来使用 ai, 如何向 ai 来提问,而提问要围绕这三个关键的一个要素。首先第一个角色的一个身份设定,给 ai 贴上专业的一个标签,比如我明确的告诉 ai 它的一个角色定位,比如它是三年经验的三 d 电影导演, 或者是资深治愈系的一个编剧。身份设定决定了 ai 思考的角度和专业的一个深度,我们需要让 ai 真的 觉得自己是三 d 电影的一个导演。第二个是需求的一个描述,首先我们需要明确创作的一个边界,比如我让 ai 详细的描述你需要什么内容,包括题材、时长、风格、核心元素等。 需求越具体呢,我们 ai 输出的内容也就更精准,也能避免无效的重复尝试。第三个就是我们格式的一个要求,我们需要指定输出的一个格式,首先规定剧本的一个具体格式,包括分镜数量、美镜时长、 必须包含的内容相等。格式要求确保输出结果规范统一,可以直接投入后续制作使用。例如我们现在换到豆包,我们可以这样问 ai, 如果你是汽车的一个推销员,请说明一下为什么人们这么喜欢理想,给出我三条主要的一个理由, 我们发送给 ai 这里我们就能得到我们想要的一个三条主要的一个理由。得到这么精准的理由是因为我们首先设定了他是一个汽车的一个推销员,他给 ai 分 配了一个身份。我问为什么人们这么喜欢理想,这个就是关于 ai 如何来回答我们的问题, 最后请给出三条主要的一个理由,如何做到这一点?接着我们将这段话发给 ai 后,我们就会得到我们想得到的一个主要内容, 其中如果你是汽车的一个推销员,是我们在给 ai 设定一个身份,其实就是是什么,其中说明一下人们为什么这么喜欢理想,是我们明确给 ai 这样一个问题。 接着请说明一下人们为什么这么喜欢理想,其实就是在告诉 ai 他 需要做什么,让他来帮我们回答这个问题。 而最后请给出三条主要的一个理由,也就是给 ai 规定一个他回答我们的一个格式。我们也能看到下面 ai 回答的也是三条主要的一个理由,这个呢就是我们 ai 提示词的万能框架,我们只需要记住这三个核心的要素,无论是要求 ai 编辑脚本,还是我们将来希望 ai 能够回答其他的问题, 都可以使用这样一个通用的一个框架。通过这种方式获得的结果,相比较我们直接向 ai 提问也来的全面且精确的多,现在已经理解了通用的一个提问格式。接下来我们就来讲一下我们生成剧本的三种方法。 首先我来讲第一种方法,直接输出剧本,这种方法能快速高效,适合紧急的一个需求。我们首先先生成故事,再生成脚本, 直接根据故事来生成图片,具体的方法我们先准备参考材料,例如我们这里准备了治愈系短片、分镜案例和色彩搭配的一个文档,让 ai 更好的理解我们想要的一个风格和我们剧本的一个主要内容。 我们用刚才讲到的三要素的一个框架,一次性写清楚所有的要求和细节,让 ai 直接输出我们的分镜脚本。我们首先先给到 ai 一个原有的一个治愈系短片的分镜和色彩搭配的一个文档, 接着我们将这份资料发送给 ai, 让它理解好的一个分镜脚本是什么样的。接着我们告诉 ai, 假设你是一个好莱坞很有经验的世界级的一个编剧,拥有非常丰富的电影拍摄经验和精湛的电影拍摄技巧,同时擅长各类型的一个电影剧本创作。 我需要他阅读我们刚才上传的一个分镜的一个案例,然后给我创建一个治愈系的短片故事以城郊小院为背景,最后要求十五个分镜,每个分镜小于四秒,同时含视觉描述,镜头运动,简短的台词等。接下来我们来看一下我们这个提示词。 首先我假设它是好莱坞的顶级编剧,是给 ai 一个身份,让 ai 知道自己需要做什么。接着下面让他阅读并理解我的一个分镜案例则是在给 ai 提要求,让他用他的专业能力和专业方法来解决我们这个问题,也就是我我们平常说到的做什么。 而最后一段要求十五个分镜,并且还很多的一个镜头描述,镜头运动和简短的台词,就是给 ai 它的一个具体的输出格式,告诉他具体应该怎么做。接着我们直接发送给 ai, 我 们可以看到这个分镜脚本其实还是比较详细的。 下面主要的镜头内容,比如镜头运镜方式、时长和视觉描述,都是我们提示词设定了的内容。而这个主要的画面描述, 这个运镜方式和视觉描述,在我们生成图片和视频的时候都会有一定的帮助,也是指导我们生成我们 ai 视频的一个主要内容。这个就是我们用 ai 生成脚本的第一种方法,直接来输出剧本。接下来我们来看第二种方法,先生成故事再转脚本。 这种的一个优势是逻辑更顺畅,并且这是最适合小白的一个方法。通过将剧本拆分为两个步骤,可以大幅降低我们的一个剧本难度,同时确保故事的逻辑完整性和理性。 我们先来看一下第一步,先生成一个完整的故事,让 ai 创作一个有完整情节闭环结构的故事,一般是四百到五百字,确保逻辑字恰无冲突。 第二部是转写分镜剧本,基于现在已有的故事,让 ai 转写包含时长、分镜、运动镜头的剧本格式,确保适配我们的 ai 图像生成。 我们就可以这样问,你是一个小说作家,且相当擅长编写故事,请编写一个情节简单易懂,主要是三个人物,题材为花与少年的奇幻成长系故事。 故事内容简简易该,不要词藻过多,而字数约为四百五十个字。我们这个提示词也同样遵循了我们刚才讲到的三个基本框架,即是什么、做什么和怎么做。我们点击发送就可以看到我们现在生成出来的内容,就不像我们刚才直接生成出来的一个剧本, 有画面描述、画面时长等详细的一个信息,它就只是一个故事的一个内容,我们也能看到是以自然段的形式提供的一个文本。我们来大致看一下生成的这个内容。 村口的向阳颇荒了多年,阿树、阿河、阿桥约好要种满向日葵。阿树性子急,刚撒完种子就天天跑去看,嫌小苗长得慢,忍不住用手拔了拔,结果捏了两株。 阿河细心蹲在坡上给幼苗培土捉虫,还把家里的水壶带来浇水。阿乔话少,每天放学就往坡上搬石头,沿着坡边垒起矮墙,防止雨水冲垮。花苗 先是交代了人物故事背景,然后发生了什么。入夏时,一场暴雨突至,花苗被淹。通过这件事,阿树不再毛躁,学会了耐心等待。 阿何明白了,遇到问题不能蛮干,要听伙伴的意见。阿乔也敢主动说话了,会跟大家商量怎么照顾花田,这也映射了故事人物的成长。我们能看到这个生成出来的一个故事,就比我们刚才直接生成的一个剧本脚本要好不少。 我们至少能看到逻辑上,不仅整个故事有始有终,拆分到每一个故事情节,他也是逻辑通顺的,我们就可以通过这个故事来直接生成我们的图片,又或者生成我们的一个分镜脚本。 接着我们就可以这样问,让他给我生成十五个分镜脚本,每个分镜小于四秒,并且单个分镜不要有画面景别的一个切换。因为在以前我自己的生成中,可能他生成出来的一个内容,需要三到四个景别才能描述出他生成的一个内容。 所以我们最好这里写一个单个分镜不要有画面景别的一个切换,然后我们直接发送给 ai 就 能看到,它就依次帮我们来生成了画面的一个主要内容,并且是分好一个分镜序号的,这些画面描述都非常的简单,但是我们在用 ai 来生成图片的时候,这些描述是非常的准确和精准的, 也能让 ai 知道我们需要生成怎样的一个画面内容。接着我们再来看一下生成分镜脚本的第三个方法,借鉴原有的一个框架进行二次创作。这个方法是最适合我们商业接单的一个方法。 通过借鉴经典的故事框架,可以避避免 ai 天马行空的一个创作,也能确保我们输出的内容更加符合我们用户的一个需求和市场的一个规律,同时又保证了我们创意的质量和效率。我们首先先选择一个成熟的故事框架, 如平凡人拯救危机、寻找失落之物、新旧对立等。然后我们再替换这个框架中的一个核心元素,保留故事的一个框架,替换它的角色、场景、核心道具等。基于 ai 生成新的一个故事, 创作完整的一个脚本。在基于 ai 生成新的一个元素来创作我们完整的一个故事,最后通过这个故事转化为我们的分镜脚本。之前的演示中我们可以看到 ai 生成的故事比直接生成的模板要好不少,但是通过这种方法,我们生成的故事情节往往不易控制, 我们只能依靠更详细的提示词描述我们 ai 大 模型来帮助我们生成一个更全面、更精确的一个故事。 因此,我们用方法三所生成出来的内容其实是更简易的一个方法。如果我们在网上找到一些非常有趣的故事,不妨通过这种方法来改写我们的一个剧本。 好了,以上就是本节课的全部内容,如果大家觉得这个视频内容对你有帮助,不要忘记点赞并三连,我们下个视频再见。大家好,这节课咱们接着往下推进之前的内容,接着已有的故事案例来创作相似的剧本。 就像我们之前的课程提到的,我们已经讲过了剧本的制作思路,还有三种给剧本或故事分类的一个方式。而这节课呢,我们会以放节课剧本为例子,来拆解 如何对剧本进行修改。这里我们再来回顾一下上节课我们生成的这个剧本,主要讲述的呢,村口向杨坡荒废多年阿树、阿河、阿桥决定种向日葵, 急躁的阿树、喜心的阿禾,沉稳的阿桥在播种培土,于垒石墙中各展所长。暴雨来临,他们合力挖沟排水,守住花苗。秋天花海盛开,三人也学会耐心合作与表达,在成长中收获友谊与责任,也见证彼此慢慢长大,向向日葵追光前行的少年们。 这个呢,就是我们上节课生成的一个故事脚本,但其实蟹脚本没有固定的公式可以用, 咱们唯一能做的呢,就是仔细的研读 ai 所生成出来的内容,排查有没有逻辑不通的地方。所以接下来咱们就以这个剧本为展开,大家呢,可以从这个案例里慢慢琢磨方法。 咱们先把话题拉回 ai 生成的内容,我们能看到这个故事呢,还是相对完善的。但是如果我们仔细研读一下这个故事的话, 在这个故事中首先存在入路行为略显刻意的问题。阿树因为嫌向日葵长得慢,直接用手去拔苗,这种行为更像寓言式象征,而不太符合孩子在真实情境中的自然反应, 显得为了表达道理而设计,痕迹较重。其次,在暴雨来临时,阿河提出把小苗移到高处的做法,在现实农业经验中并不太可行,幼苗在暴雨中很难快速移植,反而容易损伤根系, 这一情节在实际操作上缺乏理性。在此故事结尾,三位孩子的性格成长表现的略显突然,仅通过一次暴雨事件就完成了从急躁到耐心、从细心到懂得协助、从沉默到主动表达的转变,成长过程略显跳跃。 总体来看,这个故事主题积极,结构完整,但在人物行为逻辑、情境真实性和成长铺垫上仍有一定提升空间。然后,我们就可以将我们的修改意见再发给我们的豆包。 接着,我们还是一样来分析一下我们的提示词。这个地方我们要注意和豆包对话的方式要清晰明了。比如,请你以儿童文学作家和故事结构编辑的身份对下面的故事进行优化修改, 任务是在保持故事主题、友情、成长、合作和整体情节不改变的前提下,修复故事中的逻辑问题,使情节更加自然合理。再把我们发现的逻辑漏洞告诉他,如果我们有自己的想法,也可以直接告诉 ai, 提示他大致的修改方向以及输出格式等等, 那这样公式化的提问方式会得到更有执行性的方案。如果大家需要这段提示词的公式,也可以评论区留言,我会一一发给大家,这里我们就能看到,豆包就会根据我们的修改意见来修改我们之前不完整的一个剧本。 接着我们可以根据上节课学习的内容,让豆包继续根据我们修正过的剧本去生成对应的脚本。我们可以这样继续下方提问, 根据上面的故事生成一个适合 ai 生成短视频的分镜脚本,视频时长自拟,整体风格温暖治愈,请将脚本按照分镜形式输出, 每个镜头必须包含镜号、景别、运镜、时长、画面内容、旁白六个要素,并按照表格结构呈现,方便用于 ai 视频制作。这样我们就得到了逻辑较为通顺且具有执行性的脚本了。 最后呢,大家需要注意一点,就是我们在生成剧本的时候,我们需要仔细的来阅读这个故事,评估一下这个故事在我们生图的时候是否容易生成。有些图像确实很难生成,也许我们的想象力可以创造出这些图像, 但是如果真的去做的话,成本可能会太高,且时间也用的很久,这也是我们修改剧本的原因之一。最后呢,我们来谈一谈字数与短视频相应时长之间的关系。 通常情况下呢,每三百三十个字对应一分钟的视频播放时间,当然这也并不意味着整分钟都是说话的,剧情中肯定会有一些停顿,所以这是一个大概的时间,你可以参考这个。比如我们想要生成一个大约一分钟的视频剧本,长度应该在四百字左右, 在提出请求时需要注意这一点。还要提醒大家一点,我们在生成这个故事剧本的时候,我们不能给 ai 指定一个持续的时间, 就比如我直接让 ai 生成一个一分钟的短片剧本,但是其实 ai 它并没有这个一分钟这个概念,所以我们能做的最多就是限制它的字数。好了,以上就是本节课的全部内容,如果大家觉得这个视频内容对你有帮助,不要忘记点赞并三连我们下个视频再见。 大家好,在上一节课中呢,我们已经完成了对故事剧本的一个编辑和分镜头的制作,搭建了我们整个故事的框架。 在这节课中,我们将基于 ai 生成的故事来创建故事中的角色,完成角色的一个设计。我们使用到的工具是豆包的一个大模型和极梦 ai, 它们都可以免费在线的来进行使用。 因为我们生成的是一部大约一分钟的 ai g c 动画短片,所以角色的设计会相对简单一些,你可以用一种放松的心态来对待这个学习的一个过程,现在我们就开始吧。首先我们来简要讨论一个问题,那就是为什么我们需要进行角色设计, 毕竟我们创建的 a i g c 短片只有大约一分钟的时间,真的有必要进行角色设计吗?角色设计的意义又是什么呢? 实际上我们创作角色设计有两个主要的目的,第一个呢是保持角色的统一性,无论是一分钟的短片,还是涉及到任何场景切换的地方,只要镜头中出现的是同一个角色,我们就需要在整个过程中保持我们角色的一致性。 想象一下,如果小树在向阳颇荒废时是平头,到了向日葵盛开时的场景,却变成了有刘海的一个卷发小男孩,观众们就会瞬间疑惑,这还是同一个人吗?所以第一个我们角色设计的核心意义呢,就是让观众始终认得我们所设计的角色。 这个呢,在任何设计场景切换的故事中,提前建立角色设计是必不可少的步骤。第二个核心意义呢,就是契合我们故事的氛围,因为我们视觉是为情感服务的,角色的外观设计必须与这种氛围完美的匹配,让观众一眼就能感受到我们故事的温度, 通过色彩、造型和材质传达故事潜在的情感基调。在我们进行角色设计中呢,我们仍然使用豆包大圆模型工具和图像生成工具来进行生成 豆包。这个工具涉及两种方法来创建我们的角色设计。我这里呢,总共有三种方法。方法一呢,是根据剧本的故事情节内容,用大圆模型来生成对应的角色设计的提示词,一共参考,然后使用专门的 ai 图像生成工具, 比如即梦来生成角色的一个外观。这种方法的第一步,需要我们使用 ai 大 元模型来生成提示词。此外,我们还需要利用大元模型的文本参考功能,这种方法呢,特别适合,就比如我们已经完成了剧本创作,我们只需要将我们的剧本给到 ai, ai 就 会自动的帮我们从剧本中提炼出最重要的视觉元素。第二种方法呢,是参考现有的设计,然后在脚本中生成角色。这种方法需要我们为角色设计找到一个参考图像,然后使用具有语言理解能力的图像生成模型来生成相似的角色设计。 这种方法的好处呢?如果我们对某个角色的视觉风格有明显的偏好,或者在网上看到了喜欢的参考图,这个方法就能让我们的设计更加的可控。 我们通过上传我们想要的一个参考图片,让 ai 来学习其中的绘画风格,色彩搭配和造型特点,从而让我们生成风格一致, 内容原创的角色设计。第三种方法呢,是最快速的方法,当你已经对角色有明确的视觉想象,或者需要快速出图进行风格测试时,通过指令让 ai 直接来生成我们的角色 是最高效的。选择这种方法的好处就是速度快,迭代灵活,且特别适合在设计过程中不断的调整和优化我们的设计作品。首先咱们来演示第一种方法,我们先从上个课程里把最终修改好的故事剧本调出来,然后上传到豆包,上传完成之后呢, 大圆模型会自动的解析我们文档里的所有内容,我们这里下面呢是根据这个文档可以进行的一些快捷指令,比如详细总结这篇文档的内容,做成 ppt, 对文档的内容进行润色。不过我们今天呢用不上这些快速选项,我们需要大圆模型帮我们完成角色设计的设定,所以要按照下面的方式来编写我们的提示词, 这里我还是当他是一个专业的角色设计师,参考我刚才上传的向杨坡的剧本设计三个角色外貌的提示词,风格呢是二 d q 版, 最后提示词需搭配即梦 ai 来生成,这里我们直接上传给 ai, 大家可以看到没过一会就得到了我们故事里的主要角色,阿树阿和阿乔他们的一个外貌提示词描述, 而且他还很细致的整理了比如阿叔的发型、服装和标志性的一些细节。这个对于我们再比如即梦的一些图像生成平台,他理解我们生成的内容就会容易许多。 但我们仔细想想,这样的信息其实还是不够完善的,因为从前面的故事剧本里,我们能清晰看到,比如村里人种地路过都笑着夸这三个孩子能干的这个画面, 这个角色设计其实是没有设计的,这里呢,我们就可以根据实际的剧本内容来进一步的展开。比如我这里继续让 ai 来生成,村里人种地路过都笑着夸这三个孩子能干的角色设计,告诉 ai 这个并没有设计,让 ai 再帮我设计一半。 在发送之后呢,我们就能看到下面就是迭代之后的一个版本,并且加上了村里人种地路过都笑着夸这三个孩子能干的角色设计。这个方法呢,就是我们利用大圆模型的上下文关联能力生成出来的角色设计。 接着我们只需要复制这些提示词,然后使用图像生成模型来生成特定的角色设计。接下来我们就来看一下第二种方法。第二种方法呢是参考图生成原创角色,我们参考现有的设计来生成剧本中的角色。 实际上不仅仅是在当前我们 ai 时代,在传统的我们设计当中,我们在设计角色时,为了创造出更好的设计,往往需要参考其他已经落地成品的一个作品,从中来汲取灵感。例如我们可以在别人已经生成过的 ai 作品里找到一些可以让我们来使用的元素, 如学习这个小女孩的服饰,或者另一个小女孩的发型和表情。结合了各方面的优势之后呢,设计出自己独特的角色,这个呢是角色设计中最常见的一种方法, 因此在我们 ai 时代了来生成图片的过程中,我们也可以参考这种方式来进行生成。首先我们在网上搜索我们认为合适的图像作为参考,就比如这一张我们回到我们认为合适的图像作为参考,就比如这一张我们需要参考的图片上传到我们的大模型里。 至于提示词呢,直接输入,你是一个大师级的角色设计师,请参考这些图像来设计。阿河的外观风格为二 d 水彩角色保持双臂自然下垂,正立站着,视角比例为十六比九。在这段描述里呢,有一个非常重要的话术,即角色直立站立,双臂自然下垂,正面站立。 当我们生成角色设计图像时,如果没有这句话,生成出来的结果呢?往往有许多的随机构图或者角色姿势的一个改变。在我们后期需要创建角色三式图时, ai 可能并不能很好的理解我们想要生成这个人物的角色, 所以我们最好先生成一个正面的式图。这里我们直接点击发送,一会呢我们就能看到 ai 大 元模型已经成功的为我们设计出了我们阿河的一个角色设计图像, 这个角色呢它是综合了我们上面三张的一个参考图像,当然如果我们对当前的设计方案不满意的话,还可以继续迭代我们的提示词,让 ai 设计几个不同的版本。 点击发送之后呢,我们就又获得了四张不同风格不同样貌的一个阿河的一个形象。我们可以直接将这些图片作为我们后期生成人物图像的一个参考图片, 当然这样生成图像的时间是非常低的,我们豆包上也没有任何的经济成本,所以如果生成的设计还不够满意的话,我们还是可以重复之前的操作,生成更多的图像,从中呢来选择我们所需要且契合我们剧本的一个角色。接下来我们就来看一下第三种方法, 直接让大圆模型来生成角色设计。这种方法呢其实并没有技术挑战性,我们直接只是 ai 大 圆模型来设计一个角色的外观。方法的好处就是可以快速迭代,风格呢也能自动的联动,特别适合在设计过程中不断的调整和优化我们的设计方案。 这里我们就直接告诉 ai, 我 们就用之前它所生成出来的 ai 角色设计的一个提示词,让它直接帮我生成阿河的一个角色。我们能看到下面四张呢,就是它所生成出来的图片,都非常的精美, 画面和我们的剧本贴切,年龄上呢也相符合,如果不满意还可以进一步的来细化我们的提示词。 在这这样不断尝试之中呢,借助 ai 大 元模型的一些调整,最终得到我们需要的图像效果, 当然我们还能让 ai 学习它所生成的这个画面,我们下面就可以这样告诉 ai, 基于阿河的形象设计一个红布头巾务农大婶的形象设计。下面就是务农大婶的形象设计,我们也可以这样说到,让 ai 基于阿河和大神的形象创建一个他们在开满向日葵的山坡对话场景, 阿河和大婶都很开心,这样呢就可以将我们刚才所生成的两个人物形象合并在一个场景里,我们直接发给 ai, 最后生成出来的画面呢,就是是上面阿河和大婶对话的一个场景。 当然如果你对这个形象不满意的话,我们还可以要求 ai 再生成几个不同的版本来让我们进行选择。通过上述方法,我们已经成功地设计了阿河和大婶的一个形象,当然这是还不够的,因为在故事中还有阿树阿乔的角色设计, 我这里还可以进一步的让 ai 来生成阿树阿乔的角色,我们直接发给 ai, 它也是完美的生成了阿树阿乔的角色。我们使用大圆模型来生成图像,虽然从生成质量来看呢,可能不如专门的图像生成工具, 但是在我们前期创建故事时,可以很方便的将它与上下文联系起来,确保在不同的场景中生成的角色一致性,这样就能获得更好的效果。 这个呢是第三种方法。在讲完了使用大圆模型直接来生成角色的方法之后呢,我们来谈一下风格。在我们设计角色的外观时,首先要确定我们画面的艺术风格, 常见的一些风格,比如现实风格、动漫风格、二维插画、皮克斯风格、三 d 动画等。然而对于这些风格,如果没有具体的指定的话,其实 ai 并不知道我们具体要什么风格。因此我们在设计我们的图像时,需要保持艺术风格的统一, 比如我们这里就使用了二 d 水彩 q 版的一个风格,同时呢,我们也需要保持水彩 q 版风格的一些特征,比如笔触特征、色彩搭配、造型比例等。但是在生成比如写实风格的时候,笔触特征、色彩搭配和造型比例就会相应的改变。 如果我们在设定风格时,我们不知道我们到底要什么风格,我们就可以去网上找一些参考的图像,让具有大圆模型理解能力的图像生成工具来学习这种风格。 最后呢,生成具有一致性风格,但是不同外观的角色设计,例如这里我们就可以找一张这样的图片,然后这里我们可以告诉 ai, 我 会给你我想生成画面的提示词, 所有后续所生成的图像呢,都需要引用我们上传这张图片的这样一个风格。然后 ai 就 会帮我们分析这个风格呢,是 q 版古风萌系插画风格,就比如我们这里直接让它生成一个小女孩放风筝的一个场景, 然后他就会参考 q 版古风萌系插画风格来生成小女孩放风筝的场景。从结果上来看呢,最终生成出来的效果和我们之前上传的图片是很像的,包括这个小女孩,能明显的看到就是我们上传图中的这个小女孩。以上呢,就是本节课的全部内容, 这节课中我们解释了如何使用 ai 大 元模型来设计故事脚本中的角色,还介绍了三种角色设计的方法,以及如何确定生成图像的艺术风格。 下个视频我们将详细讲解这些方法,以及如何操作我们的极梦 ai, 获得更好的生成效果,例如制作角色三式图,从而获得更多更稳定的角色设计的产出。好了,以上就是本节课的全部内容,如果大家觉得这个视频内容对你有帮助,不要忘记点赞并三连,我们下个视频再见。

今天总结一下吉梦卡人脸的最全解决方法,最后一种,百分百成功。第一种,面部拆分法,用这个工具生成这样的图片去生成视频,这个方法人脸还原度最高,但成功率稍低。 第二种,面部叠加风景,用这个工具生成一张这样的图片,生成视频成功率比第一种高,关键点要调整好叠图的参数,过低会生成失败,过高会导致人脸变形。 第三种,角色卡法,百分百成功。不踩雷,用提示词生成包含人物全部信息的角色卡就能直接生成视频。唯一不足是人脸会有轻微变形。追求成功率的直接冲工具和详细提示词。我已整理好放群里,需要的宝字自取哈。我是每天分享 ai 起号的西西,主页还有更多教程哦!

昨天小梦又又又暗戳戳升级了人脸审核,不管你怎么调脸,就是过不去,急得想摔手机。其实官方悄悄给你留了个不用露脸也能秒出片的隐藏玩法。如果你最近也被卡的没脾气,不如试试这个被我们忽略的分身出境功能。它最大的爽点就是完全不卡脸,直接无任何拦截。而且还因为它底层跑的是 fast 模型, 出片速度极其狂野,你甚至还能直接拉着好友搞个分身合拍互动,玩法相当新鲜。但既然是降本提速,代价也非常直观。最直观的就是生视频质量不太稳。更要命的是,它的产品端隔离,你在手机上捏好的分身,外部网页端根本无法同步。 最让人抓狂的是,完全没法控制具体的时间节点,全靠为几句提示词在里面开盲盒,视频怎么动根本不受你控制。不过今天我实测发现,它默认会生成十到十五秒的视频, 所以你的提示词千万别给太少,不然你的分身就会在画面里半天不动。为了解决这个问题,我专门准备了一套原提示词,能尽量把这十到十五秒的镜头和动作控制住。我是老关,每天分享 ai 干货。