粉丝227获赞1425

哈喽哈喽,大家好,最近都在玩 zmi 这个模型真的很好玩啊,对于日常照片,人像摄影,动物摄影都非常棒,所以我做了一个功能合集,今天给大家分享一下。一共四个功能,每一个都加上了放大,可以选择是否打开。 我的每张图基本都加上放大,有的图四遍放大后就很不一样。第一个功能是纹身图,最基础的工作流, 输入提示词,调整图片尺寸,有 laura 需求的可以选择一个自己喜欢的 laura。 这里设置放大后的最短边的分辨率。 这里的 unit 我 使用的是 bf 十六的版本,为了看起来简洁,我把不需要改动的都折叠了, 需要调整的我都前置,这样用起来顺手,你们看我把它拉大,无论是细节还是画质, 这个模型对于真人图片的生成几乎能以假乱真。自从用了 z image, 其他的模型我都不用了。下面是 controlnet 精准洗图整分, 结合了千问三自动反推图片,不需要手动输入提示词, 使用上就是选择你要的 control desk 的 预处理器在这个位置,然后设置好像素缩放,默认就是一零八零,分辨率就是像素点为二, 这个分辨率对于日常需求是够用的了。如果是希望尽可能保留原图特色,那就增大像素数量。同时呢,推荐使用四十八 g 跑,这样爆显存概率低。 这里设置图片 p 四,然后可以采样器的设置,主要调整步数,需要高质量就调整到二十五步左右。这个采样器和调度器是我觉得出人像图效果比较好的, 下一步也是放大默认二幺六零的最短边分辨率,实测跑下来一张图起图,并且放大到四 k 分 辨率要三分钟左右。还有这里是千万三的前置词,像我们平时用其他开源 ai 一 样, 同样需要给他一个身份和背景。对于一些特定风格的照片,我还是建议优化一下前置,加一句话输入, 比如在这里写在提示词前加动漫风格、彩色水墨风格。相对而言,喜图对于固定风格的还原并不高,所以建议增加特定风格的 laura, 这样还原度 会更好。不过嘛,如果是像我这个偶然抽卡出来的图,既没有 laura 也没有太明显的风格的话,那就有点难搞。可以试试增加调色节点,去参考原图进行调色,能够补救一点。 下面是局部重绘这个功能。在手动化遮罩时,首先右键加载的图片选择在遮罩编辑器中打开, 这样就进入画遮罩的界面。屏幕右侧,这里调整画笔的大小,不透明度有参数,一般来说不透明度会影响重绘时的新内容的生成。调高一点,以免踩样后新内容模糊。 涂抹好遮罩给你保存即可,涂抹错了也没关系,左侧这里有橡皮擦擦去。你画好遮罩之后再提示词输入想要生成的内容。 这里我想将猫耳朵更换为金色的牛角。好放大模块我打开 嘿采暖器,我将步数提高到二十五步,其他右侧子侧的部分不用动,点击运行。 我一般习惯用四十八 g 运行,毕竟我充了专业档 plus, 也就是最高档的会员,每个月八万币, 不过消耗也挺快的,特别是运行视频的工作流,对我来说, runnyhub 是 我目前感觉用的最爽的云平台了,比里布里布便宜很多。深图完成看看效果, 拉近细节也不错,看看对比像素和细节都很整齐。局部重绘在画这种白底背景时发挥是不错的, 像设计角色、例会、场景元素修改时就特别有用。 the image 很 擅长对真人相关的图片的生成,如果是片商务场景,可以考虑签问 image。 二五一二,这个模型更适合电商、广告等行业。后面我也会给大家做个二五一二的工作流。 下面看一下扩图这个部分。扩图我是比较喜欢用的功能,只不过因为重绘部分呢,还是不如 z image 那 么稳定,所以还是要抽一下卡,多试验几次才能得到比较自然的效果了。 扩图也有自动反推,所以流程上比较简单,输入图像,设置上下左右扩大的尺寸,这里我统一加上两百, 也就是整体宽高多加四百,这个扩展幅度并不大。不过我推荐用四十八 g 显存去运行,因为我在反推部分用了一个比较大的八 b 的 千万三模型, 四 b 的 不推荐用,因为不够聪明,我测试下来五十张图里会卡住几次,我发现他又是循环很多次,输出无意义的提示词,老是重复那么一两句,然后换到八 b 的 模型就好了。几十次测试下来也没问题。 大显存可以并行,我用一零二四的图扩大到一四二四,并且放大只需要一分半左右,这个效率我还是挺满意的,并且真实场景的扩图还是算稳定。 这里是遮罩的预览,旁边是扩图后局部重绘模型,宏绘的图像可以看到这个局部重绘。这里是有随机种子的, 如果想要完全敷贴效果,也需要把这个随机种子固定下来,不然就会有差异。局部重绘模型绘制好了就会编码成 latin, 输入 k 散样器,因此这里画的差一点也没关系。 后续还有增加噪波折照,在前空间重新排列噪声标,还是依靠 z image 模型去将最终的图片画出来。我也做了千万 image 的 扩图,同样的图扩大尺寸也一样,千万 image 会比 z image 慢个一分钟, 毕竟这因为这是 turbo 模型,速度上还是很有优势的。可以看一下这个出图对比,千万的图,皮肤是很纯净,就像我们把磨皮美颜打开了一样, this image 就 偏向日常淡妆的感觉,光线上总体更真实,做图片来讲,扩展出来的效果都不错。用哪个模型取决于大家的需要。 最后再说一下 the image laura 的 练纸,练一个 laura 其实很简单,我在 running hub 上练过,也在其他云平台时用 ai two kit 练过。如果你有一定基础,了解过大模型,可以尝试用 ai two kit, 记忆度更高,使用也不复杂。如果你是新手,刚刚玩 ai 绘画没多久,可以在 runnyhab 上去尝试一下,成本并不高,流程也简单。 下面我以人物类 lowra 介绍一下这两种方式。首先准备好要练的素材,一般二十张、三十张图,左右面部特写、 不同角度、表情、光照等等,高质量的图片就能出高质量的 lowra。 所以 要选择好数据集,统一处理成一个尺寸最佳,我一般处理到一千零二十四乘一千零二十四的尺寸。 选择好图片后上传到平台,可以打标。如果你想要更精确的效果,打标时标签最前面加上触发词标签要注意,如果这个人物特征 你想让国行去学习的话,就不要写上,比如红头发、黄头发。你的标签应该能让一个完全没看过原图的人只看标签就知道谁 在什么情况下看起来什么样,并且能明确区分出哪些是这个人本身,哪些是此刻的场景装扮。要删除哪些标签呢?主要是四类。 第一,通用质量词和风格词,如顶级质量、极致细节等。如果每张图都有 lora, 会误认为这是人物的一部分,导致你生成时必须 加上这些词才像。第二,抽象主观的情感或评弹词汇 lora 无法学习美或帅的概念,这些词汇污染数据。 第三,可能引起特征污染的绑定词,这是最常见的错误。如果人物总穿红裙,标签里就有 red dress lora, 会认为红裙是人物特征。第四,无关的环境细节,除非是场景 lora, 否则人物 lora 不 需要学习背景里的花瓶纹理。 z image 这个模型训练 lora 时也可以,不达标就用质量 比较出色的图片去练,一样能达到比较好的效果。上传图片后设置参数,这里有三个参数,第一,步数简单,任务三千步左右,效果一般不错,适合去快速验证效果, 追求精精细的话,步数给到五千步以上,通透性一般不错。第二,学习率一般,不用改小数据集,就用小的学习率,这样不容易错过模型几何点。第三, lowra 接数数据量少的情况, lowra 接数十六就够用了, 如果两百张图左右可以给到三十二的接数。越高的接数模型,学习能力越强,也需要更多的资源和时间。 如果学习复杂艺术风格,也可以用更高的 laura 解暑。触发词就填你想要的触发词,测试提示词就写你想测试的主体和场景即可。 这里可以看到 r h b 的 消耗,实际测下来, r h 训练的速度比我自己开镜像的速度快很多。这是我练 laura 的 记录,最多一个跑了五千步, 我感觉四千五百步已经非常像原图的这个人物。我是用 z image 生成的数据集 是用千万 edit 做的,多角度多场景数据虽然不如真实真实照片效果好,但是够用。高质量的图出高质量的 lora, 大家练之前一定要看好图片, 不要有偏色或者细节上的瑕疵。 zame 这个模型理解力比 s d 系列的强很多。同时一点点的 ai 二、 toolkit 镜像怎么练? lora 我用的是陈宇之云这个平台的官方镜像,选择好显卡,直接启动,等待一下开机,然后直接点 ai toolkit, 进入训练期界面。 首先我们要上传图片,点击 data sets, 右上角创建文件夹,然后把图片拖进来, 等它上传完成,然后点击左上角的 new job, 这里设置训训练名称, 添加触发词, 然后选择模型, say image turbo 这个 logo 就 不用打开了。 这是为低显存,比如十六 g 的 显卡设置的,我们用二十四 g 显存训练,可以把它去掉。右上角,这里是每多少步保存一个模型,还有最大保存模型数,这个根据你需求来我这里就按默认配置, 然后就开始设置参数,配置训练批次步数,这里就写三千步一批次,其他参数可以默认学习率也不用改它,可能数据集和步数都不多,用小学习率即可。 然后配置数据集,选择我们创建的文件夹,其他可以保持默认设置。这里的 resolution 只保留一千零二十四这个就可以了, 因为我们图片尺寸都是一千零二十四的,不需要额外做图片的分头。 这里的 sample 就是 验证的地方,二百五十表示每二百五十步验证一次,下面填写提示词,验证不影响训练,设置多少组都可以, 这里我保留个两组尺寸就默认的一千零二十四即可。 设置好之后,点击右上角 create job, 然后再次点击右上角这个小小的开始按钮,稍等一下,程序就会自动创建任务。这里是训练总览, 第二个是验证图片,第三个是 loss 图,判断有没有你合就可以看 loss 图。第四个是配置文件,我们在 job 页面配置的参数都会在这里显示。 回到笼览界面,可以看到每跑一步需要的时间,还有到了第几步训练,可以用大一点的步数,因为中途可以暂停,如果图片比较好的话,就可以把 lora 下载下来验证一下。 最后再说下步数和批次的选择,这两个参数对 lora 的 影响比较大的有两百张图,跑的四批次等步数两万步的 lora 相比于一批次三千步的洛软,效果好很多,场景适配和人物脸型还原度都比较高。训练到两万步还没你合,还可以继续训练,但是我甚至步数只有两万,所以没能继续, 很可惜。推荐大家设置个高步数,反正能暂停,满意了就停掉,不满意还可以继续跑。如果本地环境一般,像我的笔记本只是三零六零,根本跑不快,就可以把模型上传到 running have 进行验证。上传也很简单, 来到主页,点击模型库,点击上传,这里选择 laura, 填写好信息后,下方点击上传 laura, 选择你下载的 laura 文件即可。然后就是去到工作流验证了。 laura 训练不复杂,是要得到一个满意的效果,得尝试很多次, 不同的数据集有不同的你和点,多试几次才能得到一个好的 laura。 好 了,以上就是这个视频主要内容了,如果你有疑问的话,欢迎留言,大家一起探讨,感谢大家的观看,下个视频,再见!

挑战从零基础,彻底教会你 ai 电影大片制作!注意,本教程耗时八百六十五小时,匠心打磨,全套足足五十节,内容覆盖 ai 视频软件基础提示词书写、核心逻辑,还有文声图图声图实操 ai 视频动态运镜、人物风格一致性全功课。 目前抖音少有的从入门到精通的全套 ai 视频制作教程,带你从零上手,一口气做出质感 ai 电影大片,全程不搞标题党,不炫技,全是实打实的硬核干货。为了方便大家高效学习,教程附带的配套资料和实操学习案例我也全部整理打包好了, 置顶作品即可获取。这节课我们来学习如何用 ai 设定人物形象。大家好,在之前的课程中,我们完成了故事脚本还有文字分镜的创作,搭建了我们整个故事的框架。 那么本节课我们将基于 ai 所生成的故事去创建故事中的角色,完成人物的设定,使用的工具是豆包大模型和极梦 ai, 通通都是免费在线使用的,不用担心。 因为我们要创作的是一分钟左右的动画短片,所以人物设定会相对比较简单,大家可以带着轻松的心态去学习。下面就让我们开始吧!我们首先来浅谈一个问题,就是为什么要做人物设定, 毕竟我们制作的动画短片只有一分钟左右,是否真的需要人物设定呢?做人物设定的意义又是什么?其实我们做人物设定主要目的有两个,一个就是保持人物前后的一致性,别说是一分钟的故事短片,但凡是涉及到镜头切换且镜头展示的人物为同一人物的情况,我们都需要保持人物前后的一致性, 因此提前做好人物设定是任何具备分镜头切换的故事当中都要提前做好的一步。第二点是为了积累人物设计的经验,提升成片的审美高度。 一个作品的精彩程度很多时候是由多方面因素决定的,像剧情节奏、人物演出、环境、背景等等都关乎最终观众在观看时对影片的观感,其中人物造型的设计自然也是不可缺少的一环, 因此在做人物设定时,我们可以不断积累人物设定的经验,从众多由其他作者所设计的作品当中汲取灵感, 让我们设计的人物在造型上能够越来越成熟,越来越契合故事脚本的需要,以此来提升成片的审美高度。 那么既然我们要做人物设定,仍然是利用豆包这款大语言模型工具以及图片生成工具。我们首先来看豆包这个工具。要做人物设定,我们这里共分为三种方法,其中第一种是根据剧本脚本故事内容,让语言模型参考生成人物设定提示词,再让专门的图片生成工具去生成人物形象。 这个方法的第一步就要使用语言模型去生成提示词,并且还要借助语言模型对文本的参考功能。第二个方法是参考已有形象生成脚本中的形象。这个方法就需要我们找寻一张角色造型上的参考图,并且使用有语言理解能力的图片生成模型去生成近似的形象。 而第三种方法是直接让语言模型生成角色形象,这种方法会更加随机,但也十分方便快捷,能够在短时间内产出多个形象来供我们选择。我们首先来演示第一种方法, 我们将上一节课经过修改完善后的故事文本通过拖拽的方式上传到豆包当中。在上传好之后,稍待一段时间,语言模型就帮我们解析了文档当中的全部内容。 这里可以看到字数以及文件大小和文件类型。同时下方还有快捷选项,例如详细总结这篇文档内容,用通俗易懂的话讲讲文档说了什么, 还有对文档进行润色。当然这些快捷选项我们并不需要,我们今天需要语言模型帮我们完成角色造型的设定,因此提示词方面我们这么来书写, 你是一位角色设计大师,请根据我提供的这份文档,结合文档中的剧本内容,文档中出现的主要人物造型要求设计,包含人物的发型、发色、体型、外貌、穿着等。 这里大家如果觉得有必要的话,也可以直接让他帮我们设定人物的性格特点以及说话时的语言习惯。这对于时间更长的短片来说也是比较有必要的。不过一分钟左右的短片还达不到这样的深度,因此无需有这样的要求。 接着以适用于即梦 ai 图片生成提示词的方式,把设计造型的双语文本发给我。这里的最后一句话规定了 ai 在 回值问题的答案时,给我们回值的方式是以文本的形式进行发送的。如果没有说这么一句话,很有可能会被语言模型视作图片生成的需求,直接帮我们生成图片, 我们现在点击发送可以看到,片刻之后,我们就获得了故事当中主要出现的人物灵玄和青眼在造型上的提示词描述。 为什么我们让 ai 给我们双语提示词呢?最关键的原因是我们可能会用到 mg 等海外的升图软件,而这些软件对英文提示词的理解更加准确,所以我们生成双语提示词,以便于后期多个软件对比出图。 获得了这些提示词描述之后,我们下面要做的事情就是直接将这些提示词复制下来,用图片生成模型来生成具体的人物造型了。 紧接着我们来看第二种方法,就是参考已有形象生成脚本中的形象。其实不单单像现在的 ai 时代,在设计角色时,在过去的美术设计中,想要做好一个设计,往往也需要站在巨人的肩膀上去参考其他作者已经设计好的成品,从中汲取灵感。 比如借鉴 a 角色的发型, b 角色的穿着,借鉴 c 角色的武器。设计来设计出属于自己的独特形象,是在做人物设定时经常采用的一种方法。因此在 ai 角色设定的生成中,我们同样可以参考这种方法。 首先在网络中找学友们认为合适的形象,将其作为参考,上传到语言模型的参考图预备窗口中。而提示词方面,我们就描述你是一位角色设计参考设计出清眼的形象。 人物性别为男性,美术风格为古风二次元风格。人物保持双臂自然下垂,正面站立比例九比十六。在这段描述中,有一句话非常重要,就是人物保持双臂自然下垂,正面站立。 我们在生成角色设计图片时,如果没有写这句话,往往生成会伴随着很多在取景框和人物姿势上的随机性。 我们要想后续制作人物造型的三式图,最好能够先有一个人物的正面式图,并且双臂保持自然下垂,人物正常站立就好。现在点击发送可以看到,稍待片刻后, ai 语言模型就帮我们成功的设计出了灵泉的形象。 不难看出,这个形象综合了我们所上传的三张参考图,人物原本的美术设计,在穿着、配色和裁剪上都残留了我们所上传参考图的影子。 当然,如果对当前生成的造型不够满意,我们可以继续要求语言模型再设计几个不同的版本供我挑选。我们点击发送一段时间后,我们就又获取了三个造型不同的凌旋的形象,整体在设计上都还是不错的。 当然生成图片的时间成本非常低,在豆包上也没有任何的资金成本,所以如果生成的造型依然不够满意,我们可以继续重复刚才的操作,生成更多的形象,从中挑选我们需要的。我们再来看第三种方法,就是直接让语言模型来生成角色形象。 这种方法并没有什么技术难点,我们直接告诉 ai 语言模型,根据以上人物提示词生成古风二次元风格清眼的形象。 可以看到,起初豆包 ai 为我们生成的每一个人物手指都有问题,这个手指总是有异样的颜色,所以这个时候我又复制了不带手部描述的青眼提示词,经过重新生成,我们又获得了这样一个形象,但这个形象过于写实了, 所以在这里我不断的尝试让 ai 语言工具帮助我对已经生成好的造型进行一定的调整,最终获取了我需要的图片效果。有了青眼的形象,进一步的我要求 ai 以上图人物的形象, 并生成两人在雪山破庙的画面。可以看到,在 ai 回执的消息中,不仅生成了师兄弟二人对峙的画面,还非常应景的给二人身上添加了雪花效果。 当然,如果对这个形象不够满意,我们也可以要求 ai 多生成几个不同的形象供我们挑选。通过上述的方式,我们就成功的设定了凌旋和青眼的形象,事情上有着更好的效果。这就是第三点,直接让语言模型生成形象的方法。最后我们来讲解一下关于风格。 在设计人物造型时,首先要确定美术风格,常见的风格如写实风、动漫二次元插画、三 d 卡通皮克斯风格等等。 不过风格其实并没有特定的称谓,因此在设定风格时,我们更多的时候是使用参考图,让具备语言理解能力的图片生成工具,学习风格后,生成同风格不同设计的人物形象。 例如,在制作灵选与青眼这个动漫短片时,我在网络当中找到了一张图片作为故事的风格参考,将参考上传给语言模型, 并告诉他接下来生成的图片都参考这个风格。此时 ai 回执的消息告诉我们,接下来会参考这张古风人物图的风格进行后续创作,可以看到最终生成的效果在质感上是比较契合我们上传的风格的,但在人物造型上却还不是十分契合, 所以有时也需要我们靠文字进行一些补充。就这样,通过上传参考图外加文字描述来修正的方式,我们就生成了最终想要获得的美术风格的图片。以上就是本节课的全部内容, 这节课我们讲解了利用 ai 语言模型设计故事脚本中角色造型的三种方法,同时也讲解了如何确定所生成图片的美术风格的方法。 下一期视频我们会详细讲解生成效果更好的极梦 ai 该如何操作,以及如何产出人物的造型三式图来获取更加稳定的人物造型设定。 如果觉得本期视频对你有所帮助,也不妨点赞关注、支持一下,我们就下期视频再见。在上一期视频中,我们讲解了三种不同的通过语言模型来进行人物造型设定的方法。书接上回这期视频,我们来讲解如何通过图片生成工具来产出更加专业的人物设定图。 首先打开浏览器,我们搜索极梦 ai, 然后点击进入,在进入到首页后,点击左侧的生成选项。在众多 ai 视频生成平台中,极梦的生成界面和操作逻辑应该是最为简洁的。 生成页面的最下方可以输入提示词和上传参考图,而左下方的位置点击之后是一个下拉菜单,在这里可以选择生成时所使用的功能, 是 agent 模式,图片生成、视频生成数字人还是动作模仿?我们此次使用图片生成,在设定好生成方式之后,进一步的我们需要设定生成时的相关参数。 首先是右侧的第一个选项,这个位置可以选择生成时所使用的模型。可以看到目前最新的版本是图片四点一和四点五模型。 和众多图片生成工具一样,通常标号越高的模型生成效果就越好,同时需要消耗的点数可能也会越多。然后是选择生成图片的宽高比,常规的有九比十六、十六比九、一比一等等。同时在下方我们还可以选择生成图片的分辨率, 我们生成人物设计,通常二 k 的 分辨率就足够使用了,因为在最终生成分镜头时,人物的造型并非充满整张画面,只会占据画面的一小部分,所以这里保持默认就好。 在设置完之后,我们来讲解一下极梦 ai 的 图片生成机制。目前在标准模式下,每次生成是不消耗点数,也就是说在标准模式下,我们可以免费无限生成。 那么大家可能会产生一个疑问,既然豆包 ai 能够免费直接升图,那为什么还要在即梦上生成图片呢? 两者自然是有一定区别。首先就是两者使用的图片生成模型不完全相同,豆包的生成模型相对会落后几个版本,即梦的模型是最全面的。此外,豆包在生成图片的细节处理上稍稍逊色于即梦, 因为相对于吉梦,他缺少了部分可调控的参数,吉梦生成的图片逻辑性较好,在细节处理上会更胜一筹。所以综合来讲,我们使用吉梦专门的图片生成来进行人物设计,理论上效果是要优于在豆包上生成的图片的。提示词的书写格式和豆包也非常接近, 因为在即梦上我们使用图片生成功能,它依然具备自然语言的理解能力,所以无需像 stable diffusion 那 样以逗号为间隔去提供单词形式的提示词。 这里我们就书写三 d 国漫摄影风格、纯白色背景人物全身三式图,还有我们之前提到过的一个非常重要的话,手臂自然下垂。然后我们回到上节课,我们使用故事剧本为参考所生成的凌旋和青眼形象的文本中,将这些提示词文本复制下来, 将其一并粘贴到提示词树框里。图片比例方面,由于要生成三式图,所以我们选择十六比九。三式图能否生成成功除了和提示词描述有关外,和比例也密切相关,通常竖版的比例很难成功的生成三式图。 设置好参数之后,我们就直接点击生成,可以看到最终生成的结果还是有一定的随机性的。虽然人物在造型上基本一致,但也不难发现有些生成的图片人物并非是三式图,只有正面和侧面,而有一些连三式图都达不到。 不过也不难从中找到生成比较成功的效果,例如像这个画面,人物正面、侧面和背面都有。那么问题来了,我们如何解决人物在美术风格上的问题呢?可以看到,此时我们生成的人物造型虽然是一个完整的三式图效果, 但在美术风格上与我们上一节课中用豆包所生成的美术风格有着较大的差异,所以这里我们还需要用到图片美术风格的参考功能。在提示词输入框的左侧有一个上传图片的位置,我们将豆包中已经设定好的人物造型图片保存下来, 然后将其上传到提示词输入框左侧的图片预备窗口中,在上传好之后,删除这些提示词当中描述人物造型的部分,然后直接点击生成,可以看到最终生成的效果, 成功的展现了人物在不同角度下的表现,同时在造型上也相对契合我们所上传的参考图造型。 不过这里取景框出现了一些问题,人物角的部分并没有成功的生产出来,究其原因是我们在设定参考图的时候出现了一定的问题。可以先将参考图通过扩图的方式生成完整的人物正面照,再进行参考生成。 具体的操作方法,我们可以来到上节课人物设定的操作界面,选择我们需要扩图的图片,点击上方的扩图选项,我们就进入到了扩图编辑界面。 根据我们人像的比例,拖拽下方的滑块,直到你认为合适的位置,然后点击按新尺寸生成图片。那第二个人物的扩图操作同样如此,点击上方扩图选项,拖拽滑块,直接点击按新尺寸生成图片。 这样我们就得到了两个人的全身照参考图了。回到即梦,重复刚刚的操作, 这次生成的就是人物的全身形象了,我们也可以完全从中挑选自己需要的角度,对其进行裁剪保存。我们还可以点击右侧的智能超清选项,对图片的清晰度进行优化, 点击之后选择下方的智能超清,完成之后可以对比一下,这个是超清化之后的结果,这个是超清化之前的结果,可以看到效果还是十分明显的。在确认无物之后,我们就直接点击右上方的下载选项了,这样我们在极梦 ai 上生成的人物三式图就保存到本地了。 最后我们再将获取的人物三式图和之前的故事脚本整理在一起,一个相对比较完善的故事脚本文档我们就完成了。 以上就是这节课的全部内容,我们来简单总结一下。这两节课我们重点讲解了如何用 ai 来制作人物造型设定,分别讲述了三种方法, 一种是先生成提示词,再用专门的图片生成工具生成人物造型。第二种是参考已有形象生成脚本形象。 第三种是直接让语言模型生成角色形象。同时我们也讲解了如何使用专门的图像生成工具来生成角色三式图。今天所讲解的这些方法并没有优劣之分,在不同的美术风格,不同的剧本中,可能这些方法都有好有坏, 所以大家可以在不断的实践当中尝试一种更加符合自己需求的方法。如果觉得本节课的内容对你有帮助,也不妨点赞关注、支持一下,我们就下期视频再见!

兄弟们, z m h 是 一款拥有六十亿参数的完全免费的高性能图像生成模型,升图速度快到飞起,而且支持无内容神查和 n s f w 内容,画质达到专业级,以中文提示词理解也是非常到位。 我们打开看一下它的升图速度和质量,可以看到仅仅在一千零二十四的分辨率,无论是速度、画面细节一次成 下水准都是相当不错的,覆盖人物、动物、汽车等多领域。生图我现在用的是 comfy 整合版本,即开即用,非常方便。我已经将工作流和学习文档都打包好了,想体验的小伙伴暗号抱走哦!