你敢信吗?康飞宇能一键生成出像这样的 ai 动态慢视频, 就要死在这里了,我等太阳, 我已至天门外,你放手厮杀便是。 整个工作流能自动进行讲本解析、角色分配、文本转语音合成、视觉故事版生成视频输出。 操作很简单,只需要把喜欢的小说复制到豆包等 ai 软件,按顺序导入这三套模板内容,得到提示词,导入工作流就可以了。 无需担心角色,这个三式图生成就能让角色从头到尾长得都一样,生成出自己的小电影,简直就是有手就行!工作流模型、文档均已打包好放置网盘了,有需要的小伙伴七七八玩玩。
粉丝1.6万获赞4.7万

那么由于是本地运行,我没有连接任何网络,所以呢,只要你的电脑哎可以正常工作,你可以去 哎一直去点这个什么运行,一直去生成你想要的图片,所以呢没有任何限制。当我们安装好 ctrl u i, 首次进入到这个 ctrl u i 的 界面的时候,我们会看到这样一个非常基本的工作流,那么这个工作流呢,它是用来文字生成图片的一个工作流。 好,我们可以点击一下这个运行,哎,我们会发现这里会有一个报错,这是因为呢,哎,我们在第一个大模型没有安装出现的错误, 那么在我们上次教大家的安装包里呢,给大家已经提供了这个简单的一个大模型,哎,就是这个通用里面的,所以呢,我们可以点击这个右键,给他切换到这个模型来,直接在本地去运行, 可以看到我们现在没有连接任何网络,然后我们再点击运行,然后他就会变成绿色的提示框,这个绿色的工作流呢,会按照这个步骤 一直运行,还最终呢生成出我们的图片,那么图片的提示词呢,在这个部分输入,我们可以看到他默认输入的是一个漂亮的一个玻璃瓶,然后呢是一个星空的配色。 好,我们也可以给它去修改这个提示词,比如说我们给它修改成一个 beautiful girl。 好, 然后我们再运行好,可以看到第二次运行,比第一次运行还要快,可以看到,哎,我们可以多次去运行,每运行一次呢,它都会生成一张这个图片, 那么这个图片呢,他也会给你排列在下方哎,供你浏览,直到你得到哎你想要的一个图片效果, 那么当然这个提示词呢,你也可以按照你的要求去给他加一些修饰,还有下面呢是一个看我们的负面调节就负面的修饰词,比如说文本水印,哎,我们就不要文本,不要水印,让这个图片呢非常的干净。 那么由于是本地运行,我没有连接任何网络,所以呢只要你的电脑哎可以正常工作,你可以去 哎一直去点这个什么运行,一直去生成你想要的图片,所以呢没有任何限制,而且呢我们如果想得到哎更加符合你要求的图片,我们就需要比较复杂的一些工作流呢,这个工作流呢他基本呢 只能实现一个,比如说文字生成图片这样一个效果,那么假如说你想要得到一些,比如说生成视频,那你需要其他的工作流,那么但是这个工作流呢?哎它也非常适合我们在入门的时候去了解我们这个 coffee ui 它是怎么来应用的, 如何去生成的我们这个图片,哎包括如何我们去看一下这些节点,哎怎么来设计,怎么来连接,哎最终呢我们来自己去学习,去搭建这样的一个工作流,来 创作,来满足我们工作生活所需求的东西。

ai 漫剧赛道的大结局终于来了! comfyui 这个工作流的出现直接宣布了比赛结束。只需把小说丢进这里,大模型就能自动接管一切推理剧情,生成脚本,无需去研究任何复杂的提示词,也无需书写智能分镜指令,它能直接生成连贯的电影级分镜剧本。最关键的是,它彻底解决了人物一致性的千古难题, 一键生成人物三式图场景以及道具,让主角从片头到片尾长得一模一样。还能一键使用任何想要的画风。古风赛璞璞国风,三 d 日系动漫全部应有尽有。全程云端运行,不失电脑配置,每一个镜头的运镜转场都贴合慢剧调性,就算是小白也能制作出像这样的大片效果。 工作流教程我已经全部整理好了,三个六抄作业。

如果我说用 comfy 来搭建的工作流,从一件衣服的白底图片到生成整套模特的场景图片,只需要十来分钟,你信不信?真的吗?这么快?怎么做的?来我们给大家看一下, 你看这里是导入的白色的毛衣,然后这个是模特的参考图片,这个是模特的脸部,然后最终这是生成的十张图片。我们给大家看一下效果, 所有的衣服的细节面料完全是保留住的,面部也是没变的。 好,我们给大家看一下时长点,这个资产七百五十八秒,这一整套是许多 ai 服装商家都验证过的视觉工作流。想了解的话,我们下个月一月在杭州有一期线下课,会专门教大家去拆解这一整块工作流的一个细节。 那除此之外,我们还准备了一套完整的 ai 电商工作流,在四天的时间里教大家去拆解各种批量化工作流的运用。那这一次的线下实战课呢?只有最后几个名额,如果说你感兴趣,建议你好好的了解一下。

呃,我们现在来介绍这套工作流,这套工作流呢是 可以直出中文的海报,因为像你看我们不管是 flash 模型、 sd 一 点五叉 l 模型这些模型呢,它针对于文字的话都是非常,嗯,怎么说呢,比较 差强人异,就是要么就是乱码,要么就是生成出来,就是非常单一。就是像弗拉斯模型,他虽然能生成,但是他是只针对英文来讲,但是像我们中文的东西, 嗯,因为他一开始在做大模型的时候,嗯,就没有就是使用我们中国的这个这个素材,所以说他没有办法去识别我们中文。但是现在的话他有一个 大模型,包括这个大模型训练下来相配合的这个 lara, 它是可以指出中文的,那我们看看,嗯,这个 lara 会怎么样就是怎么样啊。 嗯,这个地方的话我们可以就是直接呃生成你的,就是通过这个提示词,然后直接生成海报啊,我们先把它开打开看一下,里面就有什么东西 啊,就是这个模型, 就是这个模型,我们把这个模型先一键应用这个大模型。嗯, 然后 lara 的 话,你根据你自己需要啊,就是也是这个大模型下所搭配的一些 lara, 你 看你需要就是什么样的,什么样风格的, 有小红书风格的是因为这些。呃, lara 模型是我提前加入这个模型库,然后你自己可以就是在这个 liblib 上,然后去 看这个这个大模型下它所的所有的这个 lara, 然后根据你喜欢的风格,然后加载现,就是提前加载到你的那个模型库里面,然后你在这里面就是打开的话,它就可以显示了, 我们找一个吧, 找一个这个吧,电商类的。 然后是最重要的就是这两个模型啊,第一个大,这个大模型,然后第二个的话是这个 lara 模型,然后这个模型的话,嗯, 就是你要是提前不加载的话,他其实没办法,就是直接到这里面的。呃,假如你是在利不利不的话,我不太清楚啊,你就把这个工作流导进来之之后,他会不会直接就是就在上面,嗯,但是如果说不在上面的话,你就搜这个名称, 搜这个大模型的名称,就在模型广场上直接搜这个的模型的名称,然后先去加入模型库,然后呢就是他就会在这个大模型里面了,然后到时候我们这样点击之后,他就会在这里面,然后你一键应用就加载上来了。 嗯,我们看一下,再看他的提示词啊, 这个提示词是我之前就是写好的一段这个提示词,但是现在我不想要这个提示词了,我我我换一个吧,换一个用这个吧, 把这个先关闭,因为这这个的话是根据参考图来反对提示词的,我们先不用了,先把它给忽略, 然后我们看一下啊,然后这边是尺寸,尺寸的话你根据你自己的需要去修改,然后这个批次大小呢?就是一次性生多少张图?嗯,你这个自己可以就是 先生成一张吧,先生成一张看看。嗯,我们需要改的也就是这几块,然后尺寸,嗯,批次大小, 然后那个,呃,要要把这模型给加载进来,这个大模型跟 node 模型,然后的话就是写我们的这个提示词,其余的几乎不需要我们去去调整,这个都已经调整好了。 然后这,这就是我们要改,就是改提示词的地方,我经常要用到的。好, 我们生成一下看看。 好,这样就直接生成了。我,你看我们的那个文字就直接写上来了 啊,当然我们的这个文字细节啥不是很丰富啊?这个没关系,到后期的话,我们,呃无论是放到 ps 里面,或者是呃直接在这个这个提示词里面去把这个文字这个标题这块把它封写的丰富一点,呃,都行。 这样我们的一张电商运营海报然后就出来了, 这是指出中文版的,然后还有一个呢,就是这边有一个反对提示词,因为这个是我比较习惯,就我比较懒,然后经常会 就是嫌写这个提示词太麻烦了吗?你要一点一点想,然后这样我们有一个方法,就是去找到,先找到你想要的这个这个提示词的那个, 先找到一张你想要的这个。嗯,参考图。那比如说我们就以这张图举例吧,我先上传出来,上传一张这种海报图,或者我们找其他的也行,我们看有没有其他合适的, 这个你自行去找,你可以去花瓣或者是百度等等都行,反正找一张你自己想要的。我这边没什么素材,我就先用这张来吧,我们上传一张这个图, 然后其余的你就不用管这个这个地方呢,它是指出英文的这个提示词,然后我又把这个英文翻译成中文了,然后这样的话你后期想要改的话就比较比较方便吧。 我们先就是单独用这个提示词,然后来翻一下,翻一下它的中文跟英文。 好,他的中英文已经出来了, 这是他的英文版,然后这个是直接输出的,是他的翻译后的英文版,这个中文版。嗯,我们可以把这一块复制之后, 然后放到提示词里面,再进行简单的一些修改。但是如果你不想省事,你不想改了啊,直接把这个这个工作流,然后连接到它的这个 起用,把这个 把这个输出为文本起用,然后把这个里面弄好的提示词, 然后直接连接到这,然后你直接生成的话,他就是直接生成那个他通过这个图反推出来的那个提示词,然后生成的一张图。但是现在呢,我我想把它改一些,改一些东西,因为我感觉这些文字 的方面有些不是我想要的,那我们就把它还变回来,我们先不这样,把这个给好, 把这个复制, 你仔细看一下它这个提示词, 这个汉堡不不退呀? 那我们再尝试一下其他的。我现在不想用这个了,我想用一个刚刚我看挺好看的这个小红书风格。 我们先看一下这个小红书风格,它有没有触发词啊?提前看一下它有没有推荐的权重什么的, 哎,这个就有触发词,给它复制过来, 哎,把它放到提示字最前方。然后呢? 我们哎模型强度就是他那个推荐权重是一,所以我们不用改了,他是正好是对照着呢。然后我们再生成一次,把这个先关掉。 哎,尺寸,我们不要这个尺寸,把它反过来,幺零二四乘幺五三六 幺五六八吧, 再生成一次看一看, ok, 现在小红书风格的这个汉堡呃就出来了, 如果生成不满意的话可以多次收卡,这边的话批次为一,我们可以改成两张,三张、四张、五张都可以,然后一次性让他生成多张,然后我们挑一张自己喜欢的就 ok 了。 好,我们现在换一个吧。就是,呃,就用直接用他的那个提示词输入,我们来看一看,看 看会是什么样的。用这个改成二, ok, 这两张海报我觉得第第二张还挺不错的, 第二张是我想要的,我觉得这张海报就差不多。 这个呢就可以根据我们自行抽卡,然后多抽几张,然后选择你想要的, 这个的话,这个提示词这块你可以省事,就是直接找张参考图,我们啥也不改,然后直接就连到他这边,然后让他自行生成。你也可以,就是想要让他仔细一点的话,就是把这个给他去掉,然后还是让他按原来的 把它升成空件,转换成原来的这个,这样我们就可以后期修改。 好,现在我们。

你只需要写一段歌词,大致内容是雪山樵夫和白狐相遇的故事。点击运行 ltx 二点三大模型,就会给你生成一段配套的 mv 视频。 听完这首歌,有没有被樵夫与白狐的故事打动呢?今天来讲 ltx 二点三唱歌术。 首先,我们先看一下唱歌术里面有哪几个知识点。第一个知识点,输入歌词就能生成歌曲,它是靠 song generation 二大模型实现的。 第二个知识点,根据歌曲去生成配套的音乐 mv 视频,它是靠 ltx 二点三大模型实现的 song generation 二是最近刚刚开源的音乐生成大模型。 根据作者说的,这个模型生成的歌曲质量不输其他开源的方案,我自己试了一下,音乐的质量确实不错, 作者还很贴心的把歌词的输入格式给到了你。首先你要按照结构标签的形式去规划歌词的结构。 另外呢,写歌词的时候不要用中文标点,要用英文标点。这里呢,他给了两个例子啊,分别是英文歌词和中文歌词。如果你想写好的歌词提示词,你就把这两个案例好好的琢磨一下。 同时呢, sound generation 二支持控制生成歌曲的各种属性,比如歌手的性别、歌曲类型、情感乐器等。 如果你没有灵感,没关系,你也可以直接给他一首参考音乐,他会按照你提供的音乐去生成类似的歌曲。开发者 sms max 第一时间开发了对应的 comfy ui 节点 comfyui sun generation, 从而实现把这么棒的音乐声声大模型集成到了 comfyui 之中。那话不多说,现在跟着我去搭建一下 comfyui 工作流, 在 runnyhub, 我 搭建了 ltx 二点三唱歌树工作流,跟随视频操作,打开工作流,你就可以跟着我学起来了。 整个工作流分两部分,先看工作流的左上角,这里是开关,用于控制两个工作流的开启与屏蔽。 先开启 sun generation 二生成歌曲工作流。在 sun generation loader 节点,这里我们选择 v 二 large 版本,记得要选 q 六 k 量化格式,这样显存占用更小,四零九零显卡就能跑起来。 在 stage 一 节点写入要生成的歌曲台词,要记得按照作者的要求格式去写,一定要输入英文标点符号。 在 stage 二节点输入歌曲的音乐属性,比如男生还是女生,歌曲类型、情绪以及乐器等,点击运行,等待一分钟,你就能得到一首质量还不错的音乐作品。 然后呢,我们把 ltx 二点三生成 mv 视频。工作六打开这里呢,有四个地方需要设置, 第一个是选择纹身视频还是图声视频,我选择的是处,也就是纹身视频。如果你选择的是图声视频,那么你需要在 log in 界面上传视频的手势画面。 第二个是输入生成视频的提示词,我写的是三 d 动画,一只魅力十足的白狐歌手站在舞台中央拟人画的优雅姿态 等等等等。总之就是一句话,提示词要写得足够的详细, ltx 二点三大模型才能够给你生成画面效果好的视频。 第三个上传歌曲,把刚才在 sun generation 二工作流生成出来的歌曲点击 upload 按钮上传到 load audio 节点。 第四个设置生成视频的常规参数,比如视频的分辨率、视频帧率以及视频时长。我设置的是一二八零乘以七二零分辨率, fps 为二十四帧每秒,视频时长是二十五秒, 其他地方不用动,保持默认点击运行,等待六分钟,你就能得到一段动画效果不错的 mv 视频了。 最后我们总结一下啊, ltx 二点三的唱歌术,其中使用了 song generation 二大模型去生成 ai 歌曲。 然后呢,使用 ltx 二点三大模型去生成配套的 mv 视频。如果本期视频对你有所帮助,请关注、点赞、收藏、支持一下啊!这里是电磁波 studio, 我 们下期视频见。

有五万多个朋友看过我上次求助的问题,两百多个兄弟给我出主意,看来大家都很关心这个问题,我现在来汇报一下阶段性的成果。第一步的话我需要一个场景图,根据我的写的提示才来生成这个场景, 然后我用的现在用的是这个千万的一个呃纹身图的一个模型,这是一个本地部署的一个小模型,所以这个是不需要呃走 api 的 接口,不需要托管的,这个生成的效果也还行,能够满足我的基基本的需求。 然后生成了这个场景图以后,我把这个复制到第二部去,第二部的话就是把我的图片放到这个空间场景里面去,然后去生成第一部的正面的正视图的这个立体效果, 我粘贴一下,然后把这个呃我原本在那个 banana 里面去, 我用这个框去框了以后,他还是没有办法按照我的这个大小来生成,所以呃就是加了一个这个合成的节点,就是先把这个文字放到这个 图片里面去,就是按照我想要的大小进行初步的一个合成,然后合成完了以后再再丢给这个这个 a p i 的 接口,这个也是走的那个 banana pro 的 那个模型。然后材质的话我写了一下这个提示词, 然后这样子出来的话,它就是一个正面的这个立体效果的这个这个效果图啊,这个的话是完全是 ok 的, 这个也能满足我的技术的需求。然后就是呃把这个再复制到我下一步多角度的,就是我去生成它的多角度粘贴以后, 然后生成一个右侧四分之二视角仰视的特写,不要改变。图中这是我写的题词,然后把它连上,连上,然后让它跑一下。 有人说直接在那个 laotr 里面去做,去直接用那个 nano banana pro 的 模型做也是可以的。但是我这个是想让它成一个 s o p, 就 如果一直在那个聊天页面的话,我感觉那个可能效率也不是特别高, 就我其实想让它固定固定掉,我这里面其实试了很多次,有时候它那个大小啊,不是很能固定,不知道是我提示词没写对还是怎么样啊?等它跑完。 呃,立体效果差点意思,但是勉强也能用,也还行, 就是他还是有一些问题,就是就是有点抽卡性质。就是我在网上看到说有思路,是这个我没搞懂。就是先先把它弄成这样子的,一个 就是直线图弄出来,然后再弄一个深度图,然后在这个后面的我就没搞懂了。这个还在研究,有感兴趣的兄弟可以评论区交流学习一下。

超强康复 u i 徒生视频教程来了,彻底打破主流软件生成真人背现的苦恼。以上效果就是我用工作流生成的, 无需复杂操作,只需轻轻一点就能出片,效果堪比电影级大片。零基础文档和工作流拿走常颤, 拿到工作流后的小伙伴直接拖进去就可以使用,不需要调节参数,只需上传一张你喜欢的图片,工作流就可以自动反退图片生成电影级。提示词,陈双冷光中一位国风女子助力于冰晶秘境之巅,构图采用高角度俯趴与微仰角结合, 镜头如水墨笔锋般斜切,营造出虚实交错的幻境纵深,这效果不输你看到任何电影大片。如果你正在制作 ar 视频,这套工作流你可以拿去试试。

主导演正在热身,韩立这小子要玩玩玩了都叫他进阶元婴收敛点, 这下可好了。什么?主导演正在热身,韩立这小子要玩玩,玩了都叫他进阶元婴收敛点,这下可好了。什么?主导演正在热身,我也是服了,还讲不讲武德元婴候机就不要点脸吗? 这下叫我怎么玩。什么?主导演正在热身,快点去找韩立制作组万岁,这下叫我看爽了,嘿嘿嘿 喽,各位道友好啊,这期视频的话给大家分享一下 l t 三二点三这工作率, 这工作流话我已经弄到五一四版本,基本都是要围绕这个人物一致性,还有那个可恶的台词字幕的问题, 然后这个工作流的话是官方给出来的,然后我在上面增加了一些东西。 嗯,首先是这个希格玛值,这是官方原版的,然后我这里给出了一个 啊,十二部的官方八部,然后想使用官方的话就点一下逻辑,真逻辑,然后就传到给他们。 还有这个啊,铠甲他也啊,对,这个字幕就是 针对字幕他出了一个节点嘛,然后这个这个节点的话是对负面条件的一个增强,增强效果,然后让负面的不再出现这个问题, 但是啊,他增强了是增强了,但是他那个对人物的一致性的话,他是有些影响的 啊,脸部的话他会发现发发生一些改变,我建议的话可以不使用,这个不使用。呃 啊,看大家取舍吧。嗯,人物就是如果你单单是为了这个字幕的话,我觉得就没必要,因为我通过这里的设置的话,就是啊 这个二比一的那个分辨率设置,然后还有这个时长一一般就是这几个时长,还有这个随机照波摄像器,还有这个希格玛值,然后设置 他基啊,用下来的话基本上是不会生成那个台子,只能说极小概率 啊,因为这是第一步踩压,然后这是第二步,第二步的话官方给出来的话这个随机招播的话这里是固定的啊,具体多少我不记得了 啊,我就觉得啊,你前面的话就基本没问题,然后这个就是优化,优化效果一样让他一个随机优化嘛。 哦对,给他看一下吧,这个人物一次性优化到什么地步了?哦对,还有那个呃,看人物的话最好是使用这种正脸,然后面部比较清晰的 啊,他就没不不容易崩啊,甚至说可以说不崩不崩。道友在外面看没意思,进来里面吧 道友,在外面看没意思,进来里面吧。是吧,也没有台词,那个我基本都没有用那个 n n a g 那 个东西 九哈哈哈哈哈。道友在外面看多没意思,进来里面吧。哈哈哈哈。这个我感觉也维持的挺好的, 主要就是你你你使用的东西最好是大头照,还有那个人物的动作幅度不要那么大,大的话也容易崩 啊。就是人物合度的话就跟那个提示词有关了。是我 我在这里为大家准备了那个三套的提示词啊,一个是图上视频高动态的,还有一个是通用的图上视频,还有一个是纹身图的,然后我这里做了一个逻辑判断啊 啊在这里隐藏了一小块,就是我在这里切换的话他只能三选一嘛啊避免这个啊提示词串串 c 了一样,然后纹身的话他这里不会参考这图片,因为我这里做了一个逻辑判断,嘛 啊也也会影响到这边嘛,然后它它是实实现的,是自动切换啊,就不用管这边了。然后纹身的话就单纯的啊一些提示词,然后进行扩展 优化,然后就相当于这个已经变成了这个呃,纹身视频的一个工作流。 嗯,大家如果想在那个 running harm 是 这样使用的话,就啊这个工作流 啊,因为我我也不知道是什么原因,这个 n n a g 这个铠甲的工作流在在在我这个工作流运行不了,他说缺少什么,那个 two 一个双引号,一个真的是一个兔兔属性,然后我也不知道怎么搞,然后我就把它要过了啊,大家想用的话最好是在本地用,那个 这边的话我就弄不了,可能是官方的原因,也有可能是开一下那个工作流,那个工作节点的话太新了,这边的话原来还没有对接上。 好,今天的分享就到这里,感谢大家的观看。

超强康菲 u i 电影级徒生视频教程来了! 公主,三更天了,回屋吧!雪太大了! 无需你再找导演,只需轻轻一点,就能生成堪比电影级大片!零基础入门学习文档和工作流,四五六,拿走尝尝!拿到我这个工作流后,直接拖进去就能使用!上传一张自己喜欢的图片, 工作流就能自动反推图片,获得电影级提示词。陈双,冷光入薄纱缠绕人物立于冰晶逆境之巅。侧逆光分层,勾勒出流金与冰蓝交织的多层轮廓,光丁达尔效应自零雾中透出柔白光柱涂声,视频效果更是十分突出,画面细腻,动作衔接自然真实, 光影恰到好处,蝶舞纷飞,这效果不输你看到的任何电影大片。如果你也正在学习 ai 视频制作,那么这套工作流你一定得拿去试试!怎么?有意见 不准提!不要叫我姐姐,请叫我女王大人!

ai 慢剧赛道的大结局终于来了! comfy i 这个工作流的出现,直接宣布了比赛结束。只需把小说丢进这里,设定一下分镜数,大模型就能自动接管一切推理剧情。无需研究任何复杂的提示词,也无需拣写智能分镜指令,它能直接生成连贯的电影级分镜剧本。 最关键的是,它彻底解决了人物一致性的千古难题,一键生成人物三式图,场景以及道具,让主角从片头到片尾长得一模一样。还能一键使用任何想要的画风,古风塞露露,国风三 d 日系动漫全部应有尽有。 做慢剧再也不用求人求软件了,附带保姆级教程,手把手带你,零基础出片,你也能制作像这样的大片效果工具已经整理好。

你现在看到的这些视频全都是四零九零显卡运行 ltx 二点三大模型生成的。 你可曾在雪山上救过一只狐狸?你是那只白狐,我是那只酱板鸭的妹妹。 女士们,先生们,今天做客的嘉宾是当红榨子鸡、小龙虾。 现在我们来看一下 lts 二点三到底升级了哪些地方。第一,依旧开源,配合四零九零显卡就可以尽情的在自己的电脑上运行它。 第二,大幅度的提高了九比十六竖版视频的生成质量,因为我们的手机屏幕是九比十六竖版,所以对移动端的视频更加友好。 第三,画面更清晰,台词配音更准确,配乐和音效更好听。第四,更懂你写的提示词,无论你写的提示词多么的复杂,它都懂你。第五,视频文本渲染更准确。比如你想生成一个 logo 的 视频,它就能准确地把 logo 的 字母写到视频里。 comfui 第一时间就对 lts 二点三进行了支持。现在呢,我就带大家去搭建一下 lts 二点三的 comfui 工作流。在 runnyhub, 我 搭建了四个与 ltx 二点三相关的工作流,我们一个一个的来,先看第一个, 点击运行工作流,你就可以跟着我学起来了。整个工作流你看起来很复杂,但其实需要你配置的参数很少。 首先你要看这个节点,是个开关,开启表示纹身视频,关闭表示涂声视频很明显现在是开启状态,也就是纹身视频 现在来到工作流的左上角,其中 log in mid 节点我们不用管,因为现在选择的是纹身视频模式,我们只要看提示词就可以了。我在这里写的是标志性的电影制片厂的厂头,以航拍镜头扫过雄伟的雪山峰顶,刺破棉絮般的云层,开始 时值黄昏,天空渲染着身子与金色渐变等等等等。这里有一个站位符叫做 replace name, 我 用 test replace 节点负责把这个站位符找到,然后在下面输入你的电影工作室的名字,比如我写的是 emw studio test replace 节点就会把这个站位符替换成你输入的工作室名字了。 下面就是一些常规参数的设置了, length 表示视频总帧数,现在我们设置的视频帧率是二十四帧每秒,然后根据这个公式,总帧数等于二十四乘以秒数加一。因此我想生成八秒的视频,带入公式就能得到幺九三。 一般支持生成十秒以内的视频啊。当然,如果你的显存足够的大,你也可以尝试十五秒时长。 vs 和 hit 表示生成视频的宽和高, 其他参数不用动,包括模型加载,你就用默认的配置就可以了。点击运行,等待两分钟,你就能得到一段运镜效果还不错的 logo 展示视频了。 第二个 ltx 二点三,生成电影公司厂标视频工作流,其中文声视频开关,这里选择的是关闭状态,也就是说这是一个图声视频工作流。那么此时在 lud 编辑节点上传视频的手帧画面,作为视频的开头, 我设计了一款我们工作室的厂标,我直接上传到了这里,然后输入提示词,中景构图,开场画面精准呈现。这张金色厂标, 橘色短毛毛,穿着灰色针织衫,端坐中央,神情威严镇定啊等等等等,写的很详细,其他的参数跟刚才介绍的一模一样,我就没有改,直接点击生成,等待一会你就能得到一段特效相当不错的电影公司厂标视频了。 到这里你有没有发现我写的提示词都很复杂,因为 ltx 二点三这个模型对提示词的要求很严格,你写的提示词需要包含以下几点,生成出来的视频的效果才会好。第一,需要确定镜头的构图, 最好是使用电影术语进行描述你想要的风格。第二,描述视频氛围,比如视频光线、色彩风格以及你要表达的情感。 第三描述动作,将主角的动作按照时间顺序写出来,尽量的自然流畅。第四,确定运镜,说清楚镜头何时切换,包括镜头移动后的主角状态。 第五描述配音,请使用清晰的文案,描述出视频的环境,音、音乐、音频以及主角对话。对于主角对话,请将台词放在引号内,并注明你希望主角要使用的中文还是英文以及其他语言,还有口音等等等等。 讲了这么多,我相信大家已经蒙了,没关系,接下来我就来讲如何在康复 ui 中使用千万三点五来帮你写 ltx 二点三的提示词。现在来看第三个工作流, ltx 二点三配合千万三点五生成宠物播客视频。 整个工作流我只做了一处改变,就是把原来负责写提示词的节点直接删掉了,取而代之的是添加了一个千万三点五大模型节点。 首先我把 ltx 二点三大模型的提示词拷写规则给到了它,然后呢,我只需要把我想生成的剧情用大白话跟它讲一下就可以了,你看,我就是这么写的, 我想生成一个八秒时长的呃,具有皮克斯动画风格的宠物播客视频主持人是一个柯基犬,嘉宾是一个小龙虾。主持人先面对镜头介绍本期来的嘉宾 ladies and gentlemen, 今天做客的嘉宾是当哄炸子鸡小龙虾 现在确实很火啊小龙虾。然后镜头转到可爱的 q 版红色小龙虾,小龙虾面对镜头腼腆的微笑,示意你给我生成出中文提示词,只要最终的提示词结果到这里,大白话就说完了。 然后你看一下经过千万三点五处理之后给你写的标准提示词版本,尤其你来看一下他写的这个运镜镜头脚本,那叫一个专业,是不是写的特别的好,根本就不用再愁怎么去写好 ltx 二点三的提示词了, 其他的都不要动。你来看一下视频效果是不是特别的 q, 特别的可爱。 然后我们来看一下第四个工作流,使用 ltx 二点三配合千万三点五生成武打电影视频。在这里我把纹身视频的开关关掉了,然后在 log 隐秘之节点上传了一张武侠电影的配图。 紧接着我跟千万三点五说,将输入的图片作为起始帧,生成一个八秒的武侠电影片段。 男主和女主的口音是经典的武侠片里的中文配音,那种感觉。女主问,你可曾在雪山上救过一只狐狸?男主回复你是那只狐狸。 此时女主掏出一只特别大的酱板鸭指向男主,然后生气的回复道,我是那只酱板鸭的妹妹。 之后千万三点五就会把你的大白话写成一个很详细且符合 ltx 二点三大模型规则的提示词。再次感叹一下,写的是真好这个提示词,然后你再等个两分钟,就会得到一段对话效果特别棒的武打电影片段了。 最后我们总结一下啊,第一, ltx 二点三这个大模型开源,它可以部署在本地运行,配合四零九零显卡就能跑。第二,生成的视频效果和配音都很不错。 第三,使用千万三点五可以帮你写出很棒的提示词,且符合 ltx 二点三的规则。 最后,有个地方需要注意一下啊,他对中文的文字渲染能力还是不足的,需要继续提升。如果本期视频对你有所帮助,请点赞收藏,支持一下,这里是电磁波 studio, 我 们下期视频见!

有一个二十四小时帮你办事的 ai 助手 openclock, 还有一个最强的开源模型调用工具 comui, 两者结合就能这样你通过手机发送需求, 然后 ai 在 你自己的电脑上自动加载模型,完成图片、视频、音频的生成,并最终将成品发送给你。 那就可以把 aigc 做到完全私有,本地部署,并且免费不限量。本期视频演示的就是真正意义上可落地的数字员工和数字生产力。 openclaw 和 comui 的 联动就是给极致的大脑装上了最强的开源模型,从会说变成会干活。它可以根据要求自动生成图片、克隆声音、合成数字人口、播跑首尾帧视频, 还能批量执行工作流,把原本需要坐在电脑前一步步点击的操作,变成你随时随地发消息就能完成的自动化流程,这就是最有价值的实战方向。那么本期内容我就会带你从实际演示出发, 看这套联动到底能做到什么程度,又能怎样接入你真正的生产流程。接下来的很长一段时间,我将会陆续开始在星球更新 openclock 教程以及最新的 comui 教程。 想要从零开始系统入门并逐步进阶提升的小伙伴,欢迎加入小黄瓜的知识星球。 open call 和 complain 联系起来之后,它的过程是非常稳定的, 就是它能稳定调用我们使用到的那些工作流,而且它可以稳定的去设置相应的一个参数,能够正常的按照我们的要求去完成图片或者视频的生成,然后以及音频、数字人,这些都是可以的啊, 可以看到我们这后台呢,已经在运行了,我们的硬件呢,现在可以看到已经开始有活动了哈,内存在逐渐的上升,就是在加载对应的模型, 然后图片生成,我给他配置的是用的 z image turbo 的 模型哈,所以说内存现在在上涨的阶段,说明模型正在往内存里面加载, 加载完毕之后呢,我们的 gpu 就 开始运行,也就是开始完成我们正常的图片生成。生成完毕之后呢,这个 openclaw 就 会通过飞书把消息给我们发送过来啊啊,可以看到这里已经生成了,也就是这个生成的过程是他自己做的, 然后生成完之后呢,他就会把这张图片发送给我们,然后包括人物的着装姿势,配饰背景,然后包括姿势形象,这些全都是他自己给我设计的啊, 可以看到这里已经生成了,那等待他把消息发送给我哈,可以看现在已经给我生成了,在飞书里发送给我了,这就是他给我生成的一个男生哈,然后我们把控制台打开哈,把 com 约的后台打开,能够看到他运行的过程哈, 然后显存呢,就是我们的性能占用还放在这边,我建议你能时刻的观看自己的硬件占用状态,了解模型现在运行到什么样的过程,然后这里给我们生成了,我们就可以让他再给我们生成一段音频啊,用小黄瓜的声音生成一段音频,小黄瓜。再说 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,然后说天气比较热,建议多往室内有空调的地方去。 好吧,就这样,那么这两句话大概也就是四五秒的时间吧,然后我们发送一下,现在呢,我们是让他用本地的 com 给我们生成音频,然后等待他把音频给我们生成完, 生成完之后呢,我们让这个男生用我的音频再生成一段视频,也就是数字人哈,可以看到这里,我们的音频已经生成了,我们来听一下啊, 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去, 可以吧,这个声音没问题吧,跟我的声音是一致的啊,我们再听一遍。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去。好的,这个音频也没有问题啊, 我们说用刚才生成的这个男生形象,根据小黄瓜的声音做一个数字人的视频,视频时常控制在十秒钟吧,每秒二十四 fps 吧,然后视频分辨率呢 为一二八零乘以七二零吧,好吧,就这样。然后呢,他现在就开始给我们做一个数字人的视频啊,这里面我给他配置了七个工作流, 这就是我给他配的,所以说大家如果要用的话,你想给他配什么就配什么,我这里配了一个首尾,真的配了一个数字人的,配了一个声音设计的,还有一个声音克隆的,就是让他可以用我的声音去生成音频,声音设计的话就是他可以自己设计声音去生成音频, 然后还有 ltx 二点三的图声视频的,然后以及一个图片编辑和一个纹身图的,就文本到图片生成的那纹身图的模型,你配置完之后,你就可以让他给你做一些,比如说封面设计,然后 其他的内容哈,可以在上面看一下。我有做封面设计啊,你就像这个,在最开始你跟他交流的时候,比如说我这里说给我设计一个视频封面,关于 openclaw 和 compui 的, 然后想把它做成我的封面,然后是十六比九,主要是国内人看,所以说我们的封面标题呢要用中文,然后这是他给我设计出来的第一版封面啊,很明显这是不醒的,对吧?然后呢就给他做了一些个额外的干扰,我说要有标题, 然后呢标题写的清晰一点,有设计感。然后这是他给我的第二版封面,这个也不行,然后我说文字都粘到一起了,要有排版,然后这是他给我的第三版,这版其实还行,但是受限于大模型,也就是我本地部署的这个图片生成模型的能力, 所以他后面的很多文字呢是毁掉的,然后呢就给他说封面文字有误,然后让他重新修改,然后这是他又修改完的一版,看起来还行哈,然后呢我就给了他一张图片参考,我说你把这张图片给我复现出来,当然了 这个生成图片的能力取决于你部署的那个模型,就像我给它配的是 z image turbo, 所以 说这个能力并不是因为 openclock 不好,或者说因为 comfui 不好,只是因为这个模型我们目前用的不好,但是呢模型它是会进步的, 对吧?你像最开始我们用 sd 一 点五叉 l 的 时候,那个时候生成的图片质量是很差的,但是呢,随着模型的进步, comfui 甚至可以什么都不做,就只是适配一下这个模型,它的功能呢就会提升, 因为 comui 的 能力不取决于 comui, 它取决于模型。然后这是他给我的第三版哈,也就是参考刚才的图片生成的,然后发现文字都毁到一起了,然后又让他给我改, 最后生成了这个,所以说限阶段,如果你想用可以,但是他并不会到非常智能的程度。我这里接的是拆的 gpt 的 五点三的模型,所以说能力还是很强的。这里视频生成了,我们看一下哈。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去, 后面因为音频没了,所以说就没声音了。在这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去,可以看到它调用的是我本地的,而且我们的显存呢,确实刚才有在运行啊,然后内存的占用现在还在这一百多 g, 这是演示的一个小功能啊,还有我们的首尾针什么的都可以。 之前的话,我们是需要在 cfui 里面跑工作流的,对吧?现在跟 openclaw 配属完之后呢,我们可以你拿着手机,任何时间,任何地点,你只要给它发送消息,它就可以给你制作。主要是这样的一个过程,而且呢,它可以有自己的设计,比如提示词当中可以让大模型自己写,也就是让 openclaw 接的这个大模型自己写,不用我们写,你 甚至可以让它批量的生成图片。以前如果说你在 cfui 要批量生成图片,是需要自己搭建一些工作流的,对吧?比如说设置种子值自增, 然后让他一个一个的生成。现在我们可以直接让他生成哈,比如我们这里给他说让他生成二十张真实男青年的照片,然后人物配饰、长相、背景,让他自己设计分辨率,在这里写一下。比如说我在一盘哈, 给他重新创建一个文件夹,叫做男生,然后粘贴到这里,然后二十张图片放到这个文件夹,然后名字从零一开始到二零结束。好吧,那这个时候呢?我们就等他给我们生成就行了。 你像以前我们还需要去处理工作流,对吧?然后自己或者说一张一张生成,但现在我们不需要了,批量给我生成了二十张,大家可以在这里看到哈,我们来看看这些图片哈, 怎么都是这种呢?他是他生成的是这种合集,好吧,他生成的是这种合集,我再给他说一下算了,我说把刚才的二十张图片删了, 我要一张图片只有一个人物的,就这样让他再给我做一下哈,可以看这里,我们二十张图片已经生成完了哈,大家可以大概看一下二十张这些还像同一个人啊,对吧? 他是给我们生成了五次啊,这是第一批,第一批当中像是同一个人,第三批像是同一个人,对吧?可以看一下,还挺帅的,对吧? 我们让他这样用第五张和第八张图片,把这路径复制一下, 给我们生成一个视频啊,生成一个五秒的吧,五秒的首尾帧视频,让他用一二八零乘以七二零的分辨率,每秒二十四帧吧,然后让他给我们生成一个首尾帧视频啊,看一下视频啊,这是我们做的首尾帧视频,六秒, 好吧,这个质量还是可以的,这个质量取决于 ltx 二点三,也就是我们给康复 ui 配的这个模型的能力。好吧,这点大家能理解,我们让他给我们做个海报吧,但是海报的话,我们可能需要让模型有一些提示词哈, 或者说写一些比较详细的提示词,我们去搜一个海报的案例的这张吧,这张好看,我们让他说给我设计一个罐装可乐的海报,可以参考这个提示词,文字内容你自己考虑加什么分辨率,我们要个一零二四乘以一五三六的,就这样 我们试一下哈,让他给我们设计一个海报哈,然后给他提供了一些参考提示词,如果直接用这个提示词生成,你生成的就是这样的内容。但是呢,我很明显不对啊,因为我们要做一个可乐的海报嘛, 所以说你自己要去想这上面的字我们改成什么,这两个字改成什么,哪些字要改,哪些字不能改的,现在我们交给大圆模型,让他去想,我们就不想了,不动脑袋了。这他给我们设计的海报哈, 并没有出现可乐哈,但是文字、排版这些都没有问题,画面的质量也没问题,这个质量呢,是因为 the image turbo 的 质量比较好哈,所以说这个呢,不行,我说再给他说一下, 就说图片里要出现可乐,这是一个产品海报这样的这一个产品海报对吧?看起来还不错,但是我们可以让他加一些英文文字,设计一个标题,大字标题, 白色文字啊,手写体最好,然后文字内容为 c o o l, 就 这样,然后放在图片的最上面,我猜测它可能会用到编辑模型的,因为这张图片的话是用 z 生成的嘛。 这里你看它已经在思考了,并没有直接生成,所以说它应该会切换工作流哈,切换到 flex clean 模型,当模型的能力再一次提升的时候,我们现在流程的能力就会再一次提升哈。 所以说现在大家其实可以去接触 open club 了,我觉得因为他们的能力不取决于他们本身哈,取决于他们用到的模型。模型的能力提升呢,不取决于个人, 取决于那些走在前面的那些大厂。好吧,所以说你现在学和以后学都是学一样的。稍微等待一下哈,不知道他现在思考到什么程度?我看一下哈,我们能在 open club 的 后台看到他 思考到什么样的程度啊?哦,他已经加好了吗?我们看一下。靠,他加了一个这样的文字哈,可以看这个,这俩基本上没问题啊,这两张图片除了文字之外的没区别啊。这个文字是他自己加的, 如果说我们有自己的提示词的话,让他去做海报就更简单了哈。比如说像这个,我们直接把这个提示词给他,用这个提示词给我制作一个海报,就这样直接把提示词给他就行了,然后他就会自动给我们生成哈, 等待一下,我推断他加的这个文字啊,是他自己通过脚本加的,并不是用了我们的模型哈,看一下,这是在后台啊,我们跟他交流的过程在后台都能看到。我们看看刚才说的让他加文字这件事情上,他做了什么,哈, 它用了一个工具调用哈,然后在这里可以看到,它是通过代码给我们加的文字哈,并不是用模型给我们加的,它这里用了一个 python p i l 库哈,这个是对于图片设计的,用了一个 image, image draw, 还有 image font 这几个类哈,然后去做了一个图片上面加文字的操作, 所以说呢,它并没有调用我们的 comui 哈,它选了另外一种方式,然后就生成了,所以说我们的 comui 呢,也没有运行。 然后这里他还下载了几个字体文件, ttf 是 字体文件哈,然后就加了几个文字哈,这是他的一个刚才加文字的那个过程,并没有用我们的编辑模型哈, 这里生成了哈,这个怎么说呢,文字排版不太行啊,这个海报如果把这么多中文直接交给模型生成,基本一定会出现错字、粘字、排版乱,所以我还是按更稳的方案来, 先生成了海报底图,然后再把文字排版进去。我说不要这样,直接用提示词生成就行,你看,这就是他自己的一个思考,但是他的思考是不对的,如果直接用提示词生成就会更好,反而他自己写的排版乱了, 对吧?所以说他自己想的,他先生成了一个底图,然后自己又加了一些文字,但是自己加的文字明显排版是乱的,还不如直接让模型生成,所以说这个呢,没办法,你在跟他交流的过程中就会遇到这些问题啊,所以说大家装完之后,最主要的是跟他的配置和交流的过程,可以看这次就直接生成了,这就没什么问题啊, 对吧?这次这个海报就没什么问题,所以大家以后用的时候,你想啊,当你看到了这个问题的时候,你能不能分析出来这个机器人他是在哪里出了问题, 然后让他给你改成合适的。如果说对康复 ui 了解不多的同学,可能看到这里就觉得康复 ui 的 能力也就那样了,对吧?其实是因为模型在中间做了一些事情, 然后导致了这个海报不太好。好吧,现在他的能力确实是有的哈,但是取决于我们给他配置了什么样的工具以及工作流,我来配置一个哈,这里有个图片放大,我觉得是需要的,我们让他直接给我装个插件哈,看这个工作流是不是这个 see the vr two 高清放大我搜一下哈, 我们一定尽量的把指定的插件路径给他哈,让他确定是装的这个插件,比如我们复制给他,然后说帮我安装这个 comui 插件,然后重启 comui, 然后把地址给他就行了,接下来他就会自己帮我们装了哈,可以看一下哦,还是在这里看哈, 一会的话,我这个网速的话就会开始提升啊,说明他已经准备下载了,下载完之后呢,他会处理环境,然后把环境装在 comui 对 应的环境里面,然后呢再给我们启动,可以看现在网速已经上去了,就是在给我们下载插件啊。好吧,他说重启了,我们试一下哈,我们看看这个插件有没有装上啊, 可以看,这里已经有了哈,这个节点没问题。所以说前面的这些呢,是 c 的 vr two 的 插件哈,看一下。所以说还得再装一些插件啊。已经给我们成功装上了一个插件,然后我看一下那个工作流哈,他好像把我的康复 ui 装到了 c 盘里面哈,看一下这个插件里面的视力工作流哈。 插件比较少, seedvr2, 然后找到对应的工作流,这里面缺失几个节点,然后我自己给他装一下吧。手动装一下吧。这是什么?有两个插件装失败了吗?我们重启一下看看啊,好像没问题啊,这几个都是装上的,现在在重启 comui 哈, 这些操作大家应该不陌生了,如果说啊 comui 已经学过一段时间的话。好的,有个插件没有装上,不对,应该不是没装上哈,是这些节点应该过时了哈。 get image size, 这是 c 的 vr two first pass, 不是 这个节点哈。看来这个插件还是没装上,选择最新的版本,看一下后台有没有在下载哈。哦,现在是在正常的下载,等一等吧,我把这个图片放大的工作流也给他,给他之后呢,他就可以批量的去完成图片的放大了哈, 我们刷新一下。好的,已经启动了,我们看看有什么报错哈。哦,载入成功的哈。插件在这里啊, see the vr two video upscaler 在 这里哈,这个节点。所以说把它替换掉啊,这里是 block swap。 然后这个呢,不管它了哈,直接把它从中间给它替换一下就行了。第一个阶段的放大, 这是第一个阶段的图片,第一个阶段有个 block swap 参数,现在不需要了,我们把这个删掉就行了。然后 d i t 就是 它的模型哈,我看看我本地的模型有哪个哈工作流要提前给它配通哈,配通之后再让它去运行 seed v r two 在 这里哈,本地有七 b lp 十六的模型,我是有的。那就直接选这个哈, 选完之后选我们的库达林 block swap, 直接在这里可以设置哈,给个二十吧,不给太多哈。然后这个也连过来 v a e 模型,这是 c 的 vr two 的 v e 模型,然后选上,这是分块放大,我们就按默认参数就可以了,把这个也连过来 v e 模型,那这个时候就相当于我们配置好了模型, 然后来测一下这个工作流的运行哈。等一下啊,我把这个工作流先保存一下,重新命名,然后把刚才这个工作流拖入进来。拖入进来之后呢,我们看看它是怎么做的,参数是怎么连的,做一个替换哈。 open floor 里面, 把 the vance 拖进来看一下哈,这个节点就连出来了一个最短边的参数哈, shortest side longest 最短边的参数应该是连到了这个 resolution 上面啊。好的,那这个工作流基本就没问题了,我们上传一张图片,让他给我们放大一下试试啊,我们就用刚才他给我们生成的这张男生的图片吧, 复制一下,粘贴到这里 set, 因为就给他连过来啊,把这个节点删了,然后第一阶段的话,放大到两千就可以了吧。第二个阶段呢,我们放大到四千吧, 这个指的是它的最长边哈,我们把它的最长边放大到四千,就相当于做了二点多倍的放大哈,二点五倍的放大了基本上,然后我看一下这个参数哈, seed 给它改一下 tailing upscale 放在这里, 然后看一下他的参数有问题啊,也就是插件更新导致了节点出现了问题,所以说我们是需要把节点删除重建一下的,原来他的过程呢,做一个替换就可以了,连到这里,所以说这个节点可以看他已经没有输出了,所以说这个节点对我们当前工作流没用,删掉就可以了, 现在应该没问题了。 new resolution, 把连上放在这里吧,运行一下试试啊。运行吧。好吧,现在这个呢,就是图片高清放大的工作流哈,这个节点有错啊,我们看一下错误是什么? block swap 是 无效的哦,我懂它意思了,它的意思是呢,你的模型放在了显卡,如果你做 offload 的 话,也就是显存卸载,做 block swap, 你 需要把它卸载到另外一个设备上,所以说这里呢,我们得选 cpu, 不 然的话它卸载不了哈,我试一下不做 block swap 它能不能跑哈,因为我想让它尽可能的把我显存占用多一点嘛, 如果我的显存不够的话,那我就去做 block swap。 现在的话可以看在做第一阶段的放大,然后我们的显存占用只有九个 g 是 没问题的,九个 g 占用很少哈,但是等到第二阶段放大就开始大了哈,图片放大对显存的占用很多,所以说这些工作流的配置你一定是要清楚的,不然的话,你没办法把它交给 openclock, 让它给你运行, 因为你需要选择其中的参数,让 openclock 去修改的。你比如说这里的模型的名字,你肯定不能让它修改,因为这个模型是你自己固定好的,放在本地的。还有这些呢, device 这些它没必要修改,所以说你就不要暴露给它,如果你暴露给它了,它就可能给你改,一改的话,工作流就跑不了了, 那个时候问题就大了。但是这个呢,就取决于你康复 ui 学的怎么样。如果说拿到一个工作流,你都不知道提示词在哪写,或者说都不知道你在哪里设置图片的尺寸,那你怎么去让模型配置呢?对吧?所以说这个呢,可能需要就是你学完了康复 ui 之后呢,你再学 openclip 加康复 ui 会更方便一点哈。 好的,放大完了,我们来看看,右边是原图,左边是放大之后的,大家可以看一下哈,看看他的衣服哈,还行吧,衣服质量还不错啊,看这个扣子, 这个扣子原来是扭曲的啊,现在已经到正常了。还行,这个放大质量不错的哈, 对吧,他多少会有点修改哈,百分之九十九相似。还行哈,这个质量没问题,工作流也没问题,那我们就直接把它 导出开始封装吧,导出一下,但是要把它导出成 api 格式哈,图片高清放大命名一下。 api 命名完之后呢,我们就把这个工作流导入进来哈,然后这里有个描述,说明我们要给它写上哈,就是图片高清放大可以,这应该就行了, 这俩节点我们不用管,所以说主要给的就这仨参数就可以了,一个是一百四十八号节点,一个呢是一百零四,一个是一百二十五。 我们先把一百四十八号节点给他暴露出来哈,一百四十八号在这里打开,然后描述一下,就是需要被放大的图片位置,然后生成必须给他勾选上,然后呢还有一百零四和一百二十五啊, 你找到一百零四,一百零四,一百二十五,这俩都给他打开啊,一百零四的话,这是啊 number, 也就是第一步放大的最长边长度 建议在两千以内,然后这是我们的第二步哈, number 二,给他起个 number 二吧,就是最终图片的最长边的长度建议大于第一步放大图片的最长边, 就这样,一个两千,一个是四千,这样的话就应该已经够了哈。第一步放大的最长边长度建议在两千以内,不要超过 number 二的大小。好吧,就这样保存一下, 我们来试一下哈,就像现在我们就已经配置完了,你可以问问这个 openclock 你 现在可以用的工作流都有哪些?可以看到他已经给我们说了他现在可以用的工作流这有八个,然后再加上我们刚才给他配置的这个图片高清放大的, 然后他说刚才装的插件已经装成功了,那我们给他,让他生成一个真实人物,女生在二十五岁左右吧,然后衣服风格,背景装饰,长相你自己设计, 然后分辨率呢在一五三六零二四左右,然后再把这张图片放大到,我们让它放大小一点嘛,不要太大了,最长边放大到三千,不改变原始比例。我们先让他把生成的人物发给我,然后呢再放大发送给我, 然后呢再把这张图片最长边放大到三千,不改变原始比例,放大后再把放大后的图也发给我。 好吧?就这样这个时候他就会去做了哈,然后现在可以看我们的图片已经生成了哈,这个是一五三六乘以一零二四的分辨率吗?然后这是他设计的给我们生成的一个真实的女生,然后包括他的长相啊,然后以及穿着啊, 然后装饰包括背景全都是自己设计的哈,他用提示词设计的。然后设计完之后呢,现在就开始做图片放大了哈,等他把图片发给我了哈, 这确实是放大后的图片啊,这是我们放大前的,这是放大后的 是吧?确实是啊,是放大后的图片。

三月八日秋叶手搓工作流更新第一个 ai 慢剧工作流思路先来看断片, we're gonna question it aplenty yeah good they won't get away this time crash faster。 在 左边输入提示词,全自动接管推理 植出人物三式图,分镜和最终视频,有图文教程,三四五常常咸淡。第二个,忘二点二二创人物替换工作流替换人物已经细致到发丝的地步,适合视频爱好者。 第三个,最近火爆的 cden 全套提示词基本上满足百分之八十的需求了,配合康费 u i 工作流优化,使用这种视频也是信手拈来。 零基础全教程,三四五常常咸淡。

这个超强的 comfyui 电影级纹身图与图声视频教程终于来了!直接丢工作流就能用!先来看看效果,官人,你都有几日 没来看奴家了,不用找导演,也不用调参数找灵感,小白也能做出电影级大片!上传图片自动反推提示词,沉霜冷光如薄纱缠绕人物立于冰晶秘境之巅。 侧逆光分层勾勒出鎏金与冰蓝交织的多层轮廓,光丁达尔效应自零雾中透出柔白光。图像视频效果也是很不错的,动作丝滑,光影细腻,蝶舞纷飞,绝对不输于你看到的任何电影级场景。工作流已经整理好了,需要的小伙伴七八九拿走!

谁能帮我做一个这个 comforion 的 这个工作流啊?我的需求是就是先按照提示词来去生成这种室内的一个呃, 一个空间,然后再把这个我的这个产品啊,再给它弄进去。产品的话要有那种亚克力磨砂那种材质的,那种质感的要求,谁能帮我搞定一下?可以付费哦,可以付费。

这可能是目前你见过最强的全人物角度一致性工作流,能自动生成全角度一致性的图片,真人动漫都可以,只需要一张人物图,这个工作流就能自动生出各种不同角度的人物,还 能轻松替换人物形象,非常简单。整个工作流需要的模型参数已经调配好了,需要的小伙伴二三四拿走。