你现在看到的视频是由 ai 生成的,请先仔细观察一下女主的外表,本期来讲, stable video infinite 和万二点二区配合生成无限时长视频的工作流实测 到这里,你再观察一下这个女主的外表,是不是跟你刚刚观察的外表没有任何的变化,用专业术语来讲就是视频主角的前后一致性非常的高。 我相信很多朋友在生成 ai 视频的时候,会出现这么一个常见问题,那就是视频里的主角会随着视频生成逐渐走样,也就是视频开头和视频结尾的样子会相差很大。 stable video infinite 这个模型就是为了解决这个问题,它可以提高视频主角的一致性。另外再配合 one 二点二,可以生成更加自然和动态的 ai 视频。 最关键的是模型作者特别的贴心,为大家准备了康复 u i 工作流,你只要拿去用就可以了,你看他在这里上传好了,并且也写了对应的操作说明,是不是特别的贴心。 那话不多说,我直接带大家去体验一下这个康复 u i 工作流到底怎么样。首先跟着我打开 runnyhabar, 搜索电磁波 studio, 点击工作流,找到 stable video infinite 工作流,点击运行工作流,你就可以跟着我学起来了。进入到工作流页面,首先在最左边的模型加载区,这里你需要加载对应的 stable video infinite 大 模型以及 one 二点二 i2 v 大 模型, 还有使用 one 二点二 lightning 加速 laura, 用于提高视频的生成速度。右边就是生成第一段五秒短视频的工作流部分了,其实就是 one 二点二图像视频那一块儿, 你只需要在 log in mate 节点上传视频的手势图片,我上传的是一张动漫女主坐在办公室的照片。 另外需要在 text encode 节点输入这一段视频的提示词。比如我输入的是镜头缓慢拉远,一位年轻女子对着镜头比着耶,他就会立马给你生成一段五秒的动漫短视频,视频里的女主在对你比着耶。 接下来就是进入到批量生成后续视频的部分了,在这里使用 get image or max rand from bunch 节点,用于获取第一段视频的最后一帧画面, 将其传给 one video vce start to end frame 节点的 start image 端口,作为生成第二段视频的起始针。另外你需要在 test encode 节点输入第二段视频的提示词。我在这里写的是镜头维持不动。这名女子对着镜头点了个赞, 然后通过 image bash monkey 节点把第一段和第二段视频合并在一起,你就会得到一段十秒的短视频。 同理,如果说你需要生成第三段视频,那么你只需要把刚才生成第二段视频的这部分工作流复制一下,然后把生成上一段视频工作流的 image batch multi 节点的 image 输出端口跟生成下一段视频工作流的 get image set count 的 image 输入端口连接好就可以了。另外,你需要在 one video test in code 节点输入对应的视频提示词,点击运行按钮,你就会得到一段时长总长是十五秒的动漫短视频了。 我们来看一下最终效果。需要特别注意的是,要仔细的观察里面女主的外表是不是一致性特别的高,而且视频的连贯性还很好? 看到这里还等什么,赶紧跟着视频练起来吧,尤其是电影和广告行业的小伙伴。目前万二点二大魔性生成视频的单次时长是五秒,如果生成长视频的话, stable video infinite 这个方案是非常值得大家去好好研究一下的。 好了,如果本期视频对你有所帮助,请关注、点赞、收藏,三点走一波,这里是 dance for studio, 我 们下期视频见!
粉丝6700获赞4.5万

这是一个可以让复杂的 comfui 节点瞬间变身新手小白也能轻松上手的神奇工具。实用 ai 工具推荐第一期 comfui copilot 二点零之前在 github 上刷到阿里国际开源的这个项目,当时就很惊喜,但是当时由于本地部署的门槛确实有点高,就没有去尝试。现在它正式上线 runnyhop 平台了,打开网页就能用。这里有超多的工作流模板, 不管你想做爆款的 ai 视频,还是想用 ai 生成海报,都可以直接在指令里跟他说帮我搭建一个纹身视频的工作流,或者帮我搭建一个纹身图的工作流,他就会自动生成工作流,点击一下就可以加载到画布上,输入提示词就可以生成你想要的内容了。 它是由阿里国际 picoab 团队开发的,目标就是把 comfyui 的 操作门槛降到一百级。最最关键的是,他是直接在 runnyhop 的 云端跑, 是你的电脑配置,不烧显卡,也不用配置拍分环境,打开网页就能用,非常方便。建议新手小白在学习康复 u i 的 时候,不要一味的去死磕,枯燥的教程直接来到让你哈不用靠拍立腾跑通,你的第一个工作流,会有非常大的成就感。 我在评论区也给粉丝们留了专属福利,大家如果在使用的过程中有任何的反馈建议,都可以留在评论区。我是阿丽,关注我,下期见!

都知道 cfui 好 用但麻烦,但你知道现在用自然语言就能调用工作流了吗?哇哇哇,可以可以,这么大力的功能就是阿里新推出的 cfui co pilot, 点赞收藏上教程! 首先打开这个网站,点击工作台,新建工作流,点击 cfui co pilot, 输入你想要的工作流就好了。这里我想让他给我一个帮人物换背景的工作流,来个阿凡达的瓦廊看看效果。哇,这个观影质感非常自然啊! copilot 还有强大的 control ui 修改功能,我们设置阿凡达这张图,让他转换成动态,他就可以帮你一键修改工作流。 当然,你也可以在空白页面直接把你想要的最终结果告诉 copilot, 让他直接把文本提示词填到画布工作流中,参数修改,动口不动手。 除了强大的 a 阵能力,前段时间火爆全网的万系列模型在这里也能一键调用输入。给我推荐一个万二点二人物替换工作流, 我拍了就会帮你推荐好三个最符合的工作流,大大节约了我们的选择成本。最后关注一下这位 ai 博主,发现更多厉害的 ai 工具,反正我是被这个一句话都用 comfy 惊艳到了。

大家好,今天跟大家介绍一个这个 skill, 就是 一个更好的动作迁移的 技术啊,它跟我们的 animate 相比呢,有一定的优点啊。首先你像这种啊,我们看这个,它第一它又有转身,又有这个 啊,切,镜头类似于这种,其实安妮美蒂特有时候出来他会有一定的问题啊,当然这个也不是很完美的,比如说你看后面啊, 哎啊,你看后面多了个人啊,但是这个其实整体跑下来啊,还是感觉比比安妮美蒂特效果稍微更好一些啊,比如说你看这个其实就没有那个人了,这一跟抽卡有关系啊。再就是比如说这个 是吧,也是很好玩的,并且它支持各种次元的转换,你像这种二次元的转换也没有问题啊,看二次元的,最关键的啊,它这个双人双人迁移做的很丝滑啊,比如说类似于我这个 女儿,国王和所有和猴哥的啊,你看他这个转身过去也丝毫没有崩啊,当然这个棍子稍微有点崩啊,这个也是没有那么完美啊,对吧?大家看, 这个是原视频啊,两个人跳舞,然后,呃,两个人的就直接上传两个人的就可以了, 效果不错啊。嗯,也是推荐大家玩一下啊,本期对应的这个工作流呢,我也同步上传到了 ronnie happ 这边啊,你像这些新技术啊,这个其实是昨天才发布的技术,类似于这个啊,他的这个背影也迁移的很好。 呃,类似于这种新技术新玩法, ronnie happ 一 般会第一时间上新啊,也是比较适合小白去玩的, 因为我们不需要去考虑那么多配置环境和模型的问题,直接就可以玩了啊,如果是新用户呢,这边用我地址注册,还能送大家一千个积分啊。我们说一下这工作流具体怎么使用,一会再跟大家说一下。如果大家本地玩需要注意的地方啊, 首先呢,使用也很简单啊,大家第一在这里呢,就说视频的宽高,这个一定要注意,一个是宽,一个是高,有些因为很多新手朋友啊,他横屏的视频没有改过来,所以说造成了视频给截了一块啊,这个大家注意一下, 按照这个顺序来啊。然后下面呢,就是视频的时长,呃,这一块需要注意的啊,因为 首先这个模型啊,他基本是在十六针这里训练的,所以说我这里没给改啊,如果大家觉得动作不够丝滑的话,可以手动给改,把这个帧率改高一点, 但如果你把改高了的话,你这个简易预算这里啊,一定要把这个十六给改过来,比如说你这里改了二十四,那你这里也得改二十四啊,要不他运算不运算就出问题了,会造成视频就说 呃,变速啊。然后再就是说后面合并为视频,这几个帧率要统一起来,这边为了贴合他原模型训练效果一般,咱就十六就不变了,因为他用的底膜也是万二点一的技术。时常这边啊,这个团队说是 基本按八十一帧,也就五秒来训练的,但我这边实测啊,我这边跑了个十秒,效果也是不错的,并且啊,我这跑十秒时间稍微久点啊, 跑了四百多秒才跑完了,这一阵啊,电脑内存条崩了一根啊,所以说是四十八 g 内存跑的可能可能有爆显存了有点。 然后啊,这里改一下什么孙悟空和女儿国在跳舞,提示词改一下就可以了, 整体整体,其他的没什么了。再就有一点需要注意的啊,如果你跑单人的话,你需要把这个开关给开一下,单人的话他是支持。第一是多风格, 比如说类似于我们这里展示的,不管是这个卡通人物呢,还是说像这种毒液这种虚幻人物,还这种真实人物,还有那种 q 版的大头的,他都是完美支持的,但是双人的话暂时只对这种真实人物支持的比较好,像卡通的什么经常检测不到啊, 你看他这边也是就说是跟比例有关的啊,所以说使用的话唯一一点注意的就是这个位置啊,我们说一下这个本地,大家使用这个工作流需要注意的啊, 首先呢,大家需要安装一个新的节点啊,就这也是 k g 为了支持这个项目新做的一个节点安装的方法呢,一、推荐大家直接在节点目录里头,然后输入 c m、 d, 我 们把这个节点的路径给他拷贝下来就可以了啊, 装完这个之后呢,他这个节点就在这里头了啊,然后我们刷新一下看看。节点下载完之后呢,这边有个依赖文件啊,我们还需要装一下依赖文件,大家就进自己的环境目录下再装一下依赖文件就行啊,说过好多遍了,咱就不强调了, 现在就有一点呢,大家需要就说更新一下这个 one video 节点啊,之前这个,呃,之前这个模块呢是在分支里头啊,但现在已经更新到主节点了,所以说大家直接给他 point 更新一下主节点就可以了,一会更新完,更新完之后这里就显示他这有这个节点了,并且 视视力的工作流也有了,这个也就是在视力工作流上做做了一些改动啊,再就这工作流呢,他加了这个 uni 三四呀。所以说对于这个呃运镜的话,大家可以看一下,还能完美的,就说迁移原视频的运镜效果还是不错的啊。 然后剩下的呢,无非就是模型的存放了啊,这边我直接都把需要的模型放到整个 model 里头了,大家把这三个直接给拷贝到自己的 model, 或者说按照你的这个 model 直接放进去,如果有它会显示替换,如果没有就正好啊, 直接就可以运行了。剩下的也没啥了,其他的都是我们 y 二点一用的基础的东西,比如说 lightning 模型,还有 ve 等啊, 好嘞,整个项目还是值得玩一下的啊,效果确实也是不错的啊,更多的效果大家自己测一下吧。 然后呃节点还有模型呢,我都会同步放到网盘里头,大家从网盘里头呢找到今天发的日期啊,你像十二月十六日,然后所有的基本都在这找到今天的日期,然后下载工作流和模型就可以直接使用了。好嘞,谢谢大家,再见。


哈喽,大家好,前面给大家讲过了爆款二创保姆级教程的前三课啊,一个是理论准备,一个是前面六步的操作,还有一个模型和风格的设置,以及人物一致性的设置。那么今天这堂课呢,主要是讲的是绘图啊,最重要的就是纹身图 啊,但是我们纹身图的话通过这个软件呢,是啊,把这个人物的角色的信息啊,包括提示词的信息都传给工作流啊,让工作流来生成,在生成图片的时候去保持人物角色场景的一致性啊。 今天这堂课呢,主要是讲这个内容啊,然后呢,我呃会给大家讲两种方式啊,两种算力类方式,一种是仙宫云,一种是 roundabout 啊,因为这两种方式呢,你才能够确保你的算力没有有时候啊不会缺啊, roundabout 呢,是我经常用的一个工作台 啊,这里面我发布的所有的工作流,然后应用都在里面啊,这里面有大部分都是很多都是用于 做动漫短剧的啊,做动漫短剧的包括三点零,四点零,五点零,包括五点零 pro 啊,这种分镜的方法啊,也都发在里面,大家就可以去使用啊。但是我们今天讲的呢啊,是这两种方式都会给大家介绍到啊, 那么下面就是呃,开始来今天的一个授课,今天是第四课,纹身图啊,批量纹身图,第十一个,从第十步开始就是绘图,绘图配音和动画。 ok, 那 我讲快一点开始绘图, 首先我们先绘制第一张图,我们先绘一张,看一下你这个风格,看一下人物问题有没有问题。另外一个我们来看你在提示词里面我这个角色都没有, 你看没有,为什么没有?没有角色,这也是另外一个非常关键的,关键的知识点,非常关键的知识点。假设你看,我们来首先来看这个画面提示,首先第一个画面里面没有人物,他没有任何的角色,假设我想点一个何妙音,我想这个人物出现,我想让这个何妙音出现,这个人物叫何妙音,我 点一下他,大家看一下这个图,我们传进来参考图是不是一样的啊?看一下一不一样还是不一样,根本没有太大的关系,一个衣服差的太多了,对不对?一个是这个红色,一个是还有纹理,他都没有原因,是什么 原因?我们看没有,根本没有显示和妙音东西。而且还有一个关键的地方,我们有时候大圆模型他去生成的时候, 他出来的这个人物,比如说这个叫何妙音,但是你把他打成了何淼音,一个字不同,他的软件也不能识别,必须保证。比如说我们在这里面添加一个东西,全景画面镜头 的背景就写一个和妙音站在屋子里,我只是给大家检查一下。说到这个地方就是要给大家说提示一下,如果我们分镜做完之后,你一定要自己检查一下角色和你的提示词, 第一个人物名称有没有,比如说他有没有匹配上,如果没匹配上,点上以后光点上也不行,你的提示词里面一定要有,要有有这个人的名字,而且名字不要打错了,比如说他是肖警, 你打成另外一个字他就不能够识别,因为软件他都是死的,他只能够去按照规则批量化、自动化,是不是这个原因?好,我们再生成一张来看一下这地方,你在正在绘图, 打开云端镜像的的里面给大家看一下是哪个镜像里面在绘图这里面看没有,我们打开云端镜像的地址里面,在这个队列里面也会看到列表,如果我们是多个,他就会自动分配任务,这也是非常智能的。你去部署十个看没有?来来我们看一下,这是第二张生成的, 这是第二张生成的,和我们的角色有没有一致性?来看一下,大家看一下是不是有了一致性。那所以说这几点你都做到之后,你才能够保持一致性, 哪一点没有?你的一次性都会变差,都会有问题,方法就是这个原因,也是这个,我点到为止,应该大家如果看到这地方,应该是都学会了,都看懂了,明白了这个逻辑,明白这个逻辑之后,你就去检查所有的分镜。所以说 ai 做的事情你并不是完全相信它, 你还是要去做人工的检查,我们人工是干什么?去核实他有没有偷懒,有没有搞错,有没有有问题?你看没有,所有的地方都没有主角,他就写了他,他他他,他是谁?他是何妙英, 你把这个名字就给他复制过去。逻辑我就去说逻辑一样的展示了,贵妾,贵妾又是谁?他,他知道是他,但是他不知道是何妙音。如果有两个人一定要把两个人都点进去,贵妾,贵妾又是谁?看看我们的好。还有一个问题,假设里面我们这个角色里面没有贵妾,他分进脚本的时候没有怎么办? 增加角色看没有,可以增加角色,增加一个贵妾,我们就取名叫贵妾,当然你自己可以取,我是为了方便贵妾,这个贵妾你肯定你需要他,你把他的提示词你得想一个了,这个贵妾多少岁?穿的什么衣服 啊?你在最开始的时候,我为什么我说在最开始的时候,你做角色的时候一定要做准备,做足你这个剧本里面有贵妾,你都没有角色的图片,没有角色题词能行吗?那肯定不行,我简单写一个,一个二十二岁的, 穿着二十二岁,穿着绿色,穿着粉色茶里茶气的服的粉色中国古装粉色长袍,这种题词大家最好用大圆模型去写。穿着粉色长袍,中国古装风格的女孩取名叫贵妾,是一个题词词,自己 选,你可以去我这上面是添加参考图,这里面不是生成,是去增加这个角色,你需要从外面去把它这个角色生成好,把你的词,角色名啊,把参考图添加进来,假设我去添加一个参考图,我选一个,看 有没有,这个是主角,不是重新选一个,就选他,随便了。做个试例,大家看,没有这个贵妾就被添加进来了。我第二个镜头里面想写何妙音和贵妾两个人,那就选择贵妾,这里面只要有贵妾这个人,那我们先来生成一下,点击重新绘图,我们来试一二张,点击绘图, 也就说我们假设你其实里面去给它加进来,添加进来,添加进来, 添加参考图,添加名字要打进来,错了地方输错了,这地方输入角色的名称是他,这提示词写在这,这个是这个角色的名称,就说他有两个名称,我们也是可以识别的,但是你把所有的别名都必须放在这一行一行一个,比如说他叫贵妾, 还有张三李四,你可以把它包括你写个他,他都能够去识别他的别名是什么名称,下面他的别名这个地方是他的一个提示词。 ok, 来我们看一下, 哈哈,这个是传的是德华啊,有点不像,但是他参考的图片包括我们的角色还是不错了,作为一个开源模型能够做到这样,我们还是有一定的包容性好不好?至少人家穿的衣服,人家穿的手上拿的东西,长相你说有多像,我觉得还是 有点区别,但是这个肯定不是对你二十块钱、三十块钱、五十块钱的这种的做水平的有一个要求,没有那样的要求对不对?我们达到这样的程度, ok 了,大概差不多,穿的衣服差不多 ok 了,对不对? ok, 方法都教完了,检查你的名字不够的去增加角色, 完了之后就没啥了,这些假设都没有任何问题了。 ok, 点击批量绘图就完了。点击批量绘图,我们的第十步, 我们大量工作就是批量绘图,但是批量绘图占用的时间不长,我我我现场给大家会一下。点击批量绘图之后有一个继续绘图,有个全部重绘,这两者的区别就是你如果点击继续,他已经有图片的,他就不会 替换。如果你点全部全部重绘很简单,我们点击继续绘图,他就会全部重新去绘图。我们来看一下绘图的时间有多快, 所以说画图我在成本核算里面给大家算过,我做一百二十个分镜做出来的视频,十五分钟的视频,画图和配音的整个的成本两块钱,画图和配音的成本总共两块钱,大家听我说总共两块钱, 其他的成本都在视频我,我完整给大家算过,这个成本就是你一张图多少时间,我们需要多少多少,总共需要多少时间。用我的测算,我做十五分钟的视频成本三十三块钱。先供云,这是指先供云, 待会 roninhaba, 我 会给大家讲 roninhaba 的 成本,这是先供云,时间成本也正好给大家说一下。讲到这来了,他批量绘图,我们就不管他了,批量绘图你看没有? 一百二十三张图,我们看一下他会有多有多快给我们生成,我们正好给大家讲一讲成本的折算,纹身图大概是平均十秒钟一张图,我们待会现场给大家看,十秒钟一张图,怎么来怎么来,检验,打开云端镜像,打开这个里面,打开刚才那个地址看没有,十秒钟,五秒,四秒,四秒, 而同时也验证一个事情,他是不是多个镜像里面同时在绘图,看没有,这里面也在绘图, ok, 他 就自动生成了,全部批量的自动生成的。我的这个,我把这个贵妾设成了德华兄,所以说每次出来的都是德华兄,看没有,都是德华兄,我们看一下一次性人物的衣服都是保持的非常不是, 还是不错的。五秒钟,五秒钟一张图,我还给大家测出来的是十秒钟一张图, 我们通过这里面来看,真正他是五秒,五秒钟,有时候这个任务他没有刷新,但是不影响他在后面出图,我们可以刷新一下这个页面,也可以出来平均十秒钟一张图,那么总共需要这么多,配音是两秒,配音是更快,两秒钟一张图,所以说不是配音,用不了多长时间。成本,我给大家算过两块钱,总共时间, 总共,如果说你只开一个镜像,我出的是十四分钟的视频,用时十二个小时,总时间需要这么多长时间,但是我刚才跟大家说过了,你们仙宫云散是多开的,你总共时钱是这么多,你一台机子十二个小时,如果你开十个机子,那么总时间就是一点二个小时,一点二个小时。 那么所以说你如果想做爆什么款,二什么创,你批量化,批量化你就可以去多开,去多开。配音怎么固定?我待会讲,待会讲,我先把这个东西给它讲完。 第三个就是学习的成本,学习成本怎么说呢?一天可以学会,三天可以熟悉,五天可以深巧,五天可以深巧, ok, 这是仙宫云,这里面都是,下面的都是算算的时间,我这里面都有时间。第二个呢,我们给大家讲,如果说经常我们会遇到仙宫云,没有没有算力,没有算力, 所以说我给大家提供了第二种方案,叫链接 running hub, 链接 running hub, 如果你先共赢,没有你先共赢,他主要是下午是高峰期,他可能会没有没有算力,没有卡,这个时候没有卡的话,我们就可以采用第二种方案,你用 running hub, 然后 running hub, ok, 怎么怎么使用,怎么使用?我跟大家有一堂课,专门的讲,那么今天我还是给大家演示一遍,演示一遍好了,这些的我都不出了,我就停止任务,我停止任务全部停止,就是我生成的一半,我先把它停止,点击,点击上面这个停止任务取消掉, 取消掉以后啊,取消掉以后,我们现在去做第二件事情,我们选择算梨园不同,选择算梨园不同。首先我们第一个把左上角这个地方改成,第二,改成这个 running hub 工作流,这地方就要改了,我们就要选择不同的算梨园, 选择 running hauber 工作流, ok, 改一下它。第二一个在我们的这个软件设置这里面,在 gpt 设置 gpt 设置这里面选择选择这个 running hauber 秘钥, running hauber 秘钥选择它, 选择 wannihub 密钥,然后找到这串密钥,这串密钥从哪儿来?这串密钥从哪儿来?最关键就是这个,这串密钥从哪儿来?然后呢要输入公众的 id, 我 一个一个讲这个密钥从哪儿来? 这个蜜柚就从 rylan hapa 这个网站上打开,你先要注册之后有一个 api 的 控制台, api 的 控制台之后,你这个地方才会有这个蜜柚。我现在呢是给大家暴露了,但是我后面会把它重置,重置,重置之后你这个蜜柚就用不了了, 但是呢,每个人的蜜柚都会不同,都会不同,所以说你的蜜柚你要自己保管好,有了这个蜜柚之后,你点击复制,复制到你的 rylan hapa 里面来, 你们来,有了这个密钥之后,我们才可以通过这个软件去链接 rony haub, 让 rony haub 给我们生成图片,生成视频,就靠这个密钥来 实现它的一个算力的一个交互,那么这个密钥的作用就是取得这个,包括你以后用其他任何的平台,它都会有这种密钥的一个一个意思,它的意思都是这样子的,那么我们 rony haub 呢?它是你要想通过 ipad 的 方式去调用它,它这里面有一个价格,你看没有, 你必须是基础版以上的,你才可以去 a p i 的 方式去调用它,你不然的话就调用不了你六十九的呢,它可以并发数,一次性可以并发一个,也就是说你一次性只能会一张图, 那么时间就会很长,包括你那个基础版 plus 呢,它也是有一个,它只有专业版可以三个,专业版 plus 呢,才可以五个,对吧?这就是区别。第一个能不能够调用 api, 你首先你最基础的,你肯定需要能够调用调用 a p i 吧,所以说我们最基础最基础的就是这个六十九一个月,六十九一个月,它能够,它送你是四千点的一个积分,但如果你 up 上它的它,你升图也好,升视频也好,配音也好,都是扣的你的积分, 那六十九就相当于换了四万积分,我们待会会来计算一下价格。 ok, 那 这是第一个问题,我们的利要。第二个问题就是那个工作流的 id, 工作流的 id, 工作流的 id, 我 已经给大家 准备好了,大家直接复制就可以了,直接复制就可以了,如果你用真人的,你想去生成 zimag 的, 我刚才说过 zimag 它适合真人,但是无法保证一致性,如果你用千万 edit 呢?那你就选择这个,你把这个 id 复制一下, 回到我们软件里面,把这个 id 填到这儿就可以了。这是纹身图的,你下面如果去做图生视频的,你把这个 id 填到这儿来就可以了。 记住两个东西,其实是两个东西,第一个字改成 runninghub 工作流,第二个字选择 runninghub 密钥,第三一个把密钥填在这,第四一个把工作流 id 填在这, ok, 点击关闭。大家注意啊,我们的软件有自动回弹机制。自动回弹?什么叫自动回弹? 我关掉关掉之后,我再打开之后啊,我再打开之后,他又默认的回去了,回去了。这是什么原因呢?因为我们这个软件设置了一个机制,就是保护机制,保护机制这是为了很多新手,他设置完了之后,他没有没有把他设置回去,所以说我们设置了这么一个一个一个按钮, 但是实际上你把它,你把它只要配置好之后,你只要把它配置好之后,你不用管了,你关掉之后就不用管,你在下一次打开它之之前,它都是会产生作用的,所以说你不用一遍一遍去设置,不用一遍一遍去设置, 你就点击它,把它设置好之后点击关闭就可以了。那么这个时候我再来去做纹身图,我们再来做纹身图,我们现在来做,我们从这儿继续开始看,没有,我点击,点击一下它,点击一下它,我们来看一下 会不会失败,如果是失败了之后,去找刚才的几个原因,第一个你这儿是否选择了 running hub? 第二个,你的密钥是否准准确?第三一个你的密钥里面是不是有有有 money, 你是不是这个有这个资格一定要六十九以上的会员,他才可以 api 的 方式去调用。第四一个你的工作流 id 对 不对?这几个关键你找找对了就可以了,然后你在运行的日子里面也可以看 ok 没有报错,它显示现在显示的是 api 正在运行, 没问题,没问题, ok, 还可以怎么验验证?回到我们 ronnie hauber 里面回到我们 ronnie hauber 里面,打开这个 runninghub, 你 运行任何一个工作流,在你的右上角,这看没有,有个 api 的 任务列表,它也会显示我们这个任务。看没有, 在我们的 runninghub 上,它生成一张图片多长时间?三十九秒钟,三十九秒钟。回过软件里面看它生成成秒,生成成功了,看没有?女主角抱着猫坐在这女主角抱着猫坐在这, 那是不是我们云端的这个图片一一模一样的看,没有,就是我们云端生成好了,软件自动的给我们看,没有下载下来,下载下来, 所以说这就表示我们成功的链接了,那么这个时候就不需要先供云了,你这个时候就把先供云给它注销,注销掉 再点击批量绘图,我点击继续,点击继续, ok, 他 就会,他就会把这个成功的跳过,继续去生成,生成后面的,后面的 这两种方式我希望大家都掌握,都掌握,因为我们做批量的经常会遇到算力不够,那么这个时候已经我已我已想到了最大的办法来 解决大家的一个问题,帮助大家解决这个算力的问题,包括这个真人的,你想用 z e m g, 没关系,我给你提供了的,你把这个 id 换一换,就是调用了 z e m g 的。 但是我跟大家说过, zm 一 米几,因为他不太适合于编辑模,他还编辑模型没出来,所以说他的一次性还不太好,不太好,所以说默认,我们先选择这个,选择上面这个 ok, 这里面我就介绍了很多,大家能看就行了。你想工作流的话,也可以去把这种工作流下载下来,下载下来, 你如果这种下载下来适适合于谁呢?适合于你自己有一点抗费的基础的同学,比如说我把它下载下,下载下来 我还是给大家演示一下,我下载到这个这个地方,然后打开 runninghub, 在 你的工作台 点击导入工作流,把这个工作流导进去,导进去。导进去之后大家看一下地址栏,地址栏最后有一串数字, 这串数字就表示这个工作流的一个 id, 就 表示这个工作流的 id。 如果你有能力有 comrade 同学,你就按照我这种方式去链接你自己的工作流,链接你自己的 com, 用你 help 的 工作流。好比如说这是一个这个任意阶的工作流,任意阶的工作流,我们我们的软件里面他做了什么事情? 我们软件为什么和它能够对接起来?我们的软件里面它是自动把它的角色的信息,任何这些角色的信息,包括这个这个这个提示词, 这些信息是自动的传给了 ronnie harper, 传给了 ronnie harper, 大家看一下,不是不是他默认的这个提示词,看,没有,是我们软件里面的那个提示词, 我们只是说在这个里面加了一个正面词,他是干什么的呢?他是为了让软件能够识别。我的提示词是传给这个节点,我的这个软件里面的这个提示词 是传给这个节点,所以说他可以批量,他可以批量。但是呢,我们没有把什么传过来,没有把这个图片的尺寸传过来,那所以说你想自定义尺寸怎么办?这个地方改一下尺寸就 ok 了,这是宽度,这是高度,你想怎么改怎么改,你想怎么改怎么改。 如果你有抗废技术,技术同学你还可以去改,其他的都可以改,都可以改。这地方呢,我就不展开讲了,只是告诉大家,我们的软件是自动的去链接 round 哈布的这个工作流,然后自动的把我们软件里面已经分镜好的这些东西,包括体式词,包括这个角色传过去,传过去,传过去之后他生成好了之后再自动传回来,看,没有,这个是贵器, 哈哈,这个会切还是还是很香的吗?对不对?看一下是不是? ok, 这就是哪一步了?绘图,绘图,我已经讲完了,绘图已经讲完了。配音,家里面一步就是配音。

hello, 大家好,我是嘟嘟,那我们今天的话来分享一下这个呃 j max 洗图这个方面的嘛,之前不是给大家分享过那个八 k 的 破线吗?那个是纹身图的对吧?那有粉丝留言说想让我再弄一个这个八 k 的 洗图的,那 ok, 那 今天就给大家带来这个洗图的方案,而且是一次给你们两个啊。 呃,这种两个的话分别是一个是反推图像反推,然后纹身图,那另外一个就是呃图身图的形式,通过降噪的方式来让它保持一次性, 后面这种的话它是更容易跟原图比较接近的,只是用 j max 这套方案让它的皮肤更有质感,并且放大到四 k 或者八 k, 对 吧?那核心的那些工作流节点其实很像啊,它改动其实并不是很大, 那这一次的话就呃也给大家做这个破线的,但是图真图好像破线意义不大,是不是因为我们一般都有图了,还破什么线?但是我搭的话也给你们搭,你们到时候自己本地去调就是了,参考之前的本地破线的那套。 那我这边的话工作流是我搭了两套都发布到 runnyhop 上的啊。 runnyhop 这边大家搜嘟嘟两个字,你就可以看到我发布的所有工作流了。那这两个呢?就是我们今天啊刚才刚搭好的, 直接点开使用,在线使用啊,只是说在现在线生产的时候,它那个图像是比较大的,八 k 的 话要二十几兆,我是本地在用的那个 coco 那 个压缩质量的,把它压到四兆大小的 后期。这个啊,温总会支持,我让他把那个节点加上了。之前这个在线的节点是保存 jpg 的 话,他呢会报错啊,估计明天就好了啊,到时候你们改改,一会跟大家说怎么去调整。 ok, 那 我们来看一下这个工作流啊, 这个是呃反推的啊,这是一个反推的工作流,你可以看到我最终其实是出来了 一个小鸭鸭,这个是加密的,然后这个是直接可以在线的,你如果想本地加密,你就把这些跟这个隐藏掉,最终输出就只要这个就行了,那到时候在本地再去 给大家去解密,因为我这里这这我这个测试的图都是正常的哈,就没有那种 n f o s f w 的, 所以说我就直接在这边去跑了。那看一下吧,跟之前纹身都比,它其实就多了一个,一个是反推,对吧? 反推这边啊,就这里用千万三 v q l 这个这个提示词给它配进去写一下也可以,你们本地的话用这个或者用其他的,像以前推荐的摩达也可以,对不对? 然后其他的话好像就不用改了,我这边默认就是幺零八零乘幺九二零,然后这个是放大倍数,放大四倍之后他就是八 k 的 画质了,就是八 k 的 画质, 这边只是给他做一个缩放,给他传进来去反推的。 ok, 那 后面的话就是我们正常的那个啊,真实幻想的罗拉结合,还有这个增加高频细节的,这边都是这样子的。那出图之后呢,我们就开始去接入这个 t t p 的 放大,再结合我们的这个系统 vr 二点五啊啊,效果是非常好的,就这一套,目前测下来,我目前是非常的满意的啊,而且他三分钟一张八 k 的 图,你想一下, 那这种反推的话,他,呃核心是看你的提示词啊,反推出来详细的话,他这边出的效果就很好,这个还是幺九二零对比的啊,就是该有的元素就也都有了,对吧?然后我们要看就看他啊,放大之后的, 放大之后的啊,你看这个细节是吧?非常棒,就是这种这么这么高清的啊,到时候最终压缩下来只有四兆的空间,我真的是太太喜欢这个了。 这后续的话,我这边是保存这个啊, p n g 的, 就是默认保存图像是 p n g 的, 它还有一个 j p g 的 这个节点哈,你们看一下,就就是这个 coco 的 这个大佬,他的这这个目前你接这个会报错啊,回头的话明天更新之后,这个 save pass 这里它就默认了,就隐藏掉了。 那你直接点保存这篇剧的话,那这个图那就是保存下来只有四兆大小,非常的小,而且是高清的,我再找找张图给大家看一下啊, 你看 就那些这样子的图啊,这样子的高清的图这边才三兆大小,你看而且它的分辨率是四三二零乘七六八零的啊,这就是八 k 画质的,对不对? 又小又高清,这才是最棒的,到时候你们这边是这个,呃,高质量图片压缩,这边直接接过来就行了,那这个就是 jpg 的 这个分辨率的就可以了,切换掉这个 png, 好 吧, 然后如果你想本地解压的话也可以啊,我教一下你嘛,就是我们之前不是有让你们去安装那个插件吗? 比如说我现在是保存下来了,是这样子一张小鸭鸭的图,然后之前的话有让你们安装这个呃,加解密的这个插件,加解密的插件,然后教一下你们怎么用, 你们可以不需要本地去那个去打开那个工作流了啊,你们直接把这个图, 直接把这个图拖到这个 decode 这里面来,然后它解压完之后呢? 它在这边啊,这边会多一张解压出来的图,就这个看见没?它就是跟你这张 a 压这个图相同目录的这个就解压出来了,但是你看解压出来,你这个是啊,三十照大小的,是非常大的, 明天你就可以在线保存小的。那如果你要今天想玩的话,你本地这边的话,我看一下本地这边的话,你就自己接接一个这个保存 jpg 的 这个节点吧,把它给它录下来,这个就非常小了。好吧,这样子节点就非常小, 那行,那这个的话就是我们的这个啊,图像反推,那它的本质还是纹身图,我们看一下其他的效果,就是它这个 真实幻想的效果非常好啊,就是他出来的那个质感或者说艺术感是比较强的。我有今天,我刚才其实有测另外的模型,是那个红潮那个模型,他测出来反推出来的效果一般,所以我就没去玩了。哦,我给你们看一下 啊,既然都看到了,讲到这里就给你们看一下我反推的, 我看一下我是反推到哪一张的时候,我就不想不想用了啊。就这张,这个,这个是红潮的那个模型啊,这个是原图,他反推出来变成有点这个感觉,好土啊,然后我就那个本来今天讲红潮的,我测了一下我就不想用了 啊,这个是我们用今天的这个,还是 coco 这一套真实幻想反推出来的,你想一下,你就说你喜欢哪一张吧,你喜欢这种呢?还是喜欢这种呢?是不是 毋庸置疑?是不是?所以我就临时改了一下,就继续去反推我们这个这个效果质感,还有这个艺术感,我感觉都都更强。好吧, 看吧,这种这是反推的效果,是不是放大看高清多香。 ok, 那 这个是第一个工作流啊,那第二个工作流呢?是啊,图声图的,那图声图的话它就是有涉及到那个降噪的模型, 降噪模型的话越低的话它越接近原图,你可以看一下对比,你看一下我们这种现在的这个生成的出来,是不是它其实跟原图很接近,它只是局部的细节做了调整, 这边的话是变化比较大的,就是你如果想要变化比较大的,你就是纯粹的反推提示时用纹身,纹身图的形式去跑啊,就得出了这种变化比较大的,但是元素该有的都有,但是构图不一样的, 你如果你想构图都很接近,那你我做图你就得加那个 ctrl net c o 二点一的,它好像今天也有发布那个二点一的,等等明天这个 r h 更新了,我再给你们做做一个流。好吧,好像效果会更好,就没之前那个那么糊了,然后我们回回到这边来,所以说这种是 去深层去,这种算是真正的洗图吧,就是很接近的,只是把这些细节给他提升了,你看这个面部很油的,那就以前很油的那种图, 你就有这这个流,你给他洗一下,特别是人像哈,我们这两个,这两个工作流核心还是针对这个真实人像这一块的。好吧,质感都是拉满的是不是? 特别是脸上的皮肤的纹理,哇,我真的是太喜欢了, 都很有质感,所以大家可以试一下这个,这个也是毛绒质感,是不是就是脸上的绒毛都很清晰的,这些都是八 k 的 哈,那这工作里有跟前面那个很像他唯一的区别,我跟你们说一下, 它现在不是 colet 设置分辨率了,我是根据它的原图,我给它放大到幺九二零了,先放大到幺幺九二零,然后先去跑,那最核心的是这里这个降噪,这个程度你要改,你如果想要 更像原图,那你就降低这个啊,零点五、零点四你都可以尝试,如果你想自由度高一点,你就把它调高一丢丢啊,那其他都不用变了,这个增强细节,这个高频细节的就没动啊,就改这个,还有前面这个, 那剩下的就是 t p 放大了,我们就不用管了啊,一样的,那小小黄鸭这边,你如果不想不需要本地的话,你这个把它注视掉,因为这个生成你看也要四十七秒,我跑这个图大概就是四三分钟, 三分钟出一张图,三分多啊,有时候看吧,两分多是吧?两分钟,三分钟,那你把这个四十七秒这个关掉,那时间还能更短。就是你把这个给他关掉啊,那你可能时间就更短了, 可能两分多钟你就生成了一个八 k 的 图,香不香? ok, 那 这两套工作油就分享给大家去用啊。这个 g m s 对 人像这块的,呃,质感是非常好的,特别是写实人像的,所以说 纹身图图、生图、洗图这边全给大家包圆了。那后续好像还有一些最新的一些 james 能像模型,到时候有的话我再给大家去做一些测评。那这两三套啊,就是我觉得是目前可以包含你所有的能像生成跟洗图的这块了。 那这个就分给分享给大家。那今天就讲到这边吧,感谢大家的收看,如果你觉得我分享内容对你有所帮助,那记得给我一键三连哦。

今天呢,我们给大家介绍一个人工智能的 agent, 这个智能题呢,它是专门针对于 configui 的, 那你怎么去理解它呢?你可以认为它是一个 configui 的 专家,在它的知识库当中呢,集成了目前在 configui 当中的大部分节点,它的一个使用方法, 所以说呢,它能够帮助你非常方便快捷地去构建一个 configui 的 工作流。那今天我们给大家讲的这个版本呢,是由 runihub 和 configui compile 共同研发的一个 特别棒。呃,那这个版本呢,我们可以在 runnyhub 上去使用,大家可以通过 runnyhub 来访问这个平台。在 comfyi 领域呢, runnyhub 是 一个非常棒的在线工作台,因为只要有新的模型和新的扩展出现,它都会第一时间跟进。大家可以通过我视频描述区的邀请链接来注册 runnyhub, 这样可以获赠一千点的免费点数。另外你每天登录 runnyhub 也会有一百点的赠送,这样你就可以尝试你自己的工作流了。下边呢,我们将会从各个角度来给大家做一个全面的测试, 来看一下这个特别版的 confluence 到底有什么不同。那大家在登录 runnyhop 之后呢,可以点一下工作台,然后呢我们可以新建一个工作流,那我们在左侧的这个工具栏里边呢,可以看到这 儿有一个图标啊,叫做 confluence, 那 这个呢,就是这个 agent 的 入口了,那我们可以点开它,大家看一下,这儿有一个欢迎语,那大家呢,可以自己选一下模型,它目前呢支持四种模型, 那我这儿呢就选择 jimmy 二点五 flash 就 可以了。那下面呢,我们简单介绍一下基于 runninghub 的 这个智能体, 和我们在 github 上你自己安装的 confluencepallet 有 什么不一样呢?那这个特别版的 agent 呢,会有更加丰富的知识体系,因为它除了有我们传统的 confluencepallet 的 知识体系之外呢,它同样啊,会把我们 runninghub 所有的博主 构建的工作流,上传的模型,甚至发布的作品都把它标签化,并且数据化啊,构建成我们这个 agent 的 知识库, 所以说呢,它整体的能力会更加的强大。那首先呢,我们展示一下它的一个基础能力啊,就是节点的搜索能力。那我们经常在这个工作流里边要添加节点,但是有的节点呢,找起来是比较困难的,比方说我来举一个例子, 我们经常呢会有一个音频,然后我们想获得这个音频的时长,好像这是一个常用功能,但是呢,大家又找不到合适的节点,那我们看一下啊,如果使用这个智能体,能不能帮我们去找到这个节点,我希望他给我一个节点能够计算这个音频的长度。 然后呢,我们提交一下下边的模型,进入到推理阶段,我们稍等一下。好,现在呢,它给我们推荐了几个节点,大部分呢是基于 soundflow 的, 不是每一个都准确啊,但是呢,大家会发现这里边的确有可用的节点, 比方说这个叫 audio duration, 那 我们可以点击 add to canvas 啊,把它加到我们的工作流当中去。大家看一下,我们这儿可以连一个音频,然后后边会有一个输出的秒数,那我们搜索一个节点呢, 相对来讲呢,还是比较简单的,但是你注意啊,这个就完全取决于它知识库的一个精准程度。同样呢,我们来搜索另外一个节点,而且这个节点呢更加的常用。那比方说呢,我们想搜索这样一个节点啊, the load default model, 这个东西我们经常用,但是你让它去搜的话,我们来试一下,现在呢,我这个提示词非常的简单,也是大家经常会用的一个提示词,就是给我一个模型加载的节点, 然后呢,我们来生成一下,大会发现啊,这里边有很多,但是呢就是没有 load default model, 那 为什么呢?因为你要注意啊,其实呢,这个名字它原始的节点叫做 unite loader, 后来改名叫 load default model。 那 原因很简单,我们都知道啊,其实呢,从 s d 幺五到 s d x l, 然后再到我们后来的 flex, 其实呢,那个模型的架构,原来你可以叫 unite, 但是后来呢,基本上是基于 transformer, 那 如果你再说它叫 unite loader, 那 这个就不太合适了,但是它在原始的知识库里边儿,它的确叫做 unite loader, 你 真正的把它加到这个里边儿的话,你会发现它的确叫做 load default model。 所以 说知识库的细化程度和精准性呢, 对于我们使用 agent 呢,是非常重要的,那这是节点的搜索功能啊,当然如果节点能搜索,那包括模型, 甚至我们的工作流应该也是可以搜索的。那首先呢,我们先来看一下模型的搜索,假如说呢,我现在需要一个动漫模型,那我可以使用这样的一个提示词,然后呢我们来看一下它的返回结果,下面呢大家可以看到这有基本的这个动漫模型, 总体上来看呢还是不错的,大家可以点击这个查看详情,然后进到这个模型里边去看一下这个模型的详细内容。但是我测试起来呢,这个模型解锁的时候,它会出现这样的问题啊,第一个呢就是意图的识别呢,不是特别的明确, 另外呢知识库是有些陈旧的,比方说呢,我们现在给这样的一个提示词说我希望他给我一个视频生成的模型,最后我们拿到的呢,其实并不是模型,是工作流,所以说大家会发现他对这个意图的识别不是 特别的准确。那另外呢,还有一个就是他的知识库呢,是比较陈旧的啊,比方说呢,我们现在来 使用这样的一段提示词,我的意图呢是希望它给我一个纤维一妹子的加速的 lora, 那 lora 当然也是模型的一种,对吧?那我这个表述呢,应该也是没有问题的啊。然后呢我们来 生成一下,好,大家看一下现在它提示没有找到相关的模型,那我们可以把这个提示词呢给它稍微的换一下啊,我们把加速的 lora 给它去掉,我们只说找一个纤维一妹子模型的 lora, 那我们看一下能不能拿到,再看一下现在呢有一个交互,在交互的过程当中,他问我的这些基础模型呢, 都很老了,我们现在基本上都不怎么去用了,而我们最新的这些模型呢,反而不在这个里边啊,所以说呢,你会发现他的知识库呢,相对来说是比较陈旧的,我觉得呢,这也是一个急需要改进的地方。下面呢我们再来看一下工作流的解锁。那工作流的解锁呢,应该是 这个 agent 最强大的一个功能了,比方说呢,我希望他给我找一个 vce 的 工作流,那我可以使用这样的提示词啊,我们点击发送。那现在呢,我们就得到了三个工作流,这三个工作流的确都是 vce 的, 只不过有的是首尾帧的,有的是进行自动扩展的。那这个工作流的解锁功能呢?应该是传统的 config 上自己构建的这个工作流,那我们再来解锁一个 if i need to talk 的 工作流, 那我的提置词呢,就简单的改一下就行,那大家看一下返回的结果呢,也是比较准确的。那如果你希望啊使用哪个工作流呢,就可以把它加进去, 那我们可以点 accept, 这是我之前构建的一个工作流,这就是我们说的它的强大的解锁能力啊,不管是解锁节点还是解锁模型,还是解锁工作流,所有的机制呢,都是基于解锁的。但是作为一个常规的 agent 来讲啊,除了这种强大的解锁能力, 还有一个能力是不可或缺的,那这个能力是什么呢?就是读取和写入工作流的能力,比方说呢,我现在拿到了这样一个工作流,那我不知道它是干什么的, 那我可以要求这个 agent 呢,帮我解析下这个工作流。我的提示词呢,非常简单,请用最通俗易懂的语言啊,然后呢来解释一下这个工作流,那我们稍等一下,现在呢我们就得到了一个输出,那在这里边呢,它会将这个工作流呢做一个比较详细的解析, 对于每一个节点,包括它的节点名称以及它节点的 id 啊,都会有一个比较详细的说明。当然除了读取整体的工作流之外,它还可以读取节点啊,比方说呢,我们随便找一个节点,那我们选中它之后,你注意啊,在这呢会有一个说明,你现在选中的节点是什么? 然后你现在想了解一下它的用法,还是它的参数,还是它在下游将会用到哪些相关的节点?比方说呢,我们先看一下它的用法,那这个用法的话其实很简单,然后它这说的非常详细啊,它属于哪个扩展, 然后它主要作用是什么?那原理是什么?那如果你想了解它的参数的话呢,我们依然选择这个节点啊,然后点一下 啊 parameters, 大家看一下啊,关于它的参数呢,也会有非常详细的说明,然后它下游都会有哪些节点呢?我们可以尝试问一下,这个运行了好长时间了,没有反应啊,因为这个的下游节点 可能很多啊,这个我们就不尝试了。那最后呢,我们来看一下,让它去生成工作流,那调用生成工作流的功能呢?其实呢不太容易给它唤醒出来,因为闹不好呢,你就会得到一个工作流推荐的这样的一个功能。 但是呢我们可以采用这样的一种方法,比方我上传一张图片,这张图片我们大致看出来是左侧有一个船,那我现在呢写一段提示词,提示词的主要目的呢是移除这个图片当中左侧的这个船,那我们下边呢来看一下 会得到一个什么样的反馈。好,这样的话呢,我们会得到了一个工作流啊,这个工作流你注意看一下,它是一个什么工作流呢?是一个 flex dev 的 工作流。那如果你想详细了解这个工作流的话呢,我们可以点开它,那这里边呢详细列出了这个节点的一个基本构成, 这个应该是 flex context 的 一个工作流,用这个技术呢也是没有问题的啊,我们试一下啊, 把它上传上去,别的我们都不改啊,我们直接运行。那么稍等一下,那我们来看一下啊,最终呢,我们的确把左侧的船呢给它去掉了,那整体的效果还是 不错的,这就是我们今天给大家讲的这个 running hub 版本的 confluence palette, 那 建议大家呢尝试一下。今天呢,我们就说这么多,关注我,做一个懂爱的人。

上传一张个人头像,点击运行,你就会得到一个专属于你个人的卡通手办三 d 模型了。最关键的是,你可以将这个模型传给三 d 打印机进行模型打印。 更酷的是,整个康复以外工作流可以部署到你的个人电脑上,只要你有四零九零显卡,就可以无限的去生成三 d 模型。 本期给大家介绍千万 image 和 trax 二大模型的 ai 应用案例。 ai 自动生成个人三 d 卡通手办模型千万 image 是 千万团队推出的图像编辑大模型, trax 二是微软推出的一款只需要上传一张图像,就能够生成对应三 d 模型的 ai jc 大 模型。关于这两款大模型的用法介绍呢,我在前面几期视频都进行了讲解,就不再进行赘述了。 那我们话不多说,直接教大家如何搭建康复 ui 工作流,去实现视频开头介绍的 ai 自动生成个人三 d 卡通手办模型,并且直接三 d 打印。 首先跟着我打开 runnyhop, 搜索电磁波 studio, 点击工作流,找到 ai 自动生成个人三 d 卡通手办模型的工作流,点击运行工作流,你就可以跟着我学起来了。 整个工作流是由两部分组成的,左边是千万 emoji edit 的 工作流部分。首先你需要在 load developer model 节点加载千万 emoji edit 的 二五幺幺大模型。另外你还需要在 laura loader 节点加载 landing four steps 模型,用于加速。 然后在下面的 love image 节点上传你自己的个人头像,我在这里上传是我自己的个人照片。接下来在 text encode 节点输入提示词,我写的是以图一主角外表为参考,制作三 d 卡通人物手办手办底座材质是木质。 我觉得这段提示词写的已经很好了,不用改,你直接拿去用就可以了。经过彩样处理之后,你就会得到一个基于你个人形象设计的三 d 卡通手办照片了。第一阶段到这里就结束了,现在进入第二阶段, try to 生成三 d 模型工作流。 第一步,使用 resize image 节点负责接收刚才生成好的三 d 卡通手办照片,并将尺寸缩放至一零二四乘以一零二四。 第二步, remove background 节点,将刚才缩放好的照片进行抠图,只需要保留人物主体的部分,把背景变成透明通道。 第三步,经过 trs2 节点进行三 d 建模之后,你就可以得到对应的 glb 模型文件了,这里有 pbr 贴图好的 glb 模型 供大家自由选择,看起来效果是不是都还不错。 另外,我在这里还使用了 o s s 云端存储节点,你看我每次生成出来的 glb 文件自动的会存储到云端硬盘上,这对于团队合作和想用这个工作流去制作 app 或者网页的小伙伴非常有用。你只需要在 bucket 这里输入 o s s bucket name, 以及在 endpoints, access key, ed and secret 输入对应的参数,其他的薄用填写就能够实现把每次运行出来的 g l b 模型文件自动地存储到云端硬盘上了。 到这里有同学肯定会吐槽,生成出来的三 d 模型还是有瑕疵的,不过我希望你换个角度想,现在只是这个大模型的第一代版本,如果说再给他三个月的时间进行进化,是不是生成出来的模型就会越来越好呢? 所以看到这里还等什么,赶紧跟着我学起来吧,至少先进行踩坑操作。如果本期视频对你有所帮助,请关注、点赞、收藏,三零走一波,这里是电磁炉,我们下期视频见!

你只需要上传一张游戏人物图片,点击运行,你就可以得到它的三 d 模型了。最关键的是,它还可以支持输出 glb 文件,直接拿去三 d 打印都可以。 同样上传一张机甲战车的图片,你也可以得到对应的三 d 模型,是不是特别的酷?本期来讲微软开源的 travis 二大模型, 你只需要给他一张图片,他就可以帮你生成三 d 模型,你看这些都是他的 demo 展示。右边是输入的图片大模型就能够生成对应的三 d 模型,是不是看起来特别的逼真? 我就在想,如果我们使用 z image 大 模型去生成我们想要的游戏人物或者道具的图片,然后呢,再用这个 trellis 二大模型去生成对应的三 d 模型,岂不是妙哉?照着这个思路,我们开始搭建 cf ui 工作流。 在此之前,首先需要感谢一下 viso bruno 大 佬,他在第一时间开发了 comfyui trance 二节点,并且在这里也进行了详细的节点使用说明,让我们能够在 comfyui 中去体验 trance 二大模型的魅力。 话不多说,首先跟着我打开 runnyhub, 搜索我的名字,电磁波 studio, 点击工作流,找到 tryless 二大模型生产游戏三 d 模型工作流,点击运行工作流,你就可以跟着我学起来了。 进入到 comfui 工作流,我们可以看到整个工作流分两大块,左边是 z image 纹身图,右边是 tris two 大 模型生成三 d 模型的部分。在 z image 纹身图工作流中,你只需要更改两个地方,第一是输入生成图片的分辨率, 因为 tris two 大 模型只支持一比一的分辨率,因此我写的是一零二四乘以一零二四。 第二个要改的是提示词,你需要在 text encode 接点输入你想要的游戏人物或者道具名字。我在这里偷了点懒,就简单的写了句,三 d 游戏道具暴风战斧。 如果你想生成复杂的游戏人物或者道具,那么我建议你把提示词好好的写一下,不要偷懒。 完成以上操作,你就能得到一张暴风战斧的游戏道具照了,是不是还挺像那么回事的?接下来我们把生成的这张图直接传给旁边的 trylus 二大模型去生成三 d 模型。 在这里首先需要使用 remote background 节点把传过来的游戏道具图的背景去掉,只保留道具主体照片。然后呢,经过旁边的 tris 二相关节点处理之后,你就可以得到对应的三 d 模型了,是不是感觉特别的酷? 最关键的是,它还支持输出 glb 文件,三 d 打印机可以直接用这个 glb 文件去把模型打印出来。 看到这里还等什么,赶紧跟着视频练起来吧,尤其是游戏开发的小伙伴们, tryless 二大模型去配合自己 image 大 模型真的可以实现快速生产游戏的三 d 模型,包括游戏人物、游戏道具, 你想生成什么,你就让自己 image 去生成图片,然后再使用 tryless 二大模型生成对应的 glb 三 d 模型,让游戏的开发门槛进一步的降低。 如果本期视频对你有所帮助,请关注、点赞、收藏三连走一波,这里是电磁波 studio, 我 们下期视频见!


呀呀呀呀,好,实不相瞒,小弟我就是人称。
