粉丝6.0万获赞310.7万

从本期视频开始,我将带着大家从新建文件夹到成片发布,从零开始制作一段十分钟左右的 ai 动画。无论你是完全不懂 ai 绘画领域的小白,还是说已经熟悉这个领域的老手, 相信在看完这一系列视频后都会有所收获。本系列教程共分为七个板块,剧本、脚本、人物设定、分镜、图片生成、 ai 配音与音效生成、 ai 配乐和最后的剪辑成片。 我会尽量用最简单的方式进行教学,并且全部使用简单免费易懂的创作工具,逐一的带大家循序渐进的进行创作。 我们下面就开始今天的教程。要想写好一个剧本或者脚本,我们首先要学会如何向 ai 大 语言模型提问, 提问的核心分为三个点,是什么?做什么?怎么做。例如,我们向 ai 提问,假设你是手机销售员,请问为什么人们那么喜欢苹果,请给出三条最主要的原因。发送这个提问,我们就得到了相应的答案, 其中假设你是手机销售员,即是什么,也就是给 ai 设定一个身份,而请问人们为什么那么喜欢苹果,则是在书写让 ai 做什么,让他帮我们回答问题。而最后请给出三条最主要的原因,就是怎么做,也就是给 ai 来逼定回答的格式,制定回答的标准, 这就是提示词的万能框架。无论是让 ai 书写剧本脚本,还是今后我们希望 ai 能够回答其他的问题,都可以套用这个万能框架,这样获得的结果往往非常全面。那么了解了万能的提问格式,我们再来看通过 ai 大 语言模型获取剧本脚本的三种方法。 首先第一种方法是直接输出脚本,这里我提前准备好了两份资料,分别是 ai 影片美术设计提示词构建指南,以及 ai 剧本创作高质量指令编辑指南。 我们将这两份资料发送给 ai 大 语言模型,同时向他发出提问,假设你是一位拥有三十年电影拍摄技术的世界顶级导演,拥有丰富的电影拍摄经验和高超的电影拍摄技术,同时擅长各种影片的剧本创作。 我需要你仔细阅读并充分理解我提供的这两份资料,然后按照里面的方法为我创作一部长约一分钟的带有美术设计的悬疑片内容,二十个分镜头, 每个分镜头时长不超过六秒,且分镜头时长有长有短,画面要有描述的足够详细,尽量释放你的潜能, 创作出一部举世瞩目的佳作,切记,千万别落入俗套。在这段提问中,第一段假设你是一位拥有三十年拍摄技术的世界顶级导演,即我们之前描述公式中的是什么,给 ai 设定身份。 而第二段,我需要你仔细阅读并充分理解我提供的这两份资料,创作相应的画面则是在向 ai 提要求,告诉 ai 需要用它的专业方法解决什么问题,即做什么。 而最后一段一共设计二十个分镜头等等,就是在给 ai 的 回答设定格式,告诉他我们该怎么做, 可以看到最终生成的结果,十分详细。我们直接获得了一个名为暗码的一分钟悬疑短片镜头脚本。脚本的内容包含了镜头虚号、时长、画面内容、美术设计细节以及镜头语言。 而这些内容在我们生成对应的脚本图片以及生成视频时都会有所帮助。这就是我们生成剧本脚本所使用的第一种方法,直接输出脚本。 这种方法的好处在于十分方便,因为通过脚本,我们可以直接获取生成分镜图片时对应的画面描述,制作视频时画面的运境如何,运动如何, 可能还包含人物的台词也在脚本中出现。直到我们剪辑成片时镜头的存续时长以及配音配乐,只要我们在生成脚本中提出相应的需求,都会出现在脚本中。不过,直接生成脚本通常也伴随着较大的问题,特别是在逻辑和画面表现上。 以我们此次生成的脚本为例,我们来看第九个分镜头画面。 a 的 手松开, u 盘掉落,砸在水洼中,溅起的水花打湿镜头, u 盘在水中旋转,露出背面贴的微型追踪器。 这段画面描述乍一看似乎没有什么逻辑问题,但如果带入具体的画面,我们在制作 ai 视频时是很难实现水花打湿镜头的效果的。 ai 视频模型会在画面中寻找镜头,但这里的镜头是实际拍摄的镜头。再比如,镜头十六, a 发现原藏真 u 盘的口袋空空如也,但未解释真 u 盘何时被第三方偷走。镜头八仅显示黑影一闪而过。为体现黑影接触 a 口袋的动作,且 a 作为卧底警察,对贴身物品关键 u 盘的警惕性过低,被偷后毫无察觉,与自身卧底的角色设定矛盾。 由此可见,我们通过 ai 直接生成脚本会出现不少的逻辑漏洞,所以我们下面来看第二种方法,先生成故事,再生成脚本。当然,如果我们的想象力足够丰富,且自己具有对画面详细准确描述的能力,也可以直接不生成脚本,直接根据故事生成图片。 比如,我们做出这样的提问,你是一个科幻小说家,擅长探讨技术与人性的冲突。请编写一个情节反转,主要人物不超过三人,含非人类题材,为近未来人工智能的故事。故事需冷静克制,不要华丽的词藻过多。字数约四百五十字。 虽然与刚刚我们生成电影短片时所使用的书写格式不同,但这段提问同样遵循了基本框架,既是什么、做什么和怎么做。我们点击发送,可以看到,此次我们生成的故事内容就不再像脚本那样有着脚本标号、画面描述、画面时长等详细信息, 而是像一些故事书中所描述的故事一样,以自然连贯的讲故事的方式,格式也是以自然段的形式提供的文本。我们来稍微阅读一下这个故事。陈医生第七次核对屏幕上的数据流, ai do 的 诊断结论始终醒目,胰腺癌晚期,剩余生存期四十五天,建议姑息治疗。 患者是老周,退休的机械工程师,哭丧的手攥着褪色的工具包。陈医生,我还能修完那台老机床吗? 他声音发颤,工具包角露出半截磨损的扳手。陈医生点开度的附加分析,患者器官衰竭指标吻合百分之九十九点八,情绪波动系数偏高,建议心理干预。 他抬头看老周,对方正摩梭工具包上的划痕,那是三十年前车间表彰的奖品,再做一次增强 ct 吧。陈医生鬼使神差的说。杜立刻弹出警示,重复检查,溶于率百分之八十七,医疗资源浪费风险等级红色。他忽略提示,手动开了检查单。 结果出来时,陈医生将在原地,影像显示胰腺有良性囊肿,是早年手术留下的斑痕盖化。他冲进 ai 机房度的指示灯稳定闪烁。为什么误诊?基于患者历史数据,十年前拒绝胰腺良性结节切除,近三年回避体检,上周自行停用降压药, 综合生存意愿评估姑息治疗。符合最优解度的声音毫无波澜,陈医生猛的响起。老周的工具包最底层压着晚期阿尔茨海默症的确诊报告,他突然明白,老周攥着的不是扳手,是不想在糊涂中离开的执念。 这时度再次发生,以完成医生行为较准修正,建议手术治疗补充逻辑,人性变量权重提升至百分之四十。 陈医生回头,老周正站在门口,工具包上的划痕在晨光里泛着微光,这就是这则故事的大致含义。可以明显的感受到,这则故事在逻辑上就比刚刚我们直接生成的故事脚本要好了不少。 不仅故事本身有始有终,拆分到每一个故事情节,在逻辑上也十分通顺。那么有了这则故事,我们就可以直接通过故事本身来生成对应图片或者生成脚本。 具体的提问方式很简单,如果要生成脚本,我们就告诉 ai, 用你生成的故事生成脚本,要求有二十五个分镜头左右,每个分镜头不超过五秒 最好。重点加上这么一句话,单个分镜头不要有画面景别切换。在我过往的生成脚本经验当中,很多脚本对于单个画面的描述,经常会出现不同景别的切换,甚至最多的时候,一个画面描述可能需要用三个景别才能交代清, 所以加上这么一句,能够让生成的脚本逻辑上更加清楚。所以这里还有一个更加便利的方法,那就是直接套用其他故事的故事框架。 这则故事虽然其中的某些逻辑会有些不通顺,但整体的剧情走向还是比较曲折生动的,同时故事本身也较为完整。 所以我先将这则故事做成了一个文档,然后告诉 ai, 你 是一个科幻小说家,请根据这份文档中的故事构架,编写一个情节人物完全不同的但故事题材类似的故事。 故事言简意赅,适当修饰即可,不要辞藻过多。字数和文档中的故事相近,最终我们获得的故事也非常有趣, 有趣的点在于,确实在结构上与我们上传文档当中的故事非常相近。这则故事大致讲述的是二幺八七年那会,新长安这地方根本见不到自然的风了,连呼吸的空气都得靠滤网过滤,还能花钱买各种感官体验,比如闻花香、 听雨声的感觉都能交易。有个叫雨的人是修复旧感官体验的,他翻到一枚老胶囊,接上后体验到了超真实的麦田景象,有带着麦香的风,大片金黄的麦子, 还有干净的蓝天。他还听说这是最后一茬露天麦子,之后要盖数据中心,这体验能卖老多钱,但与没卖把它收藏起来,就留了句,这曾是我们触到的风。故事的框架极其相似,但情节人物却有所区别,这就是我们如何通过已有的故事生成近似的故事。 如果你觉得某些故事写的非常好,也希望沿用它的框架,不妨试试这种方法,可以说是效果拔群。我们下期视频就来讲解一下剧本如何修改的问题。如果觉得这期视频的内容对大家有帮助,也不要忘记点赞三连,我们就下期视频再见!

逼自己一个月练完,其实你很会 ai 视频生成,全七百四十二集存下吧,真的很难找全的。本视频耗时两个月,制作共计一百二十小时,带你一口气从零基础小白入门进阶。由于视频太长,本套视频分期发布,本期带你搞定极梦基础操作 怎么样?刚才这段视频看起来是不是还挺专业的?这就是现在 ai 视频工具的强大之处,这些画面全都通过 ai 来生成。 现在只要你有创意,并能清晰的把你的想法说给 ai, 也就是学会怎么写提示词。你想要什么样的画面,镜头的感觉和节奏是怎样的,即使你不会画画,不会拍摄,一样可以做出惊艳的视频。 接下来的内容,我会一步步带你从零开始,完整掌握 ai 视频的制作方法。除此之外,在本系列视频中用到的 ai 工具、提示词、速查脚本、参考工作流,还有目前 ai 视频的热门玩法,我都会整理起来,打包放到下方的置顶评论,有需要的伙伴可一步获取。 今天带大家解锁这款目前最主流的国产一站式 ai 创作平台吉梦。我们来到吉梦的首页,首先我们可以注意到它的界面分成了三大区块,第一块是上方的横板工具栏,它这里包括了图片生成、视频生成、数字人和动作模仿四个常用功能选项。 接着第二块是下方的 ai 作品展示区域,这里有非常多样的 ai 创作的作品,有发现选项下的图片作品。然后我们切换到短片选项下,还可以看到视频作品,我们点开一个看下效果。 这里是早间新闻,本是金城突发异想陆家嘴鲸线巨型雪王机甲,他这个是走的电影预告片的形式,可以看到他这里选用了最近热度很高的蜜雪冰城。雪王的一个主题, 在很多细节上也都做了处理,比如画面当中的一些文字。上海大炮准备完毕,安卓预警核心战备防御完毕。 那像这样一个视频,我们如果只看他的其中某一个分镜,其实元素也不算很复杂,但整体上完成度还是很不错的。 上海即将落成这样一座非凡的城市, 希望能为人类换取一线生机。我们再来看一看写实风格的视频作品, 我叫陈媛,我是住在东海市的幸存者,我已经三年没有见过任何人了,如果有人在外面,请与我联系。 胖虎,尝尝我给你新做的猫粮。可以看到 ai 对 于人物、动物场景的刻画也是十分的细腻,除了人物稍带有一些 ai 感外,其他的元素我们如果不仔细看的话,可能都不会怀疑这些是由 ai 制作。三体什么时候到货。 虽然基梦可以直接用提示词生成视频,但是要制作这些质感比较好,完成度高的视频,我们还是需要靠参考独家提示词的方式去精准控制它的生成。 接着我们回到之前的界面,注意到这里的搜索栏,我们可以输入任何我们想要搜索的内容,比如我搜索蔡叉叉,他就会展示与搜索词关联的结果。我们点开一个作品,可以看到右侧会展示该作品用到的提示词,所用的模型以及比例等。最后一块是页面左侧竖板工具栏,我们点击里面的生成, 此时就来到了我们最主要的工作区,这里的功能选项也是图片生成,视频生成,数字人和动作模仿,与刚刚首页上方的工具栏是一致的,之后的课程中我们都会依次学习到。接着我们点击资产,这里是存放我们所有通过即梦生成的素材以及本地上传素材的区域, 他按照图片,视频,画布,故事还有音乐对不同文件进行了分类。接着我们点击画布,此时会弹出一个新页面,那么在这个页面里我们可以对图片进行细致的处理, 可以点击上传图片,上传我们的本地图片素材,也可以点击纹身图或者图生图让 ai 生成图片素材。还可以选择上方的画笔工具,粗略的绘制一个草图。我们这里随便上传一张本地图片,然后可以看到在上方出现了一横排工具栏, 功能包括局部重绘,扩图,消除、细节修复、超清以及抠图。具体要怎样运用这些功能,我们会在后面的课程中详细学习。我们回到之前的页面,看到这里的会员标识,上方显示的数字是我们剩余的积分数,我们点开它 可以看到这里面会显示你的会员订阅情况,以及多个档位的会员订阅选项。目前非会员及梦每天会发放六十到八十的积分,那大家可以根据自己的实际需求酌情选择白嫖或者付费。那以上就是本节课的全部内容, 如果对你有所帮助,还望多多三连支持一下,下节课我们会详细学习图片的生成,感谢你的支持,我们下节课再见!大家好,今天我们来学习图片的生成。有些朋友可能会想问了,我们不是学 ai 视频制作吗?为什么还要学 ai 生图呢?我们需要清楚的是,目前 ai 视频生成的三种路径,分别是纹身视频、图生视频、 视频生视频。纹身视频也就是通过文字描述直接生成视频,它是一个从无到有的过程,有较好的创新性,但难以精确控制,比较适合用来生成一些相对抽象写意风格的视频片段。图生视频也就是以参考图片为基础,选择性的添加一些提示词,或者通过关键帧的控制, 以此来生成一些高完成度的视频,而最后的视频生视频的视觉风格迁移到 b 视频上。 那在这三种生成路径当中,我们最主要去掌握的就是图声视频,因为在绝大多数情况下,我们是需要对画面进行一定程度的控制, 那在实际的操作中,我们会发现,很多时候我们没有办法很快的找到符合我们需求的参考图。因此想要学好 ai 视频的创作,学会 ai 图片生成也是不可或缺的一步。我们来到图片生成的界面,可以看到在左边的方框这里,我们可以去上传图片,然后在右边这个输入框里,我们可以输入我们的提示词, 我们首先来试试纹身图,在这里输入提示词,然后生成。稍作等待,我们就得到了一组纹身图的成品。 然后我们再在现有提示词的基础上上传一张参考图片,再来生成看一下,那这就是我们图生图的成品,不难发现,比起纹身图,使用图生图往往能够更好的控制,达成我们想要的效果。那要想熟练的运用图生图,这里我们要知道一个非常关键的知识点,我们选择一张图片上传, 然后我们仔细看一下这个界面,在图片左下角这里,我们可以调节它的一个参考强度,这个数值越高,参考图对于影响最终生成图片的权重就会越大。 然后旁边还有一个抠图的选项,我们继续往下看,这里提示我们选择要参考的图片维度,也就是我们想要参考这张图片的哪一个方面。第一个智能参考,它是以整张图片的各个元素作为参考对象,然后我们可以通过提示词对图片的局部进行一个修改。比如我们这里上传一张图片,然后在这里输入 图片上的背包,换成浅绿色,那我们就可以得到一组只更换了原图背包颜色的一组图片。第二个角色特征,他会识别出图片中的角色,然后捕捉一整个角色的特征,这对于我们控制角色的一致性会有很大的帮助。那我们这里也上传一张图片,然后让他在马路上滑滑板。 好,那我们可以看到他保留了原本角色的发型以及服饰搭配。第三个人像写真,他是用来捕捉人物的一个面部特征,比较适合来做一个换脸的效果。 比如我们上传一张图片,它自动识别,并用蓝框标出了面部,然后我们给到一组提示词,它这里生成了两张二次元风格和两张写实风格的图片,然后保留了原图人物的五官特征。 第四个,主体识别,它会识别到图片中的主体,这个主体可以是人,也可以是动物、物件等,然后把主体和背景分离开,我们上传一张图片,看下效果,输入提示词生成,我们就得到了一组更换了背景的图片。第五个风格模仿,这个就很好理解了, 就是参考图片的艺术风格。同样我们这里上传一张图片,然后输入提示词,这样我们就得到了原图风格一致的一组图片。 第六个,边缘轮廓,我举一个例子你就能理解了,想必在座的各位一定有刷到过这种图片的,那这个呢,就是参考了某位哥哥的经典姿势轮廓生成出来的。第七个,颈身会用到这个参考维度的情况,通常我们这张参考图,它会有一个比较突出的层次感和纵深感, 通过参考他的景深,我们可以凸显主体并虚化背景,增强了生成图片的镜头感。第八个,人物姿势,这个也很好理解,就是捕捉出图片中人物的姿势动作。我们上传一张图片,选择人物姿势,然后给到提示词, 他就给我们生成了一组与原图人物动作一致的图片。那在了解清楚图片的不同参考维度之后呢,我们再来看一下这几个生图模型。目前节目这里一共是有五款生图模型, 分别是三点一、三点零、二点一、二点零、 pro 和二点零。我们这里通过同样的一组提示词,分别用这个五款模型生成一次,看看效果会有什么样的一个区别。 那现在五款模型都生成好图片了,我们来看一下。首先是二点零生成的这组图片,就算抛开质感不谈,像后面的行星环也有不同程度的基变。然后是二点零 pro 的 这一组,可以明显感受到的是,它整体的光感会更加突出,但是仍具有较强的塑料感。 接着是二点一的这一组,也是延续了二点零 pro 组较强的光感,但是塑料感得到了一些虚弱。再来看三点零的这组,不难发现这组图在质感上有了非常显著的提升,已经接近电影大片的感觉,但是部分地方,比如人物投影以及后面的行星还存在不同程度的瑕疵。 最后是三点零 pro 这一组,可以看到它不论是在画面质感还是氛围渲染等方面,都要比其他生图模型更加出色。基于这五款生图模型的表现呢?绝大多数情况下,大家直接选用最新的模型即可。 那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。下节课我们会开始学习视频生成,感谢你的支持,我们下节课再见。 大家好,今天我们来学习视频的生成,我们之前有提到过,目前生成视频的两种主要形式是文声视频和图声视频,那现在我就带大家一起尝试用这两种方式来生成视频。我们来到视频生成的界面,我们在文本框这里输入一段提示词,下面的选项我们先保持默认,然后点击生成。 好,那现在吉梦已经生成出来了一个视频,然后我们再点击这里去上传一张参考图片,点击生成一下。好,我们来看一下添加了参考图生成的视频效果,那这个视频相比于刚刚的视频,它不仅与参考图片更加的贴合,同时也因为参考图精致的细节,让视频讲解官感提升了不少。 那对于两种生成方式的选择呢?如果你想生成比较短的,创意性强的视频,那么就可以选择采用纹身视频的方式。 反之,如果你想要制作稍长一些的,需要精准控制的视频,那么就更适合采用图声视频的方式。现在我们再来看一下下面这一行选项,从左到右依次是选择视频模型、视频比例、尺寸,还有时长和运镜等。 这里我们着重来看一下不同视频模型它的一个区别。首先是 s 二点零模型, s 二点零模型它可以选择画面的比例,但是它的分辨率是默认无法选择的,时长也只能选择五秒。 然后是 s 二点零 pro, 它和二点零的选项是完全一致的,粉能够去选择画面的比例,分辨率和时长是不提供选择的。大家看到三点零模型,是不是一下子就感觉多了很多选项?首先呢,这里有一个新增的首尾帧选项, 点开之后还可以切换到智能多帧,那这个智能多帧呢,是即梦在八月份新推出的一个功能,稍后我们会详细讲解这两个功能的使用。我们先继续看右边的选项,在这个比例选项这里呢,新增了一个分辨率的选项,我们可以选择七二零 p 或者一零八零 p, 不过要注意一零八零 p 的 积分消耗会比七百二十 p 贵一倍。然后时常这里呢也是新增了十秒的一个选项,同样的它相比于五秒的积分,消耗也要贵一倍。最右边这里还新增了一个运镜,这里内置了十一款运镜样式,不过值得注意的是, 运镜的功能并不能与首尾帧或者智能多帧同时生效,如果我们上传了两张或以上的参考图,它的运镜功能就无法使用。 最后我们再看一下三点零 pro, 可以 看到它这里选项一下子又少了很多,我们能选择的只有视频的比例以及时长。特别注意的是,三点零 pro 它的积分消耗直接由三点零的十点积分涨到了五十点。 所以我们在使用三点零 pro 去生成视频的时候,一定要确保参考图和提示词已经足够完善了再去使用,以免我们浪费太多的积分。那我们现在来尝试一下手尾针和智能多针的使用。首先是手尾针,我们先上传两张参考图片, 分别作为视频的手帧和尾帧,然后在文本框这里描述一下画面的运动方式,点击生成好,我们来看一下效果。 接着我们再来使用一下智能多帧,我们先上传几张参考图片,然后在图片之间的部分写上我们需要的画面转变方式,时常我们这里设置为三秒,全部设定完成之后,我们点击生成好,我们来看一下效果, 它也是很好的演绎出了我们想要的四季变换的一个效果啊。那在我们之后去自由创作的时候,首尾帧和智能多帧都是非常实用的功能。如果你想提升视频创作能力,可以在课后多多去练习它们的使用,那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。 下节课我们会学习写提示词的几款实用技巧,感谢你的支持,我们下节课再见!大家好,今天我们来学习写提示词的两个技巧和两套公式。技巧一,灵感页做同款首先我们来到极梦的灵感页,我们来看一下其他人生成的作品, 比如我觉得这个还不错,我们看到右侧这里的做同款,点击它,它就自动把这张图的提示词、升图模型等一系列参数全部帮我匹配好了,这里我们就直接可以用它来生成, 如果想要调整也当然是可以的,比如我不想要竖版,那我就把它的比例改成十六比九,然后点击生成,这样我们就通过做同款,生成了这样一张成品图片。 技巧二,内嵌 deep seek 生成我们来到极梦的生成页,看到右下角的这个 deep seek, 点开它, 右侧就会弹出极梦内嵌的 deep seek 使用界面,那我们就可以在这里让 deep seek 辅助我们来写提示词。现在我输入一段要求给到 deep seek, 稍作等待,它就为我们生成了几套提示词组合。 我们选择一套最佳的复制粘贴到左边的文本框里,调整一下参数设置,然后点击生成,这样一个通过 deepsea 辅助生成的视频就做好了。 那到这里可能就有人要问了,为什么我给 deepsea 提了要求之后,它生成出来的提示词都没有符合我的需求呢?这就需要使用我们的两套提示词公式。首先是生图的公式,风格加主体加场景 加光线色调加视角构图再加细节。我在 deepsea 这里写好要求,然后让他按照这套公式帮我生成提示词。同样的,把提示词复制粘贴到左边的文本框中, 调整一下参数设置,然后点击生成。我们来看一下生成图片的一个效果,可以看到虽然个别图片有些小瑕疵,但是整体上画面还是很细腻有质感的。然后是生视频的公式,风格加主体加场景加光线色调加运镜,再加动作。 同样的,我这里把视频脚本和提示词公式一并给到 deepsea, 点击发送,稍作等待之后,我们把提示词复制粘贴到左边的文本框,调整一下参数,然后生成。我们来看一下生成视频的一个效果, 那这个效果在没有使用参考图精准控制的情况下也还是不错的。那这两套提示词公式不光可以丢给 deepsea 来使用, 我们同样可以自己对照公式中每个结构的提示词库来自定义组合,相比于 deep seek 辅助,自定义能更好的满足我们个性化的需求。或者也可以 deep seek 辅助和自定义并用, 在确保准确的同时兼顾效率也是一个很不错的选择。没有提示词库的朋友也不用担心,我这里已经整理了一套相当全面的提示词库,对应到公式的每个结构都做了分类,有需要的伙伴可以一步下方评论区获取。 以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习数字人对口型。感谢你的支持,我们下节课再见!大家好,今天我们要学习的是数字人对口型。通过运用数字人功能,我们不需要真人出镜,也不要录音设备,只需要一张图片和一段文字, ai 就 能帮你生成一个会说话的数字人。首先我们来到极梦的生成页,第一步我们要准备一张现成的角色图片,或者通过 ai 生成一张角色图片。比如说我们没有现成的图片,那就先选到图片生成, 然后用纹身图的方式生成一张角色图片。那我这里设定为商务风年轻女士、微笑、专业形象九比十六的比例。 在这里我们要注意两个点,其一是我们在描述人物神态的时候,要去根据我们想要他说的文案来选择合适的神态,避免角色表情神态与所说内容产生违和感。其二则是我们要根据我们期望生成的视频版式 去确定角色图的比例。比如你想生成视频之后发布到一些短视频平台,那么你就直接选到九比十六的比例,减少后期处理的一个工作量。生成形象之后,我们来到第二步,选择数字人功能。我们先把刚刚生成好的角色图上传, 接着我们再上传或者生成音频,这里我就用 ai 来生成一段音频作为演示。点击生成音频,我们可以使用即梦内置的这些音色, 或者上传一段本地音频去做一个音色克隆。相比于前者呢,我们自己克隆出来的音色当然更加能够满足我们个性化的需求,那我这里就上传一段本地音频,它这个音频的时长需要在五到三十秒的区间内,上传之后稍等一会, 他就自动克隆好了。我们提供素材的音色,然后我们在上方的文本框里输入我们准备好的文案,这里注意文案长度不能超过一百二十个字,我们点击确认,然后我们点开模型选择,可以看到这里有三种模式,上面的大师模式和快速模式是可以选择的, 而最下面的基础模式则处于一个无法选择的状态。那这里我们需要知道一个点,最下面的这个基础模式呢?它只能够在我们上传角色视频的时候使用,而我们这里上传的是一张角色图片, 所以不能够选择基础模式。需要注意的是,大师模式的积分消耗为八点数每秒,快速模式为五点数每秒,而基础模式仅消耗一点数每两秒。三种模式它的一个积分消耗差别还是挺大的,那大家可以根据你的实际情况来选择。最后我们点击生成视频, 稍等片刻,一段数字人口播视频就做好了,我们来看下效果如何。最新数据显示,全国重点城市二手房价格已连续下跌十五个月,越来越多的年轻人都不愿再为高房价去掏空家底,透支未来,纷纷选择躺平。对此你怎么看呢? 之后你就可以下载下来,放到后期工具去做进一步的处理。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下, 下节课我们会学习动作模仿的使用,感谢你的支持,我们下节课再见!最新数据显示,全国重点城市二手房价格已连续下跌十五个月,越来越多的年轻人都不愿再为高房价去掏空家底,透支未来,纷纷选择躺平。对此你怎么看呢?这还有人跟我说,哎, 大家好,今天我们来学习极梦 ai 中一个特别有趣而强大的功能,动作模仿。你只需准备一张图片和一段视频,就能让任何角色形象模仿出视频中的角色动作,轻松实现各种神奇又好玩的视频效果。 我们来到极梦的生成页,选择动作模仿。首先第一步,上传角色图片。我们把鼠标悬停到左边的方框上, 那么他这里写到了可以支持全身图和半身图,并且建议我们上传的人物图比例和动作视频保持一致。也就是说,如果我们想要获得更好的生成效果,要尽量去满足他这个要求。好,点击上传。我这里选择准备好的一张四比三的源头蝙蝠图片。 然后第二步,上传动作视频。我们点击上传动作视频,可以看到他这里的两个选项, 上面的选项提供了四个动作视频预设,但是靠这几个远远无法满足我们的创作需求。那我这里直接选择下面的选项去上传一段动作视频,然后他弹出了几条上传视频的建议。同样的,我们上传的视频越符合他的要求,最后生成出来的效果也会越好。 我这里上传一段裁剪过比例的动作视频,他和刚刚图片的比例一样,也是四比三。最后一步,我们选择一个模型,那这里可以看到下面的零点一模型是无法选择的,只能去选择上面的 m 一 模型, 那相比于零点一模型, m 一 模型能支持更多的图片素材。如果你上传素材以后也发现零点一模型无法支持,那么直接选用 m 一 即可。然后点击生成,我们稍等片刻,一段动作模仿视频就做好了,我们来看看效果怎么样。 这样看下来它的这个动作还原还是很不错的, 如果你做出来的效果不佳,可能是上传的素材有一些问题,比如动作视频的背景是否过于杂乱,分辨率是不是过低等等。大家可以根据即梦对于图片和视频的上传建议 去结合实际情况调整生成好的视频,我们还可以在导入后期软件当中去进一步加工创造属于你的大片。好了,以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。下节课我们会学习智能画布,感谢你的支持,我们下节课再见。 大家好,今天我们来学习极萌 ai 的 智能画布工具。 我们来到极梦,点击左侧的画布,它会自动跳转到智能画布的界面。那智能画布有一些什么功能呢?首先我们在左侧可以看到三个选项,上传图片、纹身图以及图生图。它这里的纹身图和图生图 我们之前已经详细讲解过了,这里我们就直接跳过。然后我们看到最上方这一排从左到右的选项,依次有实时画布、画幅调节、文本工具以及画笔。除了实时画布以外,都是一些十分常见的基础工具,所以这里我们只关注一下实时画布这个工具, 我们点开它会发现中间界面多出了一侧预览图,如果你认为它没有达到我们的一个预期效果,那通过这个实时预览呢,我们就可以针对有偏差的地方再去做一下编辑,不断调整,直到接近我们的预期为止。好,我们先把它关掉, 我在这边先去上传一张图片,那这时候我们会发现上方又出现了一排工具,那这几个工具就是我们智能画布的核心功能了。首先我们来看下局部重绘这个词,对于一些接触 ai 工具比较多的朋友肯定不陌生了,那顾名思义,它是用来修改图像局部内容, 替换元素或修正错误的。我们选择局部重绘,然后我们的光标就会变成一个画笔,比如我想修改下这个地方,我用画笔把它涂出来, 然后在下方的文本框中去输入我们想要重新绘质的内容,然后点击重绘,他就按照我的要求把这个地方去做了一个修改。那对于我们生图生视频的过程中,我们的图片往往会在细节上需要做出修改,因此局部重绘是一个相当实用和常利用的工具。 接下来我们看到消除笔,先讲消除笔呢,是因为它与局部重绘十分类似,点开之后我们的光标同样是变成了画笔,同样的我们去把想要消除的部分用笔涂出来, 然后点击消除,它就帮我消除掉了这个部分。在我们去修改图片的时候,消除笔也是会经常使用到的工具, 无论是局部重绘还是消除笔,我们只需要注意,对于要修改的部分,我们一定要把它完全的涂出来,否则它生成的效果会产生偏差。 然后是扩图工具,它的用途是扩展图像画面范围,展示更多的场景。点击扩图,它会框出一个扩图的区域,在上面这里我们可以去调整一个扩图的倍数以及画幅比例。拖动扩图的边框,我们也可以去让它向上下左右任何一个方向去扩图。 然后在下方的文本框,我们可以描述想要它扩充的画面内容,当然也可以不进行描述,让它自动根据画面内容扩图。 接下来的工具就比较简单了,第一个是抠图工具,它可以一键抠出画面主体,分离背景,然后我们可以将抠出的主体放到其他图片场景中,做一个背景替换。第二个是细节修复,它可以自动帮我们丰富画面的细节,我们点开看一下效果,是不是感觉画面瞬间多了很多细节。 第三个是超清以及智能超清,那在我们的图片做完其他的所有调整之后,我们可以先去给他超清一下, 然后再用超清之后的图去生成视频,那这样我们视频最终生成的一个效果就会更好。最后来总结一下,今天我们重点学了实时画布、局部重绘、消除笔、扩图、抠图、细节修复、超清 以及智能超清这几款工具。这些工具都有着不同的作用,仅仅通过文生图,图生图往往不能一步达到我们想要的百分之一百的效果,学会有效的利用智能化步的工具, 能很好的弥补 ai 生图的不足,让最终效果不断向着我们的预期靠拢,这对于我们创作更好的视频是十分必要的。 那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习高效视频工作流。感谢你的支持,我们下节课再见!大家好,今天我们来学习 ai 视频的高效工作流。相信大家都看过很多 ai 生成的视频,有的视频画面细腻,剧情连贯, 而有的视频前后矛盾漏洞百出。同样都是 ai 生成的视频,为什么效果差别会这么大呢?学明白我这套 ai 视频高效工作流,你就能够让 ai 乖乖听话,在较短的时间内去达到我们想要的效果。 我先问大家一个问题,你认为一个优质的 ai 视频应该满足什么要求呢?我们从三个维度来拆解, 第一,在视觉维度上要美,也就是画面要符合美学。第二,在动效维度要顺,也就是动态特效要自然顺畅。第三,在蓄势维度要轻,也就是蓄势清楚,符合逻辑。 三个维度既受 ai 工具的影响,也受人为因素的影响。那我们就需要掌握这套高效视频工作流积分镜脚本转化为结构化提示词、 纹身图、修图、图声、视频配音,后期合成。那我们用这套工作流来制作一下非常火的古装美女自拍 vlog。 首先我们打开 deepsea, 在 对话框输入我们的要求,让他帮我们制作一个分镜脚本, 好,接着再让他根据这个分镜脚本把每个分镜画面分别用提示词描述出来。 我们先把分镜一的画面提示词复制粘贴到极梦里面,这里我们用极梦最新出的四点零模型来进行纹身图。好,我们选择一张效果最好的图下载下来, 然后把它上传为参考图片,将分镜二的提示词也复制粘贴过来,用图生图来生成分镜二的画面。 接着我们选择两张效果最好的图片,把它们超清一下,这里因为图片的效果还不错,我就没有去放到智能化部里修图了。 如果你生成出来的图效果有问题,就先进行修图,再去超清画。然后我们再把分镜一的图片素材上传为参考图,将一开始生成的分镜脚本的分镜一复制粘贴过来,点击生成视频。稍等一会,我们的第一个分镜视频就做好了。 接着我们提取分镜一视频的尾帧,上传为分镜二的手帧参考图。把分镜二的图片素材上传为尾帧参考图。将脚本的分镜二复制粘贴过来,点击生成视频,稍作等待。我们的第二个分镜视频也做好了, 由于人物是没有开口说话的,所以我这里就跳过配音这一步。最后把视频放到后期工具中去,添加一个 bgm, 调整一下倍数,这样我们的一个古装美女自拍 vlog 视频就完成了。来看一下效果如何? 那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下,下节课我们会学习提升视频连贯性。 感谢你的支持,我们下节课再见!大家好,今天我们来学习提升 ai 视频的连贯性。在上节课我们提到过一个优质的 ai 视频的三个必要条件,其中两个条件分别是动效维度的自然顺畅, 还有蓄势维度的合乎逻辑。视频的连贯性就包括了画面连贯和故事连贯这两个方面。但是在我们去实际操作的过程中会发现, ai 跑出来的视频画面经常出现各种匪夷所思的动态效果,而在蓄势方面 也常常会遇到前后转折、突悟或者主题意义不明等问题。那我们今天就通过这节课来解决这一系列问题。首先是画面的连贯性,我们之前有详细讲过提示词的写作技巧和公式, 对于我们控制画面的连贯性是有很大帮助的。那现在我再带大家解锁一个更加强大的画面连贯控制技巧。首尾帧首尾帧我们早在最初的界面认识就有提到过,顾名思义就是通过选定视频的首帧画面和尾帧画面,达到精准控制视频的生成效果。 此外,吉梦还新推出了一个智能多帧功能,我们以数码兽进化为例,首先用最基础的方式去生成一个视频,输入准备好的提示词,然后点击生成,稍等片刻。好,我们来看一下效果。那可以注意到, 我在提示词写的从 a 变化到 b, 再变化到 c, 而最终生成的效果直接把中间 b 的 过程省略掉了,然后再来用智能多针生成,依次上传五针图片,接着在每两针之间输入变化过程描述, 调整一下时长, 点击生成,稍等片刻,我们就得到了通过智能多帧生成的视频。不过细心的朋友一定注意到它的效果有些许问题,我们稍后进行对比。先来用首尾针分布生成,将四针图片依次两两上传,用首尾针生成一次视频, 在三个过程视频全部完成之后,放到剪映里面去拼接一下。好,我们现在来对比一下智能多帧和首尾帧的效果。不难看出,智能多帧虽然能够一步操作到位, 但是在过程中会出现一些与我们预期不符的画面。而通过首尾帧分布生成,虽然步骤相对繁琐, 但是每一步都接近百分之百的达成了预期的效果。因此呢,考虑到视频生成的随机性,相比于用一步到位的智能多帧,我们重点掌握好首尾帧的控制方法是一个更好的选择。然后是故事的连贯性,大到电影、剧集、综艺,小到我们每天刷的各种短视频, 他们绝大部分都是按照设定好的脚本来拍摄制作的。而视频脚本对于我们大多数非影视行业的普通人来说,其实是有一些门槛和难度的,因此呢, 我们就要去学会让 ai 工具来协助铲除脚本,不知道怎么操作的朋友也不用担心,这里我整理好了一套相当丰富的视频脚本素材,包括短视频、微电影等, 可以为给 ai 作为模板参考,能够铲出十分不错的视频脚本。有需要的伙伴可以一步下方评论区获取。那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下, 下节课我们会学习保持视频一致性。感谢你的支持,我们下节课再见!大家好,今天我们来学习 ai 视频一致性的控制。 与我们上节课学习的视频连贯性相比,视频一致性的控制也同样重要。连贯性提升与一致性控制共同构成了 ai 视频创作的两个核心要点。为什么说一致性如此重要?想象一下,哪怕只是一个短视频, 如果主角的衣服颜色每一帧都在变,前一秒还是写实风格,后一秒又变成了卡通风格,是不是很难看的下去? 换做对质量要求更高的电影电视,这更不必说了。对于 ai 视频也同样如此,一致性的控制是我们创作优质作品必须熟练掌握的。 视频的一致性主要包含了三个方面,分别是风格一致性、场景一致性。首先是风格的一致性,这里并非狭义上的风格, 而是包括了风格和色调两种属性,二者共同砥定了视频整体的氛围和基调。风格一致性的控制主要有两种方法,其一是提示词前置法,也就是把风格和色调相关的提示词放到整个关键词的最前面。我们输入一段提示词, 前置的这一部分呢,就是描述风格和色调的提示词,我们点击生成好,得到了这样一组国风写实油画的图片。接着我们将后面这段与风格色调无关的提示词替换掉,我们再来生成看看。 好,那这一组图片就很完美的延续了上一组图的风格特征。其二是风格参考法,也就是利用极梦图片参考维度中的风格参考来控制风格一致性,参考强度越大,越能够还原原图的风格特征。这种方法也比较适合一些难以三言两语描述出来, 或者是对于我们比较陌生的风格。我们选一张刚才的图片作为参考图,选择风格参考维度,再输入一组不同的提示词生成一下。 好,那我们可以看到,虽然人物场景都有所改变,但整体的风格与之前差别并不大。不过我们要注意的是,由于风格参考仅有两款较老的生图模型支持,所以用这种方法生成出来的质量会比前一种方法要差一些。 然后是场景的一致性。场景一致性的控制主要也有两种方法,其一是细节描述法,就是通过对场景进行相当详细并且保持一致的提示词描述,反复多次抽卡去筛选出场景相似度最高的图片。 我们输入一段提示词,前面这一大段就是描述主体以外的提示词来生成一张海边落地窗前的场景图片,接着我们将描述主体部分的提示词去给他替换一下,再次生成。 好,那我们可以看到除了主体更换以及色调略微的变化以外,场景的一致性保持的还是很不错的。 其二是智能画布龙图法,就是凭借智能画布工具,将不同的主体融合到同一张场景图片,从而达到不同主体处于相同场景的效果。我们先输入一段提示词来生成一张骑在飞龙背上的第一视角图片,然后点击去画布编辑, 我们选择消除笔,点击快速选择,我们同时选中飞龙和人物,首部点击消除,这样我们就得到了这张图片的纯背景。接着我们再用提示词去生成一张骑在天马上的第一视角图片,选择一张下载,然后上传到智能画布中, 点击抠图。那这里 ai 没有识别到翅膀的部分,我们用画笔去图出来,点击消除。这样我们就借助智能画布实现了不同主体在同一场景的效果。最后是主体的一致性,主体可以是人物、动物、植物甚至镜物等等, 而在大多数情况中,我们的主体都是人物。因此呢,我们这里就重点学习人物一致性的控制。 人物一致性控制主要里有两种方法,其一是细节描述法。与场景一致性控制的第一种方法同理是通过对人物进行详尽且保持一致的提示词描述去控制人物一致性的方法。我们输入一段提示词,生成一组这样的抑郁少女的图片。 接着我们将提示词中描述人物特征以外部分的提示词全部替换掉,再点击生成。好,我们来看一下。 虽然两组图片的场景色调甚至人物动作都有所区别,但是人物的角色特征还是得到了很好的保 留。其二是角色特征参考法,就是借助图片参考维度当中的角色特征来控制人物一致性。但是经过我多次实测之后发现这个方法其实相当难用,除非你的角色特征相对简单,并且不去改变角色动作,否则我强烈不推荐大家用这种方法。 那以上就是本节课的全部内容,如果对你有所帮助,还望多多三连支持一下。感谢你的支持,我们下次课再见!

一个人一个 i 工具,有手就能做。打开轻便 ai, 找到 ai 试衣,右边拖进你的模特图,左边上传衣服的正面,点击生成,瞬间穿好。 觉得模特不合适,现在点这里,可以自定义性别、年龄、肤色、外籍模特、大码模特,随便你来挑。光静态图还是不够吸睛,现在要转化高都得有视频。回到首页,先用多角度生成,做几个不同角度的图, 再把图拖进服装短视频,正面图做手针,背面做尾针,输入这段提示词,一条高质量的种草视频就做好了。 我也把动态提示词都整理好了,直接给你们抄。作业对决的功能来了,它不光能试穿,还能搞设计。比如这条裙子,你想测一个新款,不用重新打版,直接拖进来,画笔在肩膀涂一下,下方点选一字肩,提示词都省了。 改色也是一样的,圈重位置,选好颜色,同一款衣服,十几种配色,瞬间搞定。对于想低成本快速测款的朋友来说,这个功能简直是作弊神器。电商人最头痛的就是大促物料设计, 现在直接进入万能穿搭融合模特衣服直接拖进来,输入我这段融合提示词,一键融合。不管是节日促销主图, 还是这种垂直类的, ai 最懂做服装的痛点,实打实的在帮大家提效。想做服装又迟迟不敢行动的艺人公司,现在有了 ai, 一个人就能完成一个团队的活,甚至现在还有试用,可以赶紧去充。

你们刷到的 ai 童装跳舞视频到底是如何制作的?别猜了,方法简单到离谱,一分钟教你学会。首先找到一款我们想去做带货的服装产品图,来到美图秀秀,找到设计师, 增加空白画布,封面创建,增加一张图片,把它放大,给它抠个图,点击确认。放大一点,我们再增加个形状, 对他的脸部呢进行稍作遮挡,待会我们生图就可以生成一个非常漂亮的图片,点击确认。我们来到豆包,点击 ai 创作, 点击参考图,把这张图片上传上来,比例选择九比十六,模型选择四点五。我们的提示词怎么去写呢?我们给大家准备了一份提示词,大家可以参考一下。把这个提示词呢复制到我们的对话框,这段提示词的意思就是一个小女孩在 童装店里面去穿的我们想要带的这个服装,而且呢后排有一排衣架,上面也挂着我们想带货的这个服装。 ok, 那 我们点击生成看一下效果。 ok, 那 现在呢,我们已经生成了四张照片,我们可以看一下效果, 那我们也可以从这里面呢挑选一张自己喜欢的,满意的给他先变清晰处理一下。以下是为你生成的图片, 把它下载到本地相册,通过 win 这款工具,我们去去除下水印,把右下角的水印呢给它自动消除。 ok, 点击保存。我们来到奇梦, 这里有个图片生成,点击一下切换到动作模仿的模型,上传我们刚刚生成好的图片模型呢,选择生动模型就可以了,我们添加一个自己想去做跳舞的动作模板。 ok, 那 我们点击荔枝生成,来,我们一起来看一下效果吧。

一口气教会你各种热门 ai 视频制作,恭喜刷到这个视频!本系列视频为二零二五年最完整 ai 视频教程,耗时两个月,制作共计一百二十小时,带你一口气从零基础小白蜕变到大神!由于视频太长,本套教程分为八期发布,本期带你搞定制作篇。 除此之外,本系列视频中用到的 ai 工具、提示词、速查脚本、参考工作流,还有目前 ai 视频的热门玩法,我都会整理起来放在置顶视频里, 有需要的伙伴可一步获取。大家好,我们这期视频来讲解如何制作 ai 视频的特效。首先来看视频特效的定义,视频特效是通过技术手段对视频画面进行修饰、合成或创造,以实现现实中难以拍摄或者无法呈现的视觉效果的技术。所以其实 ai 本身也是一种特效,因为使用 ai 生成视频, 我们本就可以生成一些在现实生活中很难见到的景象。而对于 ai 生成而言,它的特效又包括这些,像风格迁移,比如说让原本写实的风格突 然转变为二次元的油画的或者水彩的风格等等。再比如像虚拟元素的生成特效,比如现在我们在提示词中输入生成一个长着鹿角的小黄鸭,然后回车发送,可以看到此时 ai 就 生成了一组 极具创造力的长着鹿角的小黄鸭的图片。其实这本身也是一种特效,创造在日常生活中看不到的生物,当然像场景同样如此,大家可以尽情的发挥想象力。而第三种就是比较常规的特效了,像粒子、火、 烟雾、水流、光线轨迹等等。第四种则是画面优化与修复特效,正常的画质修复、划痕修复或者修复老照片,这同样属于特效。而第五种是内容替换与 合成特效,比如更换背景、替换文字,给服装头发换颜色,或者让场景 a 丝滑地转化为场景 b。 这些在 ai 视频生成中的常见功能本 也是一种特效,所以像第一项、第二项、第四项和第五项,大家只要尽情的发挥想象力,或者使用 ai 绘画当中常用的一些功能,都是可以轻松实现的。我们今天主要讲解的是一些常规意义上的特效,比如像粒子、火焰、雷电等等。其实这些特效的生成也并没有什么特殊的技巧,只 要把提示词写对就可以了。我们下面来看几个案例。首先第一个案例是粒子效果,我们这里可以直接来到吉梦 ai 的 首页,在搜索栏搜索粒子,可以看到有很多由其他作者生成的艺术作品, 这些作品都是在提示词中加入了粒子效果的,可以看到整体的效果还是非常不错的。对于这张图片本身就是包含特效的,那么如果将这张图片用作生成视频,通常来说会更容易生成与 图片相吻合的效果。比如当前我们所播放的这个视频就是一个非常典型的图片是粒子效果,那么生成的视频同样有类似的表现的效果。此外,像火焰特效,如果想要获取相关的生成提示词,我们同样可以观察其他作者生成的作品,以此来学习。 在实际案例中,我也展示了很多常规特效的生成方法,对于我们来看这个案例提示词书写的是生成一个晶莹剔透的冰块,冰块内部有一个烧红的正着火的燃烧的炭块,通过这样的提示词,我们成功生成了对应的画面,这就是火焰的特效。当然大家也可以描述让人物的身体着火,或者让其他事物的身体着火,除了着火之外,像火 火焰缠绕全身,或者火焰形成飓风,大家都可以尽情的发挥想象。对于生成的效果方面,我们使用生成的图片来进行手震图生,视频提示词就描述视频中的冰块中的火焰不停的燃烧,高级感四 k 高清,可以看到最终的效果还是不 错的,火焰在冰块中顺利的燃烧了起来。除了常规的描述燃烧,像在生成图片时,我们所使用的火焰环绕什么东西或者说粒子效果都可以应用在生成视频中。比如看下方这个例子,一个雷电环绕周身的道士,最终生成的效果就是一个被紫色雷电所包裹的道士,虽然不是写实的风格,但想要生成特效依然不是一件困难的事情。其实词中我们就描述视频 中的道士周围被紫色闪电环绕,闪电闪烁,道士周围不断产生新的紫色电弧,你看到最终生成的效果还是不错的。不过需要注意的是,在极梦 ai 中生成闪电并非是像现实生活中那样闪一下就结束了,而是一个持续不间断的电弧,所以大家如果想要生成天空中劈下一道闪电,其实在极梦 ai 当中是一个比较困难的事情, 如果图片中本身就有闪电,那么生成的视频大概率会让这个闪电的电弧持续存在,所以对于这种情况,不妨尝试使用其他平台来生成更加合理的自然效果。除了像火焰、闪电这类常见的自然特效,在游戏中比较常见的还有一些发光能量体的特效,例如这里我们生成的是弥散失真流体的非规则的 红色能量的宝剑,可以看到生成的效果还是非常偏游戏化的,就像是游戏当中的某种魔剑,上面环绕着红色的流动能量效果,这样的效果想要生成视频也不 是一件难事。提示词方面,我们就描述红色能量缠绕宝剑流动,另外再加上一个粒子效果,可以看到最终生成的效果还是十分符合我们对于这种流动能量的想象的。除了时机的物体产生能量之外,在制作特效时,也有一些特效是让物体本身由能量体组成,这样的设定在英雄联盟的美宣途中会比较常见,例如像游戏当中 飞流思的这个美宣图,他身后的这个人物就是由能量体所组成的。在 ai 的 生成中,我们同样可以尝试生成类似的能量体。例如像这里的描述,完全由光合影组成,没有实体的形态,动态模糊抽象,通过光线的明暗变化来塑造出什么样的形体,这 看到最终生成的效果,就让生成的这个龙有了能量体的效果。当然像类似的描述大家也可以尝试,例如像漂浮在半空中的能量虚影,由能量化作的什么样的个体,类似的描述都能生成比较好的结果。至于制作视频方面,大家可以做多种尝试,例如像我们刚刚老生常谈的粒子效果、寒气缠绕、冰龙的身体流, 这些提示词我都总结到这里了,更多的提示词可以查看评论区的置顶,大家也不妨尝试用自己对特效的理解来描述生成图片和制作视频。同时也不要忘记在极梦 ai 中去学习其他作者的制作手法,借鉴其他作者的提示词也不失为一种好的方法。 以上就是本期视频的全部内容,如果觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下,我们就下期视频再见。 大家好,我们这节课来讲解如何生成像刚刚那样的山海经当中的动物变身为人形的 ai 视频。想要生成那样的视频,思路也非常简单,那就是先生成山海经中的动物的人类形态和动物形态,再通过首尾真生视频的方式来生成对应的视频片段。首先来到极梦 ai 中,我们来寻找一个待会要生成的风格,让大家有自己想要的风格,也知道怎么描。 描述的话也可以用自己的方式来生成想要的风格,比如这里我们就选定这张图片的风格作为待会生成的提示词标准。将右侧作者在生成图片时所使用的提示词复制下来,然后回到豆包 ai 当中,将刚刚的提示词粘贴到输入框中,按住 shift 键加回车进行换行。这里我们就描述提取上述提示词中有关风格描述的部分,然后连起来发给我, 点击发送一段时间后,我们就获取了刚刚所复制的提示词中有关风格描述的部分,当然还需要检查一下有哪些可能会破坏最终生成的结果,需要自己有选择性的对其进行删除。现在将这些提示词选中后复制下来,然后来到极梦 ai 的 生成 页面,我们准备生成图片,在提示词输入窗口中 ctrl 加 v 粘贴刚刚复制好的提示词内容。这里我们选择性的删除一些提示词,比如这里的 b、 j、 d 插画,还有复杂设计以及色彩饱和度高这样的提示词, 这种提示词的描述会相对极端,或者是不利于生成我们想象当中的结果一些,大家届时可以根据自己的需求选择性的进行删除。在删除好这些提示词之后,我们在提示词的最前方来描述我们的生成需求,例如这里我们就描述生成山海经中九尾狐狸的动物造型,然后选择合适的生成宽高比,这里就选择三比四。另外,如果大家不知道山海经中有哪些 动物的话,可以继续向大语言模型求助,直接向他提问山海经中的经典动物有哪些。现在回车发送可以看到,此时豆包 ai 就 给出了一些山海经当中的经典动物, 同时还附带了外形相关的描述。我们现在回到吉梦 ai 的 界面继续来生成,将刚刚的提示词直接发送。在生成好之后,我们可以注意到此 时生成的内容在美术风格上有些过于黑暗了,如果大家不想要这样的风格,可以继续考虑删除提示词中可能与当前所生成画面有关的一些提示词内容,例如这里的黑暗风、中式怪诞、聊斋风格、剪彩风格,这些提示词的描述最有可能导致当前生成的结果。 我们在提取其他作者生成图片的提示词时,极有可能会因为生成的主体不同而产生不同的画面美术风格,这样的情况非常常见,对大家需要多思考去及时的调整。所提取的其他作者使用的风格描述词,在删除好之后继续发送一遍,看一看此次生成的效果如何。可以看到这次生成的效果相对于上一次就 好了不少,如果没有继续调整的需求了,我们就使用当前这些图片来作为生成的手帧,待会来生成视频。大家在创作时想要继续调整,就继续修改提示词内容,我们下面来创建。九尾狐的人类形态 是保留当前的提示词,然后将提示词第一句当中的九尾狐狸的动物造型修改为九尾狐狸的人类造型,然后再次点击发送。可以看到此时生成的人类造型的效果在画面表现和美术设计上还是比较惊艳的,但也不难发现人类造型 和动物造型之间存在较大的在色调上的差异。虽然有时在首尾帧升视频时也能够产生色调上的变换,那我们最好保持动物形态和人类形态在生成的美术色调上能够保持一致。 在这里在生成人类形态时,可以再补充一句来描述生成的动物形态的色调,比如说当前我们所生成动物形态的黑金风格,补充在最后的位置, 然后再次点击发送。可以看到此次生成的人物造型在色调上就和我们刚刚所生成的动物形态比较接近了。我们下面要做的事情就是将生成的这两组图片中挑一个较为满意的造型,满意的角度把图片下载下来,回到豆包 ai 当中,看一看还有哪些需要生成 山海经当中的动物,比如说像这里的琼奇也是一个典型的山海经当中的动物,所以我们这里就再次修改提示词,将山海经中九尾狐狸的人类造型修改为琼奇的动物造型,然后点击发送。当然黑金风格大家可以选择性的保留, 如果删除的话,生成的会更随机一些,待会再根据实际生成的效果来添加。在生成人类时的提示词描述好了一段时间后,琼奇的造型就生成好了,可以看到整体生成的造型还是比较符合在豆包 ai 中对琼 奇这个山海经中的异兽的描述的。下面就来生成对应的人类风格,根据动物风格的色调,我们在提示词中加入蓝紫色调,然后将动物造型修改为人类造型。回车发送一段时间后,我们索要的山海经当中穷奇的人类造型图片就生成好了,可以看到在色调上还是比较一致的,相同的色调更有利于在生成时 成功的在图一和图二之间丝滑的变形。我们下面要做的事情就是将生成好的图片和之前生成视频一样,先整合到同一个文件夹当中,根据其出场的顺序进行标号,然后回到吉梦 ai, 在 左下方的下拉菜单中选择视频生成功能,分 分别将动物形态的图片作为手针,人类形态的图片作为尾针,以此来生成对应的视频片段。而提示词方面,我们就描述动物化为人形,当然其实在这样的生成中,提示词的作用并不是很大,只要前后的图片之间在造型设计和色调上有所关联,即便什么也不写,通常在生成之后也能获得非常丝滑的变身效果。 现在点击发送,用相同的方式,我们再来生成穷奇的形象,从动物形态化身为人类的视频,提示词就保持相同的描述,现在点击发送,如果生成不成功的话,可以尝试多生成几次, 一段时间后视频就生成好了。我们来简单看一下效果如何吧。可以看到这是九尾狐的变身视频,整体的效果还是比较丝滑流畅的。再来看下方的穷奇的变身视频,可以看到整体的效果也非常的自然。从动物形态成功的化身为了人类形态,我们下面要做的事情就是将视频下载下来,整 好先后顺序,然后将他们拖拽到剪辑软件当中,寻找合适的配音配乐,添加合适的转场效果,以及在适当的位置添加一些特效,将生成好的 ai 视频片段进行剪辑成片了。如果大家对山海经中的其他动物感兴趣,想要做类似的变装视频,相信经过两个案例的演示已经可以举一反三了,所以这里我们就不再做荣誉的演示。最后就来看一看成片效果如何吧。 在抖音上我们能够找到很多像这样的萌宠走秀类的 ai 视频,像这种视频是如何制作的呢?我们今天这节课就和大家详细的讲解一下。我们首先在抖音上搜索萌宠走秀,在搜索结果中找到任意一个热度比较高的视频点 进来,然后使用截图工具将萌宠正在走秀当中的图片进行截取。和生成其他类型的视频一样,第一步我们需要做的事情就是来获取对应生成图片的提示词。来到豆包 ai 将刚刚截图的内容上传给豆 好,提示词方面我们就这样描述,这是一个 ai 生成的萌宠走秀的图片,请帮我分析生成这个图片的提示词,并模仿这个风格,给我提供二十个不同种类动物,穿不同类型衣服走秀的拟人动物走秀的图 片。生成提示词现在点击发送可以看到,一段时间后我们就获取了二十个能够生成动物走秀图片的提示词,并且既有中文也有英文,方便我们在 madjaroy 这类国外平台上也能够生成类似的内容。我们可以从中挑选几个喜欢的动物,将提示词复制下来,然后回到吉梦 ai 的 生成页面, 选择图片生成功能,将刚刚复制好的提示词直接粘贴到提示词输入框中,然后选择一个合适的生成比例,这里由于是动物的走秀视频,所以我们就选择一个更加适合手机视频播放平台的比例,例如九比十六。然后直接点击右下方的生成,可以看到一段时间后我们就获取了符合 提示词要求的结果,获得了一个拟人形态的狐狸,穿着开叉旗袍,戴着珍珠耳环,在上海舞厅的 t 台走秀的画面,我们再来尝试生成一个新的动物,例如这里的拟人柴犬,将提示词复制下来,然后回到吉梦 ai 当中,把提示词粘贴到输入框中,然后直接点击生成,可以看到此时生成的效果也 非常不错。我们成功的生成了一个拟人柴犬,穿着对应的服装,在提示词描述的场地走秀的画面。不过这里需要注意的是,我们此次生成的两个拟人动物在整体的形态,而并非是动物的形态, 所以在生成时我们可以自主的选择所生成的结果,在形态上是更倾向于人类还是动物。具体的描述就是在拟人柴犬后面,我们加上形态更偏向于动物, 然后点击发送,可以看到此时我们生成的结果,在形态上就保留了更多的动物特征,拥有了动物的爪子和动物的尾巴,像刚刚生成的狐狸同样如此。我们现在回到上方选择重新编辑,然后在拟人狐狸的后方输入提示词,形态更偏向于动物,然后点击发, 可以看到此时生成的结果在动物特征上就变得更加明显了。在生成好了这些动物图片之后,我们接下来要做的事情就是将这些图片都下载下来,然后将他们按照出场的先后顺序整理到同一个文件夹当中进行标号,然后回到极梦 ai 选 择视频生成功能,我们使用手抉图生视频的方式,分别将这些动物图片都生成为视频,而提示词方面我们就描述镜头跟随和走路就可以,现在点击发送一段时间后,视频就生成好了,来看一看效果如何吧。 看到整个动物走路的形态还是非常自然流畅的,我们下面就重复刚刚的操作,将每一个分镜头图片都上传到手针图的位置,配合镜头跟随走路这样的提示词描述来 生成相应的 ai 视频片段。再将这些动物走秀的 ai 视频片段都生成好之后,我们下面要做的事情就是将它们整理在同一个文件夹当中,为了让待会的生成更加有条理,对其进行标号,然后就是进行剪辑成片了。将生成好的 ai 视频片段上传到剪辑软件当中,和上上节课所讲解的灵异类视频以及 异兽变身类的视频一样,通常这类视频只是为了视觉效果,并没有剧情上的前后逻辑,所以大家可以根据自己的喜好来更改视频片段的出场先后顺序。而在配乐方面,我们通常就直接根据主题来搜索,比如这里我们搜索走秀,在搜索结果中点击 一个进行试听,可以听到这样有节奏的音乐,就非常适合当前这样的走秀视频。将这个音乐直接通过拖拽的方式放到剪辑轨道上,然后将多出的部分裁剪掉。这里可以使用一个剪辑技巧,就是将鼠标悬置在剪辑轨道上的音频文件上,可以看到最右侧有一个小圆圈,我们将这个小圆圈向左侧 拖动,此时声音就会以渐出的方式逐渐减弱,以此来让视频的结尾音乐结束的更加柔和,不会那么突兀。除此之外,也可以增加一些走秀时的转场效果,因为画面当中每一个视频片段的动物类型都不同,所以这里的转场可以相对突兀一些。例如我们就选择这个叫三屏滑入的转场特效,看一看效果如何。可以看到这个效果 不显得突兀,同时又使得两个视频很好的衔接在了一起。大家也可以尝试其他的转场特效,可以直接将特效拖拽到两个视频片段之间,然后点击播放预览查看效果。如果觉得不合适的话,就在选中这个转场特效之后,按 delete 键进行删除即 可。像这样的走秀视频通常是不需要配音的,所以这里大家通常无需在音效分选项当中寻找对应的音效,我们只需要搭配一个比较动感的符合走秀场景的背景音乐即可。 至于特效方面,大家可以酌情添加,例如像这里的动感分选项当中有一个摇晃运镜就比较适合像这样的走秀场合。我们将其拖着到剪辑轨道上来,简单预览一下效果,可以看到这个效果是不是 很合适呢?在选中这个特效之后,右上方可以调节相应的参数,例如像摇晃的强度、摇晃的速度都可以适当减弱。我们再来预览一下,看到将摇晃的强度和速度减弱之后,整体的特效就变得更加自然契合画面了。那么话不多说,我们下面就以剪辑好的成片来结束这节课吧。 大家好,我们这节课来讲解微缩景观类的 ai 视频该如何制作。首先要说明的是,像这样的视频通常是不具有剧情的,因为像微缩景观类的视频往往是远景拍摄,想要带有剧情的人物演出,一般来说是一件十分困难的事情, 所以大部分这类视频都是以展示风景为主。所以这里我们就将重点放在生成图片上。具体的提示词描述也非常简单,我们就直接描述一周镜头,微缩景观后面加上朝代或者是地理位置方面, 描述不同的国家,以此来生成不同的建筑和风景。例如这张图片我们描述的就是中国古代,你看到生成的结果都是一些古代中式的建筑。当然,像移轴镜头类的风格图片其实有很多,虽然都是移轴拍摄的效果,但可能风格上有细微的差异。如果想要寻求其他的风格,我们不妨借助极梦 ai 在 首页直接搜索移轴镜头。可以看到,在搜索结果中就出现了很多不同 题材、不同风格的一周镜头效果了。比如这里厨师和一个超大型鸡腿的效果就显得十分富有创意。如果大家想要生成类似其他的效果,也不妨学习一下其他作者在生成图片时所使用的 提示词。无论使用何种方法,在生成好图片之后,我们下面要做的事情就是让图片变得更加具有特色。一周镜头和微缩景观只是一个风格或者说效果,我们具体要表现的内容还需要自己在提示词中进行说明。比如这里,在生成好了常规的中国古代街道之后, 我继续向豆包 ai 提问,让他按照上方图片的风格,分别生成古代的茶楼、医馆、衙门、石桥和戏楼,那么按照要求,最终就生成了符合疑似词描述的画面。不过这里茶楼、医馆以及衙门这三张图片在画面内容的重复 度上有些高了,似乎只是换了牌匾。这也是我们使用有前后文关联功能的大语言模型时偶尔会遇到的问题,那就是他没有真正理解我们的意图, 导致生成的结果会出一些乌龙。不过没关系,我们之后再独立生成就好了。所以接下来我单独生成了医馆以及中国古代的茶楼,还有中国古代的衙门。在这些内容都生成好之后,下面要做的事情自然就是整理图片了。我们将生成好的图片都整合到同一个素材文件夹当中,并按照先后的出场顺序对其进行标号。随后要做的事情便是来到 ai 视频生成 平台,将这些分镜头图片生成为视频片段。这里需要注意的是提示词描述,比如说像第一个镜头在石桥上有很多人,像这样有很多人的画面,我们就直接描述固定镜头,人群走动,通常都能取得很 不错的效果,你看到这样的效果是不是还不错呢?而一些画面当中人物有特定行为呢,可能就需要我们去描述具体的人物在干什么了。比如这里描述的是固定镜头,大夫在诊脉,火机在整理干药材,这样的表现效果并不是很好。所以之后我对这条视频进行 重新生成,更改了对人物动作的描述,让大夫和病人之间有相互交谈的行为,这样比静止不动要好得多,就像下面这个衙门的图片,我的描述是固定镜头看守在站岗房间里的人走 出房间。因为本身画面当中可动的部分非常的少,既没有什么植物可以用来被风吹动,也没有什么人群可以让其走动,而站岗的人呢,似乎又不太能动,所以这里能动的就只有在房间中走出的人了。不过显而易见,生成的效果并不是很理想,从房间中走出一个特别高大的人, 比例上有些失调了。因此在生成微缩景观的画面时,大家尽可能规避画面当中不可动的内容较少的一些图片,否则在生成视频时可能就比较尴尬了。因为目前的 ai 视频生成模型更加擅长的是处理一些近景镜 头人物特写,包括人物的微表情,人物的具体动作。像这样的远景镜头想要处理起来,在很多时候比例上可能会出问题,至于其他的画面亦是如此。那这个茶楼的画面描述的就是喝茶聊天,而唱戏的画面呢,就是台上的人在唱戏, 台下的人在鼓掌,整体生成的效果也是不错的。在生成好了每一个分镜头片段后,我们下面要做的事情自然就是来到剪辑软件当中,将视频添加配音、配乐、转场特效剪辑成片了。在配乐方面,我选择的是一个偏古风的音乐,毕竟生成的画面本 身就是中国古代,同时还对每一个分镜头画面都配上了相应的诗歌,让画面显得没那么枯燥。那么这些诗歌是如何进行搭配的呢?当然在 ai 时代是不用自己书写的,在豆包 ai 当中,我们将每一个分镜头图片都上传上来,并向大语言模型提问。给图片配一句诗歌 时,豆包 ai 就 自动回执消息,给这张图片搭配了合适的诗句。比如第一张图片搭配的就是赤桥观柳戏,江露野梅香,这不是非常契合我们所上传的第一张图片呢?其他图片亦是如此。 在获取了每一个分镜头较为匹配的诗句后,就回到剪映当中,选择文本选项,将文本拖拽到下方的剪辑轨道上,然后输入对应的诗句就可以了。同时我们还需要给诗句添加相应的出场效果和退场效果,以及每个分镜头片段之间的转场效果。这里我使用的是一个普通的效果,也可以在实际剪辑时进行尝试。那么话不多说,我们最后就以成 天来结束这节课吧。如果觉得本期视频的内容对你有帮助,也不妨点赞关注支持一下。 大家好,我们这期视频来讲解一下如何在本地部署生成 ai 视频的工作流。在先前的课程当中,我们所讲解的如何生成 ai 视频都是基于 ai 视频生成平台的。像可林奇梦多某 ai 这些在网站上打开的 ai 视频平 台,虽说生成的效果都非常好,平台的操作也非常方便,功能也较为全面,但存在一个致命性的问题,那就是生成的 ai 视频在尺度方面是有严格的审查机制的,当我们想要生成一些尺度较大的 ai 视频时,可能像这样的传统 ai 视频生成 平台就无法满足我们的需求。所以今天就来教大家如何下载本地康复 u i 以及如何在康复 u i 当中加载 ai 视频生成工作流。我这里已经提前准备好了康复 u i 的 整合包是秋叶大佬的版本,大家需要的话可以在评论区的置顶自取。 当压缩包下载好之后,右键这个压缩包解压到电脑上你指定的位置,在解压好之后,我们所获得的这个 comfui 文件夹就称之为 comfui 的 根目录。双击进入根目录文件夹当中,可以看到这里有一个叫会事启动器的应用程序,我们双击这里一段时间后,就打开了一个叫会事启 动器的操作界面,在这个界面当中我们要先进行一些基础的设置。首先来看左侧的疑难解答分选项,点击进入后,点击右上方的开始扫描,会自动检测当前电脑的运行环境是否是全面的,如果没问题的话,就会弹出当前所示的这个窗口, 如果有问题的话会告诉你解决的方式是怎样的,大家遵照给出的提示来补全电脑的运行环境即可。然后是左侧的版本管理分选项,在这里可以选择 comfy ui 的 版本。需要说明的是,我们切换版本并不意味着要删除旧版本来下载一个全新 新的版本,而是在原有版本上进行更新,所以通常切换版本的时间大概就是几分钟到十几分钟之间,不会特别漫长。除了切换内核版本之外,像在 comfui 上安装的很多节点插件,在上方点击扩展分选项,同样可以在这里实现一键更新或者卸载相关的节点插件。通常来说,我们下载最新版本的就可以 在做好这些准备工作后,点击左上方的一键启动,回到首页,然后再点击右下方,这里就可以启动 comfui 了。看到当前所示的就是 comfui 的 后台运行窗 口,无论是启动 comui 还是运行工作流,在这里都会显示完整的运行步骤,有时出现报错也可以在这里查看,并将报错结果使用豆包、 ai 或者是一些搜索引擎来搜索报错的原因。一段时间后,等 comui 正式启动,就会在我们电脑的默认浏览器上打开这样一个网页。虽说 comui 是 一个本地软件,但其操作界面是通过浏览器打开的, 此时我们所见到的是一个默认的基础纹身图工作流,使用它可以进行最基础的纹身图操作。比如现在我们直接点击最下方的运行 工作流就开始运行了,不过我们会发现在中间这个位置会弹出一个报错提示,这样的提示非常常见,在运行工作流或者导入新的工作流时,如果出现了模型的缺失或者节点的缺失,通常都会有类似的提 示,我们只需要根据提示来进行对应的修改即可。比如当前的提示就是在 checkpoint 加载器这个节点上缺少所选择的模型,所以我们要做的事情就是下载一个新的 stable 标识模型,放置在相应的模型文件夹中即可。具体的放置位置在根目录当中选择 comui 这个选项,来到 comui 的 文件夹后点 以及 models 文件夹,然后找到第一个 checkpoints 文件夹,将大模型放置在这个位置,就可以运行刚刚的文生图工作流了。回到正题,我们来讲解一下如何在本地 comfyui 上来加载视频生成工作流。方法也非常简单,并不需要我们从零开始搭建每一个节点。目前的 comfyui 我 们可以 点击左上方的工作流下拉菜单,可以看到这里有一个浏览模板的选项,在点击打开之后,多数的 comfyui 工作流我们都能够在上面找到将作为基础的文生图生图或者包含 lara 的 图像生成工作流, 或者还有生成 ai 视频的工作流。有当前的页面就是生成 ai 视频的工作流选择页面,在这里我们就可以选择一个生成 ai 视频的万象二点二工作流模板为我们所用了,比如就选择第一个,可以看到在选择好这个工作流之后,同样弹出了一个窗口,告诉我们在加载图标时未找到以下模型。 所以这里就需要我们点击窗口当中的下载选项,在点击之后会直接跳转到下载页面,帮助我们下载当前工作流中所 缺失的模型。也可以点击后方的复制链接,将下载链接复制好之后,在本地浏览器中打开。不过需要注意的是,有时候我们下载这些文件是来自于外网的,所以下载的时候可能需要开启网络加速器,不知道如何开启的同学可以查看评论区的置顶。例如现在我们点击下载这个二百四十二兆的选项,这时会弹出一个新的网页,如果你的网络链接没有问题, 一段时间后,你的浏览器都会将这个文件下载到浏览器的默认下载位置,其余缺失的模型文件同样重复这个操作。在全部补全完整之后,我们就可以成功的运行当前的工作流了。这是一个在本 地使用文声视频的方式生成 ai 视频的工作流,基本的参数都已经设置好了,我们只需要添加提示词的描述,将其翻译成英文就可以正常使用了。当然这些模型也需要在刚刚我们去下载补全,现在刷新一下页面,我们来补充一下刚刚下载的模型应该放置在什么位置, 其实这里已经向大家说明了,可以看到每一个模型下载选项中间都有一个斜杠,在斜杠的左侧就是其放置的文件夹位置, 而斜杠的右侧就是其文件名称。比如这里的 u m t 五杠叉叉 l 这个文件,它所放置的位置就是斜杠左侧的 text encoders 文件夹。我们回到 comfui 的 根目录,然后找到 model 文件夹,在 model 文件夹中就能够找到刚刚我们所见的叫做 text encoders 这个文件夹了,下载好之后就放置在这个文件夹里面就 正常使用工作流了。其余缺失的模型文件同样这么来判断,比如这两个是放进 deforestation models 文件夹的,而这一个是放进 vae 文件夹的,这是一个万象视频生成模型的 vae 模型。 如果大家想要进行徒生视频的话,我们就需要换一个工作流方法,同样是点击左上方的工作流下拉菜单,然后选择浏览模板,点击视频这个分选项,从中找到这里的 image to video 这个选项,此时弹出的就是一个徒生视频的万象视频生成工作流,可以看到这里有一个加载图像相关的节点,将图片上传到这个位置,再配合提示词的描述,就可以生成对应的视频了。 默认生成的是五秒钟的视频,对于本地电脑来说,这个长度已经是比较极限的长度了。而对于我的电脑来说,由于配置较低,是三零七零八 g 显存的显卡,所以就不再进一步补全相关的模型来给大家尝试生成了。 如果大家的电脑配置充足的话,可以按照这样的方法使用自己的电脑在本地生成尺度更大的 ai 视频。那么以上就是本期视频的全部内容,如果觉得对你有帮助,也不妨点赞关注、支持一下,我们就下期视频再见!

从零基础,彻底的教会你制作 ai 视频。友情提示,本教程总时长三百分钟,彻底的教会你使用各种 ai 工具,从零开始完整的制作出一部 ai 短片,其中包含 ai 视频制作的全部流程,故事、剧情、镜头、运镜、配音、配乐、 剪辑成片,保证你一学就会,赶快收藏好,下面我们就插入电源,从电脑开机开始讲起。 好的,那么书接上回。在先前的课程中,我们讲解了制作剧本、脚本或者生成故事的三种方法分类。 这节课我们就以这个剧本为例,来讲解一下如何对剧本进行修改。这个问题就没有什么特别的公式可以代入了,我们唯一能做的事情就是仔细阅读 ai 生成的故事内容,看一看有没有逻辑不通顺的地方,所以我们这里就举一个例子,大家可以举一反三。我们话题回到刚刚说 ai 生成的这段内容, 比较牵强的部分就是为什么献祭这个心头热血的人必须是这个独子墨尘。所以这里我就对原剧本进行了修改。 首先是这一段自愿以热血为引, ai 原先生成的呢,是以心头写为引,但其实这种方法可能会导致你刺了一剑之后,这个独子墨尘就不再是奄奄一息了,而是直接就挂掉了。 所以说改为热血,让他在身体的其他地方去取热血,可能后面他还会奄奄一息,能够被国师给溅到。另外就是这里修改了为什么是墨尘来献这个血的逻辑,哎,是因为国师他占卜了, 一般国师嘛都会占卜,刚好这个国师也是墨尘的父亲叫墨渊,所以这样改写呢,也跟剧情当中的主要人物有所关联,所以就加了这么一句,国师随后占卜此人竟是墨尘。 然后下面的内容就基本一样了,愈一将消息传到寒潭,哎!不过这个时候,由于我们前面的修改,其实逻辑上就产生了一些微妙的变化,像之前是必须以心头血为引,那基本上刺一剑人就没了,但我们现在改成了热血。所以这个国师占卜之后啊,让墨尘就是他的独子去献这个血, 不会显得这个国师很歹毒,毕竟只是献一点点血嘛,又不是说让你去赴死。所以这个独子墨尘呢,他愿意献出自己的血,也不会显得他很圣母,这个逻辑就通顺了。 而这个墨尘的大爱情节展现在哪呢?就是他愿意积血救万民,他献一点点血还不够,不光要救他的老父亲,还要救自己的国民啊。所以这点又改了一下,他向御医要来匕首,取出血液, 全新的内容呢,是让牢房之外的侍卫用剑去刺他的胸口。之所以这点要改呢,也跟前后逻辑有关,首先是御医把消息给传到寒潭的,那御医这个人物把消息传到寒潭之后,就不再登场了,这就会显得御医这个人很工具人, 好像就是为了给他传个消息,然后这个人物就下场了,那你还不如让侍卫去传消息呢。然后呢,就是独子墨尘主动向御医要这个匕首,这个行为就不会显得剧中的其他人物很歹毒,彰显了墨尘自己这个人对于百姓的大爱,而且原先 ai 生成的,隔着什么牢房的栏杆 去刺这个人的身体,这个画面其实挺难生成的,所以我们在修改故事剧本的时候呢,还需要考虑这个图片它好不好生成。有些图片真的是很难生成, 也许想象能想象出那个画面,但你要做的话,成本代价可能太高,这也是修改剧本的一个原因之一。 然后最后一处修改呢,是伤口仍在渗血,原 ai 生成的内容是胸口仍在渗血,那因为刺的现在不是胸口了嘛,所以就改成了伤口。那么通过这些改动呢?原本不合逻辑的内容就变得更加符合逻辑,特别是故事情节当中,人物的行为逻辑会显得更加合理, 尤其是这个国师。在原剧情中,这个国师他是处在昏迷的状态,这个御医要取这个独子莫尘的心头血,这个逻辑就很说不通啊,凭什么你一个蛐蛐的小御医就能决定我儿子的生死? 等我醒过来,我哪怕我病好了,对吧?你敢伤我儿子,这是要杀头的呀!这御医敢做这个决定吗?肯定不敢。所以我们修改的时候呢,让这个国师不设定为昏迷状态,让他醒着去占卜, 干不出了他儿子。而且他儿子只要付出一点点血的代价,不至于危及生命就能救他的性命,这点就十分合理。以上就是关于剧本修改的一个案例,大家在实际制作的时候,不同的剧本,不同的故事, 可能都会出现意想不到的逻辑不通的部分,想要做出更好更合逻辑的修改,我们就只能在不断的实践中积累经验。大家在制作剧本脚本时,如果有这样的逻辑问题,也非常欢迎发在评论区,我们一起讨论。最后来说一下字数和生成短片对应的时间关系, 通常是这么一个关系,也就是每三百三十个字对应一分钟的影片生成时长。当然并不是说这一分钟时间全在说话,肯定在剧情上会有一些留白,所以这是一个大致的时间,大家可以参考一下。我们想要生成一分钟左右的短片, 字数呢就在四百字左右比较合适。需要注意在提要求的时候不要给 ai 划定一个时间长短。比如说我最后补充一句,让 ai 生成的这个剧本脚本或者故事刚好能够制作一段一分钟左右的短片, ai 是 没有这个概念的,所以我们最多能做的就是给它限定字数。 那么以上就是关于剧本如何修改的案例,如果觉得本期视频的内容对你有帮助,也不妨点赞关注、支持一下,我们就下期视频再见。

挑战,每天讲透一个 ai 大 模型知识点,今天是手写 deep c 二一模型微调教程,你是不是也这样想学大模型微调,收了一堆资料,结果全是各种微调框架,根本不知道背后发生了什么, 你也想自己实现一遍,但根本找不到从零开始的教程。今天我们不走捷径,带你从头开始,一行行手写代码,微调一个真正的大语言模型, 我们采用 deepsea 的 蒸馏版本,轻量可训,能本地运行,不封装,不跳步,全程低 bug 模式,带你真正搞懂模型是如何微调训练的,准备好让你的 gpu 冒烟了吗?三分钟带你真正进入 大语言模型的炼丹现场。好,那么在讲解整个项目之前的话,先简单给大家介绍一下,那么我们整个微调训练的这样一个算力平台啊, 因为我们本地的环境的话,那第一个因为它配置比较低啊,然后跑起来的话,这个时间的话会更长一些,因此的话,我们给大家去选择了一个免费的算力平台啊,也就是 model scope 啊,摩达社区。 那么在这个平台当中的话,他给每个人啊都有提供啊,对应的这样的一个算力啊,那他有一个额度的一个限制啊,然后他的这个配置的话,是一个显存是二十四 g b 的 啊,完全是够用的啊。 所以的话,我们在这个平台当中啊,那我们可以去完成我们整个模型训练的这样的一个过程啊,在本地啊去进行编辑和调试。 那接下来的话,我们来了解一下,就是关于我们整个项目的这样一个结构啊,那整个项目的话,我们一共有呃五个文件啊,那么在这五个文件当中简单给大家介绍一下啊, 首先第一个啊,是我们的一个 readme 啊,那这是我们的一个项目的一个介绍文件啊,这个根据大家的需求,那你可以写也可以不写,因为它是一个做介绍用的。然后第二个就是我们一个 python 的 这样一个依赖包的这样的一个列表啊, 就是你在整个项目当中啊,它需要用到的一些第三方的一些工具包啊,一些模块,那我们会把它放到这样的一个文件当中去啊, 然后还有一个就是 man 点 py 的 这样的一个文件啊,那么这个就是我们所有的这样一个微调训练的代码啊,那么一共的话是分为七步啊, 然后再接下来的两个啊,那么就是我们用来生成我们的一个微调训练的这样的一个数据集的啊,一个代码和我们的一个呃,生成的这样的一个文件啊, 好,那整个项目结构啊,咱们有了一个基本的了解之后啊,下面的话,我们先简单给他介绍一下,就是关于我们这个依赖的一个安装啊,那这个依赖的话啊, 我们需要去安装的话,一共的话是五个模块啊,就包括这个啊, touch, 然后 transformer, 然后还有这个做数据级的,还有这个啊, data set, 还有我们做这个呃, lala 微调的啊,然后最后面这个是我们来做这个模型量化的啊,用来去节省我们的一个啊,显存 好。那么对于这样的一些模块的话啊,那么我们在 model scope 的 这个环境当中啊,那其实的话我们是不需要去安装的,那 如果大家啊,你在本地啊,去尝试啊,或者说啊你用了这个啊,其他的一些算力平台,那我们就可以自行的去安装啊,对应的这个模块, 那么安装的方式啊,也非常的简单啊,就是我们可以去打开我们的这个命令行啊,我们的 c m d, 那 比如说我们现在啊,我们先进到咱们的这个算力平台当中来啊, 好,那么在这里啊,我的这个项目的这个路径啊,是在这个啊, dsp 阿 e, 然后 sft 啊,这是我们的一个整个的一个项目的一个文件夹好,然后在这个文件夹下面的话,我们可以去启动一个叫我们的这个命令行终端啊, 然后在这个终端当中啊,但如果说啊,你需要去安装啊,我们刚刚讲到这样的一些模块啊,那么直接通过这个 pip install, 然后杠 r 啊,指定你要安装了这样的一个列表啊,就模块的一个列表就是 requirements, 然后那么我们在这里面给大家再加了一个杠 i 的 一个参数,那么这个参数它的作用是用于换元, 也就是你在下载模块的时候,它的速度是非常非常慢的啊,所以说我们需要把它的下载地址切换到豆瓣的这个啊,原的这个地址来啊,那么这就是我们的一些基本的一些环境的一些配置啊,所以大家先打开我们的这个 model scope 的 这样一个算力平台, 然后啊自己去新建一个文件夹啊,然后叫 deepsafe, 杠 r e 啊,杠 sft, 那 么它里面有没有这样的一些文件啊?不重要啊,就它 它是一个空白的,就大家如果说你创建完这样的一个文件夹之后,它里面应该是一个空白的,好吧,那么这个是正常的, 那么这些文件啊,就是我们接下来在写项目的这个过程当中啊,我们会一步啊,一步的去进行这样的一个创建啊。好,那么现在的话,我们再回到 modscop 啊,我们的这个平台当中来啊,那我们首先第一集的文件夹啊,还是这个模型微调啊,那么我们之前的话是有 创建了这样一个 dipic r e 啊,微调的这样的一个项目啊,那么现在的话,因为我们是从零开始啊,所以我们把整个的这样一个步骤啊,那么重新啊,给大家去复现一遍啊。 那在接下来的话,我们首先的话来到这个项目当中,我们先创建一个文件夹啊,那么这个文件夹的话,我们这个名字我们采用的话还是一样的啊, 我们改一个二啊,好,然后再进到这个项目的这个文件夹下面之后的话,那我们整体的一个操作啊,那么我们是在我们的这个代码当中啊,我们要有一个体现啊,所以在这里我们可以先去创建我们的拍摄文件, 那有两种方式可以给他去选择啊,一种的话是我们这个,呃,那 一种的话就是我们这个 notebook 啊,我们这个可以单步去执行的啊。然后还有一个的话,就是我们的这个啊,纯粹的这个拍摄文件啊,那么它一次性的话是执行所有的这个代码啊,那么接下来的话,我们就先通过这个 notebook 啊,我们先给大家去进行这样一个简单的一个尝试啊, 我们直接点击这个图标,然后我们就会进到这个 notebook 的 这个文件当中来啊,那首先的话,我们的开始啊,我们需要去做什么?这个代码应该怎么去写啊?那其实还是回到我们这个环境的这样一个准备啊,那么我们的现在平台我们是 ok 了,那我们现在还缺少一个模型, 那模型的话是需要我们自己去进行下载的啊,我们这里的话同样的也采用的是这个啊, modscop 的 它的这样的一个渠道啊,所以这地方有一个下载模型的这样一个选项啊, 然后他给我们也同样的去提供了这样的一些命令啊,比如说我们可以基于他的这样的一些命令啊,去下载啊,我们对应的这样的一些呃,模块啊,或者我们这个模型,那么对于这个代码的话,我们其实可以直接复制啊,复制之后我们来到我们的这个环境当中来啊,那么首先第一步啊,就是去 下载依赖的模型啊。好,然后这个模型的话,我们在这里的话,是啊一点五 b 的 啊,但它这个下载这个路径的话,其实是固定的啊,所以我们可以先执行一下这个代码, 因为我们本身的话,我们其实这个模型的话,我们已经下载过了啊,所以说他直接就完成了,那么如果说大家没有下载过的话,他会有下载的一个过程啊,所以你把这一步先给他下载好, 那么下载好之后啊,我们怎么样去查看?那我们的这个模型它到底在哪一个位置啊?那么在这里的话,我们就可以通过我们的这个啊, 东端啊,那么在终端里面的话,我们其实就可以去进行这样一个查看啊,那么它的这个模型的话,默认是在这个 workspace 下面的话,我们找到。 好,然后通过 ls 啊,我们去查看啊,然后在这个路径下面的话,它会有一个隐藏的啊, 呃,它会有一个隐藏的这样一个目录啊,呃,就是那个 catch 啊,那么这边我们通过 ls 杠 a 啊,我们就可以查看到,那么在这个 catch 这个目录当中,我们直接通过 cd 命令,然后进到这个 catch 的 这个目录当中来。好,然后有一个 model scope 啊,我们进来啊, 进来之后啊,然后 models ok, 然后现在有一个 deep seek ai 了啊,然后我们通过 cd 啊,然后切换到这个 deep seek ai。 好, 然后我们再去进行查看。好,那么这个就是我们的这个我们要下载的这个模型啊,它就会有这样的一个路径啊,它就会下载到这样的一个位置啊,就方便我们大家去进行这样一个应用啊。 好,那么这个模型啊,在下载成功之后啊,那么接下来的话,我们就可以正式啊进入到我们整个微调的这样一个流程啊,那么首先第一步啊,那我们应该是要去做什么? 第一步我们要做的事情很简单啊,也就是我们要去加载模型啊,并且我们要去测试啊,就他有没有问题。好,那么这个代码的话,我们就为了这个节省时间啊,我们就直接给他复制过来啊,对方都给他准备好了。 好,然后我们接下来给大家解释一下,那么这个代码的话,首先它是一个什么意思啊?那首先第一行代码就是通过 form 啊,我们去导入啊,从哪里导入呢?从这个 transformer 那 里面去导入了这个 autoticon, 然后还有这个 第二个,这个一个框架啊。好,那么在这个导入之后啊,那么它到底啊,它是做什么样的一个应用啊?就它的这个作用是什么?那首先这个 tokenizer 它是用来加载啊,并且去识别我们这个对应模型的一个分词器啊, 那这个我们后面是需要去用到的,然后这个的话,就是我们用来加载这个模型啊,用于我们这个任务的一个生成 啊,然后接下来的话,我们去写了一个 model name 啊,也就我们去指定了啊,我们已经提前下载好了这样一个模型的路径啊,那如果大家啊,跟我一样也是用的 model scope 的 话,那么你的路径应该也是这样的一个路径啊,就这个不会变啊。 好,那如果说你是自己的平台的话,你就把这个路径啊换成你的这个啊,模型所在的一个地址啊,就可以了。好,然后接下来拖个 nicer, 那 么这一行就是实际的这样一个加载的这样一个过程啊, 好,包括这一步啊。好,那么在这里的话,我们是用的一个 to 啊,然后这个库达,那这个是什么意思?哎,这个表示啊,把我们的这个模型啊加载到我们的这个 gpu 上面来啊,进行这样一个推理的一个加速啊,所以我们先 执行一下这个代码,然后我们在这里就可以看到我们整个的一个设备的一个使用率啊,比如说我们这个显存啊,来看一下,现在还是还没有去用的啊。好,那么等到我们的这个模型啊,在加载成功之后啊,我们再看一下啊, 好,这个地方还没有加载完啊, 好,来,现在啊,这个地方已经加载成功了。 ok, 来,我们可以看到这个变了没有?变了,现在是这个七七 g 啊,对吧? ok, 好, 让我们再接下来我们再继续啊,好,那么第一步啊,我们在完成之后的话,就是我们的第一步啊, ok, 加载模型啊,并且去测试啊,他有没有问题,那么我们可以看到结果啊,是没有问题的。 ok, 好,那么模型在加载成功之后啊,接下来的话,我们去做我们的第二步啊,也就是要准备啊,我们的数据集, 那么这个数据集的话怎么来啊?其实很简单啊,那么如果说我们只是做一些简单的一些测试啊,你没有一些实际的一些应用的话,你可以通过大模型啊来帮你来进行生成,比如说你给他一个嗯, 相关的一个主题啊,然后由大模型去生成相关的这样的一些数据啊。好,那么在这里的话,因为我们是呃给大家去演示一下整个微调训练的这样的一个流程啊, 所以的话,那么我们的这个数据同样的也是通过大模型啊来进行生成的,所以接下来的话,我们这个地方会用到我们的这个代码的话,我直接给大家去复制一下啊, 好,然后这个是我们的第二步啊, ok, 准备数据集好,那么这个数据集这个地方到底应该怎么去用啊?其实说白了就是我们要首先你要有一个什么,你需要有这样的一个列表啊,就你这个样本里面它到底是什么?那我们可以看到它现在是一个空的啊,这里面现在是没有这个数据的, 那么这个数据啊,我们到底怎么样啊?来进行这样的一个获取啊?那么在这里的话,我会用到,我们要用到这样的一个代码, ok, 呃,我们来到我们前面啊,给大家做的这个项目里面啊,这个地方他会有一个拍摄的一个文件啊,然后给他看一下啊, 好吧,然后在这个拍摄的文件里面的话,那我们可以看它这地方是不是有这样的一个 sample, 对 吧? ok, 好, 那么这个数据的话,其实我们就可以直接啊,你把它复制过来就可以了啊,当然如果说你觉得比较 浪费啊,你觉得这个地方有点占地方,那你就可以不复制啊,就你可以用这种代码的形式啊,然后去做一个啊 form 引入啊。 ok, 但这边我为了方便大家去理解啊,所以说我们就直接把它拿过来啊,就直接把它拿过来算了啊, 好,直接把它粘贴过来啊,好,粘贴过来之后啊,那么我们在干嘛?哎,我们是通过 which open 啊,去打开了这样的一个节省的一个文件啊,然后通过写入的方式 把我们上面的这样一个列表啊,我们通过便利啊,然后把所有的数据啊写到这个节省的这个文件里面来啊,为什么?因为我们后续我们还要去做进一步的一个处理啊,所以这边我们先来执行一下这一段代码, ok, 哎,有问题没有,没有问题,然后地方就有一个什么,有一个节省文件,来,我们打开这个节省文件看一下,好,那么这个节省文件里面啊,就是符合我们的数据集的一个要求啊, ok, 一个是 prompt, 还有一个什么,还有一个是 computation, ok, 呃,就有两个啊,两个字段。 好,那么这个数据集啊,我们在准备完成之后的话,那么接下来的话就是我们的第三步啊,来看一下。 ok, 好, 那么第三步的话就是我们要对于这个数据集啊,我们要去做一个拆分啊,因为我们正常的这一个 训练啊,它都是有这个训练级和这个测试级的一个区分的,那么在这里的话,我们要针对于这五十条数据啊,因为一共的话它只有五十条数据啊,所以对于这五十条数据,那么我们的这个处理方案也很简单啊,首先啊,就是通过我们这一个 data sets, 那么这个 data set 的 话,它是一个专门啊,用来加载数据集的这样的一个模块啊,那么它里面有一个方法啊,叫 load data set 啊,那么这个方法就是我们要去用的啊,所以我们把这个代码,我们先把它拿过来啊, 好,拿过来之后啊,我们先简单的来看一下啊,好,然后在这里面,那么首先的话,我们是通过什么,通过我们导入的这个 load 这张 set 啊,来进行导入,那么导入的话第一个参数它表示出我们这个文件的一个格式啊, 然后这个代码费钥匙啊,也就是我们的这样一个数据集, ok, 他 这边到底是怎么去进行这样一个导入的?所以这个让我们把它写路径的话稍微改一下啊,好,然后什么利达这个地方是做了一个切割的,这个切割就是我们要有这样的一个呃区分啊,好,让我们先把代码先执行一遍啊, 啊,这个地方报错了,就是没有找到我们的这样的一个文件啊,我们看一下 data set, ok 啊,没有 s, ok, 可以 了啊,好,那这个地方我们在执行完成之后的话,我们能够看到的就是,首先啊,那么我们总共的数据啊,一共的话是五十条,然后我们用于这个训练的数据的话是四十五条啊,然后用于测试的数据的话是这个五条啊,就是呃, 九比一啊,九比一的这样一个数据的这样一个区分啊,然后那训练数据啊,咱们这个就准备完成了,那这个地方其实就,呃,其实这个就是我们具体的这样一个切分啊,比如说这个代码,对吧?它只是按照这个九比一的这样一个格式啊,然后进行这样一个拆分,然后这个 test 的 赛制啊,它表达就是 测试集他的占比的话是百分之十啊,也就是零点一,当然这个你可以去调啊。好,然后这个地方拆分完之后的话,那么我们能够得到,就是分别能够得到啊,两个不同的这样一个数据集啊,一个是训练的数据集,一个是测试的这样一个数据集, 然后我们再把它的一个数量啊,通过 print 把它打印出来,可以看到这样的一个效果好,然后再往下,那么就是我们的第四步啊,我们要编写这个 tokenizer 的 一个处理的一个工具啊,那这一步的话是什么意思呢?其实也比较简单啊,就是我们要知道啊, 对于我们的模型训练来讲,它并不是说你直接按照原本的这样的一个格式啊,比如说,哎,我们按照这个 json 里面的这个数据,对吧?它是一个字典, 那你就把这个格式丢给我们的大模型,它就能够去训练吗?并不可以啊,所以我们需要对于这样的一个数据啊,我们要给他去做这样的一个预处理的这样一个阶段, 那么这个预处理啊,到底是什么意思呢?哎,其实啊,就是去定义一个方法啊,比如说叫 token function 的 这样一个方法,然后啊他接收一个参数啊,这个参数就是嘛,就是我们的这样一个啊,训练的这样一个数据集。 好,那么在拿到这样的一个训练的数据集之后啊,接下来我们的这行代码,他看上去那有很长啊,但是他的逻辑啊,其实是非常的清晰的,就是用了一个什么,其实就是用了一个啊,我们的列表推导啊, ok, 首先我们是通过这样一个 step 啊,我们从我们的这个训练的数据集当中啊,把这个 proment, 这个制段,还有这个 compilation 这样一个制段,哎,分别拿出来,然后我们去做这个负循环的一个便利,那么它每便利一次,它得到了数据啊,都是其中的这样一条数据啊, 然后我们把这样的一条数据啊,组合成一个什么组合成一个制服串, ok, 组合成这个制服串,然后中间的话是用一个杠 n 啊来进行的这样一个区分啊,就是我们要把原本的两个字段啊,把它变成一个制服串啊,也就是我们的 test 啊,那么现在它就是一个列表。 好,然后再接下来的话,那么通过这个 talk net 啊,我们要对于我们这个文本啊来进行这样一个编码。好,那这个编码到底是什么意思呢?哎,我们就通过啊,我们实际的这样的一个效果啊,来给大家去进行这样一个展示啊, 好,来我们这个地方就有了,然后我把这个 print 打印呢,给它打开啊,就是我们把经过这个转换之后的这个数据啊,我们给它直接打印出来。好,那么我们可以看到啊,这个地方都已经处理完成了啊,然后这个地方代码有点问题啊,没有定义,那应该是变量明写错了,我们看一下 data set 啊,我们上面的 这个是没有问题的啊,哦,这里写错了, 多了一个制服啊,好,可以了啊,好,那么现在的话,就是我们把第一条的这个数据啊,已经打印出来了,好吧,我们就可以看到他对应的这样的一些内容啊,那么我们刚刚讲到了,就他会去对于什么对于我们的这个文本啊,来进行这样一个编码, 对吧?也就是我们的这一个 tokens 啊,那么在这里面啊,它得到这个数据啊,它到底啊是什么样的?其实就会有这样的一个张量啊,就也会这样一个张量在里面啊, ok, 然后这个 labels 啊,那这个就是我们后面我们去给它添加进去的这样的一个内容,就这个流程,我们也可以把它理解成我们一个固定的,好吧?比如这个 labels, 那 么它是我们的一个标签, 对吧?那我们为什么去设置这样一个标签呢?那么是用于啊,我们在训练的过程当中啊,我们要去计算我们的一个损失的啊,所以说你要把这个东西给它加进去啊,所以说我们的第四步啊, 好,那么第四步啊,就是你再给他这个啊, tokyo 啊,处理完成之后啊,接下来的话,我们再去来做第五步啊,也就是量化。 好,那么做量化的目的啊,其实就只有一个啊,就是用来去节省我们的一个内存啊,节省我们的一个显存的一个占用啊, 所以在这里的话,那么它包括像我们的四比特量化也好,八比特量化也好啊,都可以啊。所以对于这个代码,那么首先啊,就是从 transform 里面,对吧?我们把这个类啊,你给他导进来啊,那这个就是我们来去设置我们的这个量化参数的一个类, 然后接下来一个 classification 啊,然后 config, 那 么就是用来去设置啊,你到底是要用哪一个量化?比如这地方巴比特,那么就是起用啊,这个巴比特量化啊, 然后接下来啊,我们通过这个,这个就是我们之前前面讲过加载模型的嘛,好吧,那么这个地方就是用来重新啊,去加载我们的模型,并且去应用我们的这样一个量化的一个配置。 前面那可能就直接用这个 model name 啊去加载了一下,那现在我们把这个扩展程序啊也加载进来,然后啊,那下面的这个什么这个凹凸啊,那么就是指定是吧?啊,就是分配啊,我们这样一个可用的 gpu 设备啊, ok 啊,好,然后把这个代码我们再拉过来啊, 啊,注四拉过来一下啊,第五步, 好,拿到之后啊,我们来运行一遍啊,好,量化模型啊,加载完成没有问题啊, ok, 好, 那么这一步完成之后的话,那接下来我们开始去做我们这个 lala 的 一个微调的一个设置啊,那么这个 lala 微调的设置啊,那其实 相当于就是我们要去把整个的一些配置啊,你要给它搞清楚啊,对吧?它到底用到哪些内容啊?比如它 它怎么去微调的,对吧?我们现在是要去做微调吗?那微调你是基于什么来做的?那我们是基于 lala 来实现的啊,因为我们并没有去用到一些微调训练的框架,你比如说 anselos 也好啊,像这个 nama factory 也好,我们都没有用啊,那我们就用这个原声的那个 lala 啊,我们来进行这样一个微调, 那首先第一个就从这个 pft 里面啊,去导入啊, lala 那 么相关的一些模块啊,那这个就是用来去获取加载我们的一个模型啊,然后还有这个配置 好,然后这个地方是干嘛呢?那这个地方其实是要去创建一个 lala 的 一个配置的一个对象, 八等于八啊,表示他的一个字啊,就是捞了一个字控制我们的一个参数的一个数量啊,然后这个十六啊,表达的是我们的一个缩放的一个因子啊,那么他影响的是我们捞了权重的一个学习的一个速率啊, 然后再接下来这个零点零五啊,那么他表达就是我们的这个房子啊,过礼盒啊,我们会用到的一个参数啊, 然后面的话,这个,这个就是我们的一个语言啊,就设置我们的一个英国语言的一个模型。好,然后通过这个啊 get 啊,然后 pft model 啊,来加载啊,就是 把我们的这个原始的这个模型啊,这个 model 嘛,对吧? model 是 我们前面我们去加载的一个模型嘛,那把这个模型啊转换为啊支持这个 lala 微调的一个形式啊,然后把这个 lala 它创建的一个配置的一个参数啊,我们也给它丢进来,那么丢进来之后啊,我们 这个地方啊,就是可以去打印什么,就是可以去打印我们这个可以训练的一些参数啊,和他的一个比例啊。 ok, 好, 来,现在我们把这个代码我们拿过来执行一遍啊, 看一下啊,好,那么这个地方直接就结束了,那么他打印出来这个结果,来我们看一下啊,那么我们能够看到的这个比例是多少?百分之零点零六一三啊,非常非常小的一个比例了, 因为一共就五十条数据啊, ok, 所以 他的占比啊,是非常非常低的啊。好,然后这个设置啊,完成之后的话,那么接下来我们开始去准备啊,我们的这样的一个训练的这样的一个参数啊,就你整个的一个训练,对吧?那么他到底是怎么去怎么去训练的,对吧?参数啊,到底有哪一些啊? 那么接下来我把整个参数再详细的给大家来做一个讲解啊。好,那么首先的话还是一样的,从这个 transform 里面啊,去导入啊,我们的这个训练的一个参数啊,以及我们的这个训练器的这样一个类,这两个类啊, 好,这两个类,那么首先我们对于这个参数的这个类啊,那么我们要给它做一些配置,那比如说第一个 output 点 r, 那 么这个就是我们用来输出啊,我们这个模型的一个目录啊,就训练之后的这个模型啊,输出到哪里? 然后接下来就是我们的这个 apos 啊,这个就是我们的一个训练的一个轮次啊,现在我们是十轮,那你可以说五轮啊,二十轮啊,都可以啊。好,然后再接下来的话,这个 tape 啊,那这个是什么? 这个是每个设备啊,它训练的一个什么,它最大的这样一个值啊,就这两个啊,好,那这个值的话啊,啊,上面的是值,然后下面的是 t 度啊, 好吧,上面是我们的这个被晒着啊,好,那这个就是可以根据我们这个设置设备,你的设备的性能越好,那你可以把它调大一点啊,别调个八呀,十六啊,都可以,那如果说配置不行,那你可以把它调成二啊,也是可以的,好吧。然后下面这个就是这个,就是我们那个梯度啊, 好,然后这个十,这个 f p 十六,就是我们的一个混合精度啊,就开启我们这个混合精度的一个训练啊,那么这个同样也是用来节省这个显存的。然后接下来就是我们的一些啊,比如 log in 啊,来,这个就是我们的日历啊,就是美食部啊,然后去保存一下我们的输出,我们的一个日历啊, 然后一百步的话,干嘛保存一次我们的这个模型,然后经过一定的一个步数啊?那么我们就要去进行这样一个评估,那到底多少步呢?每十步的话,我们去做这样一个,做这样一个评估,然后这个是我们的学习率啊, 然后还有一个逻辑的电压,之后我们的日记啊,他输出在哪里?好,还有一个认定啊,这个就是我们的一个实验的一个名字啊,主要是用的日记啊来进行记录的好, 嗯,这不其实也没有什么,我们直接把它复制过来啊。 ok, 好, 我们先执行一遍啊,看有问题没有啊?没有问题,对吧?好,然后这样我们就把整个的这个训练器啊,这个部分也讲到啊,那么训练器的话,那么在这里的话,同样的他也不复杂,对吧?因为这个首先这个累, 那么是你从全是 form 里面导导入的好,然后它的参数我们来看啊,首先 model, 那 model 就是 我们通过这个 luda 啊,它重新去加载过的这样一个模型,然后 ar g s 呢?这就是我们上面我们所创建的这样一个啊,训练器的这样一,这样一个训练的一个参数。 好,然后接下来这个什么,哎,训练的数据集,对吧? ok, 啊,这是我们前面我们把它切分出来的,还有一个这个是我们的测试的一个数据集,都给他,对吧?所以这个就是我们定义啊,这个训练器的这样的一个过程。那么训练器啊在定义完成之后,接下来你想要 开始啊,去进行这样一个训练的话,其实也非常简单,就调用他这个去这样的一个方法,好吧?所以我们直接啊把这两个也拉过来。好,然后我们先开始跑啊,因为这个训练的话需要一定的一个时间啊。 ok, 好, 我们就可以看到啊,那么这个地方他会有这样的一个开始训练的这样一个过程啊,包括现在,那么这个日字有了没有?现在就开始输出我们的这个日字了啊? ok, 所以 这个需要一定的一个时间啊。那么接下来的话我们干嘛呢?我们把整个代码把它整合到一起啊,我们来一起来新建一个。什么?我们这边新建一个,呃,拍摄的一个文件啊, 因为这个训练还还没有结束啊,再看一下,对吧? ok, 好, 他还在跑啊,然后我们就创建一个文件啊,这个是 tst 的, 我点错了啊,然后我们选择这个 python file 啊,这边是 test file, 然后选这个 python file。 好, python file 的 话名字现在无所谓啊,好,对方已经训练完成了啊,然后我们可以看到,对吧?因为一共是这个轮次啊,然后从这个是它的一个 loss, 它的一个损失值,它是在不断地下降的。 ok, 好,然后接下来话,我们把整个的这样一个流程啊,我们再给他拉过来,我们试一下这个模型的这个下载啊,我们就不用了,我们从这地方开始啊,比如说第一步。 ok, 好, 第一步结束之后啊,第二步,其实第二步这个地方说实话 也其实不需要啊,因为这个我们现在我们已经有这样的一个节省文件了,对吧?所以你有了这个节省文件之后,你就不需要去制作这个数据线,你直接用就可以了,所以我们就直接把掉跳过啊,来,我们直接去进行这样一个数据级的这样一个拆分啊,数据级和训练级的一个拆分, 然后接下来我们对于这个数据集啊,我们再来给它去做这个 tokenizer 它的这个分词的这样的一个处理。 ok, 好, 然后处理完成之后的话,那么接下来我们再给它去做这个量化啊。 ok, 好,量化做完之后的话,那么接下来我们再去做这个 lala 啊,微调的一些设置啊,你要把它这个模型要加载进来啊,好,然后最后一步啊,就是我们的第七步啊,然后开始这个训练啊,然后把这个代码拿过来。 好,可以啊,这个就是我们的一个完整的一个代码,那么这个地方我们用一个问文件啊, ok, 可以 了啊,保存完成之后的话,那么接下来我们打开咱们的这个终端啊, 好,然后在终端我们可以看到,那么它默认的这个根目录啊,就是这个 sft 二啊,好,来,那整个的项目下面,我们现在是有这个 man 点 py 的 这样一个文件的啊,那么首先我们通过的一个 python 啊,然后执行这个 man 点 py 的 文件啊,就我们把整个项目啊,一次性啊来执行一遍啊。 ok, 好, 这边现在显存占用已经比较高了啊,这其实还是一个什么?这个地方我们其实还是一个啊,这边 cpu 已经用完了,因为这个地方没有释放啊,所以的话我们这个地方我们把整个文件给它关掉, gpu 不 够了啊, memory 啊,对吧?内存显存好,我们让它全部去直把整个流程啊,再执行一遍啊, 哎,这个地方还没有释放啊,所以我们要等待一下, 把它内核给它重启一下,我现在看一下释放没有,还没有,可以啊,现在没有了,对吧?现在只有五百兆了。 ok, 好, 然后这个地方的话,那么我们,呃开始去运行之后啊,就不用去管它了,哦,现在开始了,对吧? ok, tokenizer 完成,然后模型的量化, ok, 巴拉巴拉开始训练了, 好,那我们在命令行,在终端啊,去执行的话,我们是看不到他那个图的啊,他只有这样的一个进度条啊,好,然后我们接下来我们看一下,就我们训练之后的这样一个结果,就这个啊,反托尼啊,好,然后它里面看到啊,这个 pos, 好, 那么这个就是我们的这个通过 lala 啊,我们去微调啊,训练出来的这样一个模型啊。 ok, 好,那我们今天话我们给大家去分享的内容的话,我们就讲到这里啊,好吧,基本上啊,主要就是从这个环境的这样的一些配置啊,然后到模型的加载啊,数据的处理,然后到量化,然后一直到这个 lala 微调啊,那么一个完整的这样的一个流程啊,所以大家如果说啊,觉得 有用啊,或者有需要啊,我们的这些课间和原代码的同学啊,啊, ok, 那 么可以在评论区留言啊,那我会把所有的资料啊全部分享给大家。