在本教程中,我们将探索如何通过构建数字网红,将其置于不同场景中并整合产品来创建 ugc 风格视频。 所有这些将在 spaces 的 工作流内完成,让您能够更快地产出高质量内容,同时保持角色与产品的高度一致性。 让我们开始创建新项目吧。从主页进入 spaces 并创建一个新空间。进入后,第一步是创建我们的主要角色。在这个例子中,我们将创建一个大约二十五岁,外貌自然放松的女性。 有两种方法可以解决这个问题,你可以仅用提示词生成角色,赋予模型充分的创作自由,或者就像我们在这里做的这样,利用视觉参考来构建提示词。 为此,你可以上传任意数量的参考图。但在这种情况下,我们将使用三张图片,这足以代表我们要创建的角色的类型,只需将它们拖入画布即可。 选中这三张图片后,进入浮动菜单,并创建一个连接的助手节点。在此节点中,请求一个基于参考的详细提示词来描述该角色。 在此阶段,您还可以加入任何您想要的特定细节,比如面部特征,服装、发型或整体风格。此外,还需明确指定你需要一张全身照,且背景为白色。这有助于在后续将角色放置到不同场景中时,避免不想要的视觉干扰。 提示词准备好后,创建一个连接图像生成节点。若希望结果与参考图高度吻合,也请连接这些图像。 若要更灵活地解读,仅凭提示词就足够了。在我们的案例中,我们将连接这些参考素材以保持一致性。 我们将使用 nano banana 二。当然,你也可以选择任何你喜欢的生成器。既然我们已经有了角色,下一步就是创建一套完整的矢图以构建档案表,从而将其作为更一致的精准参考。 从生成的角色开始,创建四个连接到它的新图像生成节点。在每个请求中要求不同的视角,全身侧面式图,全身背面式图以及两张护照风格的正面照和侧面特写。 一旦所有式图都生成完毕,我们便可将它们整合成一张统一的人物设定表。上传模板布局如果没有,你可以在任何图像编辑软件中创建自己的模板,并在未来的项目中重复使用。 选中所有深沉的仕图以及模板,然后创建一个新的图像深沉节点,并让模型使用您的角色图片。重新创建相同的布局。准备好后,这张角色设定表将成为你维持角色一致性的主要参考。 这也简化了工作流程,因为你只需连接一张图片,而非多张。为了保持工作区整洁,选中所有这些元素,并将它们组合起来。从浮动菜单中点击分组重命名它,并在需要时分配背景颜色。 现在,我们来搭建第一个场景。我们将首先生成一段适用于竖屏社交媒体风格视频的提示词。 你可以自己写提示词,也可以用参考素材生成。在这种情况下,我们将上传三张图片,并创建一个连接的助手节点,让它生成一个社交媒体视频的提示词,并指定环境。这里我们将把角色放进车里。 你的指令越精准,结果就越好。一旦提示词准备好,就创建一个连接好的图像生成节点,并将人物设定表作为参考附加上去。 既然我们要为社交媒体创建内容,请将格式设置为九比十六,分辨率设为四 k 并生成图像。既然角色已在车内,我们就可以引入产品了。在这个例子中,我们将使用一种膳食补充剂 上传产品参考图,然后创建一个同时连接到人物和产品的新的图像生成节点。在提示词中,著名角色一手拿着盒子,另一手拿着瓶子。 这为我们第一个视频提供了基础画面。接下来,创建一个助手节点,并请求描述场景中动作的提示词。 在此案例中,我们将让主角讲解补充剂的功效,打开瓶盖并展示药片。在这个例子中,我们将让模型在对话上拥有充分的自由。但如果你需要特定的内容,应直接在提示词中包含它。 你可以加入尽可能多的细节来优化表现和行为。一旦提示词准备好,创建一个连接的视频生成节点,并附上图像作为参考。 在我们的案例中,我们将使用 clean 三点零,它能为此类内容生成非常自然流畅的结果。不过你可以根据需求选择任意模型。 生成后,你会发现角色和产品都与参考图保持高度一致。为了保持一切井然有序,将这些元素归入一个新部分。遵循此工作流,你可以通过更换环境和产品继续创作更多视频评测。 比如让角色在浴室里评测护肤品,或在卧室里评测一双鞋。 这一工作流程为内容创作开启了无限可能,同时保持了高水平的视觉一致性。而且谁知道呢?你甚至可能成为年度网红。
粉丝1.9万获赞11.7万


欢迎收听扣子 ai 播客。 哈喽,大家好,我是大一,我是咪仔,欢迎来到我们的技术分享时间。最近刷技术论坛的时候,看到好多人都在聊豆包 ugc 智能体,说搭建起来特别麻烦,踩了好多坑, 刚好我们团队刚做完一个垂直场景的智能体搭建,今天就跟大家聊聊从零到一的完整流程,还有怎么把这套流程附用起来,快速复制到别的场景里。 对哦,我记得最开始我们启动这个项目的时候,你还跟我吐槽过,好多人都在跟风做智能体,但大多都是那种通用型的,放到垂直场景里根本不好用。 没错,就是这个问题。当时我们服务的是一个做家居建材 ugc 社区的客户,用户经常在社区里问一些非常具体的问题,比如小户型客厅怎么搭配沙发实木地板怎么保养之类的。通用智能体要么达的太泛,要么就是直接复制粘贴网上的内容,根本没有针对性。 那客户当时的需求就是要一个专门针对家居建材 ugc 场景的智能体,能理解用户的具体问题,还能结合社区里的优质内容给出准确的回答是吧? 对,而且客户还有个痛点,就是他们的运营团队不是技术出身,没法自己维护和更新智能体的知识库,每次有新的社区内容上线,都得找我们帮忙调整,效率特别低。 所以我们当时就想,能不能做一套可以附用的搭建流程,不仅解决当前的垂直场景问题,以后遇到类似的 ugc 场景也能快速上手。那第一步肯定是需求分析吧,毕竟要先搞清楚用户到底想要什么,才能开始后面的技术选型和功能设计。 没错,需求分析我们分了两步走,第一步是跟客户的产品和运营团队聊,搞清楚他们的核心诉求。除了刚才说的针对性回答和方便维护之外,他们还希望智能体能自动识别社区里的优质内容,自动更新到知识库,这样就能减少运营成本。 那第二步呢?是不是还要去跟终端用户聊聊,看看他们平时在社区里的使用习惯和真正的问题点? 对,我们找了大概二十个活跃用户做了深度访谈,还爬取了社区里三个月的用户提问数据,发现大家的问题主要集中在产品选购、安装维护、搭配设计这几个方面,而且很多问题都是带有强烈场景化的, 比如租房党怎么选性价比高的床垫、南方回南天怎么保养皮质沙发之类的。这些数据应该给后面的功能设计提供了不少方向吧。 没错,需求分析做完之后,我们就开始进入选型了,当时考虑了几个方案,最开始想直接用豆包的基础模型,然后通过 prompt 工程来优化,但后来发现 prompt 工程只能解决部分问题,对于 ugc 场景里的个性化内容处理还是不够灵活。那最后你们选了什么方案? 最后我们决定采用基础模型加垂直领域知识库加自定义技能的架构。基础模型还是用豆包的四点零版本,因为他的语理解能力确实不错。垂直领域知识库我们用了向量数据库,把社区里的优质内容转换成像量存储进去,这样智能体就能快速解锁到相关的内容。 自定义技能这块我们开发了几个针对家居建材场景的插件,比如产品参数查询、搭配方案生成、保养指南推荐之类的。听起来这个架构还挺清晰的,那功能设计这块你们是怎么考虑的? 功能设计我们围绕用户的核心需求分了几个模块,第一个是用户提问处理模块,负责接收用户的问题,进行意图识别和语音解析,然后判断是直接调用基础模型回答还是需要从知识库中解锁内容,或者调用自定义技能。 那第二个模块应该就是知识库管理模块吧,毕竟客户希望运营团队能自己维护知识库。没错,知识库管理模块我们做了可视化的界面,运营人员不需要懂技术就能上传新的社区内容,系统会自动转化成像量存储到数据库里。 而且我们还加了智能审核功能,能自动过滤到低质量或者违规的内容,减轻运营的审核负担。那第三个模块呢?是不是还有智能体的对话管理模块,负责处理多轮对话的上下文? 对对话管理模块很重要,因为很多用户的问题不是一次性就能问清楚的,可能需要多轮交互才能得到满意的回答。比如用户问小户型客厅怎么搭配沙发,智能体给出推荐之后,用户可能会接着问,那茶几选什么材质的比较好? 这时候智能体需要记住之前的对话上下文,给出连贯的回答。那具体实施的时候,你们是怎么一步步把这些功能落地的? 实施阶段我们分了四个步骤,第一步是数据准备把社区里的优质内容整理出来,清洗到重复和无效的内容,然后转换成适合向量数据库存储的格式。这一步花了大概一周的时间,因为数据量比较大,而且还要人工标注一些关键信息,比如内容的分类、关键词之类的。 那第二步应该就是搭建知识库和配置基础模型了吧?对,第二步我们先搭建了向量数据库,把整理好的内容导入进去,然后配置了豆包的 api 接口,设置了基础的 prompt 模板,让模型能根据用户的问题结合知识库的内容生成回答。 这一步我们遇到了一个问题,就是模型有时候会忽略知识库的内容,直接用自己的训练数据回答。后来我们调整了 prompt 的 权重,强制模型优先使用知识库的内容,才解决了这个问题。 第三步是不是就是开发自定义技能和界面了?没错,第三步我们开发了几个自定义技能,比如产品参数查询,我们对接了客户的产品数据库,用户问某个产品的参数,智能体就能直接调用接口获取数据,然后整理成自然语言回答。 界面这块我们做了外部版本和小程序版本,用户可以在社区里直接和智能体对话,运营人员也可以通过外部界面管理知识库。那第四步就是测试和上线了。 对,测试我们分了三个阶段,第一个阶段是内部测试,我们团队的人模拟用户提问,检查智能体的回答是否准确,有没有出现幻觉或者错误的信息。第二个阶段是邀请了一百个社区的活跃用户做灰度测试,收集他们的反馈,然后根据反馈调整模型的参数和 prompt 模板。 第三个阶段就是正式上线,上线之后我们还做了一周的实时监控,每天查看对话日记,及时处理用户的投诉和建议。 那搭建过程中你们遇到的最大挑战是什么?最大的挑战应该是知识库的更新和维护问题。最开始我们是手动上传内容,但后来发现社区里每天都有大量新的优质内容产生,手动上传根本跟不上。 后来我们开发了一个自动爬取和筛选的工具,能自动识别社区里的高赞内容,自动转换成像量存储到知识库,这样就解决了更新不及时的问题。还有其他的技术难点吗? 还有一个难点就是多轮对话的上下文管理。有时候用户的问题比较复杂,涉及多个场景和知识点,智能体很容易忘记之前的对话内容,导致回答不连贯。 后来我们优化了对话管理模块,增加了上下文缓存和记忆机制,让智能体能记住用户之前的提问和回答,这样多轮对话的体验就好了很多。那现在这个智能体上线之后效果怎么样? 效果还不错,客户反馈说,用户的提问响应速度比之前快了很多,回答的准确率也提升了大概百分之三十。而且运营团队现在不需要找我们帮忙维护知识库了,他们自己就能上传和更新内容,效率提升了不少。 那接下来就是大家最关心的部分了,怎么把这套流程附用起来,快速复制到其他同类场景?其实我们在搭建这个智能体的时候,就考虑到了附用的问题, 所以我们把整个流程抽象成了几个标准化的模块。第一个模块是需求分析模板,我们整理了一套针对 ugc 场景的需求分析框架,包括用户访谈提纲、数据爬取方案、需求优先级评估方法之类的。以后遇到类似的项目,直接套用这个模板,就能快速完成需求分析。 那第二个模块应该就是技术选型和架构设计的标准化了吧?对,第二个模块是技术架构的标准化,我们把基础模型加垂直领域知识库加自定义技能这套架构固化下来,针对不同的垂直场景,只需要更换知识库的内容和自定义技能的功能,就能快速搭建新的智能体。 比如如果要做一个美食 ugc 场景的智能体,只需要把知识库换成美食相关的内容,自定义技能换成菜谱查询、食材推荐之类的功能就可以了。 那第三个模块是不是就是实施流程的标准化?没错,第三个模块是实施流程的标准化。我们把从数据准备、知识库搭建、模型配置,既能开发到测试上线的每个步骤都整理成了详细的操作手册, 每个步骤都有明确的时间节点和质量标准,以后不管哪个团队来做类似的项目,都能按照这个流程一步步来,避免走弯路。 那除了这些标准化的模块,还有什么可以附用的东西吗?还有一些通用的工具和组建,比如我们开发的自动爬取和筛选工具,知识库管理界面对话日记分析工具之类的,这些工具都是可以附用的,只需要根据不同的场景做一些小的调整就能用。 那对于其他想尝试类似项目的团队或个人,你有什么建议吗?首先,我觉得要明确自己的核心需求,不要盲目跟风做智能体,先想清楚你要解决什么问题,目标用户是谁,他们的痛点是什么? 然后在技术选型的时候,不要追求最先进的技术,要选择最适合自己场景的方案,比如如果你的场景比较简单,可能用 prompt 工程就能解决问题,没必要搭建复杂的架构,还有吗? 其次,要注重数据的积累和知识库的维护,智能体的回答质量很大程度上取决于知识库的内容,所以一定要花时间整理优质的垂直领域数据,而且要建立定期更新的机制。 另外,在开发过程中要多做测试,尤其是灰度测试,收集用户的反馈,不断优化模型的参数和功能。最后还有什么要提醒大家的吗? 最后,我觉得要注重流程的标准化和附用性,不要每次做项目都从头开始,要把之前的经验和成果沉淀下来,形成可附用的模板和工具,这样以后再做类似的项目就能节省大量的时间和成本。 还有就是要保持学习,智能体技术发展的很快,要不断关注新的技术和方案,及时更新自己的知识体系。今天跟大一聊了这么多,收获真的很大,从项目背景、搭建流程到关键挑战和赋能价值,都讲的非常详细,相信对很多想尝试智能体开发的朋友会有很大的帮助。 没错,希望今天的分享能给大家带来一些启发。如果大家有什么问题或者想法,欢迎在评论区留言,我们会及时回复。好的,今天的技术分享就到这里,感谢大家的收听,我们下期再见!再见!

这是我仅用一张产品图做出的超真实带货视频,有口播!这个腮红棒的颜色也太好看了吧!质地超级丝滑,还可以更换模特。产品语言, this terracotta bronze melts in for a glaze 如果你也在做电商带货,今天的视频直接拉高你的产出效率。我们来到这个平台,点击搭建好的工作流。这里的工作流已经分步骤搭建好了,我们只需要按照指示上传产品图和功能介绍,点击右上角的运行,就能生成想要的视频。 如果你想要更精准,还可以分步骤调节,例如更换模特、调节尺寸,或者更换视频生成模型,只要点击生成按钮,都能得到相应的结果。最后将生成的视频下载下来就好了。是不是很简单,还可以切换成中文,快来试试吧!


如何复刻跨境爆款带货短视频?左边这个是原视频 cause you know in a moment make it all woo woo 右边这个是复刻之后的 in a moment make it all woo woo 今天教大家如何复刻,都能做到百分之九十的一致。给杰莫奈输入爆款视频和这一段提示词,从插解脚本到生成画面提示词,最后你 就会得到用于 vivo 三生成的画面提示词。再打开画布工具,上传人物产品提示词,选择 vivo 三,你就可以复刻出一条爆款视频。感兴趣的老板评论区见。

你有没有发现很多 a i u d c 最诡异的地方不是廉价,而是脸已经很真了,画面还是不像真的拍出来。问题通常不在脸,而在你把拍摄逻辑写丢了。最常见的第一个错误就是只写人,不写镜头。 很多人会写一个女生在咖啡店自拍,很真实,但这句话只是在交代内容,没有交代这是谁在拍,用什么拍,怎么拍,所以模型就会自己乱补。最后出来的不是自拍,而是一张长得像写真棚拍的图。正确的写法不是只写自拍,而是把自拍为什么像自拍写出来。 前置镜头、手臂距离轻微、广角低变、手持构图、室内混合光,这些一补上,画面才会像真的。有人举着手机拍了一张。第二个常见错法是,视角写的像上帝似的,不像人类视角。很多图为什么一眼假 不是人?假是因为假,你得让观众一眼知道这个镜头是拿在手里拍的,不是飘在半空里拍。要写清楚手机在什么高度,人物离镜头多远,镜头从里边看过去。这也是为什么很多所谓提示词,你一套就翻车, 因为提示词不是魔法,他只是把镜头、光线、空间打包了。你不懂这三个变量换十套预设提示词还是假的。今天的分享就到这里,我是设计师妍妍,关注我,带你掌握更多 a i g c 生成技巧!

逼自己一周学完即梦 ai 视频制作,存下吧,很难找全的,挑战一个视频彻底教会你 ai 视频制作。 通过前几节课的学习,相信大家对 gm 二点零有了一定的了解,上节课我们使用二点零来制作了一个封禁脚本,人物在场景中一致性保持的相当良好, 整体的故事剧情非常的连贯自然,除了它强大的音画同步以外,它对于模型的创意 和延续的剧情表现的也相当不错。今天就让我们来通过一个连环画的形式来测试一下吉姆二点零的能力。 好来看到我这边。那么今天呢,我们就使用这个十二宫格的连环漫画图来进行一个视频的生成。这边呢,我将这个图片上传到极梦,其实文字上面是有些乱码的, 他其实只能知道大概的意思,但是没有办法完全识别,所以我在这里写了一下,说话要有蓄势逻辑,符合剧情发展,尊敬切换及重点的场景演绎,加入特效音乐, 整体的风格参考武林江湖的演绎方式。这里我上传的视频是一个关于武林的打斗场景。好,我们贴车词就书写到这里。 接着我们来看下方的功能区,这里我们使用二点零模型,在全能参考的模式下生成一个十六比九的视频,这里我们使用十五秒, 由于我们这里增加了一个视频,所以我们消耗的时长是九十个积分,我们来点击生成一下, 那么我们再次生成一下。好,我们来看一下生成的视频,这是节度使专属虎符,死者是太子五位,此事定有异谋,太子竟然没死藏在此处,当年你家知晓谋不济,我等冯一鸣灭你满门,我等神捕头所言事实住手,无需再斗冤案,得稍 我归隐江湖去了!可以看到十五秒的时长下,整个故事剧情发展的比较快,而且由于我们的 台词是乱码的形式,所以导致人物在说话的时候咬字不够清晰。从视频的整个画面来看, 人物和场景的一致性保持的相当不错,不时的发展有蓄势逻辑,整体的效果还是可以的。 好,我们再来看第二条深沉的视频,这是节度使专属虎符,死者是太子五位,此事定有密谋,今天一定要找到谋反证据,太子竟然没死,十年前我嘱咐你干的没错,当年你两家灭门是不是你干的?神不投所言,事实假,你太子已死,无需再斗冤案,得稍我归隐江湖去了。 我们将第二个视频也进行下载 好来看到我这边。这样我就有了两个视频。接下来我将视频导入剪映, 这两个视频都是用同样的台词,同样的剧情进行的演绎。现在我们需要将两段视频中比较好的部分进行裁剪和拼接,来生成一条较为完整的视频。 这里我们对视频进行处理好来看到我这边,我已经对视频进行了处理。拼接完成之后呢,我发现这个视频片段中带有的文字 以及台词跟原本的剧情在时间段上面有所冲突,于是我将这个视频进行了音频分离。 将音频分离完之后,为了更好的展示这个故事的效果,这里我将该视频改成了一个旁白解说的形式,我将这个故事重新进行了编排,给他配上了所有的字幕。 接着我框选所有的字幕,在右上角点击了朗读,我选择了一个男生进行了朗读,得到了下面这条音频。此时这个片段上面有一些字幕, 这里教给大家一个遮盖字幕的方式。我们点击一个片段,在右上角的画面点击门板,这里我使用的是一个镜像门板,接着我们将门板进行拉伸, 对于下面字幕的部分进行遮盖,这样我们就得到了一条黑色的遮盖区。 接着我们将原本的字幕放入遮盖区下面的黑色条目中。 处理完成之后,我们就将原本的字幕进行了遮盖,并加入了我们的字幕。 最后我们就形成了字幕、画面以及音频这三项,并根据时长将音频调整为合适的长度。 最后就让我们一起来展示这个解说视频,来结束今天的课程吧。沈经红逃离京城后,在被人追杀, 他在死者身上找到劫渡使思味腰牌,寻着线索找到戒备森严的宅院。他伺机而动,翻墙潜入书房,找到书信,在书信中看到线索,却遇到敌人阻击,打斗间发现来人竟是当年救他的恩人。 恩人告知沈家满门葬身火海,是节度使借太子之名所为,只为夺取兵符。随后戴书信与恩人重返京城,面见圣上,揭发真相,皇上下令重查案件,水落石出,沈惊鸿沉渊得雪,最终辞谢封赏,慈官归乡。

我用人工智能在这里制作了这条 ugc 视频。如果我把它给大多数人看,他们甚至不会意识到这不是由真实创作者拍摄的。最疯狂的是,这一切都不需要相机,创作者甚至不需要向任何人寄出产品, 这完全是由人工智能生成的。在这段视频中,我将一步步向你展示如何复制我的流程。通过一系列简单的步骤,你将能够用纯人工智能制作出极其逼真的 ugc 视频,而非那种一言假的内容。 我说的是能真正融入 facebook 动态、 instagram 动态 for you 页面并实现转化的内容。此外,我将向你展示如何避免初学者在尝试制作更长人工智能视频时最常犯的最大错误,那就是保持一致性。 因为正是在这里,大多数人工智能视频彻底崩塌,瞬间显得假惺惺。整个工作流最棒的部分在于,一旦你掌握了它,就能开始为你的品牌制作这类内容,而无需冒险向一堆最终会玩消失或给你提供毫无回报的劣质内容的创作者发送大量样品。 但在深入之前,如果你还不认识我,我是 johnson。 我 运营着 tiktok、 shop、 shopify、 amazon 等平台,构建并拓展电商品牌的社群。所以,如果你想获得帮助来起步或正确的扩张,请查看下方描述中关于 honest brands 的 链接。好的,在深入步骤之前,我们先聊聊 ugc 到底是什么。 所以它代表用户生成内容本质上是看起来像普通人制作的,而非品牌投放的广告。 有人在镜子前自拍或者在户外谈论产品, 诸如此类,这才是当下真正有效的内容类型,不是精修的广告,也不是影棚制作的素材,而是真实粗犷的视频。如今,借助人工智能,你可以生成这类内容,并将其融入你的策略中, 从而不必完全依赖那些可能会让你失望的人。虽然这种人工智能生成的 u g c 内容已 存在一段时间,但最大的问题在于,他通常看起来相当糟糕,太干净了,太完美了,也太机器人化了。所以,我在这段视频中要向大家展示的是如何真正让内容看起来真实可信。所以现在让我们深入这个过程,我将一步步为你拆解。 好的第一步是构思开场场景。你的网红或 ugc 创作者将用手机拍摄并谈论你的品牌或产品, 很多人就在这里搞砸了,他们直接随机生成内容而不加思考。但你要记住,开场场景直观重要,因为它决定了视频感觉真实还是虚假,也是能否吸引观众停下脚步观看内容的关键。 所以你要思考的是,如果我在 tiktok 或 facebook 的 信息流里看到这条内容,我会开始观看并真正相信我所看到的吗?所以,与其像品牌主和营销人员那样思考,不如像个创作者一样去思考。比如 你可以想到的场景,包括有人边走边对着手机说话,把手机放下后退一步再开口,或者用镜子自拍风格的片段, 又或者只是随意坐在床上聊天,别想那些毫无打磨的内容了。所以,在我的例子中,我决定开场场景是一个刚跑完步的女孩,她决定掏出手机,基本上做一个简短的产品评测, 这种开场场景会显得非常真实,任何人看来都不会觉得他是一则广告。 现在在我为你规划开场场景之前,再给个额外建议。想想你的受众,也就是你的客户,如果你的产品面向二十多岁的女性,那么你的创作者,也就是你的 u g c 创作者也应该反映这一点。这部分将为整个视频奠基基调。现在当你脑海中有了开场画面之后, 接下来你要做的就是用叉七 p t 帮你构建一个提示词,用于 sora, seasons 或其他类似的视频工具。这部分是你绝对不能跳过的。 让叉 g p t 帮你优化提示词真的非常重要,否则它深层的细节远达不到所需水平,画面也根本不会看起来真实。 这就是许多人栽跟头的地方,他们浪费积分得到糟糕的结果,然后干脆断定人工智能内容行不通。 所以我推荐的做法是直接使用我这里的主题诗词,我会把它放在描述栏里,然后粘贴到 chat gpt 中。这个主题诗词指在将您粗糙的想法转化为结构完善的视频提示词,让 sora 或 sedans 这类工具能够真正理解,从而给出非常出色的结果。 所以你要做的是粘贴主题式词,然后给 chat gpt 你 希望输入的内容,你想要的场景类型,人物,拍摄的环境,人物是谁,他们在做什么,说什么等等。而且如果你真的毫无头绪,我给你的提示词里就包含了事例, 你可以直接让 chat gpt 基本替你获取一些灵感。我正是这么做的,得到的结果也比我独自能写的要好得多。 不过有一点你必须始终做到仔细检查生成的输出内容,因为有时插的 gpt 会像幻觉一样添加一些与你需求不符的细节。如果真出现这种情况,就根据需要稍作调整, 毕竟你对产品的了解胜过任何人,甚至超过人工智能。此外,最好明确告诉 chat gpt, 你 希望这位网红说什么。现在这个开场片段大约十五秒长,所以应该只有两到三句话。 如果你在这部分真的卡住了,去 instagram、 color data 或任何地方寻找灵感,却想不出人物该说什么,那就让 chat gpt 帮你, 但务必确保他真正了解你的产品是什么,能惠及谁等等,否则只会给你一堆垃圾。 无论结果如何,都要仔细阅读一遍,让他听起来像真实的人会说的话,尤其是在这类视频中,不能像个广告。想想类似我刚试了这个这样的表达,而不是介绍史上最佳产品,因为那样一眼就能看出是广告。 一旦你从叉七七 p t 获得了提示词,我的建议是限阶段使用 sora, 而非 sora 二 pro, 以便快速查看视频输出效果如何。 sora 二比 sora 二 pro 便宜得多,而且速度快很多。很多人都会犯这个错误,他们直接跳到 sora pro, 这是两者中更好的工具,但也贵得多,而且生成片段所需的时间也涨的多。 他们会发现,如果跳过这一步,他们得等上十五到二十分钟,花掉一大笔钱,结果却惨不忍睹,最后干脆放弃,信用点也耗尽了。所以在进入最高质量模型之前,无论是 sora 二 procedents 还是其他什么工具, 都要先用该模型的快速版本测试你的提示词。我就是用这个提示词这么做的。我直接跳进了希格斯场,我去了从 chart p t 得到的结果,这就是最终效果。 你可以看到,这里与我在开头展示的视力不同。这没问题,每次你把相同的提示词输入到视频工具中,都会得到不同的结果。但我这里检查的重点是,他看起来可信吗? 动作自然吗?声音的口音对吗?诸如此类。所以你想评估的是那些方面,而不是视频本身的实际质量。如果看起来不对劲,别忽视他。回到叉七 p t 告诉他, 比如修正提示词的这部分,或直接手动修改。现在有时你会发现需要进行两到三次迭代。但如果你使用的是你打算使用的工具的廉价视频版本,那么消耗的积分应该不会太多。相信我,这一步真的走一遍,效果差别巨大。 一旦你对视频的外观和流畅度感到满意,就可以着手生成最终版本,选用你心仪的 pro 工具即可。所以在这个例子中,我用了 sora r pro 再次粘贴了完全相同的提示词,并确保选择了竖屏格式,同时也选择了十五秒时长。实际上,我第一次做的时候不小心把它设成了十二秒,结果音频听起来特别感,所以务必设置为十五秒。选择最高质量设定,然后看效果。 这是我得到的结果,我非常满意。所以现在我们在开场片段中有了这个女孩。这就是我们要围绕构建其余 ugc 视频的人物。所以下一步是提取我们的角色形象。如果你想确保视频保持一致性,这一步事关重要。 一旦你从 siri、 二 pro 或 cds 下载了片段,就要暂停在视频中,网红清晰直视镜头且你能看清它们细节的地方。 一旦你完成了这一步,就要截取他们的截图,这将作为你后续视频中使用的人工智能人设。在拍摄开场场景中,网红快照时务必选择画面清晰、人物静止且最好正对镜头的部分。 如果你能做到这一点,就意味着你视频的其余部分会保持一致。网红看起来完全一样,这真的有助于提升观看时长,让人们真正相信视频是真实的。好的,所以下一步是为视频的其余部分创建分镜脚本。 说实话,如果你真的想这么做,而且一点灵感都没有的话,你可以在第一步就尝试这样做。 所以你需要做的是回到 chat gpt, 让他现在为你想要制作的人工智能视频创建一个三十秒的 ugc 故事版。在此过程中,你需要告诉他开场场景是什么,你的产品是什么,目标受众是谁,以及产品的益处等等。 然后你要让它为你生成四到五个不同的场景,每个场景时长约为五秒,完成后阅读剧本并确保逻辑合理且与产品功能相符。 接着让叉 g、 p d 为刚刚生成的每个场景的开头画面分别创建一个 nano banana 提示词。 务必在向叉的 gpt 发出的指令中明确说明, nano banana 提示词必须引用即将演示产品的模型或人设,并且该参考内容需附加在 nano banana 提示词之后。一旦你为每个场景都准备好了 nano banana 提示词,再次逐条阅读每条提示词, 并确保其中始终说明场景中的人物必须与附带的参考图片看起来一模一样。此外,如果你在每一场景或任意场景中展示产品,你也应说明产品必须与第二张附件图片中的视力看起来一模一样。 如果你之前没用过任何 nano banana 工具,别担心,它超级好用。只需前往 freepic, hex, field or gemini。 这个例子中我使用的是 freepic 前往图像生成。你选择 nano banana r 工具。你将叉七 p t 生成的提示词粘贴进去。你附上你的图片。 我建议你把 p 大 小改成二三或者四,这就给你一点变化,这样你就可以跳出你最喜欢的那个。这意味着等待的时间会更少。这些是我为我 ugc 视频每个场景生成的图像。 其中几个画面。我得回到 banana banana 做一些修改。因为那个女孩的脸看起来太红了,她看起来就像刚跑完步。可我明明只想让她呈现出刚从浴室出来的样子。所以在 freepic 里编辑起来非常简单。你只需点击编辑,然后点选图片上你想修改的位置即可。 我只是说去除泛红,重新深层。我这里得到了这张图片。当你为视频中的每个场景都准备好对应的图片后,就可以进入下一步了。 现在,我们要用人工智能来为我们刚才制作的视频中的每张图片进行动画处理。我们将使用 clean 三点零来实现这一点。现在你可以通过 hix field 或 free pick 访问 clean。 但当我制作这些视频时,我更倾向于直接进入他们的网站,因为这样快的多。老实说,价格相当合理。 其实 clean 相当不错,不需要极其详细的提示词就能给你提供不错的输出。所以你们可以看到这里。我只是上传了一张图片,然后说让女孩动起来。你可以用叉 t p t 给你更详细的提示词,但根据我的经验,其实并不需要。 你只需要在提示词中包含关键要素,比如给 klin 加上轻微的镜头移动,自然的身体动作等等。其实真的不需要超级详细。你可以看到这里有一些结果。 现在下一步是将所有内容整合到 capcut 中,所以你会拥有从 sora 或 sedans 获取的主片段,然后之后你就会有避碱柔片段。 问题就出在这一部分,很多人卡在这里,因为他们意识到缺了点什么,那就是声音。那个手阵片段有声音,但其余部分没有时。 而且如果你使用随机的人工智能语音生成器,甚至是自己的声音,那就会毁掉一切,因为他无法匹配第一目中那个人的形象,所以这就是秘密。你需要从那个最开始的片段中克隆声音, 超级简单就能搞定。你从那个最早的片段中获取音频,并将其上传到 eleven labs。 只需约十秒,音频即可克隆你的声音,而你正好从第一个视频片段中获取了这段素材。 所以你把音频导入工具,只需等上一分钟,马上就能获得一个专属声音克隆,然后用于视频的其余部分。最近感觉特别累,一点精力都没有,也集中不了注意力。 所以你要做的就是把从叉 g、 p、 t 那 里得到的脚本粘贴到 eleven laps 中,然后简单地用你刚刚创建的自定义声音生成语音, 完成后将其叠加到视频的 b 减 roll 部分,这样整个视频中的人物看起来和听起来都会保持一致, 这就是让他感觉无比真实的原因。现在你可以给视频添加一些最后的点缀,可以使字幕轻微的速度调整一些滤镜等等。 我就不深入探讨那个了,那将是另一个视频。但我只想说一点,别过度设计,也别过度剪辑,他需要感觉原始、真实等等。如果你按照我刚演示的步骤操作,他应该就能行,就这样了。 这就是从构思到制作出如此听感的完全逼真的人工智能用户生成视频的完整流程。好的,我刚跑了五公里,居然一点都不累,就像我现在应该已经死了一样。我这周每天都喝这个碗呢。 我发誓,这是唯一改变的东西。现在一旦你通过这套流程操作几次,你就会非常擅长它了。这意味着你能快速创建 多种遍体不同的钩子和角度,并且为你品牌的每一个产品都这么做,无需拍摄任何内容,无需寄出样品,也无需依赖可能会让你失望的人。 这就是为什么现在这是一个巨大的机遇,每位品牌主都需要学习并理解他。现在无论你是新晋还是现有的品牌主,或者你正打算成为品牌主,如果你想了解更多关于此类内容, 一看如何运作以及如何打造并让品牌一飞冲天,那就加入我们 onisbrand 吧。链接在下面的描述里,如果你觉得这个视频有用,记得点赞并订阅,因为我还会发布更多这类内容, 这就是本期视频的全部内容,下次见。

大家好,今天我们来探讨一下 ugc 视频制作的变更。过去啊,制作一条高质量的 ugc 视频往往需要投入大量的时间和资源,包括组建专业的拍摄团队,聘请模特进行复杂的后期制作, 整个过程啊费时费力。然后随着 ai 技术的发展,这一切都发生了改变,现在我们只需借助 ai 工具就能快速高效的生成所需的视频内容,极大的提升了制作效率, 实现了真正的效率起飞。昨天呢,我用 cloud code 手搓了一个 ugc 视频生成器啊,现在给大家演示一下这个效果怎么样。 第一步,我们上传产品图,这个产品图的话也是我呃自己随手拍的一个水杯的一个照片,然后一个脚本内容,然后这个脚本内容也很简单,就是一个欧美女性年轻人拿着这个水杯,然后以第一人称视角, 也就是 pov 进行口播,然后这边是他的一个口播文案,然后我们上传一个模特图,这个模特图也是我网上随便找的,然后下一步就是开始生成,然后这边的话就是会生成一个视频所征图的一个 图片提示词,我们点击生成,这一步他会调用大模型去生成手端图片的提示词,我们稍等一下。好的,他现在已经把图片提示词啊已经生成好了, 这边有两个按钮,一个是可以重新生成提示词,第二个就是你如这边也可以修改,如果你觉得这一个东西需要修改的话,可以重新修改, 否则的话就可以进行手真图的一个生成。这个我修改一下啊,这里改成加一个 pov, 表示的是手持相机进行一个自拍,我们点击开始生成。 好的,他现在已经把手真图已经生成好了,感觉效果还不错,我们就直接点确认,哦。 好,下一步的话就是视频分镜脚本的创作,这一步的话他会根据我们的口播文案自动的去拆分片段,比如他第一个片段是六秒,第二个片段是八秒,第三个片段是七秒,其实这个 片段是稍微有点长了,我们可以进行一个修改,改成六秒,这个也改成六秒,五秒啊,这个文字比较多,给他改成六秒。好,三个文案都是六秒,我们点击保存, 保存完之后就可以进行确认,确认完成之后就可以开始生成视频了, two hours later。 好 的,他三个片段都生成好了之后,他会调用 f f 派他是一个视频的剪辑工具, 然后他会把这三个视频进行一个拼接,然后我们来看一下效果。 今天挖到宝了,就是这个米菲主题的水杯,杯身有超可爱的米菲图案和 have a nice day miffy 的 文字,每次喝水都感觉心情变好了,而且材质很安全,装水或者咖啡都很合适,颜值和实用性都拉满,推荐给大家 可以看到啊,其实效果不太好啊,他会凭空出现了一个贴纸贴在这个上面,而且声音每一段视频的声音都会变化,这个要需要通过剪映去处理一下,重新处理一下,再看一下效果。 今天挖到宝了,就是这个米菲主题的水杯,杯身有超可爱的米菲图案和 have a nice day miffy 的 文字,每次喝水都感觉心情变好了,而且材质很安全,装水或者咖啡都很合适,颜值和实用性都拉满,推荐给大家。 如果你对这个 ugc 视频有什么建议或者有什么想法啊,咱们评论区交流也可以关注我啊,后续我会继续分享啊! ai 赋能跨境电商的一些案例,谢谢大家!

我刚搭建了这个人工智能 ugc 视频广告生成器工作流,让你能像这样制作人工智能视频广告。看这东西悬停,想要史诗级的航拍镜头,却讨厌笨重的设备,这简直是作弊嘛!底座完全平整,双脚感觉简直像被黏在地上一样, 零后跟晃动,大重量阻下唇掌控感。说真的,这是练腿日的作弊嘛!好的,我得分享我新宠的唇部产品,它是梅子味的 bloom 超级润唇膏。 而且在这段视频中,我不仅分享了这个工作流,还会向大家展示它如何运作,以及在各个行业中能获得什么样的成果。所以我们要做护肤品、 s s s 产品、小玩意等等一切。 顺便说一句,如果你想直接使用这个工作流,欢迎查看简介里的链接。我在这里留了一个直达页面的链接,你可以直接克隆他并开始折腾。那现在让我们开始这段视频吧。现在为了创建这个工作流,我使用了名为 arcx 人工智能的平台及其全新的人工智能工作流构建器功能。 因为正如我多次在这个频道上所说,这些工作流是人工智能生成内容的未来,因为你不必依赖容易遗忘的聊天或单独的订阅之类的方式,而是可以直接在这里构建一切。 这些工作流可扩展至数十甚至数百个节点,你可以这样连接它们,只需轻轻点击按钮就能产出大量内容。 因此这也让你能够大规模运行各种任务。既然 r g i s。 刚刚发布了 c d s 二点零人工智能视频生成模型以及这个工作流构建器,我将向你展示如何用它创建极其惊人、 高度一致且逼真的 u g c 风格人工智能视频广告。所以让我们继续进入这个工作流。 如果这是你第一次使用工作流构建器,让我非常简短地为你介绍一下它是什么。所以当你来到这里时,可以从一个空白画布开始,然后添加比如这样一个提示节点,你可以输入类似创建一张猫的图片的内容, 接着将这个提示连接到图像生成器节点。比如点击这里可以进行设置,将其改为像 nano banana 二这样的选项。 之后,只需点击运行,它就会为你生成一张独一无二的猫咪图片。所以在本质上等同于与这些工具之一进行对话。但不同于容易迷失方向的对话,你将拥有一个画布, 可以在其中将所有内容以一致且流畅的方式布局成一个工作留。搞定大约一分钟后,你就得到了一张独一无二的原创猫咪图片。但现在让我们把这些东西抛开,因为我们要在这个视频中讨论更多有趣的内容, 所以这里我构建了一个简单的人工智能 ugc 广告视频生成工作流。现在我在这些不同领域或不同类型产品的每一个子工作流中都实际使用了非常相似的提示词。 所以在这个视频中,我为护肤品创建了人工智能 ugc 视频。然后我还制作了无人机视频。 接着我们做了 esim 服务推广,介绍一款出国旅行时使用的 app。 随后我又推广耐克鞋款,制作了一段健身房训练视频的人工智能 ugc 广告。基本上这四种工作流彼此非常相似, 因此我会花一点时间讲解第一个是如何运作的,之后我们就快速过完其余部分,因为它们都很容易理解, 况且这里还有直达链接,你可以自行查看这些提示词。所以在这个首个护肤产品人工智能 ugc 广告生成器工作流的第一步中,我所做的是让人工智能创建一个提示词, 所以我不直接创建视频,因为我其实认为让人工智能自我提示效果更好,你明白我的意思吧? 所以这里我说的是我在创建一个时长约十五秒的 ugc 广告, 这就是目前 cadence 二点零的限制,它现在是领先的人工智能视频生成模型。然后我告诉人工智能根据这个产品页面写一个简短的 ugc 脚本,然后我把它链接到了这个页面,所以这个人工智能画布也能读取这些页面, 所以这就是人工智能将要读取的网页。然后我让他听起来向朋友简短而真诚地推荐,而不是广告,因为这才是这类 ugc 风格视频广告的核心所在。 然后还要用 ugc 风格写一段对脚本讲述者的描述。所以你的任务是创建一个简短、精炼且准确的人工智能网红描述该网红需在 ugc 视频风格的画面中手持我的产品。 我会将这个生成的提示词直接输入到人工智能视频生成器中,并配上我的产品图片。所以这里我只是明确告诉人工智能我想要它做什么。网红和场景应显得未经修饰且自然,就像即兴捕捉到的真实。推荐 要准确且简洁,所以我不想要写那种两百或五百字的提示词。那完全没必要, 我只希望他非常准确且简短精练。然后我还告诉人工智能只给我提供网红描述。接着是他们在视频中要说的脚本,所以我不希望出现像。您好,感谢您的请求。这类人工智能术语化的表达,这就是描述这类的东西,不管他做什么。 所以这不是我想要的,我只需要描述和脚本。然后我还在告诉人工智能,我会添加一张产品的参考照片,这样能更好地设定场景。 然后在提示词下方,我实际上使用了这个上传节点。所以如果你在画布的任何地方右键点击,然后勾选或点击上传,你就可以像这样托放一张照片。 接下来我所做的是,我将这张图片连同这个提示词一起连接到了一个 l l m 节点中。你大概已经能猜到它在做什么了。所以这本质上就是你的 chat g p t 节点。所以这里将是提示词,而这里是参考图片。 现在, l l m。 将根据你在此提示中请求的内容为你生成文本。 我们开始吧,所以我其实不会把它读出来,因为人工智能网红下一秒就会代劳。但基本上是一个二十多岁的年轻女性,扎着凌乱的丸子头,看起来像个重病患者,不像超模,也不像是在摄影棚里拍摄的 好。这是我根据这个脚本和人工智能基于此个提示词及产品生成的描述所得到的第一个视频版本。 好的,我得分享下我新宠的润唇产品。它是梅子色的 bloom 超级润唇膏,它含有肽成分,能真正滋润甘醇,而不仅仅是敷在表面。此外,清透的浆果色调也绝对适合日常使用。我彻底着迷了, 现在我简直爱死它了,所以看起来非常真实,很逼真。它看起来就像这个人。刚停下车,突然想给他的 whatsapp 群里的朋友们做个推荐。 而现在唯一的问题是,似乎存在某种额外的滤镜,至少在我受过训练的眼中,它看起来仍有些人工痕迹。所以,让我们再点一次运行,看看第二次能得到什么样的结果。 好的,我得分享下我新宠的唇部产品。它是梅子色的 bloom 超级润唇膏,它含有肽成分,能真正滋润干唇,而不仅仅是浮在表面。 此外,这款清透的浆果色唇彩也绝对适合日常使用。我彻底着迷了,我真的爱死他了!因为这张视频有了理由,他们甚至把车停在路中间。他告诉朋友说,嘿,我今天得拍这个视频。 其实我把产品放在背包里了,咱们能不能停下来一会儿? 你能帮我快速录个视频吗?所以看起来超级真实,特别真诚,自然又诚实。唯一的问题是,这些视频只有十五秒时长,你还是得把所有内容塞进很短的时间框架里。 不过我是真的超喜欢这种效果,现在能做这种事简直太疯狂了,产品和人物都显得无比逼真。在我们进入下一个类型的视频广告之前,其实还有一个问题我想讨论一下。 实际上,如果你创建一个人工智能网红,并尝试使用 cadence 模型制作视频,他往往会拒绝执行,所以他基本上是在害怕复制他人或他人的形象,而且规定非常严格。 所以,即使你拥有一张完全由人工智能生成的照片,或者一张你自己的照片,且拥有所有使用权,它仍然可能无法创建出视频。这就是为什么我还没有创建人工智能网红,但我正非常准确的描述它, 所以这有点扫兴。这本来非常好,但如果你想去掉它,你需要点击这里的设置,然后使用这些其他模型中的一个, 例如 rock 视频生成模型非常适合制作人工智能 ugc 风格的视频广告,或者甚至是像 clean 三点零 或 vo 三点一这样稍短一点的版本。它们都是很好的视频模型。势利。如果你有属于自己的人工智能网红,并希望它在每一条广告视频中保持一致性,这些模型都非常适合你。不过话虽如此,让我们继续看下一个片段。 现在我基本上创建了一个与之前步骤中相同的提示词,但这次是专门针对这款无人机产品的,所以我把它链接到了这个页面,也就是这种无人机的落地页。然后我只是拖拽了一张无人机的图片。 接着,我会获得一个非常相似的网红描述,以及视频中口播的脚本。 现在这里是第一个视频。看这悬停效果,想要震撼航拍却讨厌笨重器材, mini 四 pro 简直就是作弊神器。它几乎没重量,周身布满传感器,根本不可能坠毁,还能拍摄真正的竖屏四 k。 说真的,这是我今年买过最棒的东西。我的天,这也太棒了! 现在这里唯一的问题是,遥控器中间看起来好像也有个镜头或者相机, 所以这一点算是暴露了。但除此之外,这看起来像是一则真实的广告, 所以无人机正在旋停。它看起来和参考照片里的无人机一模一样,而且人物显得超级真实。我是说,我到现在都不敢相信自己在说什么,但现状就是这样,用简单的提示词和工作流,我们只需几秒钟就能做出像这样的东西。这太疯狂了! 现在,因为我不喜欢控制器中间有个摄像头这个事实让我们再试一次,所以让我们再次运行,看看能得到什么样的结果。看这东西全停。如果你想拍出震撼的空中镜头,却讨厌笨重的设备,这简直就是作弊吗? 它基本轻如鸿毛,四周布满传感器,几乎不可能坠毁,还能拍摄真正的竖屏四 k。 说真的,这是我今年买过最棒的东西。它小巧紧凑,轻便易携,是初学者的完美。无人机再次呈现,既超距信息量,又显得无比真实。我认为这基本上已经达到了极致。 唯一的问题至少是,我发现的是,当摄像机角度改变时,无人机的噪音似乎被大幅抑制了。考虑到它离镜头仍然非常近, 这简直就是作弊嘛!它基本没什么重量,而且到处都是传感器,但除此之外,这几乎完美无瑕。 接下来,让我们利用这类人工智能 ugc 视频广告来推广 c s s 产品。所以有个叫 celium 的 产品,它是一种 esim, 能让你在国外上网。这基本上就是核心思路,而且以非常相似的方式,我创建了这两个势力。 我已让他创建一个旅行网红,并提供简短脚本。我还截取了三类网站的截图,因为我希望颜色和品牌标识能准确呈现。 然后,这里是我从人工智能那里得到的结果,包括描述和脚本。现在,这里是我们从人工智能获得的第一段视频刚落地。我以前总在机场为找本地卡而焦虑,现在直接用 c 类应用搞定 esim 安装,简直只花了两分钟,我就已经拥有了超便宜的数据流量,简直是救命稻草。好吧,这依然令人印象深刻。但中途发生了一些非常奇怪的事情,所以看起来一切似乎还在分崩离析。 但我相当确定,这仅仅是因为我只添加了一张该网站的随机照片。那我们就再试一次吧,让我们看看如果重新运行一次会得到什么样的结果。 好吧,这好多了。 显然我不喜欢这个片头,因为它看起来有点像广告,而这不符合这种 ugc 推荐视频风格广告的初衷,但这很容易通过提示词消除,你一眼就能看出来。你不希望视频里有任何图形会像广告一样的转场效果, 但除此之外,这看起来超棒。他手里拿着手机,尽管看起来他其实在阅读某种条款和条件,这也可能是他正在用 esim 浏览的网站,所以我觉得这相当准确,但没前面那两个那么惊艳。 但即便如此,你仍能看出只需稍作调整就能轻松推广 c s s 产品。最后,但同样重要的是,我还想在场景中加入一些复杂的动作,所以这里我找到了一款耐克健身鞋,我想是专门用来做深蹲的, 而且风格与前几个非常相似。我创建了一个提示词,告诉人工智能我需要一段脚本,以及为正在穿这双鞋做深蹲的 ugc 网红。现在这是第一个结果。 好的 好吧,至少鞋子在视频中看起来保持一致。但我并不太喜欢他深蹲的样子,看来那一针他的脖子都快断了, 所以这完全不符合常理。而且最后他做深蹲时,实际上中途就停了,这让看起来穿这双鞋真的很难完成深蹲。 所以尽管这个带有复杂动作的效果很惊艳,我们还是得重新生成一次。那么让我们看看第二个结果是什么? 如果你还在穿跑鞋做深蹲,你得停下来了。我刚换上了 macon 十,这差别简直离谱。鞋底完全平坦,所以我的脚感觉像是被牢牢黏在了地上。零后跟晃动大重量组中掌控力十足。说真的,这是练腿日的作弊码好吧,那个也彻底失败了,因为一开始它就穿过了杠铃, 所以也许我们再点一次重新生成,看看这到底行不行。如果你还在穿跑鞋做深蹲,那就赶紧停下吧。我刚换上了 macon 十,这差别简直疯了!鞋底完全平整,所以感觉双脚像被粘在地上一样。零后跟晃动大重量组纯掌控。说真的,这是练腿日的作弊码好吧, 这简直完美无瑕啊,不是吗?我是说是的,他本来可以做几个深蹲,并在结尾完成动作,所以现在他看起来像是中途就停了,但我会说这看起来已经完美无缺了,所以这里试了三次。 但尽管如此,这非常强大。所以当 cds 二点零视频生成模型与像 arcjets 人工智能这样的平台结合时,采用这种工作流能做出令人惊叹的事情。一年前,我甚至无法想象结果保持一致。 产品的样子和您提供的参考照片一模一样。你实际上可以在不同的领域和垂直行业中使用它, 所以它适用于 c i s 电商、护肤品等领域。几乎任何你能在十五秒内融入信息且动作不复杂的场景都能用。变量越多对人工智能来说就越难。 但即便是像这类做深蹲或动作的直播视频,只要多试几次也能行得通。所以现在,请随时查看描述中的链接。你可以复制我的工作流,使用所有这些不同的提示词,并自行分析我的结果。 看看这个新型人工智能 ugc 视频广告工作流中到底发生了什么。本期视频就到这里,感谢你的到来,希望下次再见。

欢迎收听扣子 ai 播课。 嗨,大家好,欢迎来到今天的分享,我是咪仔,大家好,我是大一,今天这期内容干货满满,先提醒一下,想要学习更多豆包 u j c 智能体相关知识的朋友,记得关注青年通路抖音号,添加主页群聊,我们会持续更新最实用的操作教程和方法论。 对今天这期内容,特别适合想用豆包做垂直智能体,但不知道从哪下手的朋友,我们会重点聊聊知识库搭建的方法论。先问大姨一个问题,很多刚接触豆包智能体的朋友可能还不太明白垂类知识库到底是什么?你能简单解释一下吗? 好问题,垂类知识点简单来说就是针对某一个细分领域专门构建的知识体系。比如你想做一个公考答题助手,那就只放公考相关的考点真题和规范答案。想做简历优化助手,就只放行业话术、岗位关键词、面试案例。 所以垂类的核心就是聚焦对吧?对,就是越小越精准越好用。那我有一个疑问,为什么必须要加知识库呢?没有知识库的智能体不也能回答问题吗? 这就要说到本质区别了,没有知识库的智能体,他只能给你些通用回答,可能听起来有道理,但不一定精准专业,甚至可能答非所问。没错,用户最需要的其实是这个领域的专家。 举个例子,你想做一个公考答题助手,没有知识点,他只能给你些泛泛的备考建议,但上传了知识点之后,他能精准匹配考点真题,规范表述。用户问,二零二四年国考生论大作文怎么写,他能直接调取历年真题和标准答案,而不是泛泛而谈, 这就是差异化竞争力。所以,知识库决定了你的智能体能解决什么问题,能留住什么样的用户,好进入今天的核心部分?怎么设计一个能解决问题的知识库逻辑模型?这是今天最关键的内容。我们总结了三个黄金法则。 先说第一个法则,很多人会觉得知识库内容越多越好,像个百科全书,但其实恰恰相反, 对内容越多,剪辑越容易混乱。你要让智能体成为某个细分领域的专家,而不是什么都知道一点的通 采。具体怎么做呢?做公考就只放高频考点、真题规范表述。做简历优化就只放行业话术、岗位关键词、面试案例。做商家客服就只放产品参数、价格、活动规则、常见问答, 我理解就是只放用户真正会问的高频问题对应的答案。没错,越细分解锁越精准,用户越信任。第二个法则呢?格式问题,上传的文档要干净,去掉水印、广告无关的页眉页脚。 还有就是表格要整理清晰,重点内容用序号标注,对同一主题的内容放在一个文档里,这样智能体才能快速解锁提取,不会被无关信息干扰。 有时候一份乱七八糟的文档比没有知识库还糟糕。确实如此。第三个法则是什么?发布之前一定要自己先测试,建议提问十到二十个问题,测试智能体能不能从知识库里提取正确答案,会不会编造信息,回答是否简洁有用, 不好用就调整提示词,精简知识库,反复优化到稳定好用再对外分享,这就是验证环节。很多人的智能体上线后,被用户吐槽,其实是因为自己都没测过, 先对自己负责,才能对用户负责。对了,大衣还有一个问题,很多人会问,我能不能加一些插件工作流,让智能体更强大? 这个问题特别重要,必须明确回答,不能发布到豆包的核心铁律是,只允许添加知识库,禁止插件、禁止工作流。 所以想借助第三方工具增强功能,这条路是走不通的,走不通,而且这不是技巧问题,是平台规则。豆包 ugc 生态,为了保证用户体验、系统稳定、内容安全,限制只能加知识库。 很多人觉得限制太多,但换个角度想,提示词加知识库的组合,已经完全足够做出高价值的垂直智能体了,对自用题效、引流变现都完全够用。 那做好智能体之后怎么用呢?有两条清晰的路线。第一个是自用题效, 适合职场人、个体户、中小商家。你只需要把自己日常重复使用的资料上传到知识库,比如工作模板、产品参数、文案、话术,原本一小时的工作量,用智能体五分钟就能完成,零成本、零折腾,这是对普通人最实用的价值。 第二个是流量变现,适合想拓客增收、做副业的人。怎么做呢?知识库瞄准大众刚需领域,考研简历、育儿、短视频、脚本公考等提示词通俗友好,智能体名称带上关键词方便搜索, 发布后生成二维码,分发到抖音、小红书、微信线下门店等场景,把公寓流量沉淀到智能体,再引导到思域变现, 卖客、卖服务带货,或者挂载官方广告赚分润。一次搭建二十四小时自动引流, 被动收益。听起来很诱人,但要注意,千万不要既要自用,又要变现。最后可能两头都不讨好,先定方向,专注一个目标,那最后给想快速上手的朋友一个减压步骤,回顾吧! 好的,十五分钟标准流程。第一步,注册扣子官网 c o z e 点 cn, 用抖音同一手机号登录,完成实名认证。第二步,创建智能体,填写名称功能描述,上传头像模型,必须选择豆包模型,写提示词和上传知识库, 模型是豆包插件全关闭工作流,未配置知识库,已绑定提示词,合规。第五步,一键发布到豆包,通常几分钟审核通过, 比做一份 ppt 还简单,完全不用代码。好,今天的分享就到这里总结一下核心要点,垂类知识库要垂直精简,格式干净,先测再用。发布到豆包,只能加知识库,不能加插件和工作流。 确定了方向就专注深耕,不要贪多求全。再次提醒大家,关注青年通路抖音号,添加主页群聊,学习更多豆包 ugc 智能体搭建知识,我们下期见,拜拜!

欢迎收听扣子 ai 播客。 哈喽,大家好,我是大一,我是米仔。最近身边好多朋友都在说豆包 ugc 智能体,感觉大家都想试试做一个,但好多人做了半天都觉得没达到预期,你有没有发现这个情况? 确实,我也留意到了,好多人兴冲冲上手,结果要么觉得不好用,要么就是完全没流量,折腾半天白忙活了。 对,其实啊,百分之九十的人一开始就走错了路。核心问题就一个,根本没想清楚自己做这个智能体到底是为了什么,是想当成自己的高校工具,还是想做成一个公寓流量入口?这两个方向逻辑完全不一样,选不对的话真的就是努力白费。 没错,这俩的出发点不一样,后面的做法就差远了。就拿工具自用型来说吧,这个方向的核心目标就是省自己的钱,省自己的时间,完全服务于个人的工作或者生意。比如职场打工人,每天写周报都要花好几个小时,那做个周报一键生成的智能体就特别实用。 对,工具自用型的关键就是极致聚焦自身的痛点,千万不能泛化。 比如你是电商商家,就别想着做一个什么都能搞定的万能智能体,不如就专注于商品文案生成,把自己所有的商品卖点、风格、偏好都整理成知识库上传,用的时候就能直接生成符合自己店铺调性的文案,效率一下子就上来了。 而且这种智能体根本不用在意曝光,也不用花心思运营,就跟自己的私人助理一样。我认识一个自由职业的设计师,他做了一个智能体,专门帮自己整理客户需求, 每次客户发来一堆零散的要求,他直接复制进去,智能体就能自动梳理成清晰的项目清单,省了他好多沟通的时间。 那这种工具自用型的智能体,在知识库的搭建上是不是要特别精准?对,知识库一定要精准深耕,越细越好用。就拿刚才那个设计师来说,他的知识库就只上传了自己过往的项目案例,客户常提的要求,还有自己的设计规范,没有多余的内容, 这样智能体生成的东西才更贴合他的需求,要是什么都往上传,反而会干扰智能体的判断,生成的内容就不够精准了。明白了,那接下来咱们说说流量变现型的智能体,这种的核心目标就是借助豆包的流量池,实现引流获客和商业变现,对吧? 没错,这种智能体本质上就是一个 ai 流量销售员,需要做定位、运营和推广。比如做考研规划的智能体,就要先定位好服务的人群,是考专硕还是学硕,是考本专业还是跨考, 然后把相关的考研资料、院校信息、复习规划都整理成知识库,让用户用了之后觉得有用,愿意分享给身边的考研伙伴,这样就能慢慢积累流量了。 那这种流量变现型的智能体,在方法论上和工具自用型有什么本质区别呢?首先定位就不一样,工具自用型是聚焦自身痛点,而流量变现型是贴合大众需求,要抢占垂直赛道。 比如简历优化的智能体,就要考虑到不同行业、不同岗位的简历需求,整理出通用的优化模板和技巧,这样才能吸引更多用户使用。 然后还要优化体验抓留存。比如用户优化完简历之后,可以给一些后续求职的建议,让用户觉得这个智能体不仅能优化简历,还能提供更多帮助,就会经常回来用,还会推荐给别人。 对,还要借助豆包的二维码功能打通变现链路。比如用户使用智能体觉得满意,可以引导他们扫描二维码,添加微信,或者进入自己的社群,这样就能把流量转化成私域,后续再进行商业变现,比如卖课程、提供付费咨询之类的。 而且这种智能体需要持续运营优化,不断更新知识库,根据用户的反馈调整功能,放大流量效果。 我认识一个做育儿答疑的自媒体人,他的智能体一开始只有基础的育儿知识问答,后来根据用户的反馈,增加了辅食食谱生成、早教游戏推荐的功能,用户粘性一下子就提高了,流量也越来越多。 那咱们来对比一下这两种智能体的核心差异吧。首先,在知识库设计上,工具自用形式精准,聚焦个人需求,只上传强相关的内容,而流量变现形式覆盖垂直赛道的大众需求,知识库要更全面一些,对吧? 没错,还有运营方式上,工具自用型完全不用运营,自己能用就行。而流量变现型需要持续运营,要关注用户的使用数据,优化智能体的功能和体验,还要做推广,让更多人知道这个智能体 优化方向也不一样。工具自用型是不断贴合个人的使用习惯,让自己用起来更顺手。而流量变现型是不断提升用户体验,吸引更多用户使用和传播,对吧? 对,完全正确!那接下来大家肯定会问,能不能两者兼顾呢?答案是可以,但必须分清主次。比如你是职场人,平时工作已经很忙了,没有时间运营,那首选肯定是工具自用型, 先把自己的效率提上来再说。要是你是创业者或者自媒体人,有拓客增收的需求,那肯定要首选流量变现型,把精力放在运营和推广上。 那如果既有自用需求,又想顺带赚点钱呢?这种情况就要以自用为基础,轻度适配大众需求。 比如你是一个职场人,做了一个周报生成的智能体,自己用的特别顺手,那可以稍微调整一下,让他也能适合同行业其他岗位的周报需求。 比如把一些通用的周报模板和话术加入知识库,然后把智能体公开发布,这样别人用的时候可能会觉得有用,给你打赏或者关注你,你就能顺带赚点钱,但不用花太多时间,运营,还是以自己方便为主。 那在选择的时候还有什么需要注意的避坑指南吗?首先就是不要一开始就想着两者兼顾,什么都想要,结果什么都做不好。比如你既要满足自己的个性化需求,又要吸引大量用户,很容易就会导致智能体的定位模糊,既不好用也没流量。 然后就是不要盲目跟风,看到别人做什么智能体火了就跟着做,一定要结合自己的需求和能力来选择。比如你没有运营经验,就不要硬做流量变现型的智能体,不然很可能会浪费时间和精力。 对,还有就是不要忽视知识库的重要性,不管是哪种类型的智能体,知识库都是核心工具。自用型的知识库要精准,流量变现型的知识库要全面,只有把知识库做好了,智能体才能真正发挥作用。 没错,总结下来就是方向不对,努力白费。动手做智能体之前,一定要先问自己,是为了省时间提效率,还是为了引流量赚收益,找准核心需求,选对方法论,才能把豆包 ugc 智能体的价值发挥到极致。 没错,希望今天的分享能帮大家理清思路,少走弯路。如果大家想学习更多豆包 ugc 智能体相关知识,欢迎关注抖音号、青年通路,还有主页的群聊可以加入,和大家一起交流学习, 对大家有什么问题或者经验都可以在群里分享,咱们一起进步。今天的节目就到这里了,感谢大家的收听,咱们下次再见!再见!

这是爆款视频,这是我的产品,这是 ai 帮我复刻的,不需要拍摄,不需要剪辑就能复刻这种极具真实感的带货视频。首先打开这个,然后在右上角把语言切换成中文,点 击开始使用。在这里有非常多的模板,比如我要用的是爆款 ugc 视频复刻模板,打开后点击使用模板,接着上传需要复刻的视频,你的产品图和产品信息,直接点击右上角的运行,一个爆款视频就复刻好了。 看看成片,宝子们最近挖到一款洗完脸一点都不紧绷的宝藏,就是这款鲱鱼洗面奶,极简的设计,看着就很安心,深层清洁毛孔,泡沫细腻到像云朵一样,上脸真的超级温和,完全没有那种干涩感,洗完干净又补水,皮肤透着那种水润的光泽感,真的强推给学生党。

快看超多宝子问我这种绝美的东方奇幻视频怎么做?今天给大家分享完整的创作思路,简单易懂,一看就会了。首先在豆包输入这段提示词,帮我写一份东方启蒙录的中式怪诞类视频脚本和分镜。我希望故事里面要出现各种动物、女子等元素,要八个分镜和具体的要求, 这里面的元素都是可以替换的。然后参考这段提示词,用英文是因为我们接下来要用到的 ai 对 英文理解力会更好。接着就会得到一份分镜脚本,包括画面中英文提示词和运镜提示词。 第二步,使用图片生成功能模型,选择基础模型 f 点一点开风格模型,在广场搜索曼陀罗华,选这个禅意现体插画,再搜索新中式东方奇幻梦境,选择这个 权重都改成零点八,粘贴提示词,比例选择十六比九或者九比十六,按照这个方法依次生成剩余的图片。 同一个词,不一样的风格模型和权重,出来的效果也会不一样。比如这种三星堆的风格,可以用零点四的山海秘境加零点八的三星堆加零点二的山海烈气。再看像这种风格的,可以叠加同一个风格模型的不同权重来生成。每个人的审美不同,可以用不同风格模型和权重去调配出你想要的风格。 第三步,使用视频生成功能,选择二点零模型,上传首尾帧粘贴提示词,剩余的视频都是用这个方法依次生成。第四步,把刚做好的素材依次导入剪辑工具,拉入主轨道,选一首适配的 bgm, 根据音乐适当变速,使总体更加流畅,这样就做好了。

逼自己一周学完即梦 ai 视频制作,存下吧,很难找全的,挑战一个视频彻底教会你 ai 视频制作。 上节课我们使用了十二宫格的风景图来制作了一个小短片,那可能有人会问, 每次视频只能生成十五秒,两个视频之间的衔接问题怎么处理?上节课呢?我是将视频导入到了剪映,然后利用伪真图进行的生成, 所以在剪辑的时候没有特别大的难度,基本都能够完整的串联。那么这节课来给大家讲一讲另一种串联的方式。我们先来看一下视频, 这灯比天空的星子还要暖。除夕的灯火是守灯人一年的守望,也是人间的团圆。 可天上的除夕,南天门众仙听令,阿恒,等我,我一定会回来,守住我们的约定,守住这盏灯,我等你,无论多久,我都守在这城楼,收好这盏灯,等你归来, 你回来了。 从视频的效果可以看出,整体的流畅度非常的不错,那么话不多说,让我们直接开始吧。我们来到极梦的首页,我们还是在灵感库寻找一下今天的题材。我们来看这个美女图, 我们就用这张美女图作为我们今天的故事开端吧。我们先来生成一张同款图片,好,我们来看这些图片,我们选起一张图片,就用这张图吧, 我们先给他高清化处理一下,让他的人物细节更加的丰富。好来看到我这边, 为了保证等一下视频生成时能保证很好的人物一致性,这里我们需要对图片进行处理,我们需要将这个图片做成一个人物三式图,我们将人物拖入到我们的提示框选项中, 这里我给出的描述是要角色三式图,注意这里的比例,我们需要进行修改,这次不能用九比十六了,我们要改成十六比九。好,我们来生成一下。 好,我们来看这张图生成的还不错,我们选择一个较为好的图片进行保存好,那有了图片之后呢,我们就要给这个人物注一个故事, 那这里光靠自己的脑洞肯定是不足的,我们可以去借助大模型问一下。这里我们来到豆包,将刚才这张图片进行上传, 这次我们换一个问法,根据这个图给我出一个剧情,我们来看一下他给我们的生成,他给这个故事的名字取为青洛朱华, 从开头的句子可以得出,这是一个带有神话色彩的剧情, 那么有了这个剧情之后,接下来我们再让他给我们出分镜脚本。 这里来给大家说一下,为什么我要先围绕这个故事先出一个剧本,再从剧本转为分镜脚本, 那是因为如果你直接出分镜脚本, ai 有 可能根据这个图片给你出, 但是当你的内容过长的时候,有时候他出的分镜画面在镜号与镜号之间的剧情跨越比较大,导致最后生成的片段逻辑上面连接度不够。如果我们先有了一个剧情, 他会联想这个剧情的大概故事脉络,再去出这个分镜,分镜的内容会更加的完整。当然如果你这个剧情比较短的话,那你也可以直接出分镜脚本,也是 ok 的。 好,我们回到他给我们的脚本上, 可以看出他根据这个分镜给我们出了十四个镜头,接下来我再对他进行更进一步的要求。 好,来看到我这边。这次我对他进行了进一步要求,我要求他不改变现有的表格, 只根据时长在镜头后面增加一栏,标注哪几个镜头,总时长多少时间,要求时长不超过十五秒, 将几个镜号合计标注。这一步呢是为了等一下进入集梦的时候,我们可以结合几个镜头作为我们的提示词去生成一个总时长不超过十五秒的视频。那么我们先来看一下他给我们的结果。 好,我看到他这边给我出了时长,他是镜头一到五可以连续做一个视频, 接着六到八可以做一个九秒的视频,九到十一可以出一个十五秒的视频, 然后是十二到十四可以出一个十四秒的视频,一个,两个,三个,四个,一共是四个视频。好,接下来我给出进一步的指令来看我这里的指令, 我这里给出的指令是将进号一到五,进号六到八,进号九到十一,进号十二到十四分别把接提示词整合成一个连贯的视频生成指令要中文, 可以看到他已经将我们的镜号进行了组合,根据上方给出的要求,他将我们的镜号一到五定为出宫初相遇,这里我们就可以根据他的指令直接进行复制, 在生成之前别忘了人工检查一下。好,接下来我们将这些指令复制 来到极梦去生成。那么为了保证男主的角色一致性,我这里也为他生成了一个三式图,接下来我们将它进行下载, 我们将 a 卷的模式改为视频生成,接着上传我们的人物参考图。好,有了人物参考图之后,我们将提示词进行人工的修改, 比如生成一段十五秒的国风视频,这里我们可以进行一些删除,然后人物设定方面,我们要将它使用艾特键,艾特我们的人物。好,人物修改完成之后, 我们来看一下下方的模型,这里我使用的是二点零快速模型,在全能参考的模式下,生成的是十六比九的视频。时长,这里我们要根据刚才豆包给我们的时长进行一一对应,这里我们选择十五秒, 我们先来生成一下,接着我们来生成第二段视频。注意看第二段视频,这里我们生成的是九秒。我们将提示词进行复制,我们将图片进行上传,然后输入我们的提示词,同样将人物进行标记, 我们再次生成,我们使用同样的方法将剩下的视频全部进行生成。 好,接下来让我们来等待视频的生成。视频已经生成完成,让我们来看一下这些生成的视频。这一幕是人物初登场, 在一个夜晚和男主进行相遇,下一幕是两个人初次见面, 然后这个灯是他们俩的信物, 接着到了离别, 这是最后的结尾。 那么在这镜头中, 我为高潮部分补充了一个镜头,我们来看一下这个镜头所描述的提示词。这里我一共上传了三张图片,分别是男主的三式图和女主的三式图, 并且它们俩有一个信物灯, 这三张图片用来固定了整个画面中的物品一致性。在提示词中,我将男主的链接和女主的链接都放入了我们的提示词内, 根据剧情的描述放好了他们的信物灯, 最后生成了这个画面。那么接下来我们将生成好的视频依次进行下载 好来看到我这边已经将视频进行了编号,接下来我们将接视频导入剪映好,接下来我们根据接场景和台词 对视频进行编排,有些进度可以快一点。我们这段故事的大致剧情已经有了,但是在片段与片段的衔接处还是非常的突兀,那么这里我们可以使用首尾帧的方式进行处理。 接下来我进行一个演示,我们将第一帧的尾帧片段进行截取, 然后我们截取第二个视频的手帧 来看,这样我们就有了两个图片,分别是第一段的尾帧和第二段的手帧,那么我们看到这个图片,它其实 是从大远景然后转为这个近景人物,而且从场景上也有变化,所以整体的连接度并不强, 那我们要通过一个转场的手法来进行过渡,我们将它放入到极梦 ai, 将全能参考模式改为首尾帧,接着上传第一个视频的尾帧和第二个视频的首帧。好,我们来看一下生成效果, 我们来看这个画面,从这个画面中可以发现人物的造型已经出现了变化, 那么为什么会发生这个样子呢?原因在于我们上传的图片可以发现,在手征图的时候,由于场景是一个大远景,所以对人物的面部表情 还有发式识别的不够精准,导致画面在生成的过程中无法识别具体的人物,所以接下来我们要对这个画面进行调整,这里我们点击右下角的重新编辑, 可以看到此时的首尾帧是没有办法上传第三张图片的,所以我们要将首尾帧改成全能参考,然后上传我们的角色图。 那么上传完角色图之后,我们就可以使用这里的艾特键来引用这个角色,这里我们对角色重新进行引用, 好让我们再次生成,看一下效果。 来看一下这次的生成效果 不错啊,这个视频过渡的非常自然,然后对第二张图也有很强的衔接性,接下来我们将它进行下载, 那么接下来呢,我们就使用这种方式,然后通过直接切进,再使用这个全能参考模式,将中间的过渡全部进行填充,来生成一个完整的视频。那么最后就让我们用这个视频来结束今天的课程。 这灯 比天宫的星子还要暖,除夕的灯火是守灯人一年的守望,也是人间的团圆,可天上的除夕,南天门众仙听令。阿恒,你等我, 我一定会回来,守住我们的约定,守住这盏灯,我等你,无论多久,我都守在这城楼,守好这盏灯,等你归来, 你回来了。

a 圈炸缸了!横空出世的 happy horse 直接踩着 cds 二登顶全球第一!它完全开源音画同出,自动锁、人物一致性、自动分镜。可以说,现在普通人入局做慢剧变得更加简单了。这条视频看完,你接下来四十八小时可能都睡不着觉。 因为看完他,你再也找不着任何借口说自己不知道 ai 漫剧怎么开始。是不是觉得一集赚四位数的故事像骗局?但更扎心的是,百分之九十的人连验证他真假的机会都没有,卡在一堆工具里,泡在杂乱教程里 折腾半天,连个能上传的第一集都做不出来。今天所有破事到此为止。 ai 漫剧是什么?就是你刷到停不下来的动漫短剧。 能吃上肉的关键就俩按钮,付费解锁和广告分成。你要做的不是费劲发明机器,而是学会按一下这个赚钱按钮。视频中用到的专属 ai 提示词、免费工具包和入门课程,我已经全部整理完毕。感兴趣的三三三。 近年来,随着 y b、 缩耳、海螺乃至国内的万象可林吉梦等模型的涌现,深沉式 ai 视频技术经历了飞速发展,极大的降低了动态影像的创作门槛。 然而,当创作者试图从生疏零散的短片转向创作具有专业水准的长视频内容时,仍然面临着两大核心技术难题。这两个挑战分别是确保跨镜头角色的一致性,以及实现视频片段无缝拼接的连贯性。那么,克服这些挑战, 对于我们构建沉浸式的视觉体验和提升作品的专业水准至关重要。这期视频,我们将深入探索和剖析并系统梳理当前主流的技术解决方案和创作工作流程。从 ai 视频的脚本创作、分镜设计、浮生视频镜头动态控制, 再到最终的 ai 视频剪辑和配音,全程揭秘 ai 视频是怎么做的,内容很详细,涉及到的所有 ai 视频工具都完全免费,你费,国内朋友,要不咱先收藏一下, 准备好了吗?让我们开启这场零成本的 ai 造梦之旅吧!这个视频给大家分享一下。 ai 视频极速工作流主要的话是针对 ai 视频的可控性进行分享的, 那么 ai 生成视频的质量只要有两大原因导致的。第一个就是模型,不同的 ai 软件它所用的模型是不一样的,所以我们在使用不同的 ai 软件生成视频的时候,这个质量会有一定的差异,那么 模型就可以决定我们 ai 生成视频的一个下限。第二个部分就是提示词的部分,我们提示词是可以决定视频生成质量的一个上限的, 一个完美的提示词往往会比普通的提示词生成的质量要好得多。那么我们如何去精准的生成自己想要的视频和效果呢?首先第一步我们需要先思考清楚 我们想要生成的效果适合哪一个模型,因为我们不同的模型,不同的软件生成的质量它是有所区别的。比如说皮卡这个 ai 软件,它生成的视频 就比较适合做这种皮克斯风格。但如果说我们想要去生成一些带有特效比较好看,比较明显的一种效果视频,就可以用到含有 ai, 它做特效效果是比较好的,如果我们想做一些电影质感的比较偏写实的,我们可以选择用可林 ai。 但如果说我们想要生成一些各个风格都有,通用性比较强的一个视频,我们可以用到题目 ai, 比如说这个是哎呦, 有一些电影这个哎呀大家写实的,所以大家一定要明白,不同的它 ai 软件, 它擅长的领域不一样,我们要根据自己需要的一个风格去选择最合适的模型。第二个部分就是我们提示词的编辑部分, 一定要写出恰当的一个提子,我们才可以生成更好的一个视频效果。那么我们生成视频跟生成图片是有一定的差距的,因为图片是一个静态的表达,所以我们只需要将图片内所有的信息详细的描述清楚就可以生成。 那我们在生成视频的时候是多了动态体式词的部分,就是告诉 ai 我 这个画面当中的内容它是如何运动的。 那一个好的提示词结构是什么样的呢?主要分为四个部分,第一个部分就是我们的运镜部分,运镜就是相机的距离、拍摄的角度,移动的方式等等,这个就是我们镜头的运动方式。 第二个部分就是场景,有一个明确的背景场景。第三个是主体,我们这个视频当中的主角是哪一个?还有额外的细节,包括很多部分,比如说我们的画风,我们的画面色调,还有我们的光线,还有我们的主体运动等等。 ok, 我 们来看一个案例,这个视频是一只鸟在丛林当中飞翔,这个画面的一个效果,一般人会怎么去描述?他们可能就会直接 描述一只鸟在丛林飞,但如果我们只是这样普通的去进行一个描述,我们可能生成的视频效果就会是这样子的,一个怪韵,要宾要动的拓杖。 那如果说我们要用一个恰当的提示词去描述,那这个结构应该是运镜加上主体,加上场景,加上额外的细节,应该怎么描述?应该说 f p v 镜头跟随拍摄一只白色羽毛的老鹰快速地穿过丛林,对吧?那这个 f f p v 镜头还有跟随拍摄是运镜? ok? 我们一只白色的老鹰,那就是我们的主体整理我们的这个场景额外的细节,就比如说快速的穿越,快速的就是额外的细节。那么我们这样子去编辑这个提示词,就可以生成一个剂量更高的视频啊啊 a rare weekend, but endless work and chores who knows what tomorrow will bring wait is this for me like that guy said you never know what flavor the next one will be hmm why not mmm so sweet like the surprise of stealing easter eggs after all oh my god how are you so fluffy forget the kpi right now none of that seems to matter the world is still noisy but as long as i keep this hug in my heart i feel like have the strength to face tomorrow good night my alice hello 各位同学们大家好,欢迎大家来到我们本期 midi jenny 的 一个零基础视频教程,那么我们在上一期有给大家讲解过我们 zoom out 的 一个使用方法对不对? 这节课给大家讲解一下杠杠 i w。 与杠杠 video 的 一个使用。好,那杠杠 i i w。 其实是我们图生图的一个权重,以以及我们提示词两个权重的一个比较好。话不多说,我们一起来进入 mate jennie 的 一个界面,给大家来演示一下。 好,首先我们来到对话框,我们点击斜杠,然后输入 image, 然后再输入一个 a cut, 我们输入一只猫,点击回车发送给我们的 mate jimmy, 好, 这样它就已经给我们生成了一张猫咪的一个图片,对不对?我们选择第一张进行放大,依然在对话框这里输入一个斜杠,然后选择 emoji, 然后长按这张图片,把这张图片的链接拖动到对话框里面来, 再输入空格那提示词,我们就输入一个一只狗,那我们参考图给的是猫,但是我们的提示词给的是狗,对不对?好,那这两者显然是一个相矛盾的状态, 这一个的生成指令到底应该听谁的?所以这个时候呢,我们可以加入 i w 指令来解决定,所以我们空格点输入杠杠 i w 在 空格在后面去进行一个数字的一个输入,首先我们给他一个零点五的权重, 好,点击回车发送给我们的 mate jennie, 这个零点五的权重就意味着在生成的时候,我们这张 图片的参考就只占百分之五十,更多的则则是在参考我们的提示词来生成结果。好,我们一起来看到我们生成的图片,大家可以看到这四张图片基本上都有着狗子的一个特征,对不对?基本上是看不出猫的一个影子。好,我们再来实验一下,我们重新 输入斜杠,然后选择 emoji, 同样我们长按这张猫咪的图片,给它拖动到对话框里面来,同样我们输入一个 g, 输入之后我们再输入杠杠 i w 这次数值我们给它更改成一点二五的一个状态, 最后点击回车发送给我们的 mate jennie, 好, 图片已经生成完毕了,我们打开来看一下。好,这一次的狗子,它是就稍微带了一些猫咪的一个特征,对不对?虽然有一些看起来像狗,但是我觉得它的一个面部骨骼结构更加倾向于一只猫了。 那么我们再做最后一次测试,我们依然按照之前的一个步骤。好,我们把这个图片拖动到我们的对话框里面来。 好,拖动好了之后,我们在后面再输入一个狗的提示词,然后再杠杠 i 档为我们数级,这次给到一个一点九,最后点击回车发送给我们的 midday jennie, 好, 现在我们打开这一个图片来看,那我们这一次生成的这一组图片,我觉得它几乎已经偏向于猫的一个范畴了,对不对? 可能大概还保留了百分之十到百分之二十的一个狗字的特征,但是如果说硬要说,我觉得可能给它划分为猫会更加准确一点。我们总结一下 i w 指令,我们在图生图的时候去使用它的功能来强调 或者是调节。在生成的时候,我们生成的这个结果是更加偏向于我们输入的提示词啊,这是根据我们 i w 后面 数字所所决定的,数字的值越高,那么生成的这个结果偏向的,我们参考图的值就会高一点,那么数数值越低,就更加偏向于我们的一个提示词。接着来讲一下我们 video 这个指令的相关功能,借我们自己来生成一张图片。 好,我们选择 imagine, 输入一个女孩,点击回车发送给我们的秘籍专利。好,我们可以看到,其实我们图片生成的过程,它是有一个不清晰到清晰的一个过程,对不对? 好,如果说我们想要这个生成的过程,那么我们应该怎么去操作?这里我们正好就可以使用到我们 video 的 一个功能了, 如果说我们已经生成了图片,我们可以点击这个信封,这个时候我们就可以得到一组 c 的 值。好,我们复制一下这一组的 c 的 值,然后继续回到我们的服务器, 在对话框输入 image, 再把我们的提示词给它输入进去,最后我们再把 c 的 值也输入进去,在 c 的 值后面,我们可以加上我们 video 的 一个指令了。都输入好了之后,我们点击回车发送给我们的 midgen。 好, 大家可以看到我们就又生成了一组这样的图片,对不对? 我们想要获取这个图片的生成过程视频,我们操作方法跟获取随机种此处是一样的,我们点击这个信封。好,大家可以看到我们的 mejini 就 给我们发送了一条信息,这个时候我们可以点击这个链接, 我们访问一下这个网站,这个时候他就给我们生成了一个视频,等待他加载一下。好,我们点击播放。那这个时候我们就可以得到一组 我们四张图片的生成过程啦,大家有需要的话可以去进行操作一下。好,那么本期视频关于 i w 以及 video 指令的一个使用就已经给大家讲解完毕啦,大家看完视频之后可以多多去练习一下。我们本期视频到这里就结束了,我们下一期视频再见。

欢迎收听扣子 ai 播客。 哈喽,大家好,欢迎来到今天的节目,我是你们的老朋友。大家好,我是今天的嘉宾主持 好了,先不要走开,我们今天要给大家分享一个超级实用的话题,豆包 ugc 智能体。但在开始之前呢,我想先跟大家说两件很重要的事 哦,是什么呢?第一件事,如果你想学习更多关于豆包 ugc 智能体的知识和技巧,一定要关注我们的青年通路。抖音号,每周都会更新 ai 相关的实用内容,带你玩转各种智能工具。 第二件事,记得加一下我们主页的群聊,群里有很多志同道合的朋友,大家可以一起交流学习心得,还有我们整理的干货资料包免费送。好了,关注和加群的事情说完了,下面让我们正式进入今天的主题,普通人和中小企业到底能用豆包 ugc 智能体做什么? 在开始之前,我觉得有必要先给大家介绍一下什么是豆包 ugc 智能体,没错,这是一个很重要的背景知识。豆包是字节跳动在二零二三年八月推出的 ai 产品,截 至目前,豆包应用内已经累计创建超过八百万个智能体,月活跃用户数超过两千六百万,是中国最活跃的 ai 产品之一。 而 ugc 智能体就是用户自己创建的智能体,你不需要懂编程,只需要五分钟就能创建一个属于自己的专属智能体。 这些智能体可以是你的私人助理、写作助手、客服代表,甚至是行业专家。他们依照豆包强大的大模型能力,可以处理文本、图像、语音等多种形式的信息。 好,下面我们重点来聊聊,普通人可以用豆包 ugc 智能体做什么?我觉得第一个也是最实用的,就是知识问答和学习辅助。 对对对,这个真的太香了!你知道吗?豆包有文档分析功能,可以上传 pdf、 word、 ppt 的 文件,它会自动提取关键信息。总结要点你想想看,以前读几十页的行业报告要花大半天,现在几分钟就能吃透, 没错!还有拍照解析功能,遇到不会的题直接拍照上传,他会讲思路、拆步骤、分析考点,而不是直接给答案,这对学生的学习特别有帮助。 而且他还能整理错题本,标注错误原因和同类题型,复习起来特别有针对性。除了学习,写作助手也是一大亮点。 豆包可以根据关键词帮你写各类文案,小红书笔记、朋友圈文案、工作汇报、营销方案通通都能搞定。而且你可以指定风格、长度和语言,他会按照你的要求生成。 我听说有个用户老周用豆包帮小企业写电商详情页,三分钟就能出三本文案,比自己憋一天高效多了。后来他还用 ai 分 析用户评论,帮朋友优化淘宝店销量直接涨了三成。 这就是 ai 作为二十四小时免费员工的威力。 ai 负责输出出稿人,负责定调性和细节,这种人机配合特别高效。 说到生活服务,那豆包更是全能选手。没错,你可以让他帮你规划旅行攻略,输入目的地、预算天数。他会自动生成完整行程,包括交通、住宿、景点、美食,还会标注避坑点, 还可以让他帮你做月度收枝规划,推荐节日礼物、生成健康食谱,甚至是邻里沟通话术、家庭家务分工表,他都能给你很好的建议。 我特别喜欢的一个功能是方言精准转写,支持四川话、东北话、粤语等二十多种方言,准确率超过百分之九十六,沟通完全无障碍。 对于长辈来说,豆包还有专门的长辈模式,超大字体,纯净界面,无广告,全程语音交互,不用打字,不用看小字,张嘴就能用,这真的是科技赋能生活的最好体现。 说到副业变现,这也是豆包的一大亮点。对,现在很多人都在用豆包做副业,有一个叫呆话西游的账号,用豆包生成分镜脚本和角色定妆提示词,输入定制化指令,就能生成完整的视频脚本。 结果呢,八十七条视频,涨粉三百四十二万,累计获赞超过一千八百六十万。变线路径也很清晰,前期靠平台流量分成,后期做 ip 开发周边产品,接品牌定制视频, 还有更接地气的玩法,帮人写短视频脚本,做竞品分析报告,生成营销方案,一个月下来多赚几千块完全不是问题。 所以你看,豆包 ugc 智能体对普通人来说,绝对是一个强大的生产力工具,关键不是工具本身有多厉害,而是你怎么用它来放大你的能力。说完了个人用户,我们再来聊聊中小企业可以用豆包 ugc 智能体做什么? 对于企业来说,第一个也是最直接的应用就是智能客服。没错,杭州银行就推出了百业云,这是业界首个电商产业生态云, 通过豆包大模行为中小商家提供智能客服服务,它不仅大幅提升了客服回答的准确率,还支持七成二十四小时不间断的专业服务。 想象一下你的店铺半夜有客户咨询, ai 客服可以立刻响应,节假日客户发来问题同样能得到及时解答,这不仅提升了客户体验,还大大降低了人工成本。 而且现在的智能客服已经进化到能够理解复杂问题了,它不是简单的匹配 f a q, 而是能真正理解客户的意图,给出精准的个性化回答。 第二个应用是营销助手和内容生成。对中小企业来说,内容营销是获客的重要渠道,但很多小团队没有专职文案,豆包可以帮你快速生成营销文案。社交媒体内容公众号文章 瑞幸咖啡就推出了 ai 点单智能体,用户点单时长缩短了百分之五十。虽然这是大企业的案例,但类似的技术中小企业同样可以用在自己的业务场景中。比如餐饮商家可以用它生成外卖平台的菜品描述、促销活动文案,服装店主可以用它生成朋友圈推广文案、直播话术。 第三个是内部效率工具。豆包的会议录音转机要功能对企业来说真的太实用了,开会时全程录制,会后输入简单指令,就能自动生成结构化机要,区分发言人、提炼核心结论、高量代班事项标注截止时间和责任 实测,比手动整理快百分之八十以上。对于经常开会的团队来说,这个功能简直是救星。 还有文档解读功能,可以快速分析合同报告、数据表格标注、风险条款、提取关键数据,财务人员、法务人员、行政人员都能用得上。第四个是行业垂直应用, 这个就更加专业化了。比如在教育行业,浙江大学基于豆包大模型开发了浙大先生智能体平台,支持 ai 科学家课堂问答、教务咨询等众多场景,服务了五万多名在校师生。 医疗行业也有应用,有三甲医院用豆包部署了肺部 ct 结节检测模型,成本仅为自建方案的三分之一。 制造业更是豆包的强项,工厂可以通过豆包大模型结合 iot 数据,实现设备预测性维护,故障率降低百分之二十。某电池厂接入后,问题解决周期从小时级压缩到分钟级,追溯效率提升百分之七十。 对于重要企业来说,不需要像大企业那样定制开发,可以直接使用豆包平台上已有的行业智能体,或者基于模板快速创建自己的专属智能体。 没错,豆包支持用户五分钟创建专属智能体,而且有音乐、导师、合同、律师等垂直角色可以选择,中小企业完全可以根据自己行业的特点,创建针对性的智能体服务。说了这么多,可能有些朋友会问,听起来很厉害,但我完全没有基础,能学会吗? 当然能,豆包的设计理念就是零门槛,你不需要懂编程,不需要懂 ai 技术,只需要会打字、会说话就能用起来。 那入门有什么建议呢?第一,从简单场景开始,不要一上来就想做一个超级复杂的智能题,先从一个小需求开始,比如让 ai 帮你写朋友圈文案,帮你整理会议资料。 第二,多尝试不同的功能。豆包的功能非常丰富,文档解读、批答疑、旅行规划、健康咨询、方言转写,每一个功能都值得试试,找到最适合你的那个。 第三,学会给 ai 清晰的指令。和 ai 沟通就像和助理沟通一样,指令越清晰,结果越符合预期。比如你让他写文案时,告诉他目标人群、风格要求、字数限制,他给你的内容就会更精准。 第四,关注青年通路、抖音号和加入我们的群聊,里面有很多实用的教程和案例,可以帮助你快速上手。说完建议,我们也要提醒几点注意事项,第一,涉及企业核心商业数据时,建议开通豆包企业版,支持私有化部署,保障数据安全。 第二, ai 生成的内容需要人工审核,特别是对外发布的营销文案,客户回复一定要检查后再发送。第三, ai 是 工具,不是万能的,它能帮你处理很多重复性工作,但创意、判断、决策这些核心能力还是需要人来把控。 第四,保持学习。 ai 技术发展很快,新的功能和应用场景不断涌现,持续学习才能跟上时代。 好了,今天的分享就到这里回顾一下我们今天聊的内容。对普通人来说,豆包 ugc 智能体可以是学习助手、写作帮手、生活管家、副业利器。对中小企业来说,它可以变身智能客服、营销助手、效率工具、行业专家。 ai 的 价值不是替代人,而是放大人的能力,关键在于你愿不愿意去尝试,去探索。没错,最后再次提醒大家,想学习更多豆包 ugc 智能体的知识和技巧一定要关注青年通路、抖音号, 还有别忘了加主页群聊,群里有很多志同道合的朋友,干货资料包免费送。好了,今天就到这里,我们下期再见,拜拜!