00:00 / 03:44
连播
清屏
智能
倍速
点赞339
可灵3.0|克隆tk视频|n8n工作流 嗨,欢迎回到我的频道。本期视频我将分享围绕可灵3.0模型制作的n8n克隆tk视频工作流。只适合于单一人物 + 产品 +宠物的UGC视频。 首先是前置需要的API,首先是KIE,目前工作流默认是720p。每分钟63元。接着是分析tk视频的镜头需要用到2月15号刚发布的qwen2.5 plus,它可以给出不错的镜头分析,但是时长有时候可能会出错。最后是获取tk视频链接用于分析需要用到rapid中的tk api,这个是9.9美元的月订阅。 接下来是记录进度的表格,这里主要存放我们的人物、产品和宠物照片的地方,你可以通过flowtra的上传照片功能以及我们自动生成其他角度的功能快速得到照片链接,其他的单元格内容都是由工作流启动后来自动填写的。只需要对每一个视频的第一个镜头填写图片链接就可以了。 最后是工作流,我们分为分析视频镜头结构和克隆视频2个。主要原因就是大模型,它给出的镜头时长不一定准确,所以为了避免积分浪费。我没有把它和克隆视频连在一起。使用方式非常简单,复制你想克隆的视频的链接,启动这个工作流,粘贴即可。你可以在表格的参考提示词这一列看到结果和每一个镜头的时长,但是请检查是否正确。 接着是克隆视频,使用方式是直接启动就行,它会自动检查没有生成过视频的行,来执行生成。可以通过表格查看每一个镜头的视频生成的任务id和链接,并我们会把最后合并的视频放到最后一个镜头的地方。 #AI工具[话题]# #n8n[话题]# #tiktok带货[话题]# #UGC[话题]#嗨欢迎回到我
00:00 / 09:47
连播
清屏
智能
倍速
点赞26
如何使用才能发挥可灵 3.0 的巨大潜能 Higgsfield 已经全面接入可灵 3.0。AI 创作博主 ADIL 用大量真实场景测试了可灵 3.0,从情绪表演、多镜头叙事,到高难度的运动物理、碰撞场面、视觉特效和复杂运镜,基本把它推到了极限。测试过程中,他尝试了上千条提示词,发现一个很重要的变化,可灵 3.0 不只是画面更清晰了,而是真的开始理解视频在时间上的逻辑,比如什么时候该发生什么,镜头为什么要这样移动。 ADIL 反复强调的一点是,提示词当然重要,但关键帧更重要。一张高质量的起始画面,往往比写得完美的提示词更管用。可灵 3.0 对细节的理解能力很强,只要指令清楚,它通常能按预期执行,但前提是你给了它一个足够好的起点。 在多镜头方面,可灵 3.0 的提升非常明显。多镜头不再只是简单切换视角,而是能形成连贯的叙事。镜头之间有因果关系,节奏也更像真实影视作品。角色一致性的问题也有了实用解法,通过独立角色元素的方式,可以在不同镜头中保持人物稳定,不容易出现变形或 “换脸” 的情况。 在物理和特效测试中,可灵 3.0 表现得相对可靠。无论是跑步、跳跃、摔倒,还是赛车碰撞、追车戏,动作的前后逻辑基本成立。即便在高复杂度画面里,画面结构也比较稳,很少出现整体崩坏。镜头光晕、散景、慢动作这些细节,也能在整个片段中保持一致,而不是只在某一帧看起来正确。 一个很有意思的点是运镜。很多镜头看起来流畅,并不是因为动得多,而是因为 “有目的”。推进、跟随、切换焦点都服务于画面叙事,这也是为什么整体观感更接近真实拍摄,而不是随机生成的动画。 #可灵 #Higgsfield #AI视频 #人工智能
00:00 / 12:45
连播
清屏
智能
倍速
点赞36
00:00 / 00:23
连播
清屏
智能
倍速
点赞4
00:00 / 01:48
连播
清屏
智能
倍速
点赞19
00:00 / 03:32
连播
清屏
智能
倍速
点赞762
00:00 / 04:46
连播
清屏
智能
倍速
点赞22