《一人公司!小白低成本AI短剧导演智能体制作全流程!》 #AI短剧 #一人公司 #AI智能体 #AI导演 #凡人修仙传大战一拳超人 一、AI短剧导演智能体:一人公司的核心技术架构 1. 目标:实现“一句话生成AI短剧”,打造全自动AI导演专家智能体。 2. 工具:使用Trae AI编辑器、Gemini 3 Pro大模型,结合Skills(子智能体技能)和MCP(模型上下文协议)工具调用。 3. 架构:主智能体负责全局规划与调度,下设六个子智能体: - 剧本分析师:提取人物、场景,生成AI提示词。 - 素材生成师:生成人物和场景图片(调用即梦MCP接口)。 - 分镜设计师:规划每个分镜的镜头、运镜效果。 - 首帧生成师:生成每个分镜的首帧图片(可扩展首尾帧)。 - 视频生成师:将图片转为视频(使用Seedance 1.5 API,因2.0暂未开放)。 - 后期合成师:合成视频、添加字幕和配乐(使用Ffmpeg)。 4. 执行流程:分为六个阶段,每个阶段完成后向用户确认,可微调。 二、实战《凡人修仙传大战一拳超人》:六步生成全记录 1. 剧本生成:根据主题“凡人修仙传大战一拳超人”,主智能体自动生成6个分镜的剧本(故事概要、人物小传、分镜大纲)。 2. 素材生成:调用即梦MCP生成人物(韩立、一拳超人)和场景图片,保存至本地。 3. 分镜设计:生成6个分镜的详细脚本(画面描述、对白、时长、AI指令),并输出JSON文件。 4. 首帧生成:基于分镜JSON生成每个分镜的首帧图片。 5. 视频生成:调用Seedance 1.5 API,将首帧图片转为5秒视频片段(共6段,总30秒)。因未传递时长参数,实际每段5秒(预期8秒)。 6. 后期合成:使用Ffmpeg拼接视频,最终输出30秒短剧(存在无声音、人物不连贯、形象不还原等问题)。 三、问题与优化:让AI短剧更逼真 1. 发现的问题: - 剧本理解不准确(对国漫IP如“韩立”的还原度低)。 - 提示词丢失(使用英文提示词导致国产形象失真)。 - 视频不连贯(单图生成,缺少首尾帧过渡)。 - 无声音、字幕和配乐。 2. 优化方案: - 剧本分析:引入联网搜索,增强对特定IP的理解,使用中文提示词。 - 素材生成:保留人物IP特征,提示词用中文,确保形象还原。
00:00 / 04:36
连播
清屏
智能
倍速
点赞817
00:00 / 02:46
连播
清屏
智能
倍速
点赞29
00:00 / 01:28
连播
清屏
智能
倍速
点赞34
AI生图生视频技巧 我发现90%的人玩 AI 生图,其实是在开盲盒。 就是对着输入框一顿狂堆关键词,什么“电影感、极致细节、8k”,不满意就换一批关键词,再刷。刷到一张好看的,就觉得是自己的功劳;刷不出来,就觉得是 AI 不行。 这根本不是创作,这是赌运气。根本原因,是你脑子里那个画面是模糊的,而 AI 需要的,是一份清晰的“导演脚本”。 今天就教你三招,从“抽卡玩家”升级成“总导演”。 第一步,先给你的画面定“调子”。 别上来就写“一个很酷的侠客”。你要先想清楚,你拍的是王家卫的电影,还是徐克的电影?直接给 AI 下硬参数:什么胶片?什么镜头?什么光? 比如,你输入“Kodak Vision3 胶片、变形宽银幕镜头、伦勃朗光”,这就相当于给 AI 戴上了一副“审美枷锁”。不管主角怎么变,画面的“底子”牢牢锁死,质感瞬间就有了。 第二步,用“填空题”代替“作文题”。 大导演手里都有分镜头脚本,你也得有一个。把你的画面拆成填空题: 【主体是谁】+【穿的什么】+【在哪儿】+【什么天气】+【最重要的是,锁定我们第一步定的那些参数】。 把这个结构喂给 AI 助手,让它去生成提示词。这样,你就从“憋小作文”变成了“填表格”,AI 想跑偏都难。 第三步,让静态画“动”起来,要做减法。 当你把满意的图拿去生视频时,千万别把刚才那几百字再复制一遍!视频 AI 看不懂长篇大论。它只想知道两件事:镜头怎么走,主体怎么动。 你只需要像指挥摄影师一样说:“缓慢推进镜头,发丝随风飘动,烟雾缭绕上升。” 记住,在视频这一步,越简单的“动词”,生命力越强。千万别写“跑步、打架”,现在的 AI 处理不好大幅度动作,微动才是最真实的。 今日总结: 用参数锁定审美,用填空题锁定结构,用动词锁定生命力。当你学会用“导演思维”去指挥 AI,它就不再是一个随机的黑箱,而是你手里最听话、最高级的摄制组。 关注我,教你用导演的思维玩转 AI。#AI #aigc
00:00 / 01:55
连播
清屏
智能
倍速
点赞7
00:00 / 02:00
连播
清屏
智能
倍速
点赞7