00:00 / 07:44
连播
清屏
智能
倍速
点赞317
00:00 / 01:30
连播
清屏
智能
倍速
点赞4713
00:00 / 07:44
连播
清屏
智能
倍速
点赞2892
AgentAlpha2天前
用AI做了个视频生成系统,根据之前的论文解读自动生成的视频 今天我们花两分钟来一起学习一篇非常前沿的agent memory论文,讲的是如何给AI智能体打造一个像人类一样灵活、会学习的“记忆系统”。这篇论文的名字叫《A-MEM: Agentic Memory for LLM Agents》。 我会像讲故事一样,结合我们生活中的例子,让你轻松理解这个复杂的技术。 一、为什么AI需要一个更好的“记忆”? 想象一下,你正在和一位朋友进行一次跨越数周甚至数月的长谈。如果这位朋友只能记住最近几分钟聊的内容,之前聊过的所有事情——比如他喜欢的电影、他遇到的难题、你们一起得出的结论——他全都忘了,这样的对话还能进行下去吗?肯定会非常困难。 现在的很多AI智能体就面临着这样的“健忘”问题。它们就像只有“金鱼记忆”(耳边突然响起徐良的7秒钟的记忆🎵🎵),虽然能在单次对话中表现很好,但一旦对话变长、任务变复杂,它们就记不住之前发生过什么了。这就是研究人员所说的“记忆碎片化”挑战。 传统的解决方法,比如给AI一个固定大小的“笔记本”(就像MemGPT系统)或者一个简单的“记忆银行”(MemoryBank),都太死板了。这个笔记本写满了就不能再写,或者只能按固定的规则去记、去查,无法适应千变万化的真实世界。 那么,有没有一种方法,能让AI的记忆像我们人类一样,可以不断整理、关联、甚至温故知新呢?这就是A-MEM系统想要解决的问题。 #大模型 #agent #智能体 #ai视频 #memory
00:00 / 02:28
连播
清屏
智能
倍速
点赞56
《一人公司!小白低成本AI短剧导演智能体制作全流程!》 #AI短剧 #一人公司 #AI智能体 #AI导演 #凡人修仙传大战一拳超人 一、AI短剧导演智能体:一人公司的核心技术架构 1. 目标:实现“一句话生成AI短剧”,打造全自动AI导演专家智能体。 2. 工具:使用Trae AI编辑器、Gemini 3 Pro大模型,结合Skills(子智能体技能)和MCP(模型上下文协议)工具调用。 3. 架构:主智能体负责全局规划与调度,下设六个子智能体: - 剧本分析师:提取人物、场景,生成AI提示词。 - 素材生成师:生成人物和场景图片(调用即梦MCP接口)。 - 分镜设计师:规划每个分镜的镜头、运镜效果。 - 首帧生成师:生成每个分镜的首帧图片(可扩展首尾帧)。 - 视频生成师:将图片转为视频(使用Seedance 1.5 API,因2.0暂未开放)。 - 后期合成师:合成视频、添加字幕和配乐(使用Ffmpeg)。 4. 执行流程:分为六个阶段,每个阶段完成后向用户确认,可微调。 二、实战《凡人修仙传大战一拳超人》:六步生成全记录 1. 剧本生成:根据主题“凡人修仙传大战一拳超人”,主智能体自动生成6个分镜的剧本(故事概要、人物小传、分镜大纲)。 2. 素材生成:调用即梦MCP生成人物(韩立、一拳超人)和场景图片,保存至本地。 3. 分镜设计:生成6个分镜的详细脚本(画面描述、对白、时长、AI指令),并输出JSON文件。 4. 首帧生成:基于分镜JSON生成每个分镜的首帧图片。 5. 视频生成:调用Seedance 1.5 API,将首帧图片转为5秒视频片段(共6段,总30秒)。因未传递时长参数,实际每段5秒(预期8秒)。 6. 后期合成:使用Ffmpeg拼接视频,最终输出30秒短剧(存在无声音、人物不连贯、形象不还原等问题)。 三、问题与优化:让AI短剧更逼真 1. 发现的问题: - 剧本理解不准确(对国漫IP如“韩立”的还原度低)。 - 提示词丢失(使用英文提示词导致国产形象失真)。 - 视频不连贯(单图生成,缺少首尾帧过渡)。 - 无声音、字幕和配乐。 2. 优化方案: - 剧本分析:引入联网搜索,增强对特定IP的理解,使用中文提示词。 - 素材生成:保留人物IP特征,提示词用中文,确保形象还原。
00:00 / 04:36
连播
清屏
智能
倍速
点赞432