00:00 / 00:43
连播
清屏
智能
倍速
点赞534
00:00 / 01:50
连播
清屏
智能
倍速
点赞28
00:00 / 01:27
连播
清屏
智能
倍速
点赞3
杨大哥3月前
阿里重磅发布影视级AI视频生成模型WAN 2.2 AI显卡,资讯,工具,视频制作大语言模型分享-Wan2.2 是阿里于 2025 年 7 月 28 日开源的电影级视频生成模型 模型架构:此次共开源文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)和统一视频生成(Wan2.2-IT2V-5B)三款模型。其中文生视频模型和图生视频模型是业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B。这两款模型由高噪声专家模型和低噪专家模型组成,可分别负责视频的整体布局和细节完善。 技术优势: 计算资源消耗少:率先在视频生成扩散模型中引入 MoE 架构,有效解决视频生成处理 Token 过长导致的计算资源消耗大问题,在同参数规模下,可节省约 50% 的计算资源消耗。 生成能力强:在复杂运动生成、人物交互、美学表达等维度上有显著提升。 具备电影美学控制能力:首创 “电影美学控制系统”,将光影、色彩、镜头语言三大电影美学元素融入其中,可随意组合 60 多个直观可控的参数。用户输入如 “黄昏”“柔光” 等关键词,模型可生成相应电影质感画面。 生成速度快:统一视频生成模型 Wan2.2-IT2V-5B 采用高压缩率 3D VAE 架构,时间与空间压缩比达到高达 4×16×16,信息压缩率提升至 64。仅需 22G 显存(单张消费级显卡)即可在数分钟内生成 5 秒高清视频,是目前 24 帧每秒、720P 像素级的生成速度最快的基础模型之一。 使用方式:开发者可在 GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型 API,用户还可在通义万相官网和通义 App 直接体验。
00:00 / 01:55
连播
清屏
智能
倍速
点赞6
00:00 / 00:29
连播
清屏
智能
倍速
点赞2