00:00 / 01:19
连播
清屏
智能
倍速
点赞209
00:00 / 00:27
连播
清屏
智能
倍速
点赞476
00:00 / 00:37
连播
清屏
智能
倍速
点赞16
MiniMax 海螺视频生成初次体验 该视频是对MiniMax公司旗下的一款名为“海螺”的AI文生视频模型(具体为海螺02)的详细评测。 视频首先介绍了海螺模型的技术背景,指出其采用了能显著提升训练和推理效率的NCR技术,使其在生成速度和成本方面具有明显优势。同时,视频也提到了海螺模型在行业排行榜(Arena)中的领先地位,仅次于字节跳动的模型,并优于谷歌、Runway等知名公司的产品。 视频的核心部分是通过多个场景的实测,将“海螺”AI与另一款名为“即梦”的AI视频生成工具进行直接对比。测试场景涵盖了自然风光、人物写真、3D卡通、奇幻(美人鱼)、科幻(彗星撞地球)以及高难度动作(冰上芭蕾)等。 评测结论如下: 海螺AI的优势:在遵循物理规律(如头发、飘带的摆动)、写实感、运镜的准确性以及光影效果方面表现更出色。 即梦AI的优势:在艺术效果、色彩视觉、画面美感和想象力方面更胜一筹,生成的画面更清新自然,符合用户的艺术想象。 共同的局限性:两个模型在处理复杂、高难度的人物动作(如冰上芭蕾)时均出现严重错误,表明当前技术在精确捕捉和再现复杂人体动态方面仍有待提高。 总而言之,该视频通过一系列对比测试,清晰地展示了“海螺”AI作为一款文生视频工具的特点、优势和不足,认为它在物理真实性和镜头控制上很强,但在艺术美感上不如“即梦”AI。 #人工智能 #文生视频 #MiniMax海螺 #即梦AI #对比测试
00:00 / 10:33
连播
清屏
智能
倍速
点赞6
00:00 / 03:46
连播
清屏
智能
倍速
点赞14
AI+MCP,如何解放人类? 我感觉最近对 如何通过MCP给AI塑造工作环境,又有了新的认知。 最近我看到了海螺AI 02,也就是MiniMax旗下的第二代视频生成产品,效果已经非常出色了。 另外,Kimi开源了K2模型,这个模型主要对标Claude那种Agentic AI的模式,能够操作工具,通过MCP的方式调用工具来实现各种结果,包括强大的编程能力。在国外和国内业界的口碑也很不错。 这些大模型的能力在不断升级,几乎每隔一两个月就会有翻倍式的提升,让我感受到它们的进步速度非常快。 在这样的背景下,我越来越确信未来大模型会成为一种基础能力,就像PC互联网、移动互联网时代的数据库一样。 不同的是,AI时代的大模型这个“数据库”可以自己产生数据,而不仅仅是依赖我们去做前端界面,设置GUI的产品环境,让人来贡献数据。 现在的问题是,我们是要通过人的提示词工程,也就是通过提问让AI去生成数据。 还是更要学移动互联网当年,打车平台、外卖平台那样,塑造一个环境,让AI在特定场景下产生反馈和数据,方便我们平台去中心化地调用? 我觉得显然后者能够创造价值更大。一个这是老板需要大呼小叫驱使员工干货的手工作坊,另外一个则是全自动化生产商品的智能化工厂。 在Agentic AI的时代,需求侧还是真人来发起,但是满足我们需求,那些接单的滴滴司机、骑手小哥,已经变成AI了。我们通过MCP等基建,给AI司机、AI骑手们打造了一个工作的环境,让他们为人类去提供服务。 整个AI的工作流完全是自动化的运转。 如果这样思考的话,未来我们真正要做的,就是不断地为这些AI打造一个又一个的环境,建立一套AI熟悉的交互体系和界面,让AI能够自动化地实现信息的上传和下载,甚至逐步操作现实生活中的各种事务。 没错,而且我们还可以根据用户的需求,调动这些Agent,让它们形成一定的协作规范,帮助我们实现目标。就像外卖里面,骑手跟餐馆,存在某种协作,共同再为用户提供服务。 从未来生态的布局来看,我认为核心还是要掌握更多的垂直场景和环境数据,基础AI大模型,已经非常非常智慧了,垂直场景和环境数据,就是让他们产奶的挤奶工! 通过后端的超级自动化能力,我们可以构建一条完整的服务链路和服务模式,供前端调用。#agent #MCP #AI #Agentic #强化学习
00:00 / 03:26
连播
清屏
智能
倍速
点赞6