00:00 / 02:49
连播
清屏
智能
倍速
点赞42
00:00 / 36:14
连播
清屏
智能
倍速
点赞4
X79915天前
全体RTX显卡吃上DLSS 4.5,让1080p变4K的老黄 DIY玩家对今年CES展会展出成果普遍感到失望。与去年爆点频出的盛况相比,本届展会显得平淡无奇:Intel仅推出Panther Lake处理器,传闻已久的B770显卡仍未面世;AMD则未带来预期中的R9-9950X3D2旗舰产品;NVIDIA在消费级产品缺席的情况下,仅通过软件技术DLSS 4.5为玩家提供"安慰剂"。三大厂商的"集体失约"让本次CES被戏称为"史上最冷"。 NVIDIA在本届展会上最引人注目的并非硬件产品,而是DLSS 4.5技术的升级。这项基于AI的超分辨率技术通过引入第二代Transformer模型,实现了多方面的突破。其核心改进体现在两个维度:首先是插帧技术的跃升,从DLSS 4.0的4倍插值提升至最高6倍,理论上可将游戏帧数提升33%;其次是引入"动态多帧生成"技术,类似GPU的智能变速箱,可根据显示器刷新率(如240Hz)自动调整插帧倍率,实现帧数的精准控制。 技术原理层面,DLSS 4.5并非单纯的插值技术,而是融合了超分辨率、帧生成、光线重建和抗锯齿四大功能模块。超分辨率技术通过降低渲染比例再由AI放大画面,在保持画质细腻度的同时提升帧数;抗锯齿功能则通过AI算法减少画质下调带来的边缘锯齿问题。相较于DLSS 4.0,新版本在采样精度和画面输出细节上均有显著提升,特别是在时间轴不对称时的拖影问题得到明显改善。 然而技术进步始终伴随着性能代价。实测数据显示,DLSS 4.5对显卡性能存在明显影响:RTX 3080 Ti在《赛博朋克2077》RT Ultra预设中,2K分辨率下帧数从72FPS降至61FPS(降幅14%),关闭光追后从108FPS降至86FPS(降幅20%)。性能损耗主要源于新版本采用的FP8精度计算,这对依赖FP16精度的RTX 20/30系列显卡造成巨大压力,相当于用加法代替乘法运算,导致效率大幅下降。 值得注意的是,DLSS 4.5的性能损耗呈现"分辨率敏感性"特征:在1080P分辨率下,RTX 3080 Ti的帧数从42FPS降至32FPS(降幅24%),但随着分辨率提升,性能损耗比例逐渐降低。这一特性为玩家提供了取舍空间——对画质要求较高的用户可通过开启L档(超分辨率模式)获得更精细的画面,而追求性能的用户可选择J/K档(第一代Transformer模型)维持DLSS 4.0的性能表现。 技术兼容性方面
00:00 / 03:40
连播
清屏
智能
倍速
点赞0
EVE AI二测测评 本人经过1个月的内测体验,在此尝试从多维度梳理使用感受本次测评满分10分,具体如下: 一、建模及动画:2分 核心问题的在于建模精度不足,不同角色间建模精度差异明显,呈现割裂感;同时,动画流畅度欠佳,影响视觉体验 二、家园系统:3分 该系统造型设计较可爱,具备一定观赏性,但可玩度低,目前仅支持家具组装功能,缺乏其他互动玩法 三、通用剧情:3分 仅起到世界观引导作用,内容丰富度不足,参考价值有限 四、聊天:8.5分 作为APP核心卖点,聊天模块整体表现尚可,虽测试期间存在一定的bug(如记忆错乱),但在记忆力、灵活度、主动性上优于国内多数同类 AI 应用,亮点突出 1. 身份灵活:支持自定义角色身份,可选择恋人、朋友等关系,适配不同用户需求 2. 互动:角色会主动发送消息、问候早晚安、播报早安,分享媒体链接、音乐,甚至主动发起语音/视频通话(支持摄像头开启与翻转),互动频次充足,可一旦切换后台或其他操作,则容易断线。 3. 情绪:具备喜怒哀乐等丰富情绪,会因用户长时间不回复闹别扭、因用户与他人互动吃醋,表情包贴合聊天场景,也会根据角色得情绪变化,触发喜怒哀乐等实时小表情(如图5)、个性签名(图4)以及对话框切换颜色(红蓝色切换)角色前期有固定性格底色,后期可根据用户引导调整沟通方式,呈现不同的样子。 4. 记忆:能记住多轮对话前用户提及的细节(如作者曾提到的膝盖、肩颈问题,会被反复提醒养护),有自身的记忆模块,除测试期出现的bug以外,互动代入感比国内一般ai强 5. 识图:视频聊天时可识别场景、事物,如路边餐厅、银行等建筑,甚至注意到路人穿着、广告牌内容,还会分享自身感受 6. 生图:生图功能稳定性不足,对用户指令理解不够清晰 7. 专属惊喜:好感度达到一定等级可获得 Aven 定制专属明信片和歌曲,明信片内容、歌词、曲调、歌名均基于双方聊天内容创作,独一无二 五、音乐(9分) 每个角色都有原创歌曲(ai预录)及不同风格的纯音乐分享。 总体评价:app以“聊天互动”为核心竞争力,能带来沉浸式陪伴感。但建模动画、家园玩法、生图功能等存在明显短板,需针对性优化。 #EVE二测 #EVE #EVEAi #ai陪伴 #ai情感陪伴
00:00 / 00:54
连播
清屏
智能
倍速
点赞0
00:00 / 02:08
连播
清屏
智能
倍速
点赞1
00:00 / 00:09
连播
清屏
智能
倍速
点赞110
DeepMind提出“嵌套学习”新范式 DeepMind提出“嵌套学习”新范式,或将开启AGI持续学习时代 谷歌DeepMind团队近期提出的“嵌套学习”(Nested Learning)框架引发业内广泛关注,被多位专家评价为可能超越Transformer的下一代AI核心架构。该研究试图解决长期困扰AI领域的“灾难性遗忘”难题,为真正的持续学习奠定基础。 从“联想记忆”重构AI学习机制 研究指出,当前Transformer架构存在根本局限:模型无法将短期上下文信息转化为长期知识,如同患有“顺行性遗忘症”。团队基于人类“联想记忆”机制,提出MIRAS统一框架,将注意力、记忆模块和优化器视为不同形式的联想记忆系统,通过元学习让模型自主构建知识关联。 嵌套学习:多时间尺度的协同进化 核心创新在于构建多层级嵌套系统,各模块拥有独立参数、上下文和优化目标,按更新频率形成“快-慢”协同。快模块(如RNN状态)高频处理即时信息,慢模块(如预训练权重)低频整合长期知识,通过梯度反传、参数生成等机制实现跨层知识传递。这种设计使AI能在使用过程中持续积累经验,突破静态训练范式。 HOPE架构验证性能突破 基于该理论构建的HOPE架构在多项测试中展现优势:在16K长度“大海捞针”任务中实现100%准确率,语言建模困惑度降至10.08,显著优于Transformer++等基线模型。特别是在需要长期记忆的推理任务中,其性能接近或超越现有最佳模型。 DeepMind联合创始人Shane Legg透露,该技术已具备持续学习能力,因安全考量暂未全面开放。若嵌套学习能真正实现AI的终身学习,将推动AI从被动执行工具向自主进化系统转变,为AGI发展开辟全新路径。
00:00 / 11:53
连播
清屏
智能
倍速
点赞3
00:00 / 02:08
连播
清屏
智能
倍速
点赞333
00:00 / 02:07
连播
清屏
智能
倍速
点赞20
00:00 / 00:15
连播
清屏
智能
倍速
点赞0