00:00 / 01:19
连播
清屏
智能
倍速
点赞3
00:00 / 02:51
连播
清屏
智能
倍速
点赞45
瑞银在2026年4月初发布了一份基于中国102位IT高管和数据工程师的调研报告,评估了企业AI应用的现状与趋势。报告显示,生成式AI在中国企业中的部署已迈过试点阶段,正在走向规模化生产。数据显示,78%的受访企业已经实现生成式AI的落地应用。其中,51%的企业在至少一个业务职能中部署,27%的企业已在多个业务单元实现规模化生产。其余22%的企业仍处于概念验证或更早期阶段,预计平均还需要9.3个月才能达到规模化生产。值得注意的是,AI智能体被视为下一阶段的采用重点。受访企业预计,AI智能体达到规模化应用平均需要1.7年,比整体生成式AI的9.3个月更长。企业预期,未来两年内AI智能体可带来平均20%的生产力提升。报告指出,像OpenClaw这样的开源智能体框架快速普及,有望加速这一进程。在应用场景上,中美存在明显差异。中国企业更偏向客户侧应用,例如客户体验和视觉分析,这两项分别有63%和43%的受访者认为预期回报率最高。而美国企业更关注生产力工具、AI助手和开发自动化,侧重工作流提效。关于AI采用的主要挑战,不确定的投资回报率在中美市场都是首要顾虑。在中国,35%的受访者将其列为最大挑战,其他制约因素还包括系统集成复杂性、人才短缺和数据限制。但预算不足和管理层不买账并不是主要问题,说明中国企业对AI的态度总体积极。企业投入意愿明确。2025年,生成式AI相关支出占企业IT预算的平均比例为12%,约合6600万元人民币。2026年,生成式AI预算预计同比增长21%,而整体IT预算增速仅为5%。这一增速也高于美国企业的17.7%。从预算构成看,AI相关人力支出占比最高,达23%,AI基础设施和AI模型各占21%,AI软件和项目支出分别占18%和17%,反映企业在多个方向同步投资。本地化进程方面,模型层进展最快,当前本地化率达到82%,远高于AI基础设施的29%和AI基础设施软件的60%。报告认为,这得益于中国与美国在模型能力上的差距缩小,以及中国在成本效率上的结构性优势。预计2026年,AI硬件、基础设施软件和模型层的本地化率将分别提升至51%、61%和81%。在云服务商选择上,阿里云和腾讯云领先,其次是华为云和百度云。企业选择云厂商时,计算性能和安全合规排在成本之前。这解释了为何在需求旺盛背景下,主要云厂商近期敢于提价。在大模型层面,腾讯混元、DeepSeek和阿里通
00:00 / 05:51
连播
清屏
智能
倍速
点赞20
00:00 / 01:17
连播
清屏
智能
倍速
点赞780
00:00 / 10:39
连播
清屏
智能
倍速
点赞0
00:00 / 03:05
连播
清屏
智能
倍速
点赞1
00:00 / 04:25
连播
清屏
智能
倍速
点赞10
00:00 / 01:00
连播
清屏
智能
倍速
点赞NaN
00:00 / 01:25
连播
清屏
智能
倍速
点赞9
00:00 / 00:39
连播
清屏
智能
倍速
点赞55
百融开源CoDeTT评测基准 揭开语音AI"听懂"假象,40%正确率竟是蒙的: 今天,百融云创团队正式开源了CoDeTT评测基准,这是一个专门针对语音AI轮次交接能力的诊断工具。测试结果显示,当前主流全模态大模型在语音交互中,有超过40%的所谓"正确操作"实际上是蒙对的——模型根本没有真正理解用户的意图,只是碰巧做对了动作。 这个发现撕开了语音AI行业的一个系统性盲区。目前全行业评测语音交互能力,最主流的方法叫端点检测,也就是判断用户说完了没有。说完了就接话,没说完就等着。这种简单粗暴的二分类问题,只看模型做了什么,从不问为什么这么做。 CoDeTT构建了一个三层诊断体系。第一层判断系统状态,是正在说话还是等待用户。第二层确定宏观动作,是继续说、停下来听、接管发言还是忽略不理。第三层是核心——判断决策理由,设置了14种细粒度意图场景作为陷阱测试。 测试覆盖了Gemini3-Pro、GPT-4o-audio、Qwen3-Omni、MiniCPM-o-4.5等当红明星模型。专用端点检测控制器在"接管话轮"上分数很高,但在"该不该忽略"场景下直接崩盘,100次该忽略的情况只判断对了不到7次。全模态大模型看起来是优等生,但MiniCPM-o-4.5在Maintain场景下语义错位率高达55.93%,意味着超过一半的"正确保持说话"是蒙对的。 CoDeTT还发明了一个全新指标——语义错位率SMR,专门揪出那些动作蒙对了但理由完全错误的案例。没有任何一个模型的SMR低于15%,最好的Gemini3-Pro也在15%到25%之间,每5次正确操作中至少有1次是碰巧做对的。 更反直觉的是,上下文历史增加到5轮后,模型性能反而变差,尤其在打断场景下,性能下降、SMR升高。这说明模型停下来不是因为听到了打断,而是因为历史惯性告诉它该停了。 CoDeTT已在GitHub开源,包含300小时中英双语数据、18000个标注实例。百融用这项研究向行业提出了一个扎心的问题:反应快有什么用?模型根本不知道自己为什么要这样反应。
00:00 / 02:50
连播
清屏
智能
倍速
点赞0
玖洲1周前
#龙虾 #AI #人工智能 黄仁勋在GTC大会上指出,人们低估了“龙虾”,它并非AI工具,而是AI时代的新操作系统,背后是一套新的赚钱逻辑——未来数据中心将生产Token,Token可理解为AI干活的“电”,AI每执行一句话、一段代码、一个决策都会消耗Token。 AI发展路径清晰,从“能看懂”“生成内容”“能推理”到如今“能执行任务”,前三者是“动脑子”,而“龙虾”时代的AI开始“动手”,能自主操作Excel做报表、登录邮箱回邮件、操作软件剪视频,持续干活使Token消耗从线性变为指数级,过去两年AI推理计算量涨了近万倍,这意味着AI真正进入生产环节。 黄仁勋预测到2027年,这套AI体系需求至少1万亿美元。未来企业竞争拼的是“Token效率”,即同样成本下生产更多Token,本质是比谁用更少的电赚更多的钱,因为数据中心电力有限,企业最终比拼每一度电能换来的Token数量,就像过去拼人效,未来拼Token效率,企业竞争是比谁的Token更便宜。 “龙虾”重要是因为它是AI时代的操作系统,能串联模型、文件、软件,调度智能体干活,类似当年的Windows、Linux,未来是“养龙虾”替人干活,行业将被重写,公司分为Token消费者(用AI提效)和生产者(用AI提供服务),SaaS公司或变“卖智能体”的公司。 同时要注意安全,“龙虾”可访问数据、执行代码、对外通信,所以厂商在给它加安全层,如访问控制、策略引擎等,未来落地的是可控、安全的AI,否则风险极大。 对个人而言,老板的竞争对手可能已用安全龙虾当员工提升效率;打工人则需学会带龙虾干活。别再盯着模型参数和训练算力,AI已从“会说”变“会干”,Token从成本变收入,龙虾成新操作系统。
00:00 / 02:04
连播
清屏
智能
倍速
点赞5
00:00 / 01:14
连播
清屏
智能
倍速
点赞2
00:00 / 03:18
连播
清屏
智能
倍速
点赞0
00:00 / 13:00
连播
清屏
智能
倍速
点赞34
00:00 / 06:19
连播
清屏
智能
倍速
点赞0
00:00 / 00:09
连播
清屏
智能
倍速
点赞127
00:00 / 00:18
连播
清屏
智能
倍速
点赞70