元新闻2周前
近日,智谱发布面向开发者的致歉信,承认在GLM Coding Plan上线中存在三大问题:规则透明度不足、GLM-5灰度节奏过慢、老用户升级机制粗糙,并同步公布处理和补偿方案。 GLM Coding Plan是智谱专门为AI编程场景推出的付费订阅套餐服务,开发者订阅后,可以使用智谱提供的大模型来辅助写代码。套餐等级通常分为Lite、Pro、Max三个等级,对应不同的使用额度和模型权限。 智谱之所以致歉,正是因为其新模型GLM-5的强劲表现,致使需求暴增超出其承载能力。测试显示,GLM-5在代码能力、智能体表现等关键领域的开源模型评分中取得SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程Agent任务。 GLM-5发布次日,智谱同步上调GLM Coding Plan套餐价格,整体涨幅自30%起。GLM Coding Plan上线即售罄,这在行业中颇为罕见。 需求火热也导致GLM Coding Plan的用户体验受到影响。在致歉信中,智谱解释,其近期遭受灰产号池和黄牛党冲击,恶意占用了公司大量资源。同时,GLM-5发布后,流量超出预期,公司扩容节奏没有跟上,不得已将GLM-5按照Max、Pro、Lite的顺序逐步开放。 目前,Max用户已经全面开放,Pro用户虽已开放,但高峰期可能会因集群负载较高遇到限流,Lite用户将会在节后非高峰期逐步灰度开放。 (来源:第一财经、@张小珺 编辑:尚骏翼)
00:00 / 00:14
连播
清屏
智能
倍速
点赞20
00:00 / 00:51
连播
清屏
智能
倍速
点赞3705
00:00 / 01:08
连播
清屏
智能
倍速
点赞226
OpenClaw踩坑系列分享01-云服务部署 我折腾 OpenClaw 到现在,已经有一段时间了。 我走的并不是网上最常见、也不是最省心的那条路,而是基于腾讯云服务器,加上 GLM-5、MiniMax 2.5 这类国产模型来跑。也正因为如此,不管是运行环境,还是模型组合,都谈不上“标准答案”或“最优配置”。所以真正上手以后,我很快就发现,现实和网上刷到的那种“部署完就自然拥有一只又聪明、又通人性、又几乎全能的小龙虾”的想象,其实差得很远。 在实际折腾过程中,我遇到了非常多的问题:有些是配置问题,有些是机制理解问题,有些则是系统明明能跑、但就是不够听话、不够顺手。于是后面我做的事情,慢慢就变成了两条线同时推进:一条线是在各种 AI 工具的帮助下不断解决问题、继续往前跑;另一条线,则是反过来顺着这些问题一步步刨根问底,去理解 OpenClaw 背后的技术框架、执行链路和设计逻辑。 这个系列,就是在这样的过程中一点点写出来的。它既是一份踩坑记录,也是一次系统复盘。 前半部分主要在回答一个问题:怎么把一只虾真正养起来、养顺。也就是从云服务部署、模型接入、飞书钉钉通道、workspace、Remote SSH、外部修理工、搜索、视觉、定时任务,一路讲到最后那张总检查清单。核心都在解决同一件事:让 OpenClaw 从“能跑”走到“能用、好用、没那么容易发癫”。 后半部分则开始进入更进一步的问题:当你不只是在养一只虾,而是开始面对多群、多入口、多 Agent 的时候,到底该怎么选、怎么管、怎么避免越用越乱。 如果它能帮你少踩一些坑,少走一点弯路,或者在你下一次发懵的时候,更快判断问题到底是出在配置、机制,还是整体使用方式上,那这段折腾就算没有白费。 #openclaw #openclaw云部署 #openclaw小龙虾
00:00 / 09:03
连播
清屏
智能
倍速
点赞142
00:00 / 01:52
连播
清屏
智能
倍速
点赞29
00:00 / 00:19
连播
清屏
智能
倍速
点赞986
00:00 / 04:17
连播
清屏
智能
倍速
点赞227
00:00 / 01:24
连播
清屏
智能
倍速
点赞4
00:00 / 00:31
连播
清屏
智能
倍速
点赞11