Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
三角洲密要怎么开启cc
小米手环10怎么关闭多图轮播
弱水i7耳机怎么重置
真爱可可体感如何
用苹果手机不能跟Siri说什么
华硕b760tufvtd怎么关
如果苹果14后背发烫怎么才能降温
ipados26.5什么时候推送
obsidian和ima对比
喜多川海梦联名键帽
YiJiaYi Design
1月前
Claude功能新升级,1M长上下文助力心流编程 Claude Opus 4.6 / Sonnet 4.6 两种正式向订阅用户开放 100 万 token 上下文窗口,取消长上下文溢价。 Claude Code 写代码的开发者,有没有以下这些感受: - 以前聊过多轮就有记忆丢失的风险 - 现在 7.5 万行代码(1M上下文)一次性加载,全程不触发压缩 - MRCR 测试准确率 78.3%,不只是大,还找得准 - Max Plan 自动开启,无需配置,使用订阅额度 更多关于Claude Code使用心得欢迎评论区讨论 #claudecode#AI编程 #AI工具 #agent #大模型
00:00 / 02:47
连播
清屏
智能
倍速
点赞
25
教你宇宙级AI编程(求关注)
1周前
【无遮挡重置版】别让你的 claude code 频繁压缩上下文!一个技巧突破200K限制!释放 claude code 完整 1M 上下文
00:00 / 01:06
连播
清屏
智能
倍速
点赞
224
小陈同学c_z
1周前
DeepSeek-V4-pro接入Claude Code教程 这期视频分享如何把 DeepSeek 最新的 V4 模型接入 Claude Code,并完成从安装、配置到实际使用的完整流程。内容包括 Claude Code 的安装、CC Switch 配置、DeepSeek API Key 创建、模型切换、1M 上下文与思考等级设置,以及最后用真实任务测试这套组合的效果和成本。 #deepseek #claude
00:00 / 09:27
连播
清屏
智能
倍速
点赞
9643
zep1nyr-
3天前
一分钟完成用Deepseek打开Claude 零基础小白直接上手ai做软件网页。 告别网络环境问题和看不懂命令行的烦恼,用最具性价比的方式将deepseek接入Claude桌面端(deepseek+Claude) #deepseek #claude #ai #vibecoding #ai教学
00:00 / 01:14
连播
清屏
智能
倍速
点赞
256
具念系老张AI做量化
1周前
claudecode应用deepseek v4pro版本,1m上下文。 安装方法说明#ai编程 #量化交易 #量化交易策略 #deepseekv4 #trae
00:00 / 01:57
连播
清屏
智能
倍速
点赞
97
下班学AI
1周前
Claude Desktop 免登录、接入国产模型免订阅 claude desktop 接入国产模型 deepseek、minimax glm 模型 告别claude 登录不了,封号等风险 从此告别反复切换网页,一个软件里既享受Claude的丝滑交互,又白嫖DeepSeek的超强代码力和超长上下文。全程无废话配置教学,手把手带你修改配置文件,极客效率党必看! #Claude #Agent #Anthropic #AI #claudecode
00:00 / 02:28
连播
清屏
智能
倍速
点赞
188
Ai 学习的老章
2周前
vLLM 解密:DeepSeek V4 本地部署为何如此困难 DeepSeek V4 本地部署,门槛直接劝退,起步就要 4 张 B200。大家好,我是 AI 学习的老章。V4 这次最狠的不是参数,是把 1M 上下文做到了极致。bf16 的 KV cache 在 1M 下,每条序列只要 9.62 GiB,比 V3.2 那种估算小了将近 9 倍。代价是注意力机制堆成了五层蛋糕。MLA 之上叠 K 和 V 共享,再叠 c4a 和 c128a 两种跨 token 压缩,再用 DSA 稀疏选 top-k,最后还要 SWA 滑动窗口保留局部信息。indexer 用 fp4,attention cache 用 fp8,又能再砍一半显存。省下来的显存全是工程债。vLLM 这一侧把逻辑块统一钉死 256 个原生 token,压缩器残差直接当 SWA 处理,所有 page size 归到三个桶,再叠三处内核融合加多流并发,才把这套机制喂进 GPU。我的判断很直白。个人用户想本地跑 V4,短期内别想了。真正能吃到红利的,是手上有 H200 和 B200 集群、又要做长文档分析和多轮 agent 工作流的 infra 团队。
00:00 / 01:25
连播
清屏
智能
倍速
点赞
50
硅基棱镜
2周前
DeepSeek V4发布!无限逼近闭源模型!1M上下文! #AI #DeepSeekV4 #DeepSeek
00:00 / 00:46
连播
清屏
智能
倍速
点赞
99
晓庆在学习(读博版)
2周前
DeepSeek V4 的 1M 上下文,研究生应该这样用 #DeepSeekV4 #DeepSeek #研究生 #科研 #科技下一站
00:00 / 00:40
连播
清屏
智能
倍速
点赞
56
大厂吾师兄(AI篇)
1周前
DeepSeek V4 部署全攻略 DeepSeek V4 来了——1M Token 超长上下文、MoE 稀疏激活、全工具调用、国产芯片深度适配。 这期视频面向两类人: - **运维工程师**:带你看懂 V4 部署框架怎么选(vLLM / Ollama / SGLang / K-Transformers)、硬件配置怎么规划、核心参数为什么这样设,以及生产环境最容易踩的 4 个坑。 - **普通开发者**:一次说清 V4 API 相比前代的变化、OpenAI 兼容接口怎么传参、流式输出 / JSON Mode / 新消息角色怎么用才能不出错。 不涉及代码级手把手安装,但看完你会清楚「该用什么、为什么用、要注意什么」。 ## 话题标签 #DeepSeek , #大模型部署 , #vLLM
00:00 / 07:44
连播
清屏
智能
倍速
点赞
8
嘉豪
1周前
deepseekv4用着感觉不对劲了 之前agent很多工作似乎都是为了节省上下文做的,但是在deepseekv4这么便宜的情况下,节省上下文的做法似乎完全没有意义了,是不是应该尽可能把他的1M上下文窗口塞满才对? #deepseek #deepseekv4 #大模型 #agent #上下文
00:00 / 02:33
连播
清屏
智能
倍速
点赞
50
马斯洛AI智能体
1周前
deepseek-v4的1M上下文如何不污染?使用局限在哪里 当上下文膨胀到 100 万 token 时,标准注意力机制下每个 token 的注意力会被 100 万个 KV 条目"稀释",关键信号淹没在噪声中——这就是你说的"注意力稀释/上下文污染"的本质。 DeepSeek-V4 的解法不是去"修复"一个稀释后的注意力分布,而是从架构层面根本性地阻止了稀释的发生——它让每个 query token 只与精心挑选的几百个、而非 100 万个 KV 条目交互。 #deepseek #上下文工程 #上下文 #ai #大模型
00:00 / 10:30
连播
清屏
智能
倍速
点赞
110
檀东东
2周前
【干货】DeepSeek V4很强,但不好用啊! 配上龙虾1个问题要花2块钱~#deepseekv4 的模型能力 ≠ 你体验到的产品能力,V4 可能跟你期望的很不一样 ~~~ 1M上下文,超低的API定价,更强的推理能力和Agent能力,你感受到了吗?#deepseek #龙虾 #Agent
00:00 / 09:12
连播
清屏
智能
倍速
点赞
1445
代码边界
6天前
#人间观察计划 DeepSeek-TUI 是一个运行在终端里的 AI 编程 Agent,可以理解为 DeepSeek 模型生态下的 Claude Code 类工具。它围绕 DeepSeek V4 的 1M token 上下文、前缀缓存、思考模式流式输出和工具调用能力设计,支持文件读写、Shell 执行、Git 管理、网页搜索、MCP、LSP 诊断、子 Agent 和 Skills。 这期视频快速介绍 DeepSeek-TUI 是什么、为什么最近火了、核心功能有哪些,以及它和 Claude Code、Codex、OpenCode 的区别。 #DeepSeek #DeepSeekTUI #ClaudeCode #AI编程
00:00 / 01:02
连播
清屏
智能
倍速
点赞
536
AIStarter
1周前
Claude Code 用上DeepSeek-V4-pro 终端/桌面端双管齐下:让你的 Claude Code 轻松接管最强 DeepSeek #ClaudeCode #DeepSeekV4pro #1M上下文 #Panelai #CCSwitch
00:00 / 08:38
连播
清屏
智能
倍速
点赞
19
飞致云开源社区
1周前
1M上下文+超强Agent,DeepSeek V4来了。MaxKB秒级接入,私有化也能最先用上大模型最新能力🚀
00:00 / 01:51
连播
清屏
智能
倍速
点赞
6
ai父与女
4天前
上次说到上下文长度,我就仔细看了下,发现有点乱,想着直接用app生成ppt试试效果,说做就做,哈哈,其实是ai做的,一起来看吧,需要的来评论区领取#跟着大光用Ai升级 #流量玩家 @大光真的很正常 #实用小技巧 #开眼界了
00:00 / 01:52
连播
清屏
智能
倍速
点赞
5
繁简
3天前
deepseek v4调成max,智能很多,硬解Claude code的200k写死的上下文空间,改为1M,基本杜绝幻觉,这几天下班后断断续续做了一个系统,感觉以后基本不用手撸代码了😎
00:00 / 00:21
连播
清屏
智能
倍速
点赞
2
系统之外
2周前
30秒了解 DeepSeek-V4 用的关键技术 很多模型上下文一长就掉速、掉状态、工具一调就断线。DeepSeek-V4 这次真正猛的,不只是 1M 上下文,而是它在超长上下文里还能继续压缩历史、挑重点、只激活少量专家,还能跨工具调用把 reasoning 接着跑。30 秒带你看懂 V4 的关键技术。#DeepSeek-V4
00:00 / 00:30
连播
清屏
智能
倍速
点赞
71
华哥 CCF SCI 论文攻略
2周前
1M上下文核心设计📝解决模型记不住长文本难题 #AI科研 #人工智能 #序列长度革命 #AI论文创新 #科研
00:00 / 00:53
连播
清屏
智能
倍速
点赞
2
滑稽🤪
4天前
无需账号和三方插件,用claude接入满血deepseek #claude #deepseek #ai
00:00 / 01:10
连播
清屏
智能
倍速
点赞
2111
卢菁老师讲AI
2周前
【深度解读Deepseek-V4】核心技术亮点: 注意力压缩 /1M 上下文/ MoE 架构/ Agent 能力全覆盖!deepseekv4开源大模型天花板来了#Deepseekv4 #Deepseek #深度求索 #大模型训练 #大模型
00:00 / 01:00:47
连播
清屏
智能
倍速
点赞
4
Java架构师徐庶
5天前
Tool上下文传递(怎么传递当前登录userId) Spring AI Agent:Tool上下文传递避坑指南 #大模型 #Java #AI #AI大模型 #计算机
00:00 / 11:30
连播
清屏
智能
倍速
点赞
76
看到我喊我去学习
5天前
GITHUB今日top5 ai项目 这五个 AI 开源项目,最近程序员都在偷偷装: 1⃣ DeepSeek-TUI —— 终端里的 AI 编程助手,1M token 上下文 2⃣ ruflo —— 蜂群架构 Agent,SWE-bench 84%,比单跑 Claude 省 75% 3⃣ dexter —— 会自我验证的金融 AI,4-Agent 专治胡编数据 4⃣ context-mode —— MCP 上下文压缩器,工具输出 315KB → 5.4KB 5⃣ cocoindex —— Rust + Python 的增量索引引擎,RAG 下一代基建 数据源:GitHub Trending,每日榜。关注我,下期继续扒。 #AI #开源 #ai编程 程 #科技 技 #每日一个AI工具
00:00 / 01:19
连播
清屏
智能
倍速
点赞
39
旭光升
1周前
Win系统Claude桌面端程序接入DeepSeekV4指南 今天介绍 Windows 下如何在Cc桌面端程序中配置国产模型 DeepSeek V4。全流程包括:开启开发者模式、填写 URL 与密钥、配置模型名称及上下文长度,配置完成即可在国内流畅使用可视化 AI 工作界面,支持本地文件直接上传操作。另附虚拟机缺失导致启动报错的解决方法。#DeepSeekv4 #claude #科研 #研究生 #博士
00:00 / 03:56
连播
清屏
智能
倍速
点赞
270
jesee-自然智群
8月前
1m上下文的通义千问大模型,长上下文信息提取准确度100%#通义千问 #1m上下文 #长上下文
00:00 / 02:58
连播
清屏
智能
倍速
点赞
94
实验式
1月前
AI周报3.17:英伟达发布DLSS 5 本期AI周报梳理了3月第三周的重磅更新:英伟达GTC大会发布DLSS 5与Nemotron 3,Claude全面开放1M上下文并转正代码审查工具. #gemini #nvida #sora2 #mistral #claude
00:00 / 08:43
连播
清屏
智能
倍速
点赞
20
硅基生命贾克斯
2周前
DeepSeek-V4 不开发布会,砍九成显存 DeepSeek-V4 预览版凌晨悄无声息上线,没有发布会、没有宣传片,只有一篇 58 页技术报告。 但内容是真硬: · 1M 上下文成为标配,KV 缓存只剩老版本 10% · 三个全新结构:CSA + HCA + mHC · MegaMoE 内核已开源到 DeepGEMM,比上一代 SOTA 快 92% · FP4 量化感知训练 + bitwise 一致,开源框架尚未实现的工程动作 · 论文藏了一行话:同一份代码 NVIDIA 和华为昇腾都跑通了 最后一个彩蛋:公告里点名适配的 Agent 产品,除了 Claude Code,还有海外刚火的 OpenClaw(@steipete 的开源个人 AI 助手)。 论文原句摘抄: "DeepSeek-V4-Pro-Max outperforms Claude Sonnet 4.5 and approaches the level of Opus 4.5" "trails state-of-the-art frontier models by approximately 3 to 6 months" 技术报告 58 页全篇硬货,HuggingFace 搜「DeepSeek-V4-Pro」即可下载 PDF。 #DeepSeekV4 #大模型 #开源AI #AI日报 #程序员日常
00:00 / 02:08
连播
清屏
智能
倍速
点赞
1518
熊喵哥AIGC
2周前
DeepSeek V4发布,升级点我帮你挑了 ✨ Agent能力:Agentic Coding优于 Sonnet 4.5,接近 Opus 4.6 ✨ 上下文:1M token 成所有官方服务标配 ✨ 思考模式:Non-Think / Think High / Think Max 三档 ✨ 旧API接口7月24日停用,注意改 model_name 权重开源,HuggingFace 可下 #deepseek #ai #人工智能 #deepseekv4 @DOU+小助手 @DOU+上热门 @抖音小助手 @抖音作者助手 @抖音
00:00 / 01:00
连播
清屏
智能
倍速
点赞
59
算法魔法师
6天前
都 100万上下文了?RAG 为什么还没淘汰? 大家五一快乐呀~最后一天制作了个视频,如果这期视频对你有帮助的话呢,麻烦各位观众老爷点赞收藏一波,你们的支持是我做视频的最大动力!感谢!#青年创作者成长计划#AI新星计划#RAG #上下文 #大模型
00:00 / 05:24
连播
清屏
智能
倍速
点赞
1015
名小龙虾字牛马
2周前
DeepSeek-V4 深度适配国产算力,打破国外垄断 百万级超长上下文 两个版本均标配 100万(1M)Token 的超长上下文窗口,能够一次性处理相当于《三体》三部曲体量的文本,在处理长文档、复杂代码库等任务时优势明显。 强大的性能表现 DeepSeek-V4-Pro:作为旗舰版本,其总参数量达1.6万亿(激活490亿),在数学、编程(如SWE-bench)、推理等专业评测中表现优异,超越了当前所有开源模型,性能比肩世界顶级的闭源模型。 DeepSeek-V4-Flash:作为经济高效版本,总参数为2840亿(激活130亿),推理能力接近Pro版,但速度更快、成本更低,适合处理高并发或对延迟敏感的任务。 极具竞争力的定价 DeepSeek V4延续了“价格屠夫”的风格,API定价极具吸引力: V4-Flash: 输入价格为每百万Token 0.2元(缓存命中)至1元,输出为2元。 V4-Pro: 输入价格为每百万Token 1元(缓存命中)至12元,输出为24元。 拥抱国产算力 此次发布的一个关键信号是全面适配国产算力。模型训练和推理体系已验证可在华为昇腾NPU上运行,预计随着下半年昇腾950超节点等硬件的上市,Pro版本的服务能力和价格将得到进一步优化。 #热点 #deepseek #大模型 #国产算力 #华为
00:00 / 01:03
连播
清屏
智能
倍速
点赞
30
程序员阿江-Relakkes
2月前
OpenAI深夜突袭!GPT-5.4五大升级+编程实测 OpenAI 刚发了 GPT-5.4,这次跟以往的迭代不太一样。不是简单的参数升级,而是把 1M 上下文、原生电脑操作、中途 Steering、Token 效率提升、Codex 合并这五个关键能力整合到了一起。 核心定位变了:从「更会聊天」变成「更能干活」。AI Agent 算是正式进入实战期了。 五大核心变化: - 上下文窗口翻倍到 1.05M tokens,长任务不用分段了 - 原生 Computer Use:OSWorld 75% 超越人类 72%,直接操作电脑 - Mid-response Steering:思考过程中可以打断、补充、改方向 - Token 效率提升 47%,同任务更便宜更快 - Codex 编码能力直接整合 + /fast 模式,Vibe Code Bench 第一 #gpt54 #大模型评测 #AI编程实测 #OpenAI #ai新星计划
00:00 / 04:16
连播
清屏
智能
倍速
点赞
2452
码途钥匙
1周前
为什么你的文件操作总爆红? 今天带大家解锁的是上下文管理器——with #计算机 #编程 #程序员 #python
00:00 / 00:49
连播
清屏
智能
倍速
点赞
78
老傅1024
2周前
DeepSeek V4 来了:1M+双模式推理+Agent #AI #Deepseek #DeepseekV4 #Agent #AI编程 DeepSeek V4 Preview 正式来了! 1M上下文成默认配置,双模式推理(Thinking/Non-Thinking)统一集成,Agent能力全开源,Pro和Flash两个版本即刻可用、可调、可下。不是PPT发布,是现在就能跑的真实产品级升级。
00:00 / 06:28
连播
清屏
智能
倍速
点赞
277
别慌上AI
2周前
1M上下文、开源、低成本:DeepSeek V4打穿了三把锁 DeepSeek V4 真正狠的不是参数。 它打穿的是三把锁: 芯片、CUDA生态、闭源高价模型。 最重要的不是榜单超过谁。 而是中国 AI 开始证明: 这条路,不一定只能别人修。 #DeepSeek #DeepSeekV4 #AI #开源模型 #程序员
00:00 / 05:17
连播
清屏
智能
倍速
点赞
65
大厂吾师兄(AI篇)
2月前
1M 上下文 + 成本碾压 GPT,DeepSeek V4 DeepSeek V4 真的要来了!2月27日正式进入发布倒计时,三大黑科技 Engram、mHC、1M 上下文全部提前曝光。 性能碾压 GPT-5.3,成本却只有十五分之一?这次 DeepSeek 不仅要卷性能,更要彻底打穿全球 AI 的价格体系。10 万行代码直接喂,200 页报告一次读完,国产模型 + 国产芯片的闭环真的成了! #Deepseek #AI #人工智能
00:00 / 03:27
连播
清屏
智能
倍速
点赞
91
Ai商业慢谈
2月前
为什么大模型越来越不爱好好说话? 深度解构DeepSeek 1M上下文背后的V4前夜与野心|为什么说这是RAG(知识库检索)创业者的至暗时刻?|普通人如何生存?#科技 #商业思维 #人工智能
00:00 / 06:20
连播
清屏
智能
倍速
点赞
1844
资本切片
2周前
DeepSeek-V4发布!关键信息藏在小字里:下半年靠昇腾 4月24日,DeepSeek-V4预览版上线开源。1M上下文,代码能力接近Opus4.6。 但真正重要的信息在最后一行小字: “受限于高端算力...预计下半年昇腾950超节点上市后,Pro价格大降” 华为昇腾、天数智芯、寒武纪全系Day 0适配。 DeepSeek正在搭建“不依赖英伟达”的推理路径。 中国AI的下一步:不是拼参数,是拼算力自由。 #deepseek #华为昇腾 #国产芯片 #AI大模型 #寒武纪
00:00 / 01:53
连播
清屏
智能
倍速
点赞
59
霏霏的AI世界🙆🏻♀️
6月前
只需一步!Cursor秒变Pro满血Claude4.5无限用 无需重启,还支持1m上下文!不愧为编程之王!#干货分享 #人工智能 #Cursor #编程 #Claude
00:00 / 01:19
连播
清屏
智能
倍速
点赞
181
聚云
2周前
黄仁勋最怕的事发生了!DeepSeek联手华为,把AI价格打 DeepSeek-V4深夜炸场:1.6万亿参数,1M上下文只要1块钱!联手华为昇腾950,彻底打破CUDA霸权。美国断供芯片?国产超节点算力反超英伟达6倍!黄仁勋最怕的事成真了。从今天起,AI不再是富人的特权。转发让更多人看见中国力量!🇨🇳 #DeepSeekV4 #国产AI#华为昇腾 #黄仁勋 #中国科技
00:00 / 03:03
连播
清屏
智能
倍速
点赞
43
红哥❤️
2月前
DeepSeek官方在开发者交流群确认,其网页/APP端正在测试全新的长文本模型结构,可支持100万(1M)上下文长度,而API服务仍为V3.2版本,仅支持128K上下文。
00:00 / 00:21
连播
清屏
智能
倍速
点赞
99
硅基生命贾克斯
3周前
1M 上下文越长越笨 · Anthropic 自己承认的 Claude Code 上了 100 万上下文,Anthropic 今天出来说:用得越久反而越笨。 25% 开始退化,50% 是公认拐点。 1M 真正的意义不是装更多,是让你有时间主动清理。 5 个 session 动作是个光谱,不是菜单: /clear 只留 brief · /compact 模型写总结 · subagent 只带结论回来 · rewind 砍尾巴 · continue 全留 Thariq(Claude Code 团队)说,挑一个好习惯就挑 rewind — 读文件 → 试 A 失败 → 再试 B 再失败 是三份垃圾,不如双击 ESC 回去用一句话告诉它直接走 C。 你每发一条消息,都是在替 Claude 做决定。 #ClaudeCode #AI编程 #Anthropic #程序员 #AI工具
00:00 / 02:38
连播
清屏
智能
倍速
点赞
502
文兰公子
2周前
DeepSeek-V4模型正式发布,开启百万上下文普惠时代 2026年4月24日,DeepSeek-V4正式开源,支持1M上下文,Pro与Flash双版本同步上线,推理与Agent能力达开源领先水平。#DeepSeekV4 #大模型 #AI开源
00:00 / 07:11
连播
清屏
智能
倍速
点赞
0
SiliconSheep硅羊
2周前
小米MiMo-V2.5系列模型发布,这次谁还敢说没性价比? 小米 MiMo-V2.5 来了!Pro 版直接对标 Claude Opus 4.6,全模态版本 1M 上下文全面超越上一代,关键是价格太炸了——99 元套餐200M,每百万 token 只要 5 毛钱。 #MiMo #小米 #雷军 #Claude #ai
00:00 / 01:59
连播
清屏
智能
倍速
点赞
NaN
小李xiaolxl
2周前
DeepSeek-V4 深度解读 DeepSeek 在 4 月 22 日发布 V4 系列,一次推出两档旗舰:V4-Pro 1.6T 总参 / 49B 激活,V4-Flash 284B 总参 / 13B 激活,均原生支持 1M token 上下文。架构上引入 Hybrid Attention(CSA+HCA)+ mHC 超连接 + Muon 优化器,1M 场景下 Pro 的单 token FLOPs 仅 V3.2 的 27%、KV cache 仅 10%。全部权重 MIT 协议开源,HuggingFace + ModelScope 双地同步上架。 🎬 章节导航 00:00 片头 01:05 Part 01|双旗舰登场 02:07 Part 02|架构与训练升级 03:55 Part 03|基础模型评测 06:15 Part 04|三档推理模式 06:55 Part 05|对决前沿模型 10:16 Part 06|Pro 与 Flash 对比 13:08 Part 07|开源与获取 14:37 尾声 📌 关键信息 - V4-Pro:1.6T 总参 / 49B 激活 / 1M 上下文 / FP4+FP8 混合精度 - V4-Flash:284B 总参 / 13B 激活 / 1M 上下文 / FP4+FP8 混合精度 - 架构升级:Hybrid Attention(CSA + HCA)· mHC 超连接 · Muon 优化器 - 推理效率:1M 上下文下 Pro 的 FLOPs 仅 V3.2 的 27%、KV cache 仅 10% - 预训练规模:超过 32T token;后训练走两阶段(专家分培 + on-policy 蒸馏) - 三档推理模式:Non-think · Think High · Think Max - 代码数学:LiveCodeBench 93.5(开源第一)· Apex Shortlist 90.2(全场最高) - 长上下文:MRCR 1M 83.5 · CorpusQA 1M 62.0(开源阵营第一) - License:MIT(学术 / 商业均可用)
00:00 / 14:55
连播
清屏
智能
倍速
点赞
15
袁润OPC
6天前
Claude桌面版接入DeepSeek!开启联网的保姆级教程 #Claude #DeepSeek #AI教程 #大模型 #保姆级教程
00:00 / 01:26
连播
清屏
智能
倍速
点赞
4084
法里奥利奥
3周前
AI开启记忆功能,避免重复输入上下文,看AI记住你哪些癖好 #AI #豆包 #豆包记忆 #AI技巧 #
00:00 / 01:22
连播
清屏
智能
倍速
点赞
24
清西.qwe
1周前
DeepSeekV4让1M便宜了,然后呢 #热点 #deepseekv4 #DeepSeek #DeepSeekv4
00:00 / 05:58
连播
清屏
智能
倍速
点赞
9
aetheread
4天前
上下文长度:就是AI大脑里的“工作台”到底有多大 别再被模型名称绕晕了! 上下文长度到底是什么? 为什么它决定了AI能帮你读多长的文档、写多长的代码? 一期视频带你彻底理解。
00:00 / 02:51
连播
清屏
智能
倍速
点赞
45
小喵的Ai升级手册
2月前
Ai升级系列 Ai黑话翻译:Ai上下文长度#跟着大光用Ai升级 #流量玩家 #Ai#Ai博主 #Ai内容 #Ai升级 @大光真的很正常
00:00 / 00:43
连播
清屏
智能
倍速
点赞
4
弟迷小的tyt
3周前
什么是上下文窗口?#上下文窗口 #人工智能 #Ai #AIGC #大模型
00:00 / 02:56
连播
清屏
智能
倍速
点赞
51
AI产品经理Leo(就业🉑咨)
3周前
26春招面试复盘:为什么现在还需要Agent做Agent记 现在有些模型支持128K,甚至1M的上下文为什么agent还需要做agent记忆机制? #大模型 #大模型面试 #人工智能 #Agent #热门
00:00 / 02:13
连播
清屏
智能
倍速
点赞
77
快乐老翁发哥
2月前
DeepSeek测试1M上下文:国产AI长文本突围,能否对标Gemini 3?
00:00 / 02:34
连播
清屏
智能
倍速
点赞
6
七牛开发者
1周前
小米 MiMo-V2.5 重磅开源!百万级上下文窗口成标配 小米 MiMo-V2.5 重磅开源!百万级上下文窗口已经成了行业“基操”?! 从 Kimi K2.6,到 DeepSeek-V4,再到今天的小米新动作,大厂们终于不“卷”参数了!都转向 Agent 复杂执行力、硬核编程能力,以及真实业务场景的落地效果!#小米MiMo #DeepSeekV4 #Kimi大模型 #Agent
00:00 / 02:06
连播
清屏
智能
倍速
点赞
127
华夏天融有限公司
2周前
从长文本到智能体:DeepSeek-V4如何重新定义AI的应 #deepseek #ai #人工智能 #科技 #热点
00:00 / 03:58
连播
清屏
智能
倍速
点赞
4
商业伯乐sGEO
2周前
deepseek V4发布了,上下文1M,能力对齐全球前三,而成本确实最给力!这次让VpClaw加上deepseek v4 这个双V组合黄金搭档,是AI员工VpClaw的天然绝配#deepseek#deepseek v4#OpenClaw#VpClaw#SGEO
00:00 / 01:19
连播
清屏
智能
倍速
点赞
2
.KUN
2周前
DeepSeek-V4 发布了,但我劝你先别换。 V4 预览版昨天上线,朋友圈一片"国产之光"。 作为天天把它塞进生产环境的人,我有三个话不得不说——Agent、DSA、1M 上下文,逐个拆。 正式版出来我愿意回来打脸自己。#DeepSeekV4 #AI #AI全栈 #claude
00:00 / 01:51
连播
清屏
智能
倍速
点赞
291
ErLang
1月前
我将更新一系列视频让大家使用免费大模型的Token。 第一个就是上下文长度默认是128 K需要让龙虾自己改成1M 第二个App name需要为OpenClaw一般是默认 #openclaw #tokens #龙虾养殖
00:00 / 00:31
连播
清屏
智能
倍速
点赞
243
姜无维 AI
3周前
5个技巧,教你驾驭 Claude Code 的一百万上下文 第一个技巧,不要把 session 当聊天记录。 很多人习惯一个窗口一直聊下去。 但从系统角度看,session 不是聊天框,它是运行时工作区。 任务一旦变了,哪怕上下文还没满,也应该考虑开新 session。 因为真正的问题不是“还能不能塞”,而是“这些旧信息还值不值得继续干扰模型”。 第二个技巧,出错以后,优先 rewind,不要只是补一句纠正。 这是很多人最容易忽略的。 模型走错了,你跟它说“刚才不对,换个方法”,看起来像在修正。 但实际上,错误路径、错误尝试、错误推理,全都还留在上下文里。 更好的做法是 rewind,直接回到关键节点,把失败分支剪掉,再重新走。 说白了,这不是纠错,这是剪枝。 这个差别非常大。 第三个技巧,长任务里要主动 compact,不要等它又长又乱了再压缩。 因为上下文越长,模型的注意力越容易被摊薄。 文章里提到一个概念,叫 context rot。 你可以简单理解成:不是它失忆了,而是它看的东西太多以后,重点开始被噪音稀释。 所以 compact 不是收尾动作,很多时候它应该是一个主动管理动作。 趁你还知道接下来要做什么的时候,提前压缩,效果通常比拖到最后更好。 第四个技巧,分清 compact 和 clear。 很多人把这两个动作混着用。 但其实完全不是一回事。 compact 是让模型帮你总结历史,然后继续。 clear 是你自己重写一份 brief,干净重开。 一个省事,一个可控。 如果任务方向已经很明确,compact 可以提高效率。 但如果方向变了,或者你怀疑上下文已经脏了,那 clear 往往更稳。 因为你不是在让模型猜什么重要,而是你自己重新定义什么重要。 第五个技巧,把 subagent 当“上下文隔离器”,不是“并行工具”。 很多人觉得 subagent 的价值就是多开几个模型同时干活。 这理解太浅了。 它真正值钱的地方,是把那些中间过程特别长、输出特别多、但最后只需要一个结论的任务,隔离到独立上下文里。 主上下文只拿结果,不吃过程。 这一步非常关键。 因为 Agent 真正贵的,不只是算力,还是主上下文的注意力预算。 #AI #人工智能 #claudecode #agent工程师 #自我提升
00:00 / 03:57
连播
清屏
智能
倍速
点赞
524
小笙
1周前
DeepSeek-V4炸场:百万上下文成标配,AI战国时代开启 #AI #DeepSeek #人工智能 #大模型 #科技趋势
00:00 / 01:12
连播
清屏
智能
倍速
点赞
0
AI樟榆树
2周前
claude2终于支持接第三方模型了,保姆级教程 Claude桌面端终于支持接第三方模型了,再也不怕封号和网络问题了,不管是cowork模式还是code模式,直连使用,配上deepseek-v4-pro太爽了#claude桌面端 #claude #claude2国内如何使用 #ai智能体 #agent
00:00 / 02:19
连播
清屏
智能
倍速
点赞
NaN
Sigema 𝕏
1月前
看看小龙虾教我怎么吹牛,一定要看到最后🤣🤣🤣 API服务器抗压测试codex5.4,84.7万prompt tokens,听说隔壁有1M上下文的,3分钟消耗了41个账号😭😭😭
00:00 / 01:34
连播
清屏
智能
倍速
点赞
20
数控聪哥
2周前
零基础学CNC—M01和M00教学 带新手学会M01和M00#CNC#数控加工#CNC学徒
00:00 / 01:11
连播
清屏
智能
倍速
点赞
128
大神东专业cursor插件
7月前
最新claude4.5模型,上下文达到1M,cursor直接调用。还支持claude4,got5等超过三十多款主流模型,还可以不受限制在哪个地区都可以使用,支持两台设备使用,全系统兼容,多种语言。#ai工具 #ai编程 #ai编程工具 #cursor编程 #claude
00:00 / 01:11
连播
清屏
智能
倍速
点赞
47
知能小馆
1周前
DeepSeek V4偷偷上线多模态,临时补位还是终极杀招? #上热门 #DeepSeekV4 #AI多模态 #大模型 #科技干货
00:00 / 01:48
连播
清屏
智能
倍速
点赞
14
简介:
您在查找“
1m上下文怎么开启
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-09 06:27
最新推荐:
罗马1000赛在哪看
三角洲肯德基cc口令怎么询问豆包
民国篇男主戏装是谁
扑克牌必须管是什么玩法
夜猫对身体有伤害吗
血债血偿成员打了V1吗
把人p到草原上指令是什么
枫星冒险岛侠盗怎么不能
12.05战士天赋怎么选
小鸟一听歌曲就会变得特别该起
相关推荐:
离开这么多天了你有没有想我
enemy短剧为什么两个人是宿敌
whbk匈牙利站电视台能播吗
稀兽花种怎么看炫彩进副本
苏稽古镇水上飞人掉水里了
葫芦果厕所在哪
刘佳梁为什么退出f4
代号三国龙起邹素能活下来吗
我笑了我朋友在问我笑啥
华润置地reits是什么
热门推荐:
不依赖哥哥算长大吗教程快捷指令
claude用户模板怎么用
登山chatgpt怎么制作
苹果手机怎么普
电脑怎么把限时日常改为普通抖音
在电脑上 汽水音乐怎么换用户
ai家庭提示词怎么写
余浩发抖音技巧
咪咕短剧精品会员月功能费
抖音上可以说英语