Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
乐事君smp服务器怎么存活下来
codex流式传输newapi教程
异环up用什么驱动
chatgpt画海报指令大全
llama.cpp安装cuda
image2需要vn吗
gpt怎么出电商套图
codex送token方式
千问code姐api好用吗
ooenclaw怎么添加阿里云模型
kate人不错
4月前
小米MiMo-V2-Flash技术解读+实测 小米推出了 MiMo-V2-Flash 模型!这是一个专为长上下文推理、Agent场景设计的高性价比AI模型。 核心亮点: - 总参数309B,激活参数仅15B(MoE架构) - 训练数据量高达27T tokens - 支持256K超长上下文 - 64K检索成功率达99.9% - 价格比DeepSeek V3.2还要便宜! 本期视频我将带大家: 1. 了解MiMo-V2-Flash技术报告 2. 了解混合注意力、MTP、MOPD等核心技术 3. 实测网页生成、ASCII艺术、文本创作等多种任务 适合人群:AI开发者、对大模型感兴趣的朋友、想找高性价比API的用户 --- 时间戳 0:00 技术报告拆解 3:07 实测 #mimo #mimov2flash #小米AI #小米大模型
00:00 / 07:53
连播
清屏
智能
倍速
点赞
190
小工蚁
2年前
Flash-Decoding长上下文LLM推理速度提8倍 #小工蚁
00:00 / 04:40
连播
清屏
智能
倍速
点赞
137
胜拓~汽车电子
1年前
发动机电脑PFLASH与DFLASH的作用
00:00 / 02:05
连播
清屏
智能
倍速
点赞
694
IT老王
5月前
DDD第5期|搞懂限界上下文,DDD就通了一大半了 #DDD #程序员 #架构
00:00 / 09:26
连播
清屏
智能
倍速
点赞
675
郝炟dá
7月前
雅思口语满分过来人,手把手带你练口语。用最口语化的素材,练最完整的表达。@杜克环游世界 #英语口语 #vlog日常 #干货分享 #英语
00:00 / 04:32
连播
清屏
智能
倍速
点赞
7768
GitHubStore
3周前
DFlash专为M系列芯片优化,Mac用户本地跑模型再也不卡 ✅ Qwen3.5-4B:53→219 tok/s(x4.10) ✅ Qwen3.5-9B:31→127 tok/s(x4.13) ✅ 27B/35B量化模型也1.7-1.9x提速 ✅ Block-diffusion一次生成16 token,一次验证,100% lossless #LLM #大模型 #Qwen #推理
00:00 / 00:41
连播
清屏
智能
倍速
点赞
18
肝帝AI
9月前
更快的Qwen3-Coder来啦 千问3半夜炸塘,发布极速版Qwen3 Coder,全称Qwen3 Coder Flash 包含3个特性:1,超强的Agent能力;2,超长上下文;3,已经正式开源。 RTX4090、RTX5090都可以跑 #qwen3 #通义千问 #ai编程 #qwen3coder #大模型
00:00 / 00:43
连播
清屏
智能
倍速
点赞
330
我是Penrose
1周前
DeepSeek V4 Preview 已发布,本次更新同时带来 V4 Flash 和 V4 Pro 两个版本,并支持百万级上下文能力。 #DeepSeek #DeepSeekV4 #ClaudeCode #Agent
00:00 / 02:28
连播
清屏
智能
倍速
点赞
40
AI信息差
1周前
DeepSeek V4版本对比与选型指南 本视频对比分析DeepSeek V4-Pro与V4-Flash两大版本的参数规模、智力表现及Agent能力。深入探讨V4-Pro在编程逻辑与长上下文处理上的优势,并提供针对不同任务场景的档位选择指南。#DeepSeekV4 #大模型评测 #开源模型 #AI编程
00:00 / 02:41
连播
清屏
智能
倍速
点赞
16
杨大哥
1周前
DFlash-大模型推理加速框架
00:00 / 01:54
连播
清屏
智能
倍速
点赞
702
橙色溪流
2周前
推理速度飙升6倍🚀DFlash持续爆火🔥 在Qwen3-8B上实现6倍的无损加速 。 在多数任务中,速度比 EAGLE-3快出 2.5 倍。 一个 5 层的 DFlash 模型生成 16 个 token 的延迟,甚至低于 1 层的 EAGLE-3 生成 8 个 token 的延迟 。尽管草拟模型极轻量,但最终输出由大模型严格验证,确保生成质量完全无损。 DFlash 的核心突破在于将扩散模型引入推测解码的“草拟”阶段。 • 从“串行”到“全并行”: 传统的自回归草拟模型是一个一个生成 token,而 DFlash 采用轻量级的块扩散模型,仅需单次前向传播即可并行生成一整块 token 。 • KV 注入技术: 不同于 EAGLE-3 仅在首层输入特征,DFlash 将融合后的目标模型特征注入到草拟模型的每一层 KV 缓存中 。这种设计防止了信号稀释,使得预测准确率(接受率)随模型深度增加而有效提升 。 目前已支持多种推理引擎和模型。部署方式已公开,快去试试吧。 #抖音科技风向标 #普通人在ai时代 #dflash #本地大模型 #hermesagent
00:00 / 00:47
连播
清屏
智能
倍速
点赞
4025
OpenClaw俱乐部
1周前
DeepSeek V4百万上下文极限能力实测!180万行源码 实测最新 DeepSeek V4 Pro 百万超长上下文模型,三大硬核场景深度验证:180 万行 OpenClaw 源码全量审计、3万 + 交易用户数据全盘分析、一键生成可直接演示的合同回款管理系统。多 Agent 协同作业,全程仅花费 37.15 元,对比实测碾压同类大模型,直观感受国产顶尖大模型的超强推理与落地能力。#DeepSeek #OpenClaw #代码测评 #大数据分析 #代码
00:00 / 11:40
连播
清屏
智能
倍速
点赞
10
AI逐风
1周前
DeepSeek V4发布! 百万字超长上下文,在 Agent 能力、世界知识和推理性能三大维度上均实现了国内与开源领域的领先。#deepseekv4 #deepseek
00:00 / 01:15
连播
清屏
智能
倍速
点赞
29
元叔说AI
1周前
性价比之王deepseekV4flash 我的小程序项目已经都改成v4 flash了,整体效果还是非常不错的。 #deepseekv4 #大模型 #程序员 #独立开发者 #网站开发
00:00 / 01:02
连播
清屏
智能
倍速
点赞
40
Ai 学习的老章
2周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
490
FangBro_Talks
1周前
Deepseek-V4接入Claude Code新手配置教程 零基础,3分钟搞定!Deepseek-V4接入Claude Code新手配置教程(新手完全指导教程)!#claude #claude使用方法 #claudecode #ai #ai工具
00:00 / 07:23
连播
清屏
智能
倍速
点赞
304
李龙龙
1周前
顶尖Agentic能力+1m上下文,霸榜开源模型 DeepSeek V4终于来了!这次不是升级,是一次换代:万亿级参数、原生多模态、百万级上下文,还全面适配国产算力。更关键的是,在性能接近甚至对标Claude、Gemini的同时,成本大幅下降,直接把AI门槛拉低。开源+高性能,这波国产大模型,是真的要改写全球AI格局了 #deepseekv4 #国产大模型发展 #ai技术科普 #国产ai崛起 #科技资讯分享
00:00 / 04:17
连播
清屏
智能
倍速
点赞
1
巴索罗米拆
2周前
Claude Code5 条命令,提升上下文管理#AI #Claude #Context #Rewind #Subagents
00:00 / 04:19
连播
清屏
智能
倍速
点赞
8
名小龙虾字牛马
1周前
DeepSeek-V4 深度适配国产算力,打破国外垄断 百万级超长上下文 两个版本均标配 100万(1M)Token 的超长上下文窗口,能够一次性处理相当于《三体》三部曲体量的文本,在处理长文档、复杂代码库等任务时优势明显。 强大的性能表现 DeepSeek-V4-Pro:作为旗舰版本,其总参数量达1.6万亿(激活490亿),在数学、编程(如SWE-bench)、推理等专业评测中表现优异,超越了当前所有开源模型,性能比肩世界顶级的闭源模型。 DeepSeek-V4-Flash:作为经济高效版本,总参数为2840亿(激活130亿),推理能力接近Pro版,但速度更快、成本更低,适合处理高并发或对延迟敏感的任务。 极具竞争力的定价 DeepSeek V4延续了“价格屠夫”的风格,API定价极具吸引力: V4-Flash: 输入价格为每百万Token 0.2元(缓存命中)至1元,输出为2元。 V4-Pro: 输入价格为每百万Token 1元(缓存命中)至12元,输出为24元。 拥抱国产算力 此次发布的一个关键信号是全面适配国产算力。模型训练和推理体系已验证可在华为昇腾NPU上运行,预计随着下半年昇腾950超节点等硬件的上市,Pro版本的服务能力和价格将得到进一步优化。 #热点 #deepseek #大模型 #国产算力 #华为
00:00 / 01:03
连播
清屏
智能
倍速
点赞
30
Y.Ai
1周前
#dflash #ai #turboquant #本地部署 #openclaw
00:00 / 02:54
连播
清屏
智能
倍速
点赞
624
大鲸AI
1周前
百万上下文免费了!DeepSeek V4炸场 。以前我们担心被卡脖子,现在轮到闭源大厂担心被国产开源大潮“没收”用户了。你觉得百万上下文的AI会怎么改变你的工作?你会试用DeepSeek V4吗?在评论区告诉我。#DeepSeek #国产AI #人工智能 #开源模型 #百万上下文 #Claude #GPT #华为算力 #科技趋势 #AI芯片 #工程效率
00:00 / 01:46
连播
清屏
智能
倍速
点赞
10
AI日日报
1周前
DeepSeek V4 来了,1M 上下文成标配 DeepSeek V4 预览版上线并开源:1M 上下文、Pro/Flash 双版本、Agent 编码能力升级。旧模型名 7 月 24 日停用,你会切到 V4 吗?评论区聊聊。 #DeepSeek #DeepSeekV4 #开源模型 #人工智能 #AI编程
00:00 / 00:51
连播
清屏
智能
倍速
点赞
5
弟迷小的tyt
2周前
什么是上下文窗口?#上下文窗口 #人工智能 #Ai #AIGC #大模型
00:00 / 02:56
连播
清屏
智能
倍速
点赞
51
南晓柯
1年前
10分钟本地搭建DifyDeepSeek R1知识库应用。小白也能学会的Ollama + DeepSeekR1+Dify+知识库本地应用搭建入门教程, 对网上查不到的私有化数据进行检索和提炼,突破LLM上下文长度限制,获取更准确的回答。 新的一年让我们来学习新知识吧! 希望点赞收藏支持,我会有更多动力做更好的内容呈现给大家! 视频中用到的所有link和命令贴到评论区了,大家用vx识别图中文字即可复制使用哦 #如何用deepseek #干货分享 #人工智能 #deepseek使用指南 #本地部署
00:00 / 17:40
连播
清屏
智能
倍速
点赞
173
全网AI神器合集
1周前
AI圈炸了!DeepSeek-V4预览版来了!🚀 100万字超长上下文直接普惠开源 Pro对标顶级闭源,Flash极致性价比 代码、推理、长文本直接拉满 国产开源大模型,真的站起来了! #DeepSeekV4 #AI大模型 #开源AI #超长上下文
00:00 / 00:46
连播
清屏
智能
倍速
点赞
1
AI技能教学网
2周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
230
Vuk 武克
1周前
DeepSeek V4架构解析教程 这期视频拆解 DeepSeek V4 的核心架构设计,重点讲它为什么能在超长上下文下把计算和显存成本压下来。内容包括 100 万 token 上下文、MoE、超连接、压缩稀疏注意力、Muon 优化器、FP4 量化,以及训练稳定性和后训练方案。 章节: 0:00 DeepSeek V4 架构总览 0:12 模型规模与 100 万 token 上下文 0:54 超连接与压缩稀疏注意力 2:15 Mega Kernel、FP4 与训练效率 3:29 训练稳定性、蒸馏与智能体编程
00:00 / 05:03
连播
清屏
智能
倍速
点赞
3
费雪研究
1周前
4月24日,DeepSeek-V4预览版正式发布并开源,两个版本——1.6万亿参数的Pro和轻量化284B的Flash,直接把百万字上下文变成了标配。但真正让我眼前一亮的,不是它的技术有多强,而是它这次明确释放的信号——DeepSeek,正在用脚投票,押注华为昇腾。 你看,在官方API页面里,它用小字标注了一句话:受限于高端算力,目前Pro服务吞吐有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调。这句话说出来意味着什么?意味着从V4这一代开始,DeepSeek的核心算力底座,将从英伟达全面切换为华为昇腾。它V4的技术报告里也首次披露——细粒度专家并行方案,同时在英伟达GPU和华为昇腾NPU上完成了验证,在通用推理任务中实现了最高1.73倍的加速。这是一个从工程到架构级别的全面适配。所以V4延期发布那么多次,不是代码没写好,是把整套底层系统从CUDA生态整个搬到了昇腾上。 这件事折射出一个非常硬的底层逻辑:中国AI产业正在从“依赖英伟达”走向“拥抱全栈自主可控”。 DeepSeek这一决定带来的行业影响,我认为不止是一个AI模型升级,而是一场国产算力生态的系统性价值重估。超节点正在成为国产算力突围的锋刃——华为384超节点以300PFlops的总算力实现了集群化算力翻倍。这些SuperPod一旦在数据中心全面铺开,将大幅压降AI应用的落地成本。更直接地说,昇腾950超节点不是今晚才亮相,它早已带着订单上桌了——就在前几天,中国移动2026至2027年AI超节点设备集采结果出炉,6208张AI加速卡全部锁定华为昇腾。2026年,正被机构定义为国产超节点的放量元年。 那么回到大家最关心的问题:产业链上有哪些A股公司受益? 我大致梳理了三类。第一类是昇腾生态的核心标杆——润和软件、拓维信息、软通动力等已在昇腾生态深耕多年,在DeepSeek-V4发布当天全面领涨。第二类是光模块和交换芯片——盛科通信作为国内以太网交换芯片龙头,是超节点高速互联的核心受益者;华丰科技在高速背板连接器领域的卡位也备受关注。 #deepseekv4 #华为昇腾 #拓维信息 #华丰科技 #润和软件
00:00 / 02:55
连播
清屏
智能
倍速
点赞
689
小李xiaolxl
1周前
DeepSeek-V4 深度解读 DeepSeek 在 4 月 22 日发布 V4 系列,一次推出两档旗舰:V4-Pro 1.6T 总参 / 49B 激活,V4-Flash 284B 总参 / 13B 激活,均原生支持 1M token 上下文。架构上引入 Hybrid Attention(CSA+HCA)+ mHC 超连接 + Muon 优化器,1M 场景下 Pro 的单 token FLOPs 仅 V3.2 的 27%、KV cache 仅 10%。全部权重 MIT 协议开源,HuggingFace + ModelScope 双地同步上架。 🎬 章节导航 00:00 片头 01:05 Part 01|双旗舰登场 02:07 Part 02|架构与训练升级 03:55 Part 03|基础模型评测 06:15 Part 04|三档推理模式 06:55 Part 05|对决前沿模型 10:16 Part 06|Pro 与 Flash 对比 13:08 Part 07|开源与获取 14:37 尾声 📌 关键信息 - V4-Pro:1.6T 总参 / 49B 激活 / 1M 上下文 / FP4+FP8 混合精度 - V4-Flash:284B 总参 / 13B 激活 / 1M 上下文 / FP4+FP8 混合精度 - 架构升级:Hybrid Attention(CSA + HCA)· mHC 超连接 · Muon 优化器 - 推理效率:1M 上下文下 Pro 的 FLOPs 仅 V3.2 的 27%、KV cache 仅 10% - 预训练规模:超过 32T token;后训练走两阶段(专家分培 + on-policy 蒸馏) - 三档推理模式:Non-think · Think High · Think Max - 代码数学:LiveCodeBench 93.5(开源第一)· Apex Shortlist 90.2(全场最高) - 长上下文:MRCR 1M 83.5 · CorpusQA 1M 62.0(开源阵营第一) - License:MIT(学术 / 商业均可用)
00:00 / 14:55
连播
清屏
智能
倍速
点赞
15
AI信息差
1周前
DeepSeek V4大降价 本视频深度解析DeepSeek V4 Pro与Flash版本的参数规模、上下文能力及API定价;同步关注Claude Code可靠性技术细节与AI Agent知识库维护趋势。#DeepSeekV4 #大模型参数 #国产芯片适配 #AI模型部署
00:00 / 02:54
连播
清屏
智能
倍速
点赞
27
天工开帧
4周前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
745
新
2周前
翻了Hermes源码,记忆系统抄袭? Hermes Agent 有四种记忆,翻了源码才知道它有多讲究。文件记忆:MEMORY.md + USER.md,3600字符硬上限,启动注入冻结快照,保 prefix cache。会话记忆:SQLite FTS5 全文索引 + Gemini Flash 摘要,历史无限回溯。外部记忆:插件化设计,8个官方插件随时插拔。技能记忆:最有意思的部分——Skill 会自我进化,patch 工具精确 find-and-replace,自主触发不需人工干预。但这个自进化机制引发了开源社区激烈争议,12组概念被系统性替换,零引用零致谢。上下文工程系列第9期。#HermesAgent #上下文工程 #源码解读 #ai创作浪潮计划 #青年创作者计划
00:00 / 05:52
连播
清屏
智能
倍速
点赞
817
嵌入式经验分享
5年前
把Flash当Eeprom使用时,如何延长擦写寿命
00:00 / 04:22
连播
清屏
智能
倍速
点赞
75
论文五分钟
1周前
deepseek-v4重磅发布 #deepseek 论文五分钟,学术变轻松~
00:00 / 06:31
连播
清屏
智能
倍速
点赞
2
森哥@AI产品创业者
6月前
AI应用的长上下文爆内存? 有新答案告诉你! #上下文工程 #提示词工程 #大模型 #AI应用 #RAG
00:00 / 01:29
连播
清屏
智能
倍速
点赞
21
嘉豪
1周前
deepseek v4正式发布!! 差点追平Claude opus4.6,依然开源,适配华为昇腾 标配百万上下文窗口 全新注意力机制,搭配DSA稀疏注意力,巨幅降低计算和显存成本,v4的pro和flash版性价比都很无敌 并且开始首次输出价值观:「不诱于誉,不恐于诽,率道而行,端然正己。」 #deepseek #deepseekv4 #大模型#梁文峰 #深度求索
00:00 / 01:42
连播
清屏
智能
倍速
点赞
53
天雨侠
1周前
2026年4月24日,DeepSeek V4-Pro和DeepSeek V4-Flash正式发布并开源,模型上下文处理长度由原有的128K显著扩展至1M,实现近10倍的容量提升,首次增加了KV Cache滑窗和压缩算法,大幅减少Attention计算和访存开销,并通过模型架构创新更好地支持了Agent和Coding场景。 昇腾一直同步支持DeepSeek系列模型,本次通过双方芯模技术紧密协同,实现昇腾超节点全系列产品支持DeepSeek V4系列模型。 昇腾950通过融合kernel和多流并行技术降低Attention计算和访存开销,大幅提升推理性能,结合多种量化算法,实现了高吞吐、低时延的DeepSeek V4模型推理部署。 昇腾A3超节点系列产品也全面适配,同时为便于用户快速微调,提供了基于昇腾A3超节点的训练参考实现。 #华为 #AI芯片 #昇腾超节点 #昇腾950 #DeepSeekV4
00:00 / 00:06
连播
清屏
智能
倍速
点赞
13
aiaihaozhe9527
2周前
图片视频分析ai模型,上下文256K grape_2.1_flash.q4_k_m多模态,测试占用16G显存 #ai一键包 #多模态 #256K上下文
00:00 / 00:45
连播
清屏
智能
倍速
点赞
2
Enine 亿玖
1周前
4 卡PRO6000生物科研计算服务器,支持Deepseek -V4-Flash INT8的模型部署#diy装机#pro6000显卡 #deepseek#AI大模型#Enine亿玖服务器定制
00:00 / 00:39
连播
清屏
智能
倍速
点赞
4912
赛博杨千幻
2周前
🚀 DFlash - Qwen3.5-27B 推理速度暴涨5倍!UCSD Z-Lab 最新开源项目扩散模型投机解码 + vLLM/SGLang 直连仅加2B小模型,吞吐量翻5倍。#github优质项目 #github开源 #大模型 @赛博杨千幻 #DFlash #Qwen3.5
00:00 / 02:09
连播
清屏
智能
倍速
点赞
89
CSDN
1周前
DeepSeek-V4 终于发布!100万上下文成为“标配” 曾经Gemini独占的百万上下文王牌,现在成了DeepSeek的全系标配。Agent能力直追Opus 4.6,DeepSeek-V4正在用开源的力量,消解顶级闭源模型的护城河。 #DeepSeek #AI大模型 #开源社区 #人工智能 #华为昇腾
00:00 / 01:20
连播
清屏
智能
倍速
点赞
52
降功耗找合宙
7月前
33-sfud库基础知识 #合宙 #物联网 #嵌入式 #硬件 #Flash
00:00 / 09:55
连播
清屏
智能
倍速
点赞
2
聚云
1周前
DeepSeek V4来了!百万上下文成标配,编程能力登顶 #ai创业风口 DeepSeek V4震撼发布!百万token长上下文成为全系标配,双版本全面开源。V4-Pro在Agent编程测评中拿下开源第一,内部评价优于Claude Sonnet 4.5,数学/代码性能对标世界顶级闭源模型。HybridAttention架构加持下,推理算力消耗大幅下降至V3.2的27%,KV缓存占用降至10%。Flash版本输出价低至2元/百万token——把超强AI成本拉回地板。国内+海外双轨芯片战略提速!完整测评视频👇 #DeepSeekV4 #大模型 #AI #人工智能
00:00 / 02:11
连播
清屏
智能
倍速
点赞
12
红浪漫郭二丑
2月前
发动机电脑的DFlash和Pflash数据有什么区别#汽车电脑数据 #汽车电脑 #汽车电脑维修 #知识分享 #干货分享
00:00 / 02:52
连播
清屏
智能
倍速
点赞
631
文兰公子
1周前
DeepSeek-V4模型正式发布,开启百万上下文普惠时代 2026年4月24日,DeepSeek-V4正式开源,支持1M上下文,Pro与Flash双版本同步上线,推理与Agent能力达开源领先水平。#DeepSeekV4 #大模型 #AI开源
00:00 / 07:11
连播
清屏
智能
倍速
点赞
0
玄清智流
1周前
DeepSeek-V4 深度分析
00:00 / 13:51
连播
清屏
智能
倍速
点赞
401
小天fotos
1周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3415
琦观智界
1周前
DeepSeek-V4 正式开源,全线标配百万上下文 大模型普惠时代来了!带你扒完 DeepSeek-V4 技术报告里的三项黑科技 #DeepSeekV4 #深度求索 #国产大模型 #人工智能 #开源模型 @抖音作者助手 @DOU+小助手 @抖音小助手
00:00 / 01:27
连播
清屏
智能
倍速
点赞
43
熊宇红博士
1周前
DeepSeek V4发布:百万上下文,到底强在哪儿?#deepseek #人工智能 #AI #deepseekv4 #熊宇红博士
00:00 / 02:33
连播
清屏
智能
倍速
点赞
23
Ai搬运工
1周前
🔥 DeepSeek V4 发布,100 万上下文 + 华为芯片训练 作品介绍: 刚刚,最强开源模型 DeepSeek V4 正式上线! 你是不是也遇到过:上下文太长直接报错、跑个代码等半天、想用顶级模型又太贵? 这次 V4 一次全解决: ✅ 100 万上下文,全系标配 ✅ 1.6 万亿参数 MoE 架构,激活仅 490 亿 ✅ 代码能力开源第一,Codeforces 3206 分 ✅ 华为昇腾芯片首发训练,算力需求降低 3.7 倍 ✅ 1/7 的闭源价格,夜间跑任务再半价 ✅ MIT 协议全开源,商用零门槛 不管是写代码、跑批处理还是做 Agent,都能直接用。 点赞 + 收藏,主页合集看系列教程 🔥 #上热门#ai #deepseekv4 #国产 #deepseek
00:00 / 01:32
连播
清屏
智能
倍速
点赞
1
AI智效君
1周前
DeepSeekV4正式上线,全系标配百万级长文本能力+双版本+顶级性能,国产Al硬刚全球顶模,普惠全民!! #DeepSeekV4 #百万上下文 #梁文锋 #大模型 #深度求索
00:00 / 00:08
连播
清屏
智能
倍速
点赞
11
AI科技视界
1周前
DeepSeek V4 刷屏背后:便宜、够强,还适配华为昇腾 DeepSeek 在 4 月 24 日发布 V4 预览版,这一代的重点不只是性能,而是更低成本、更长上下文,以及对国产芯片的适配,正在改变 AI 竞争方式。 #DeepSeekV4 #人工智能 #AI模型 #华为昇腾 #科技观察
00:00 / 01:57
连播
清屏
智能
倍速
点赞
10
爱国
1周前
DeepSeek-V4系列震撼来袭:高效的百万级Token DeepSeek-V4 系列大语言模型,包括 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两个版本。该系列采用 混合专家(MoE) 架构,通过 混合注意力机制(结合 CSA 和 HCA 技术)实现了支持 百万级上下文 的卓越推理效率。在核心设计上,模型引入了 流形约束超连接(mHC) 以增强训练稳定性,并利用 Muon 优化器 加速收敛。性能测试显示,DeepSeek-V4-Pro-Max 在知识问答、编程和逻辑推理等核心领域已达到或接近世界顶尖水平。 #DeepSeek #VibeCoding #Agentic #人工智能
00:00 / 07:11
连播
清屏
智能
倍速
点赞
5
科技区角
1周前
重磅!DeepSeek V4 正式官宣了! DeepSeek V4 正式官宣!1.6 万亿参数、百万上下文,开源可本地部署,国产大模型迎来里程碑时刻。#DeepSeekV4 #国产AI #大模型 #AI最新资讯 #科技资讯
00:00 / 01:04
连播
清屏
智能
倍速
点赞
2107
增长女黑客
1周前
DeepSeek V4实测太香了,支持100万上下文,跟 sonnet 相差无几了,今日还成为龙虾默认模型#deepseek #openclaw #增长女黑客 #同城牛
00:00 / 02:25
连播
清屏
智能
倍速
点赞
3
我在人间凑数的日子
1周前
国产AI终于站起来了?DeepSeek V4硬刚GPT-5! 国产大模型迎来历史性时刻!DeepSeek V4正式发布,百万字超长上下文、万亿参数MoE架构,性能直接对标GPT-5,价格却只有零头!这不仅是技术的突破,更是国产AI的里程碑。 本期视频带你深度拆解DeepSeek V4的核心黑科技,看看它凭什么被称为“价格屠夫”和“国产之光”!#DeepSeek #国产AI #人工智能 #科技前沿 #大模型
00:00 / 01:06
连播
清屏
智能
倍速
点赞
2
墨宸 · 极客
1周前
DeepSeek-V4开了三把大锁:百万上下文、Agent能 #DeepSeek #DeepSeekV4 #AI大模型 #开源 #极客
00:00 / 02:02
连播
清屏
智能
倍速
点赞
2
熊喵哥AIGC
1周前
DeepSeek V4发布,升级点我帮你挑了 ✨ Agent能力:Agentic Coding优于 Sonnet 4.5,接近 Opus 4.6 ✨ 上下文:1M token 成所有官方服务标配 ✨ 思考模式:Non-Think / Think High / Think Max 三档 ✨ 旧API接口7月24日停用,注意改 model_name 权重开源,HuggingFace 可下 #deepseek #ai #人工智能 #deepseekv4 @DOU+小助手 @DOU+上热门 @抖音小助手 @抖音作者助手 @抖音
00:00 / 01:00
连播
清屏
智能
倍速
点赞
58
每日热点速报
1周前
百万上下文时代到来!DeepSeek‑V4开源上线,国产算力
00:00 / 02:23
连播
清屏
智能
倍速
点赞
0
卢浩和Ta的朋友们
1周前
DeepSeek-V4 全维度客观拆解 这次 V4 直接做了两大核心版本:旗舰款DeepSeek-V4-Pro,总参数干到了 1.6T,单 token 只激活 49B 参数;轻量化的Flash 版本,总参数 284B,单 token 仅激活 13B 参数,用的都是顶尖的 MoE 混合专家架构,就像一个万人企业,每次只叫最对口的核心骨干干活,效率直接拉满!#混合专家架构 #AI新星计划 #人工智能 #DeepSeek
00:00 / 03:58
连播
清屏
智能
倍速
点赞
33
简介:
您在查找“
dflash长上下文怎么设置
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-02 12:46
最新推荐:
哪个是最无聊的运动英文
超市买的普通面粉能做什么
朗诵该怎么读才有青春洋溢的气息
暗黑4s13不需要的神符怎么处理
融通金五一节假日闭盘吗
猛攻节打底给多少点券
同意干什么用英语怎么说
宝藏食历为什么搜不到
兔子可以吃包头菜吗
蛋仔派对如何击败猪头夫
相关推荐:
张桂梅如何招生
21世纪大君夫人是悬疑爱情片吗
新星特攻转职玩什么
草本泥膏的正确使用方法
蜜语的妈妈怎么不爱她
徒惹人嗤什么意思
我妈妈可以在厨房煮饭
无限暖暖达拉姆聚落阁楼宝箱怎么上
滴水湖划船
颜颜恋综里有长发吗
热门推荐:
华为ECO是谁
萤石360拍摄技巧
2019年的ai
流量激励关了之后如何去查看
抖音怎么拥有彩圈
微信号高危风险怎么解决
沛你唱响篇章挑战怎么拍出来的
音乐会员一百年是怎么回事
微信关怀模式AI教程
temu的epr登录密码在哪里看