00:00 / 05:18
连播
清屏
智能
倍速
点赞19
deepseek v4发布,教我们做国产替代 DeepSeek V4 昨天发布了。 这事儿,我用了2天,也调用了API,跑了几十个Agent任务 今天不聊技术参数,聊一个更重要的信号: 它不仅仅是性能提升,更是给整个中国AI产业链,在“卡脖子”的情况下,蹚出了一条全新的路。 我是重度养“龙虾”爱好者——就是训练各种Agent,让它们帮我干活。 用ChatGPT 5.4、Sonnet 4.6、Gemini 3.1,也用过最强的opus 4.6。 但这次DeepSeek V4一出来,我第一时间就上手了。 为什么这么急? 因为我看的不是“又一个模型”,而是国产替代的样板间。 它实现了三个突破,每一个都戳在“卡脖子”的痛点上。 第一,全面支持国产芯片训练和推理。这意味着什么? 意味着token的供给,不会被任何人掐脖子。 国产的顶尖开源模型,先在国产芯片上适配、首发—— 这就像我们仪器仪表行业,核心检测器,传感器如果只能用进口的,人家一断供,生产线就得停。 现在,AI的算力和模型,都握在自己手里了。 第二,性能直逼国际顶尖,差距缩到了3个月。我自己实测,100万上下文,让它跑复杂的Agent任务,已经足够足够用了。 跟Claude 4.6比,还有一点点差距——但这点差距,在商业世界里已经可以忽略不计。 因为用户要的不是实验室里的满分,而是“能用、好用、用得爽”。 DeepSeek V4 已经跨过了这个门槛。 第三,价格革命。Flash版本比Claude Opus便宜97%-99%。 对,你没听错,不是便宜几成,是便宜两个数量级。 这标志着什么? 标志着国产AI已经形成了 “模型+芯片+价格”的自循环体系。 用得起,才是王道。 所以,DeepSeek V4 给所有做国产替代、硬科技的人,打了个样。 它证明了一件事: 与其更好,不如不同。黄教主担心的事情,已经在发生了。 当我们的功能达到进口的95%,但是价格便宜30%-50%以上的时候—— 商业世界的任何领域竞争,都是无解的。 包括我所在的仪器仪表行业。 我们在线近红外,过去十几年,市场被ABB、布鲁克、赛默飞这些国际巨头占着。 他们技术是好,但价格也贵,服务响应也慢。 我们怎么打? 就是走DeepSeek V4这条路: 性能追到95%,价格降到进口的2/3,服务做到贴身。 这套组合拳,是降维打击。#在线近红外 #在线水分仪 #原料药 #生物发酵 #玉米深加工
00:00 / 04:11
连播
清屏
智能
倍速
点赞5
DeepSeek-V4-Pro 编程能力评测,Java 全栈 本期视频主要对 DeepSeek-V4-Pro 的编程能力做一次原生状态下的实际测试。 本次测试使用 OpenCode 桌面端 + DeepSeek 官方 API,全程没有进行提示词调优,也没有额外做复杂的工程化约束,尽量观察模型在默认使用场景下的真实表现。 测试技术栈选择的是比较常见的 Spring Boot + Vue 3,测试项目为一个简单的本科毕设项目:人力资源管理系统。 从最终结果来看,后端表现比较稳定,可以给到 90分。整体基本一次生成完成,没有出现明显的编译错误,主要问题集中在一个 MySQL 保留字导致的异常,修复成本不高,说明 DeepSeek-V4-Pro 在后端代码生成、接口设计和基础业务实现方面已经有比较不错的可用性。 前端部分综合给到 70 分。业务逻辑完成度较高,页面与 API 的对接基本一次成功,说明模型对前后端联调的理解能力有所提升。不过测试过程中也出现了一个 Token 污染问题,模型没有顺利排查出来。UI 方面只能给到 60 分,整体属于“能用”的水平,但距离真正美观、实用、符合产品化要求的界面还有一定差距。 总体来说,DeepSeek-V4-Pro 的编程能力相比之前确实有明显提升,价格优势也很明显,尤其是在后端项目生成和基础业务闭环方面表现不错。但如果和目前主流的“御三家”模型相比,综合工程能力、问题排查能力以及前端 UI 生成质量仍然存在差距。 在没有提示词优化的情况下,模型原生输出的 UI 仍然偏简陋,复杂问题定位能力也还有提升空间。不过国产大模型能够持续进步,本身就值得开发者关注和鼓励。 最后,支持国产大模型,希望 DeepSeek 后续越来越强。#deepseek
00:00 / 43:42
连播
清屏
智能
倍速
点赞6
00:00 / 01:32
连播
清屏
智能
倍速
点赞7
00:00 / 04:07
连播
清屏
智能
倍速
点赞1140
00:00 / 04:06
连播
清屏
智能
倍速
点赞701