00:00 / 01:11
连播
清屏
智能
倍速
点赞18
黑箱编程来了!AI 写代码,程序员只看测试。 AI 已经能自己写代码、跑测试、提 PR 了,但“测试全绿”真的等于可以放心上线吗?这期视频想讲清楚的,不是某个 AI 工具到底强不强,而是当“写代码”这件事本身越来越便宜之后,软件工程里真正昂贵、真正不能黑箱化、真正决定生死的东西到底是什么。 - 🤖 这期我会先把现在硅谷很火的“黑箱编程”讲清楚:为什么现在的 AI coding agent 已经能做到 `Issue in, PR out`,以及 Devin、SWE-agent、Claude Code / Codex 这类工具到底改变了什么 - 🧪 我会重点拆一个很多人容易忽略的错觉:测试通过,不代表业务逻辑就真的对,更不代表性能、安全性、维护性就没问题 - ⚠️ 如果你已经在用 vibe coding、agentic workflow、多智能体协作写代码,这期会告诉你哪些场景可以大胆用,哪些核心业务绝对不能赌 - 🧱 我也会讲清楚一套更靠谱的多智能体治理思路:Coder、Reviewer、Security、Judge 怎么分工,为什么一定要有 ground truth、熔断机制和局部 diff 反馈 - 🔒 最后会落到一个更大的行业判断:在 AI 黑箱编程时代,真正越来越值钱的不是代码本身,而是测试集、eval 数据、接口边界和验收标准,也就是那句很重要的判断:`Tests are the new moat` - 📉 你也会看到一个很现实的变化:过去很多团队觉得“写测试很烦”,现在反而变成“写代码越来越快,但写出能防 AI 偷懒、能兜住边界条件、能约束生产风险的测试和 eval,才是最贵的能力” - 🧠 如果你是开发者、Tech Lead、或者正在带团队接入 AI 编程工具,这期视频其实讨论的是责任边界怎么重新划分:什么能交给 agent,什么必须由人类架构师、审核员和最终签字人来把关 黑箱编程,AI 写代码,AI 编程,AI coding agent,智能体工作流,Agentic Workflow,vibe coding,多智能体编程,测试即护城河,测试全绿,测试集,代码评审,软件工程,程序员转型,AI 工程师,Devin,SWE-agent,Claude Code,Codex,TDD,评测体系,guardrails,人类兜底,核心业务,工程治理
00:00 / 07:55
连播
清屏
智能
倍速
点赞154
00:00 / 00:48
连播
清屏
智能
倍速
点赞7
00:00 / 01:06
连播
清屏
智能
倍速
点赞16