00:00 / 02:16
连播
清屏
智能
倍速
点赞111
00:00 / 01:56
连播
清屏
智能
倍速
点赞12
00:00 / 02:11
连播
清屏
智能
倍速
点赞14
00:00 / 01:34
连播
清屏
智能
倍速
点赞9
00:00 / 00:50
连播
清屏
智能
倍速
点赞1126
00:00 / 02:43
连播
清屏
智能
倍速
点赞19
00:00 / 01:35
连播
清屏
智能
倍速
点赞4
00:00 / 00:44
连播
清屏
智能
倍速
点赞19
00:00 / 02:42
连播
清屏
智能
倍速
点赞10
OpenAI Codex CLI 实用最佳实践 很难得看到介绍 Codex 实践的文章,好容易找到一篇,朋友们如果有这方面文章,感谢分享! AGENTS.md 与自定义配置 首先澄清一个常见误解:AGENTS. md 文件并非自动生成,而是需要手动维护。这是 Codex CLI 的行为策略配置文件,类似于给 AI agent 设定"行事准则"。 关键建议: · 从默认配置开始,仅在反复出现同类问题时才添加定向规则。这是一条"最小干预"原则——过度定制反而会引入不可预期的副作用 · 配置内容应聚焦于策略、优先级、约束条件三个维度,而非事无巨细地规定每一步操作 · 绝不在配置中硬编码密钥,同时要为破坏性操作设置明确的升级确认规则 · 任何自动化脚本都应在 README 和 PR 中记录其来源、触发时机和入口点 模型选择策略 决策公式:"难度 x 成本 x 长度"三维平衡 · 高难度推理:最强推理模型,用于架构设计、复杂重构、深层 bug 排查 · 机械性工作:小型高性价比模型,用于代码批量阅读、摘要生成、格式化操作 · 长上下文任务:大窗口模型,用于审阅大型 diff、跨文件分析 另一条重要建议:按阶段锁定模型选择(设计阶段 → 实现阶段 → 验证阶段各用固定模型),以确保可复现性。 上下文与 Token 管理 · 精准定位而非全量输入:使用 rg 先定位代码片段,再以不超过 250 行的块分段读取。避免将整个文件粘贴给模型 · 跨轮次摘要传递:在多轮交互中,将关键假设和决策浓缩为简短笔记传递,而非让模型重新消化完整历史 · 单一主题原则:每个任务保持 diff 聚焦于一个主题,不要在一次交互中混杂多个不相关的变更 · 指针优于内容:引用代码时优先给路径指针,而不是粘贴大段代码 · 日志节选:只包含决定性的日志片段,不要把完整日志倾倒给模型 资源使用百分比指示器 Codex CLI 界面中显示的百分比数值反映的是综合资源消耗信号,主要由 token 消耗构成,也包含工具 I/O 开销。当该数值接近极限时,会触发截断或强制摘要,导致回答质量下降 成本优化用强模型做决策,用弱模型做执行 · 将发现和探索阶段的工作交给小模型和本地搜索工具 · 只在需要深度推理时调用强模型 · 先在本地验证变更正确性,确认后再扩大操作范围 · 维护简短的决策笔记,避免因上下文丢失而重复处理 #ai #openai #软件
00:00 / 00:37
连播
清屏
智能
倍速
点赞21
00:00 / 02:11
连播
清屏
智能
倍速
点赞17
00:00 / 01:41
连播
清屏
智能
倍速
点赞8
00:00 / 01:05
连播
清屏
智能
倍速
点赞13
00:00 / 02:42
连播
清屏
智能
倍速
点赞17
00:00 / 02:31
连播
清屏
智能
倍速
点赞8
00:00 / 02:36
连播
清屏
智能
倍速
点赞11
00:00 / 06:22
连播
清屏
智能
倍速
点赞101
00:00 / 01:55
连播
清屏
智能
倍速
点赞59
00:00 / 02:20
连播
清屏
智能
倍速
点赞11
00:00 / 01:59
连播
清屏
智能
倍速
点赞374
00:00 / 05:53
连播
清屏
智能
倍速
点赞17