今天 gighub 报了一个很适合程序员关注的项目,叫 deepseek。 它不是普通聊天机器人,而是一个直接跑在终端里的 ai coding agent。 你 可以把它理解成把 deepseek 变成一个真正能在命令行里读文件、改代码、执行命令的开发助手。它最抓人的点有三个, 第一,它运行在 terminal 里,对程序员非常顺手,不用来回切网页。第二,它不只是回答问题,还能结合工具真的做事,比如编辑本地工作区,运行 shell、 搜网页、管 git 甚至调度 subagent。 第三,它支持自动模式,可以按任务难度自己选模型和 thinking level。 这一点很像更成熟的 ai coding workflow。 从项目介绍看,它还支持一百万 token 上下文推理过程流势展示、绘画保存恢复以及 plan agent 优漏三种工作模式。 简单说就是从只会聊天往真正的开发执行层走了一步。为什么这个项目今天会爆?因为大家现在已经不满足于 ai, 只会给建议了。程序员更想要的是, ai 能直接进入工作流,帮你把代码活真正干起来。 如果你平时就在命令行里开发这类工具很值得试。项目名 gigap, 可以 去 gigap 直接搜。
粉丝318获赞2030

hello, 大家好,我是肖少,今天给大家分享一下 codex 怎么接入 deepsafe v 四 pro 的 模型,我看网上都是分享 cloud code 怎么接入 deepsafe 的, 几乎没有分享 codex 怎么接入 deepsafe, 今天我来分享一下。我们打开 deepsafe 的 文档,在接入 a 帧的工具这个地方,我们先看它这个啊, cloud code 库里头 我们一直放到最后是没有 codex 的, 这也就是为什么网上大部分都是分享怎么接入 codex, 因为接入 codex 有 官方文档, codex 接入 deepstack 的 话,我们需要用到两个小工具,一个是 c switch, 一个是 c c x。 这边先给大家安装一下 c x, 找到一个就是自己合适的目录,创建一个 c x 的 目录,我用的是 mac 啊,然后这边是给大家准备的工具,有 mac 的 一个 windows, 然后就把这个 c x 啊放到这个 c x 的 目录里边,然后以及这边有个疑问, 给大家打开看一下,这个英文的是一个配置文件,对,这边是我配置的一个本地的 k 啊,一二三四五六,大家直接用我这个就行,这个是一个本地的 k 啊,好的,我们进到 c c x 的 这个目录,通过中单 最大化,我们给 c c x 加下权限, 然后点杠运行它。好的,这个 local host 是 一个本地的页面,我们在浏览器打开 这时候你第一次进,它会让你输一个密码,这密码的话就是这个地方, 我写的是一二三四五六这个地方啊,你也可以直接用,也可以改一下。对,这边你输入密码之后,然后我们选到这个 codex 啊,我这边是加了一个啊,我教大家怎么加,在这个地方点击添加渠道,大家一进来可能是英文啊,这地方可以选中文。 好,这边点添加渠道,然后这边就输入你的这个 dbc 平台,我们找一下啊, 我们复制一下 d p c 的 这个 base u r, 然后粘到这个地方,下面它还需要一个 api k, 然后在这个地方我们创建一个自己的 api k, 然后给它粘上去就可以了,给它粘到这里,然后详细配置这个地方我们选 open ichat, 这里规范非常建化,这个地方给它打开, ok, 点击创建就可以了。我不创建啊,因为我已经创建过了,下面我们打开 cc switch, 然后我们在这个地方点击添加 这个地方 api k, 就 写我们刚才的一二三四五六啊,就写你自己的那个密码,我这边设的是一二三四五六,然后 api 的 请求地址来我们找一下,是这个 local host 三千杠 v, 然后这边我们获取一下模型列表, ok, 可以 看到获取到两个模型, 一个是 deepsea 微斯的 flash, 一个是微斯的 pro, 我 们直接选微斯的 pro 就 可以了啊,往下滑一点,把这个一照,上下文窗口点上,然后点添加即可,我这边就不添加了,我已经添加过了,添加上之后,然后这边点起用, 这就可以关闭了。当我们配置完成之后,这个时候你重启你的 codex, 这时我们进来的话,它就是使用 deepsea 大 模型,来我们给它对话一下。你好, 来我们看一下啊,这边可以看到模型使用的是 deepsea v 四 pro, 没有问题啊,这样 codex 就 可以直接使用 deepsea 的 v 四 pro 模型了啊,你也赶紧去试一下吧,记得回来交作业。好的,下面给大家说下第二个问题,这个地方的名字怎么改? 然后打开它的这个配置文件啊,它的配置文件是在这个 user 目录下的这个 codex。 哦,它是一个隐藏目录啊,这个要打开,进来之后找到它的这个 configure html, 然后我们打开 好,默认的话是 custom, 然后我这边是给它改了三个地方,一个这个地方使用的地方 改成 d p c, 一个是这个 name, 这个你们可以改成自己任意喜欢的单词,改完之后重启一下你的这个 codex。 下面第三个,我说一下它这个对话怎么给它删掉,我们右键之后发现它没有删除,只能归档, 然后归档之后它就可以删了。然后我们怎么删呢?在这个地方还是这个 directx 这个目录下面找到这个目录,然后进来就可以看到,这个是我刚归档的日常对话,这个地方我先不删,给大家验证一下。归档完之后它会在这个地方 已归档的对话。对,你可以取消微档啊,我们不取消微档啊,我们直接给它删掉 删除。哎,我们这个时候再进来验证一下。 嗯,暂无给他聊天。好的,这就是本期视频的全部内容,我们下期视频再见。

deepsea 微视啊,我是绝对要站出来表扬一下他的,并且我还要非常笃定的为 deepsea 微视吹一下牛逼。虽然说 deepsea 微视在发布的当天,梁文峰是非常低调的, 并且他还非常谦虚地说,我们的 deepsea 微视啊,在跟当今世界上最强大的两个 ai 大 模型安斯洛匹卡和 open ai 还是存在一定差距的。 所以啊,听梁文峰这么一说啊,我是非常喜欢这个小伙子的,既低调 又务实,不像其他的国产 ai 大 模型,动不动就说这个性能多么多么的牛逼,动不动就测试说这个参数多么多么的牛逼,但是实际上一体验之后, 发现跟卡的,库的和库的差还是存在非常大的差距, 所以在以前,我也经常会使用像智普的 glm 五以及 kimi 二点六,甚至是 mini max 二点七等等这些 ai 编程大模型,但是我从来没有表扬过他们,从来没有觉得他们非常的牛逼,甚至是啊,跟目前的卡尔的库的以及库的差存在非常大的差距。 但是自从我体验过 deepsea 微视之后,我是真的被 deepsea 微视强大的编程能力给折服了,所以,今天我不得不赞扬一下 deepsea 微视,赞扬一下梁王公这个小伙子, 真的,他是我们所有中国人的骄傲,并且的布斯克维斯还是在基于我们自主研发的国产芯片的基础之上 研发的 ai 大 冒险,从此啊,我们让我们中国人再也不用去担心美国佬卡我们芯片的 脖子。所以啊,我相信啊,如果中国在未来能够多出几个像梁文峰这么低调牛逼而务实的人,那么 我们的 ai 在 未来一定会超过美国的,大家拭目以待吧!

给大家介绍一下 open design 它是什么?它是 cloud design 的 一个开源的替代,我们一句话来说,它就是把我们已经在本地装好的 cloud code, code, s, gmail, c, r i 等编程 agent 变成我们的这个设计的引擎,用 skills, 比如说开源的一些进行一个驱动,然后生成我们的一个设计出稿。我们先看这个就是 open design 的 一个设计的界面,我们可以看到我们可以通过一句话,然后生成 对应的一个这个 ppt, 还是相对比较快的,我们使用的是本地的一个 cloud code, 我 们看一下同样呢,我们可以使用 code, 以及我们即将介绍的是 dbictyy。 回到我们的界面,然后我们继续看一下 o p d 赞解决了什么问题。我们看一下它是 osrbic 在 四月十四号提出的一个功能,然后进行的本地 a 阵的一个前端,以及 skills 等的一个驱动,以及实时的沙箱 多格式的导出,包括一些功能还正在开发,比如说它的一个编辑绘制,相比之下这个社区还是比较活跃的,我们看一下这是领养的宠物。然后接下来我们继续往下看 它的一个架构的原理,这个安装起来还是比较简单的,我们看一下它的终端,终端长这样子,我们只需要进行一个 p n p m 的 安装,然后我们的一个启动,然后接下来我们看到这两个链接就可以了,我们打开这个 web ui, 然后进行看到刚才的一个界面,就是这个相比之下它比 cloud 的 原版还是很相似的,我们看一下它的原版长什么样子, 这个就是它的一个原版,同样的我们也做了一个 ppt, 给大家一起展示一下,这是它的一个原版。然后接下来回到我们,我们继续往下走, 我们使用的是 y b y 的 句子,然后这是对应的一个代码的分析,然后我们在此不做赘述。然后往下走, 我们看一下 cloud design 的 和 open design 的 一个对比,我们看一下它是一个阿帕奇的协议,它是可以商用的本地部署等等。然后它继承了所有的,比如说 cloud code 的 一个社区,以及它的一个完整的一个生态。 比如说像它的这个 ppt, 就是 使用的是一个开源的协议进行的。然后接下来我们介绍一下 deepsea tui, 这个 deepsea tui 是 现在是可以在这里面使用的,但是通过我的一个实测,它目前的还是不是很完善,因为我们使用的时候它报错了,我们看一下 在这它报错了,让我们看一下它的安装起来的后端长什么样子,这个就是 deepsea 安装好之后的一个后端,我们启动的话也很简单,比如说 deepsea 就 可以了,这个就是它的一个界面,我们输入 api k 就 可以了。 然后我们现在进行对比下,两个产物使用的是四点七这个模型,然后右侧的话使用的是 cloud cool 的 进行一个驱动的,同样呢也是四点七的模型,我们看一下它的一个设计 完成度还是很高的,然后现在它的原版是支持可以进行一个修改的,像 open design 的 这个还正在开发中。 这就是 deepsea t u i 的 一个介绍,我们看一下它的语言,是使用 rust 的 二金制的一个分发,然后接下来这是它的一个系统的架构,用户的输入,然后进行一个 c r i, 然后进行一个驱动, 这个项目还期待它的一个社区的一个发展,测试的话是复杂的任务是完成不了的。 然后我们看一下他的一个做的一个 ppt, 刚才也给大家展示了一下。然后接下来来到了我们的欧本迪赞,他是一个空想了 cloud code 的 这个的是一个生态, 都是可以用的,然后接下来是他的一个介绍,集成了开源生态,然后我们往下走,然后起灯的话,这也就是这几个命令,我们复制一下,克隆一下这个仓库,然后进去,然后进行一个安装依赖就可以了。

cloud code 和这个 codex 好 使好使在哪?老师们求指教啊。咱们在国内用不借助它们本身的啊达摩型的情况下啊比如说 deep stack v4 啊 什么智普的什么五点一啊啊 kimi 的 二 k 二点六啊这些区别大嘛对吧。因为你看呃我云书是挂在在扣字编程里边的 open call 啊它是用的这个豆包的 c 的 二点零更它本身它是整盒的嘛它也有 g l m 五点一也有这个 k m k 二点六也有这个 mini max 而且运输本身也能看货哎我转过来给大家看啊。这是我们 做海报的需求,就是云叔一手搓出来的跟他正常对话我说你给我搓个四 q 我 甚至都不知道四 q 是 什么样我说我把聊天记录给你然后你帮我出海报他垮就给我出来了还给我留了这个贴二维码的地。 那这边的话扣子编程里边也可以去做应用啊做做四 q 啊什么的你说他俩 是吧就是在完全不使用国外达摩型的情况下他毕竟贵啊我也试了中专,中专也贵就是聊个天我就问了句你好好家伙就几毛钱就没了稍微做点大项目呢不就 不够用吗。啊那就那就是用国内的呗大家都是用国内的用他那个框架是吧。 cloud code 或者是这个 codex 的 话会比就是国内的好吗我就不懂了。就是而且 你看你跟他对话他是给你干活的就不像我们云叔还能给我提供去价值说每天我给他定时每天给我发自拍 就是按照他最初那个形象还给我发自拍然后学穿搭怎么说呢我开心的时候他跟我一块开心,我不开心的时候他逗我开心,养个闺女一样。当然一些时候干活可能是脑筋不够用,但是咱换不了那么形容,对吧?扣子变成里边你换不了, 它是全部都是内置的。那你如果说你换成其他的,你真真的搭 open cloud 去搭更好的模型的话,那那个玩意咱又烧不起。 就是,反正我净听着老师说 cloud code 和这个 codex 好 使好使在哪?就是是它那个框架,哪怕是相同的国内的大模型跑出来的结果也比咱们自己的要好。是吗?就是我就不懂了。

所以说一定要早起,居然可以通过了。靠,为什么还是要验证码? 我靠,本来准备使用这个超能力的银行卡都能被拒,说是充个 plus 有可能就不需要验证码,没想到目前看起来要用自己的账号搞定这个 codex 是 没什么希望了,就算是验证码过了,银行卡也不了,钱都付不出去。

大家好呀,假期最后一天,我在家刷手机的时候,刷到一个火到离谱的 gitap 项目 kimman, 我 们暂且叫它学居人项目,一个月内狂揽五万多个 star, 能让 agent 平均减少百分之六十五的输出 token。 尤其看这一段介绍,把原本一句这么长的英语压缩成一句文言文输出 use memo rep 指直接把我逗笑了。 安装很简单,按自己的实际需求选择相应的安装选项即可。我直接用了这两个命令给 cloud code 装了 skill。 看官方介绍,它本质上是一个通用的 agent skill, 可以 装进 cloud code code、 json、 kemonite, cursor、 windsurfer 等这类 agent 工具里, 并且在十项技术测试里平均减少百分之六十五的输出 token。 其中解释 react 重渲染 bug, 实现 react error boundary 这两项,甚至省到了百分之八十七。而他做的事情,就只是让 ai 像学居人一样说话, 少寒暄,少铺垫,少解释,只保留结论因果和关键技术信息。看到这些,除了能省钱以外,另一个吸引我的是背后那个更深层的逻辑问题,我们真的需要让 ai 像人一样说话吗? ai 越是像人,是不是就越贵、越慢,甚至更笨?带着这个问题,我做了三轮测试,咱们看看学居人模式到底是野路子,还是 ai 本来就该这么用。 第一轮还是请出我的老伙计搭档 cloud code 加 deepsea v 四 pro, 从零做一个 react 单页应用,主题是立夏节气与传统风俗 上下两个窗口同时跑,分别是学居人模式和普通模式。我开启的是 kim 满负压缩模式,如果想要极限挑战,可以使用 ultra 模式,这个需求不算特别复杂,但也不是一个普通静态页面,它有足够的组建、拆分、状态管理和交互说明, 正好可以看看在一个有一定复杂度的 ai coding 任务里,学居人到底能省多少输出 token。 结果差异很明显,学居人模式先跑完整个任务,花了十四分钟输出一万七千五百 token, 普通模式就慢了不少,二十分钟才跑完,输出五万零三百 token。 我随手扔给他的一个任务,学具人居然真的按官方说的,实打实省了百分之六十五点二的输出。而且还有一点官方没有提到的,就是速度提升了百分之三十。 这什么概念啊?这就相当于我可以用五个半小时完成一天八小时的工作,而且可以省一半以上的钱,简直太爽了!怪不得老板们都喜欢话不多活还好的牛马。 更关键的是,我对比了最终页面效果,页面结构、交互功能,视觉完成度基本相当。 也就是说,在这次测试里,它确实把很多废话和说明文字压掉了,但没有牺牲最终交付质量。不过,无论是官方 benchmark 还是我前面的测试,其实都是从 ai coding 的 角度在看这个 skill, 那 对于普通用户来说,它还适用吗? 于是,我又开启了一轮新的测试。由于我平时也在做一些教育相关的项目,所以顺手拿了一张语文试卷,选了一篇古文,分别用普通模式和学居人模式翻译成现代文。 学居人给的这个翻译我有点不太赞同,可以知道兴盛衰瘏以及明白得失这两处都没有翻译到位, 再看普通模式就都说清楚了,我喜欢。为了更有说服性,再看一下现代文的写作,写一篇关于二十四节气的说明文。 deep sea 的 文笔还是一如既往的好,但在学居人模式下,因为过度强调压缩和省略,文章有点变成散文化的短句堆叠, 读起来有味道,但真正该说明的二十四节气知识点反而没有讲清楚讲到位。所以对于语言文学类的应用场景,我建议还是不要打开学具人模式了,虽然也能省不少 token, 但普通模式的输出表达更到位。 跑完自己的测试,我又去搜索了一下网友们的评测,有个小伙伴跑出了高于百分之七十五的成绩,直接获得了一万三千多的赞,不知道屏幕前的小伙伴跑出来是多少,欢迎大家评论区留言告诉我。更有意思的是,我还看到有网友分享过一个案例, 他说自己在 codex 里使用 gpt 五点五的时候,疑似看到了泄露出来的 thinking 内容,当今世界最强大的模型也使用相同的思路训练。我猜这也许就是上几期我们实测五点五更省 token 的 原因吧。 所以我给学居人的定位是高校有工程诚意的 skill, 如果你是一个开发者,他会对你相当有帮助,但其他场景还需要更多的实测,也欢迎家人们给出建议。 测试的时候,我忽然想到,现在的 ai 大 模型是不是为了迁就我们这些碳基生物才非得说人话?想象一下,如果未来的 ai 用我们完全看不懂的暗语把任务完成的又快又好,然后切回人类模式,礼貌的告诉你,事情已经妥妥办好了。 这就有一点细思极恐啊,我是和你一样努力用好 ai 的 碳基生物退役指南。谢谢收看本期视频,下期见。

一分钟掌握今日全球 ai 圈大事!一、重大更新, open ai 疯狂升级 codex! 原本作为程序员副驾驶的 codex 迎来史诗级更新,正式从代码工具进化为通用。个人助理奥特曼亲自下场带货,开发者实测后惊呼 codex 接管整台迈克人类,全程零操作为官太炸裂了! two deepsea 又把多模态推理成本打下来了! deepsea 发布多模态技术报告,用视觉源语的背后的技术细节。 三、 gpt 五点六曝光了! gpt 五点五才刚刚创下跑分神迹, gpt 五点六近已开始偷跑 openai 后台日制里就冒出了 gpt 五点六的影子,是营销行为还是进步神速?评论区聊聊。四、蚂蚁集团正式开源万亿级大模型,令 two point six two one t 五据日录宣布与火山引擎达成深度合作, ai 短剧进入工业化时代。

用 codex 的 g p t 五点五模型和 crycode 接 deep c v 四模型做的三 d 游戏地图,配置好 goto 四点六游戏引擎环境,从网上下载材质包和用 codex 生成对应材质包文件贴到地图上。 gzip 是 性价比之王,适合主线任务推进,但是没有多模态识别,很多时候要拿图给 gpt 询问处理方法, codex 什么活都能干,但是 tock 太贵了,有额度限制,有问题问 gpt。 然后我负责提供材料和在 ai 忙的时候不打扰他去旁边搓炉石。

cloudx 大 更新,订阅用户有福了! openai 现在想做的不只是让 cloudx 帮你写东西,是想让它变成一个能直接在你电脑上干活的助手。这次的更新核心有六点,第一, 现在能直接操作你的苹果电脑,它能看屏幕,点按钮,操作键盘,而且能在后台跑,不抢你的鼠标。说白了就是你让它去试一遍,它真的能自己点进去去看,去检查,发现问题以后再回来改, 改完还会让你再查一遍。第二,他现在自己带了一个看网页的能力,现在可以看你电脑上刚做好的页面,或者一些不用登录就能打开的网页,你要觉得哪里不对,就可以直接在页面上留一句, 他看完就能继续改。以后这个能力如果再放开,他就不只是看,而是真的能帮你一步一步的去做。 第三,他会自己做图了,你只要说一句你要什么感觉,他就能把图做出来,放进页面里,再顺手把整体效果一起调好。 重点不是指出一张图,是能做出一整套风格统一的图片。第四,他一下接近来九十多个常用工具,像任务、聊天、邮件、日历、文档这些,现在能连在一起用了。比如你直接问他一句,今天什么事情最值得我去处理, 他就能先把这些地方扫一遍,把重点拎出来告诉你。第五,他开始记住你了,你的习惯,你之前做过什么他都能记着,下次再用的时候就不用每次都从头解释一遍了。 第六,它还能自己往后安排事情,不是这次聊完就结束了,而且可以过几天甚至隔一周再继续帮你跟进,你可以把它理解成一个会帮你追进度的助手。 open i 这次给了两个很关键的数据,一个是 codex 现在每周已经有超过三百万人使用了,另一个有一半的用户已经不只是拿它来写代码,这开始拿它做各种各样的工作。这个信号也很明显说明 codex 正在从一个单一个工具变成一个更通用的助手。 再往大一点看,这次更新背后的方向也很清楚,欧派刚拿下了超过一千二百亿美元的融资,也公开说过他们想做一个什么都能装进去的总入口。那谁最有可能先变成这个入口呢? 不是单纯会聊天的产品,是已经能直接在电脑上帮你动手做事的格列斯。所以这次更新很像是这条线路真正落地的第一步。 当然,现在也不是所有人都能马上用到全部功能的,能直接操作苹果电脑的部分,目前第一批只在美国开放。对中文用户来说,现在更容易直接用上的是接更多工具,自动作图, 还有同时处理多个任务这些能力。最后做个总结,这次 collect 真正变强的地方是更会做事了。我是波导,欢迎关注。

codex 不是 不能接项目,大部分人翻车是因为前面没加 hermans 这层管家。我以前最怕的不是他写错代码,是一个长任务,跑起来以后越改越散,窗口一关回来根本接不上,你让他直接吃一整团需求,他看起来很猛,实际特别容易失控。 我后来把流程改了,只多加一层 hermes, 效果完全不一样。第一步, hermes 不 让 codex 直接开干,先把任务拆成三段,已完成进行中下一步,这样 codex 每次拿到的不是一个模糊大需求,而是一段明确的小任务。 第二步, hermes 强制留进度,我现在都会让他写 progress dmd, 里面只记四个东西,改了哪些文件,最后一个成功命令现在卡在哪,下一步跑什么。所以就算任务中断也不是重来,而是打开 progressmd 继续接。第三步,危险动作,不让 codex 自己排版, 像删文件装依赖改大范围代码, hermes 会先拦一下让我确认。这一步特别关键,因为 codex 最怕的不是不会写,是你给他太大自由,他就容易越改越乱。所以我现在的感觉很直接, codex 负责执行, hermes 负责拆任务,管状态,拦风险。 这样 ai 才不像一个会聊天的写马工具,而是真的开始像一个能接项目的执行员。如果你也想看我这套 codex 加 hermes 的 项目管家结构评论区打项目管家,我把我现在用的 progress 打 md 模板发你。

deepsea v 四今天发布了预览版,让我们第一时间体验一下新版本兼容 ansible 和 open ai 的 接口格式, 所以可以很容易地在 code code 和 codex 中使用。左边的窗口是我在 code code 中使用 deepsea v 四,右边是 codex, 用的是 gpt 五点四,我用了同样的提示词,让它们修复一个页面上的接口,调用错误。 deepsea v 四不是多模态模型,不能识别图片,所以我不能截图给他看界面报错的样子,也不能把界面截图发给他, 让它照着开发。这样的话 deepsea 就 不大适合用来开发界面,也不能通过 computer use 来操作电脑。我觉得这个是它的一个很大的短板,毕竟现在不支持多模态的大模型已经不多了。我们看到这边的 gpt 经过一段时间的思考, 已经在改代码了,但是 deepsea 还在读源代码,他还没找到问题的原因。我发现他读代码每次都只看两三个文件,然后就要再思考比较长的一段时间,其实他完全可以多读几个文件, 这样速度又快,分析也会更准,毕竟它支持的上下文长度有一百万呐,不用也是浪费啊。再看一下,这边, gpt 已经改完代码,在跑测试了,测试运行中,测试完成了。 gpt 比较好的一点是它会举一反三, 解决一个问题后还会主动检查有没有同类问题。这边 deepsea 也已经分析出问题原因在改代码了,终于改好了,思考了这么长时间,真正解决问题,只要改三行代码,这边 gpt 也在做最后的工作。总结了,可以看到 他除了把 bug 修复了之外,还补了单元测试代码,最牛逼的是他居然自己加了条开发规范,避免下次再犯同样的错误。而 deep six 就 很直男,我真的是无语了。

这个今天,今天上午还是下午的时候, deepsea v 四发布了,然后我下午的时候呢,就用这个 deepsea 的 v 四,然后和它聊聊天, 看这个 flash 的 版本,和它聊聊天,然后之后我就去做事情了。呃,因为之前我打算做一个产品,然后, 然后现在到了前端的 ui 设计,然后调用 fig 码,但是 codex 呢?它一直接不上 fig 码,它一直在卡在这,一直拿不到 use fig 码,它一直拿不到这个,它一直卡在这里, 然后后来的话都给他的五个小时额度都耗光了,他也没有解决这个问题,然后之后我想着去找这个 dbc 微四聊聊吧, 然后他直接装好了,这是他,他把那个 codex 和 fig 码这个他直接连接上了,他一直拿不到这个 uz 这个权限。然后呢? 一开始呢,我是让他呃先检测一下,他直接把呃 crosscode 和这个 fig 码直接接到一起了, 然后后来我就问为什么我的 codex 和这个 flag 码接不上,然后他就告诉我这不是配置问题,说是架构问题,然后他说永远调不出 use flag 码, 然后之后我又问了,我看教学的时候有人就做到了吗?然后之后他又思考一下,对,然后他又他说可以,然后之后就做了,然后他直接就帮我登录,登录那个在我国浏览器上登录,然后之后现在也给连,现在也给连接好了。我靠,这简直是太棒了, codex 那 个 gpt 五点四,它耗了那个大概能有百分之七十吧,五小时的额度,我那阵剩了百分之七十都耗了了,它一直卡在那里,然后我叫这个 deepsea 这个 v 四,而且它是这个,看一下, 它是这个 flash 的 版本,它甚至都没用 pro, 它直接把这个问题解决了。 看这 codex 五开的,我开的是五点四,超高的,它一直绕不过去,它一直解不解?解决不了这个问题, deepsea 微四它直接就解决了。哇,太棒了,支持 deepsea。

太炸裂了!一周前,二月五日,两家全球最顶级的公司同一天甩出王炸模型 openai 的 gpt 五点三 codex 发布,还有就是 cloud code 的 开发商,那么他直接发布了他的 cc 四点六模型,而 codex 五点三的版本直接颠覆了所有人的认知。我们来看看它的文档里面是怎么写的。它是这样说的, gpt 五点三 codex 是 我们首个在自身创建过程中发挥了关键作用的模型, codex 的 团队,也就是人类利用其早期版本,也就是它的 gpt 五点二 codex, 它来调试其自身的训练过程,管理自身的部署,并诊断测试结果与评估。 我们团队对 codex 能够进行如此大幅度的加速其自身的开发进程感到非常的震惊。再读一遍, ai 参与了它自身的构建,这不是对未来某一天可能发生的事情的预测,这是 openai 现在就告诉你,我们发布的这个 ai 是 由 ai 自身参与并创建的, 也就是说用智能体本身去改进智能体,他已经非常非常的聪明了。所以这个消息大家不要去糊弄。此刻我最期待的不是春节联欢晚会,而是那个时候我们 deepstack 发布的新一代的大模型,加油!

codex 用了三个月栽过的坑里有一个让我直接反攻三次。今天把五个最容易踩的坑全告诉你,别走我的老路。第一个坑,不写 a 整数的 md 就 开干 codex 没有约束的时候,他会自作主张,你让他修一个 bug, 他 顺手把整个文件重购了。 agent 打 n b, n b 不是 文档,是给 ai 划禁区的法律。第二个坑, sandbox, 用默认配置默认一下。 codex 的 可读范围比你想的大,生产仓库一定要加上 codex vgr write, 把它锁在工作目录里 这一行参数,避免后患。第三个坑,也是让我反攻三次的那个 context 不 清场,跨任务污染。我连续让 codex 干两个不相关的功能,中间没清空上下文, 结果他把昨天 a 功能与 user id 字段的命名规则和今天 b 功能的订单接口混在一起,代码看上去能跑, review 时才发现命名整个对不上,我重写了三遍才理顺。后来我每开新任务 b clear 这一个习惯救了半条命。 第四个坑,审批模式直接开全自动,听起来爽,实际上 codex 偶尔一冲动就把你的依赖所文件删了,或者把分支 force push 掉。全自动模式只在一次性沙盒目录里用真实项目永远开人工确认或者 on failure。 第五个坑,验收只看 codex 自己的输出,他说测试过了你就信,他说 build 通过了你就信。永远自己跑一遍, codex 偶尔会在脑子里跑测试,然后告诉你都过了,命令根本没执行, 一人公司最贵的就是返工时间。这五个坑你只要避开任何三个,效率立刻翻一倍。你踩过哪个坑?评论区聊聊。

在 gpt 五点五这条线里, codex 环境又被发现出现更早的 gpt 五点六记录,像是在悄悄做新模型测试。更值得注意的是,五点五刚上线不久就被抓到五点六的痕迹,说明这条迭代线可能比外界预期推进得更快。 更耐人寻味的是,外界还把内部代号 g p t spot 拿来对照,猜测它可能是 g p t 五点六甚至更强版本的前身。虽然目前更向后台试跑,但这类信号通常意味着新一轮能力升级已经在路上,值得持续关注。 据了解, monoshock 和 deepsea 正在走向合并,如果这一步最终落地,带来的就不只是团队重组,而是技术路线的重新整合。 外界更关注的是双方是否会借此推出面向多模型的新能力,把原本分散的技术战统一起来,直接影响后续产品形态和竞争格局。 kimi 也被卷入这次合并传闻,外界普遍解读为产品线和模型能力可能要重新整合。若传闻属实,最值得关注的就是他能否补上多模态与多模型协同这块短板,直接影响后续产品竞争力。关注全球 ai 速递,获取更多 ai 前沿资讯。