在 antropic 发布 cloud ops 四点七的同一天,微软打破与 open ai 的 排他性合作惯例,宣布在 github、 co pilot、 visual studio、 agile ai foundry 等九大开发工具中首日集成支持。这是微软 ai 战略的重大转变信号。 对开发者来说,不用离开 v s code 就 能直接调用 cloud ops four point seven swaybench code 得分百分之六十四点,三代提升近十一个百分点,视觉输入分辨率翻三倍, 复杂代码理解能力大幅提升, cloud code 用户也因此获得更丰富的 i d e 集成选项,可以在 copilot 模式和 cloud code c l i 之间灵活切换。微软这步棋的背后,是真正的技术开放,还是对冲 open ai 风险的战略布局?
粉丝380获赞4493

啊,刚刚打开电脑,想开始一天用 open globe 和 herrest 去啊去工作的一天,突然发现微软的 github 发了一个博客, 告诉所有的开发者,他们的高级订阅 pro 版, pro 版、 pro 加版和 student 版已经停止注册新的用户了,并且他在 呃现有的用户的服务中已经把 opus 的 四点六的模式给移除了,而且只有 pro 加的用户才可能可以使用呃 opus 四点七,那这个, 这个,这个呃,其实这个很少人知道,就是微软的那个 get up 的 copilot, 已经是目前我们作为国内开发者唯一可以正常不用非常麻烦的去使用呃克拉克的一呃的渠道,而且它是按照订阅的方式 收费的,收费价格是非常合理非常低的。嗯,当然也有很多人用中转站,其实中转站他是按一次请求的上下稳的 token 会去跟你收费,那种情况下是你很难控制你的成本。呃,我看朋友在呃 朋友圈和那个社交媒体上已经分享过起用中短债一个月刷了几千甚至上万的人民币都很正常,所以这是非常遗憾的一件事情。就是,但是这个事情告诉我们有,就是第一个是算力,这件事情 他不只是竞争了,他是我们关系到我们生活的成本的问题,因为现在这个年代,或者说这个当下这个二零二六年四月快接近五月的时代,我们越来越清晰的知道一件事情,就是手写,纯靠手写,就是 一个程序员靠自己的双手,眼睛和脑子还有耳朵去完成的这一系列的传统的编程。其实在 cloud go 的 这个 opus 或者是哪怕是 solut 的 那个冲击下,已经几乎不存在任何竞争的可能性了。 所以这一点,呃,确实越来越收紧的风向其实更表明了这可能就是一场 ai 对 于我们白领工作的一次一次收割。未来就是谁能真正使用到这些顶尖的 ai 模型,谁就能真正意义上的将自己的生产效率或者说 的你的你的竞争力拉到对别人的降维打击。所以说大模型的就是,尤其是优秀的大模型的算力才是我们要去争取的,我们要去学习和使用的啊,很遗憾。

obfuscating 的 ai 插件到底应该如何使用?它能实现什么功能?插件设置界面?这满屏的专业术语都是什么意思?应该如何设置?今天我就用一个视频为大家讲解 obfuscated 插件的使用方法, 插件的参数设置和使用方法我都整理成了知识笔记,并且把核心参数都以表格形式列出,供大家快速查找。视频的最后我会分享给大家。 今天的视频分为以下几个部分,首先我们来快速的做好准备工作,准备 ai 的 api key 和安装 lm studio, 部署本地 ai 大 模型。 然后我们来做基础的插件设置,也就是配置 ai 的 api key, 然后在 ai 对 话框中和 ai 进行一次成功的对话。 之后我们来看看如何实现 ai 知识库功能,也就是 r a g, 让 ai 能够读取我们知识库中的笔记,成为我们的知识库助手。 最后我们来详细的过一遍口拍了的插件的设置界面,看看每个参数都是什么意思,哪些参数需要重点关注视频的最后我会把知识笔记分享给大家,同时针对 obsidian 的 ai 功能与大家分享一些我的个人看法和心得。 我会讲一下哪些 ai 工具能对 obsidian 实现一个功能上的互补。那么我们就正式开始。首先我们要知道的一件事情就是在 obsidian 中的 ai 插件访问 ai 只有两种方式,第一种是通过 api p, 第二种是通过本地 ai 大 模型。 获取 apikey 的 方式很简单,以 deepseek 为例,我们在官网的右上角点击 api 开放平台,选择 apikey 页面,然后创建一个 apikey, 把这一长串的乱码复制下来即可。我们需要注意的是,大部分 apikey 都需要收费, 费用普遍不贵,但是大家也可以选择有免费额度的 ai, 比如阿里的谦问或者智普 ai 的 glm 模型,它们的免费额度都非常的高,性能也很强。 另一种方式是本地部署 ai 大 模型,本地 ai 大 模型的性能受你的电脑配置的影响,相比 apikey 的 方式, ai 的 性能会弱一些,但是因为部署在本地,会有非常好的隐私性,并且不需要联网。 如果你的知识库中的内容隐私度较高,就很适合本地 ai 大 模型。当然也可以结合使用。 我们下载 lm studio 这个工具,下载之后安装,然后打开,在 lm studio 的 左侧点击放大镜按钮,打开搜索页面,搜索关键词,千问二点五,横线欧米尼,横线七 b, 然后安装。 我们在开发者界面的右侧选择 log 这个选项卡,在下面的上下文长度里选择八千,也就是八千 token 的 上下文长度。 那我的电脑是笔记本,显卡是 rtx 四零六零 laptop 版,显存是八 g。 如果你的电脑性能更强,那么这里的 token 长度就可以设置得更高。 同样,如果你的电脑性能更强,你也可以部署更高级的本地大模型,就比如千问三的十四 b 大 模型。你也可以根据自己的实际需求选择部署其他的开源大模型,就比如 deepstack 或者是 openai。 我们点击设置按钮,打开,使用 c o r s 这个选项,然后把界面右上角的 http 地址复制下来,这个地址就是我们本地 ai 大 模型的访问地址,那么到此准备工作就完成了。 接下来我们在 ai 插件中配置 ai 模型,就可以在 obsidian 中与 ai 对 话了。我们安装口拍了的插件之后,在设置界面中来到 model 选项卡,点击爱的 model, 添加一个 ai 模型。首先是 apikey 的 方式,这里我用的是智普 ai 的 apikey。 设置界面中我们主要关心三个参数, model name、 base url 以及 apikey。 那 我教大家一个小技巧, model name 和 base url 你 可以直接在网页版上问 ai, 比如你用 deepstack, 你 就直接在网页版 deepstack 上问他,如果我通过 api key 访问你使用什么 base url 和 model name, 然后他就会告诉你了。 那这里 model name 我 们写 g l m 横线四点六,这个就是你要访问的模型名称啊,就比如最近比较火的谷歌 jamming 三,那它的模型名称就是 jamming 横线三,横线 pro 横线 preview display name, 我 们就随便取个名字叫 g l m 那 provider 这里建议统一选择 open ai for mac, 那 这是 open ai 制定的一个行业标准, 我在知识笔记中列了一个表格,把目前主流 ai 的 base url 以及匹配 open ai 标准的 base url 都列了出来,那大家直接查找使用就可以了。 然后下面的 base url 和 api key 填入对应的值。最下面的模型能力,那这里分别是推理能力、视觉能力和网络搜索能力。 根据你所使用的 ai 来选择就可以了。如果你不知道你的 api 可以 是否具备这个能力,可以直接在网页版上问 ai, 或者参考我这里的表格。不过要注意的是, ai 的 更新呢,非常快,那推出新版本之后呢,可能就会有一些变化, 那么我们点击 test 测试一下是否连接成功,那如果成功的话,就点击爱的 model 按钮,添加这个模型,然后回到 office 界面,打开 copilot 的 ai 窗口,向 ai 发送一个简单的提示词,那如果 ai 成功返回内容,就说明配置完成。 第二种方式,使用本地 ai 大 模型。我们依旧点击爱的 model, 在 窗口中输入刚才我们在 lm studio 中部署的本地大模型名称,也就是纤维二点五毫米尼七 b。 然后下面的 provider 我 们要选 lm studio, 那 base url 就是 在 lm studio 中的那个 http 地址,那下面的 a p i k 我 们不需要填,因为是本地模型,所以我们要勾选 c o r s 这个选项, 那模型能力勾选推理能力和视觉能力,因为千万二点五 omega 七 b 是 具备这两个能力的。然后你还可以根据你的实际情况调整上下文长度和提示词温度这些参数, 我们点击添加,然后在 ai 对 话框中输入指令,然后就调用了 lm studio 中部署的大模型返回的结果,那么本地大模型的方式我们也跑通了,那么到此我们就完成了基础的 ai 聊天功能的设置。 接下来我们来看看如何配置 r a g 功能,也就是解锁增强生成,也就是让 ai 读取我们的知识库笔记,实现 ai 知识库功能。我们来到 model 这个选项卡,把滚动条往下拉, 来到编辑 models 这个区域,也就是设置向量模型。我们这里先使用谷歌 jimmy 的 向量模型,我们点击编辑按钮,在弹出的窗口中啊,只需要配置我们的 apikey 就 可以了,我们可以点击输入框下面的这个 get jimmy apikey, 它会打开谷歌 jimmy apikey 的 页面,你就可以直接复制 apikey 过来了,然后点击 close, 然后我们来到插件设置界面的 qa 选项卡, 那在这个页面的第一个选项 enable semantic search, 我 们把这个开关打开,然后它会提示我们要要求我们做一次整个知识库的缩影,我们点击确认,然后它就使用谷歌的向量模型对我们的知识库进行了缩影, 缩影完成之后,我们就可以实现 ai 知识库功能了。我们回到 copilot 的 ai 转化框, 把对话模式切换到 voq a, 也就是知识库问答模式。向 ai 发送一个问题,他就会到我的笔记库中寻找相关的资料,然后进行回答。那这里我询问的是有关 jimmy 三的一个复读机 bug, 他 找到了这篇笔记,并且根据笔记中的内容进行了回答,同时他还标注了引用来源,也就是我的这篇笔记。那么到此我们就初步完成了 obsidian ai 插件的 r a g 功能,也就是 ai 知识库功能。 那这里我要说一下, office 点 ai 插件所提供的 rags 功能还是比较基础的,那只能用作你对知识库进行知识回忆这样的一个基础功能。那它相比于专业的 rags 工具呢?比如 launch rags flow 比赛还是有很大差距的, 而相比于 notebook lm 或者是 notion ai 这样的云端 rags 工具,那差的更是很远。 这也是为什么我在之前的视频一直强调 notebook lm 这款工具对奥布斯内来说是一个非常好的功能互补,那未来我也会推出视频来为大家讲解 notebook lm 的 使用方法。 obscene ai 插件的 r i g 功能呢,主要受限于运行的环境,也就是浏览器内核 electron, 它的算力呢,比较有限,使用的也都是轻量级的像样数据库。而专业的 r i g 工具往往运行在 dawk 中,有着自己独立的进程和资源,那使用的也是专业的像样数据库, 而呢,它包括 l m 和 notion 的 r a g 则则是在云端,它们的算力资源呢更强大。那而另一方面呢,在口拍的插件中,想要把 pdf 这样的二进置文件做向量缩影,则需要订阅 plus 用户才能拥有这个功能。 我们在口拍乐的插件的订阅界面能看到详细的信息,那也就是说,如果你是普通用户,你的 obcd 数据库中的 pdf 和图片是不会被锁引的,那也就自然不具备 word q a 功能。那这种情况下,最好的方式就是使用 windows 和 l m, 我并不建议大家去付费订阅口拍了的插件。那么到此啊,我们就实现了口拍了的插件两个主要的功能,也就是 ai 对 话和 ai 知识库问答功能。 那么最后我们针对插件的设置界面进行一个快速的浏览,我们来看一下这些专业的参数如何选择啊,关键的设置我会重点讲解,而所有的设置项目我都总结到了知识笔记中, 那首先第一个选项卡 basic 基础设置,那这里主要是有关插件的界面以及快捷键相关的基础设置主要是关于便捷性的,那这一部分参数都不是关键参数, 那大家可以直接看我知识笔记里总结的表格。那我们来到第二个选项卡 model 这个页面,我们刚才已经讲过了,那上面的 chat model 就是 设置你所使用的 ai 模型,而下面的 bunding model 则是设置限量模型的,那中间有一个参数叫 conversation turns in context。 这个参数的意思是 ai 能记住多少轮对话,能默认是十五,也就是记住你之前的十五轮对话。那设置的值越大,消耗的上下轮 token 也就越大,同样呢也就越贵。那如果你习惯与 ai 进行多轮的长对话,那么你可以修改这个值, 那第三个选项卡 q a, 那 这个页面都是关于 r a g, 也就是知识库问答功能的。那最上面的 enable sematic search 是 总开关,如果你要使用的话就开启 那第二个向量模型,就选择你配置的模型。我们刚才使用的是 java 的 模型。那第三个选项是什么时候对知识库进行?所以 那三个选项分别是从部,所以当插件加载的时候,所以,或者是切换向量模型的时候,所以 我建议大家修改为从不锁瘾,然后呢,手动进行锁瘾即可。那当你修改了大量的知识笔记,然后选用知识库问答的时候,用 ctrl 加 p, 打开命令面面板,输入 compiler, 然后选择 index word, 这个命令就可以对知识库进行锁瘾了。 在下面的这些参数,大家可以参考我知识笔记中的表格,但我建议大家保持默认值。当你的知识库笔记越来越多啊,你可以设置 max source 或者是 r a m limit, 但就像我说的, obsidian ai 插件的 r a g 功能非常基础,那如果你真的有几千篇的核心知识笔记,那我建议你使用专业的 r a g 工具,或者使用 note book, 然后进行针对性的问答。 那第四个选项卡, command, 你 可以设置一些自己常用的 ai 提示词,并且在这里添加到快捷指令,那插件已经给你提供了一些,比如翻译成中文这个指令,它就给你写了一段提示词啊,包括语气,语境,格式还有结构这些要求。 那你可以自己写一些常用的提示词,比如翻译啊,总结,还有格式化等等。那第五个选项卡, plus 是 针对 plus 订阅会员的,那这里我想要着重讲一下第一个功能,也就是智能体功能。 copilot 插件为 plus 会员提供了智能体功能, 它可以根据你的要求呢,自主思考并拆解任务为多个步骤,然后逐个步骤完成。那我们知道 notion 三点零发布之后呢,具备了 ai 智能体功能,非常的强大。而 obsidian ceo 最近接受采访的时候说过, obsidian 对 官方的 ai 智能体功能持谨慎态度, 尤其是考虑到 obsidian 知识库本地化和隐私跨这一问题。那说人话呢,就是 obsidian 短期内不会推出 ai 智能体,那想要 ai 智能体,那就得自己想办法。 那么如果你对 ai 智能体有需求,可以考虑 copilot 的 plus 订阅,那当然我们肯定有很多别的方法实现自己的智能体,那这个以后我会出相关的视频。 那么设置界面最后一个选项卡,高级设置,这里面我们需要关注的就是系统指令, system prompt, 我 们可以设置一个全局的系统指令,对所有的 ai 问答设置一个宏观的规则。呃,就比如,呃,请使用专业严谨的风格回答,不要有过多的暧昧,那或者是呢,在提示词中给它设置一个统一的回复格式等等。 那么以上就是口拍的插件的设置界面,总体来说,口拍了它作为 obsidian 的 旗舰 ai 插件,基本囊括了主要的 ai 功能,但相比于 notion 这样的工具还是有一定的一定的差距啊。 但是得益于 obsidian 文件本地化的特性,我们有很多种方法来为我们的知识库加装 ai 功能。那大家可以参考我屏幕上展示的这几期视频, 我对 obsidian 的 ai 扩展有很详细的讲解,那如果大家有任何问题或者有想要实现的 ai 功能,欢迎给我留言提问。 那这期视频的知识笔记可以在我的个人主页领取。我的个人主页呢,在我的频道简介中,那么今天的视频就到这里了,如果视频对你有帮助,欢迎点赞关注。

copilot 这一波更新的本地背景云选项以及 cloud codex 究竟是做什么的?看完这一期视频,你会得到答案。这两天你可能发现 copilot 编辑左下方多了这样的选项。先说结论,本地就是原先的使用方式,在 id 中进行对话,读取文件,执行任务。 而背景模式实则是一种更偏向于后台执行任务的方式,因此它只支持 agent 模式。两者主要的区别的话,本地模式更加会偏向于实时性的协助,比如你和 ai 实时对话,实时迭代你的代码产物等等的。但是背景模式则更偏向于在后台去进行独立的处理, 在完整执行好整个的工作之后再给出你结果,因此会更加的结果导向。所以如果是比较复杂而又不需要实时检查他的执行路径的任务,比如大规模调研等,会更加适合的来用背景模式。最后是云模式,他跑在 github 的 远程基础设施上,完全脱离你的本地环境,因此非常适合团队协助的 github 项目。 比如我们这里可以看到,我能够在这里选择我的代码仓库,比如说我选择了我的这个飞书机器人构建的 scale 仓库,然后输入让他做的任务, 比如说在 readme 文件最后加上一行谢谢这里它就会自动去云端执行,并且提交 pr。 ok, 我 们这里可以看到 go play 已经完成了这一次 port request 的 提交,包括呃,我们原生的这个 prompt 在 这里也有体现。并且我们可以看一下最后的文件修改情况,确实是在 readme 文件最后加上的一行谢谢是符合我们的需求的, 所以对于这个云模式来讲的话,确实对于团队合作的 github 项目会特别的适合,而且这也是 coop 了的对于 github 生态适配的一个优势点所在。我们再来聊聊这里的 cloud 和 codex。 二月四号 github 官宣, cloud 和 codex 作为 coding agent 进入了育发的阶段, 这一支是我最关注的更新,因为可以在用官方的 sdk 的 情况下仍然享受 code 的 模型或者 codex 模型本身,因为 codex 原本就已经可以调用这些模型了, 而关键词是 s d k。 以前你在 call python 里面切模型的时候,本质只是换了一个回答问题的大脑,系统的提示词不会变,工具不会变,行为逻辑也不会变,只是底层替换了一个处理任务的大模型。 而现在接入的 cloud 和 codex 并不一样。我们先说 cloud, cloud agent 用的是 aspropack 自己的 s d k, 它是有自己的一整套工具链的。比如我们可以看一下,在 c l i 中,我们输入斜杠会看到这里就是 cloud cloud code 的 c l i 的 相关的命令行指令,它跟 copilot c l i 的 命令行指令是完全不一样的, 包括我们可以在这里通过斜杠 memory 之类的来像 cloud code 里面一样管理专属的 cloud 点, m d 记忆文件等等的。并且它也有与 coopilot 相似的三种模式,自动编辑、编辑圈询问以及计划模式等等的。而 codex agent 则更像是直接用的 codex 的 可儿。我们在这里切换 codex 模式,跟我们直接从聊天框这里 打开 codex 是 一个效果,我们测试一下,我们这里直接用 github copilot 的 账号登录来共享我们所剩的额度以及按次计费的逻辑后,我们测试一下看看它能否正常的读取并且修改当前工作区的文件啊。 ok, 我 们可以看到它正常的列出了我们工作区所有的两个文件,以及并且完成了第二个文件的修改,把 thanks 添加进去了。所以只要我们在这里开启 id context 之后,它就能够向 copic 的 对话框一样正常的读取我们工作区中所有的内容。为我们小结一下,我们今天介绍了 copic 的 五个更新,以及它们的区别和适用场景。本地模式适合实时写作,背景模式适合复杂的结果,导向性的独立任务。云模式适合团队协助的 get up 项目。 而 cloud 和 codex 的 接入本质上并不只是换了个模型,而是引入了各自的 agent sdk 和工具链,在享受 cocopic 的 暗自记费的逻辑下,提供了另一种更加原生的 agent 的 体验。如果这期视频对你有帮助,希望你能给我点赞,双击三连,我是 carl, 关注我们下期见!

snoop 又搞 k y c 验证,你的 knoop 的 账号是不是又阵亡了?别慌,今天带你白嫖隔壁 gitop 的 抠拍了,它不仅能用上顶级的 knoop 模型,还能把价格直接打到骨折。我们至今不知道 snoop 老板被百度干了什么,就一定要对咱们国企的开发者赶尽杀绝吗?啊? 如果你也受够了这家公司的开发者赶尽杀绝吗?啊?如果你也受够了这家公司的是 gitop, 抠拍了它! 众所周知, copilot 是 get up 推出的性价比超高的咸鲜服务,每个月只要十美金就能拥有三百次模型调用。重点是这里面包含了当前的尖咸 cloud, opus 四点六, sonya 四点六,还有 gpt 五点四。但是 很多小伙伴一两天就把这三百次挥霍一空,还抱怨不够量大管饱。朋友,那是你的姿势不对。接下来我将分享一套抠派了的究极携方案,能把你的 request 消耗直接降低十倍,甚至实现无限细微。 核心机密就在于利用抠派了的 c l i 自带的一个工具 ask user。 正常情况下,你每次发送需求,系统就会扣除一次 request, 这谁顶得住啊? 可是只要我们合理运用 ask 优 sir 让抠拍了的在每次完成代码后,主动触发工具来问你下一步干嘛, 这时候你继续提要求是完全不消耗 request 的 次数的,相当于卡了系统一个合法的 bug。 废话不多说,直接向操作,把你看到的这段提示词直接复制粘贴到你电脑用户跟目录下的这个 md 文件里, 这是一个一劳永逸的操作,以后所有项目直接生效。加上这段魔法指令后,你会发现每次写完代码扣派了的就会像个贴心小助理一样触发 ask user 等你发话,无限循环,无缝衔接,而且账单项只扣了一次 request 头,肯焦虑?不存在的。 two thousand years later, oh d d oh what it is oh d d what are you? 但是博主在这里必须别个讲,做人不能太贪心,你建议大家一次吸个吸轮以内就差不多了,别拿脚本搞无限死循环。要是被封的号或者逼的官方改规则,那咱们所有人都得喝西北风, 羊毛要薅,但得可持续发展,对吧?好了,如果你觉得已经够省了,那你的格局还是小了。下期视频我将教大家用更狠的黑魔法,让你的抠拍了的 pro 成本再暴降百分之四十,我们下期见!

我们今天介绍一下 github, 它的一个交互的 ai agent 叫做 github token, 它的一个主要作用,第一个主要就是代码补全, 第二个呢就是这是积累,就比如说它提供了一个点 github skills 的 一个 目录,这个目录里面可以去存放,比如说 copilot dmd 或者是 cloud dmd。 因为现在 cloud code 或者说 github copilot 它们使用的方式是比较类似的,所以它们 至少对于口 pad 来说,它会去兼容 color code, 它的一个目录的框架,比如说我这边不是点 github, 我 这边是一个点 cloud。 那 当我们打开 github 口 pad, 一 般使用 vs code 的 插件打开以后,你在对话框里面去输入,比如说反斜杠 skill, 它就会去显示这些。在比如说这是我的工程目录,工程目录的第一题是点 cloud, 下面是 skills, 那 你这边去敲这个反斜杠 skills, 它这边就会显示它在打开这个对话框的时候就已经预加载了这个 skills 的 里面的,比如说各种各样的你你之前做过的保存下来的知识。比如说一般 skills 里面有一些,比如说我们举个例子,比如说你有一些代码质量优化的一个 cloud md, 里面会记录了它做了哪些事情,分布怎么做,以及触发这个 skills 的 关键词是什么, 或者说你有一些头文件的检查也是类似的。或者说你还有一些,比如说让它先生成一个全新芯片 part 的 一个配置都可以放在这个 skills 下面,这是一个,我们再介绍一下 一个叫做反斜杠 instruction, 这里面对应点 cloud 里面就是它的路由一个目录,对于点 github, 它就是点 github 路径下的 instruction, instruction 在 这几目录下面主要记录的,比如说我们大概举个例子是 c 的 一些编码规范,比如说你用大头分、小头分,以及你这边函数命名需要用破折号,以及你每个模块它的一个命名规则都可以放在这里面。 或者说你可以放一些比如 git hub, 或者 git 提交的一些命名规范,比如说你要包含 jk 的 id, 包含你的功能的描述,然后包含你的一个它是比如说类型,你是一个新功能还是一个 bug, 这些都需要加以描述。 那这边你敲一个返回和 instruction 就 会去显示,你在打开就是 compile 这个对话插件的时候,它已经加载了这些功能。为什么说这两个是用来做知识积累的?因为你每一次其实 skill 这个比较好理解, 比如说你这边跟 copilot 交互完,它这边有这些就是能力,你可以把这些能力记下来,方便你下次去调用,因为这些东西其实是比较通用的,可能你每一次 在代码里面,你都可以去使用它,保证你的一个代码质量。其实下面这个 rules 也是一样的,它能保证,比如说你要求可靠地去生成新的代码,那它就会去遵守你这边 rules 里面的规则,包括你提交的时候,它会去遵守你的 get 提交的一些规范。再聊一个上下文的问题,因为现在对于它会你的 token 的 消耗,你的上下文可能尽量少会比较好。 另外一个就是魔性的注意力,比如说我的一个上下文是两百 k 或者是一百八十 k, 那 其实他其实八十 k 以内 是他注意力比较高的时候,也就是说他的智商比较高的时候,这个时候其实你会给他东西质量越高,他给你反馈越好, 你这边后面如果下降慢慢变多,他整个其实智力会下降,这是一个点。那第二个就是我们去权衡,你这边东西喂的太多不行,喂的太少也不行,如果太少他这边有的背景是太少,提出的建议就没有什么可以参考的,所以需要去权衡这两个。 我们上面教的这些 skills, 包括 instruction, 它这些是会做一些预加载,就是加载到它的上下文里面,当你问的时候,它会直接就是触发关键词去使用这些 skills 或者是 instruction。 基于这个再提一下,我们也可以去选定特定的文件, 第一个比如说你去告诉这个路径。另外一种就是我们可以在打开的文件里面,它一般会有一个去加载这个文件,我们去点击加号。 还有一种就是我们可以在这个打开的文件里面去选择特定的行号,那这个有它的对话框里面会有显示这个文件的这几行已经被加的,我们选中这几行就可以了。 这是关于 github cloud coopilot, 它的一个就是大概的介绍, 整个还是要去配合我们在上讲介绍的 cloud code 这些 ai agent 它的一个使用的方式去加以运用。那关于 it hub code palette, 那 么就要到这里。

今天给大家说一下怎么在 windows 上安装 code, 以及怎么在 windows 上使用。首先我们打开一个浏览器, 然后输入一下 code, 点积木 x y z 点 com, 然后我们把它放大,找到一个 c l a 安装与配置选项,这里有个 context, 找到 windows 这个选项,点击使用说明。 我们这里系统的要求就是需要 windows 十十以上,然后这里可以安装相关的依赖,需要需要安装 note g s 和 git, git 是 可选的,我们首先要安装 note g s, 打开这个网站, 然后点击这里进行下载,下载完毕以后点击下一步就行了,因为我这里已经下载好了,就嗯就不做影视了。然后我们打开一下这个, 这里首先需要环境检测,这里可做可不做,就是大家如果没安装 get 的 话,没安装 get 的 话,这里环境检测就会失败,我们点击复制一下命令,这里点击一下 cmd, 然后把这个命令复制下去,要安装完 get get 以后,这里环境检测就会出现这个绿绿色的部分,这环境检测已经通过, 这里我推荐大家使嗯,不要使用 windows 原生态的 cmd 使用使用,嗯。 vs code, 我 们下载一个 vs code, 在 这里直接搜索一下 vs code, 然后点击这里, 其中类 vs code 也可以,比如 css 等等的。有一些相关的软件可以直接打开终端,然后点击这里进行下载, 这里已经开始下载了,然后大家直接点击下一步,默认进行安装就行了,我们这里已经下载完毕了,就是这个, 然后我们这里是我的相关的项目,然后我们可以新建一个文件夹, 以后写项目就在这个文件夹上面,比如我的项目,然后把这个文件夹拖入 vs core 的 中, 然后点击信任这个作者,然后我们可以在一开始 vs core 的 这里是嗯,英文,然后我们在这在扩展,这里可以搜索一下,搜索一个中文, 然后把这个安装下,安装下来,然后再切换一下语言,这就是中文的显示,然后我们继续看一下它是如何说的。 在环境检测这里相关的终端,就直接在这里点击一个切换面板,就是相关的终端, 然后在这里终端可以任意添加,添加很多个, 我们以第一个终端为例,这就相当于打开一个 c m d, 然后点击粘贴,粘贴粘贴进去了,点击回车键,这里显示文件检测通过, 然后把这个缩小一下,看一下, 这里需要卸载,嗯, codex 如果你没有安装,可以跳过,我们卸载一下,点击复制命令,这里卸载, 已经卸载完毕, 然后需要安装 context, 这里是复制,然后在这边直接粘贴, 等待安装,这里已经安装完毕,然后验证一下安装, 直接复制一下命令,这里相关的提示,如果有错误,直接直接按照这这个错误直接复制这个相关的命令就行,跟不同的电脑有不同的。嗯,要求我们直接复,把这个复复制下来,然后进行粘贴, 可以看到 codex 已经安装完毕,已经出现这绿绿色的小圆点, 这里是可选的,然后我们就不执行,然后需要登录去创建 cortex 的 key, 然后下面就是写一键,用脚本去写,写入这个 key, 我 们先创建一个 key, 嗯,这里就是需要创建 cortex 的 key, 然后就在这里选择一个产品线,点击 cortex, 然后输入一个名称,随便输入一二三,创建这个 key, 这个 key 已经复制过来了,就这就刚我们创建的能复制下来,我们在我的项目这里输一个,创建一个文件夹,把这个 key 复制下来一点。 md, 把这个复制上去,刚刚的 key 复制粘贴, 这就是刚刚我们嗯创建了 key, 然后再回到嗯原来的安装的脚本以及说明,点击这里使用说明, 嗯,创建 key 以后,第六步已经完成,然后就这里有个命令,一键写入脚本,这里这个命令就比较长,还要替换嗯你的 key, 然后就复制下来,然后放到嗯这这里, 这就是刚刚复制的命令,这里注意需要把你的或者是 a p r key 替换成,替换一下,把这删除,然后把这个复制下来,粘贴到这这里,这就是刚刚我们的 key, 然后把这一部分 复制到终端中,点击粘贴, 然后点击回车,这里已经写入完毕。这一行大家不要管 这里,嗯,就是写嗯,写入相关的已经完毕了,然后它显示要重新开一个终端, 下一步就这里,下一步就是手动配置,大家可以嗯自自动进行配置,手手动配置我们就不看了。 然后下一步就是你的进进入你的相关的项目,然后在终端输入一个 context 就 行了,然后把这个 context 和终端叉,嗯,删除和输入一个 context, 然后就进入 context 终端的界面,大家就可以在这里写嗯嗯写项目,比如这里可以输入一个斜杠 model, 这也可以选择相关的模型,目前我们选择的是 g p c 是 五点四,然后输一个二,然后再输一个四,这是 g p c 五点四的模型, 然后再输一个斜杠 app, 这是允许,呃,国泰 s 执行什么范围?我们选择四就是允,允许它全自动, 不需要经过我们的允许,他就可以自行的修改代码,修改文件等等。我们选择个四,那再输一个一, 然后我们把这,嗯,比如我们问一下,或者是你好,你是谁?你可以帮我做什么? 来看一下他怎么回答的, 它已经回答完毕,这这里就是它相关的回答,然后我们点击这里用量日式,可以看到这是刚刚我们创建的 key 的 名称,然后相关的模型以及消耗的积分, 然后以及时间,然后我们再把这个 context 给擦了,然后如果你想回到原始的,嗯, context 就 输一个 context。 瑞苏米 那点击这是刚刚我们创建的,然后点击一个回车就回到刚刚的相关的,嗯,项目项目的范围中了。同时我们可以也使用 vs code 的 插件,点击扩展这里 下载一个 context, 输入一个 context, 下载第一个,这里有个官方的标识这里, 然后把它下载下来,下载下来的时候大家就就可以看到 vs code 这边有一个 context 的 相关的,嗯,图标在这边,在我图标点击了这里,点击一下 它就会出来相关的 port 的 事,比如刚刚我们两分钟前的它这里显示一个两分,然后我们点击这里,然后就没必要进入,进入到终端中,直接在这里可以进行和它进行对话,比如,嗯,问一下, 你可以帮我写 matelab 代码吗? 就直接在这里进行工作,终端这里如果大家不方便使用,直接在这里插件部分使用, 他这里他已经进行了回答。

大家好,这里是 ai ar 眼镜社区,今天给大家介绍一款真正的生产力智能眼镜,摩纳扣 ar 眼镜。它绝对不是普通的 ar 眼镜,而是专门为 ai 编程项目创作、高效办公量身打造的专业级穿戴设备。 整机仅重四十八克,配备单目光波导显示集成摄像头与扬声器,搭配顶级骨传导麦克风,就算轻声而语也能精准识别出入。最核心的是它强大的生态连接能力,防打孔可以直接打通,接入 cloud code、 pods on、 real engine、 blender after effects 这些专业编程和设计工具,把各类创作软件整合成一套连贯统一的移动工作站。它搭载全球首个基于 linux 发行版打造的 monos 智能眼镜系统, 采用 loa 应用架构,内存占用极小。还有一个亮点是内置 rev 动画,让 monos 成为首款能运行电影级动态 ua 的 可穿戴设备,满满的未来科幻交互感。 而且它的 ai agent 能力非常强悍,可以及时生成鲁微应用,无需翻译就能实现边生成边运行的 ai 原声应用模式,还能直接用一句话生成专属 app, 搭建服务器实时体验,根据不同工作场景快速定制专属工具, 同时支持跨平台无缝互操作。在 monaco ar 眼镜云端, sandbox、 本地 mac 和 pc 之间轻松搭建流畅工作流,设备之间无缝协同办公。 不管是开发者、创作者还是技术极客,这款主打生产力的 monaco ar 眼镜都可以说是非常硬核的存在。大家对这款 ai agent 功能拉满的 ar 眼镜怎么看?欢迎在评论区留言讨论。

你以为 cloud code 只能调 cloud copilot, 只能用 gpt? deepseek 官方出了一个合集,让十六个主流 ai 边行工具全部接入他们的模型。 现在用 ai 写代码最大的痛点是什么?不是模型不行,是钱包不行。 cloud pro 二十刀一个月, copilot 也差不多,如果你的团队有十个人,一年就是大几千刀,但很多日常开发任务,根本不需要最贵的那个模型。 这个 awesome deep sea agent 合集是 deep sea 官方自己整理的,里面包含了你每天在用的工具, cloud code datapopilot, open code, killcode, co pilot c i pi, 还有 open cloud astro bot 这些聊天工具集成。 每个工具都有官方手把手教程,配好 api key 就 能跑。上线一周, github 已经涨了五百多颗星,二十个贡献者一起维护 deep sec v 四 pro 的 代码能力在各大榜单排在前几名。日常开发 api 开发用完全够用,关键价格只有币源模型的几分之一。 模型选对的,工具选熟的,不花冤枉钱。 github 搜 awesome deepsea agent 收藏备用。追星不盲从,实测出真知,我是锋芒 a a i。

微软为何弃用自家的 compellate? 昨夜,科技圈炸开了。微软这个 compellate 的 亲爹,这个给 open ai 投了一百三十亿美金的金主,昨晚被爆出正在强制要求内部数千名核心工程师放弃 compellate, 改用竞品 antropic clock code。 你没听错,连负责开发 windows、 office 和 teams 的 核心团队,甚至是非技术岗的产品经理,都在这波强制试用的名单里。这个不是背刺自家产品这么简单,这背后藏着一个让所有还在手抄代码的程序员必须看清的残酷真相。为什么? 为什么卖铲子的人自己却悄悄换了挖掘机呢?原因很简单,但也非常致命。在微软看来, copilot 这种代码补全工具已经完全过时。大家想一下,我们在用 copilot 用的是什么?本质上,它是一个超级的自动补全工具, 你写一行,他猜测下一行,他的定位是 compilot, 也就是副驾驶,他的手不碰方向盘,需要你来开,他只给你提供方便。但 cloud code 是 什么? ajaxai, 它是代理式 ai, 它不是在 a d e 给你弹窗建议,它是直接接管你的终端。 你给他一个指令,说帮我重构这个模块,顺便修复所有的关键 bug, 然后跑通测试,他就会像一个真正的初级工程师一样,自主规划、自主执行、自主检查。微软内部的测试书记已经说明了这一些,在处理复杂的跨文件的架构型任务时, copilot 这种补全模式根本不够用。 而 cloud code 展现出的这种推理能力和自主执行能力,才是下一个时代的生产的标准。还有更可怕的事情正在发生在这场微软内部的大练兵里面。不仅是工程师在用,连设计师和产品经理都要用 cloud code。 你想想看,以前产品经理有个点子,得求着开发,去排期,去做原型,要做大量的沟通。但现在呢?蔚然鼓励他们直接用 cloud code, 是 自己生成原型,几段提示词,一个可运行的应用就生产出来的。这也就是硅谷现在最火的概念, 没编程。当不懂代码的人通过 ai 有 了代码能力的时候,那个曾经保护着我们饭碗的技术壁垒已经坍塌了。微软 ceo 纳德拉已经在公开场合说了,微软内部百分之三十的代码已经是 ai 生成的。注意,这还只是开始。 当 ai 从辅助写代码进化到独立完成事件的时候,传统的初级程序员,那些只会写 c、 r、 u d 的 中级程序员,你们的生态位在哪里?所以,别再想 ai 是 不是泡沫了,微软的行动就是最诚实的投票。 这不仅是一次工具的迭代,这是一场编程模式的代际,跟替未来的软件开发不再是比拼,谁的语法背得更熟,谁的 a、 p i 记得更牢,那种是为了写代码而写代码的时代结束了。未来的核心竞争力是 ai 编排能力,你要从一个砌砖的人转变成一个指挥家, 你需要懂得如何拆解业务逻辑,如何向 ai 下达精准的指令,如何评估 cloud gpt、 gmail, 哪个模型更适合当下的工作,如何把它们串联起来为你工作。当下微软的策略就是多模型策略,它不在乎你用什么模型,它在乎的是这些 agent 都能在它的 agent 上跑, 所以他已经看透了本质,你呢?最后我想送给大家一句话,淘汰你的永远不是 ai, 而是那些率先会用 ai 指挥千军万马的超级个体。好了,这里是阿木 ai 编程, 如果你想用全球最顶级的 cloud code、 codex 等编程 agent, 请关注我并回复 cc, 我 将拉大家进我们三千人的 ai 编程交流群,在这里,从开通账号到实战技巧,从项目创意到上线部署,全程都有人带。

一个人就能撑起完整的团队体系,这个开源项目把两百一十一个 ai 专家打包到一起,覆盖代码、工程、设计、营销等十八个领域。 每个智能体都有独立人设和专业流程,一句话就能让多个 ai 专家自动写作,几分钟交付整套方案,还能无缝接入 cloud code、 composer、 copilot 等十六种 ai 编程工具,感兴趣的朋友赶紧去试试吧!

hello, 这里就是一个小米 miimo 的 呃,那个 poke 免费的申请的一个教程 用,就是那种本科的必设项目申请的一个,先在这里搜一下它的那个呃,百亿计划,直接搜小米 miimo 一 百 t 就 行了。 这个在不在这个谷歌浏览器,在那个电脑自带的微软上面也可以,只是微软那个我申请了那个点不进去那个申请页面了,然后进来以后点这个立即申请。 首先要一个邮箱,我这里我当时直接用的我的 qq 邮箱,然后这这里我就点了我平时用的呃 cloud 跟 gpt 的 codex, 所以 这里就 cloud 跟 gpt。 然后这里我是 呃,因为我那个项目是上传到了 github 上的,所以可以用 github 呃,在这里选择你的那个仓库,然后再来用。呃,就描述一下,就比如他这里是要描述使用 a 卷驱动的具体成果,直接把这句话复制过来。 然后因为我是有不同的分支的,所以我还要说明一下分支,如果只有一个的话,就直接说这句话应该就行,然后看这下面的直接复制过去就行。但我感觉这个有点写的有点烂, 所以我后面就又呃又让他,因为他这里其实还说包含以下要素,要素就这些也可以呃送给 ai 了,所以就是又发了一次,然后这一次的就好一点,我当时就直接这样呃复制, 然后像这种,这这个是单 a 卷的,那就不复制,算缺点了,就不复制剩下的 no 的, 直接把它复制过去就行了。 然后这个截图我是上传的,这里呃把这个模型截了一个这个图,然后还有一个这个,因为我这是口袋的,不是最近限额了吗?然后所以还截了个限额的图。还有一个这个图, 然后以及我这个是 g p g 系列的吗?还有一个 club 的 系列的,我是在新闻上买的那种别人的外接的头肯,反正就是又截了一个这个充值的这个图, 然后就是这几个图,然后就是这边的截图,其实其实就是他说的 ai 的 账单截图, 还有哦工作流程图,其实就也可以,就是你平时使用 cloud 的 或者什么的运行的那些问题,还有他结果反正就截截两张,截一两张就行了,然后还有给他不。呃,项目链接,这个就是直接在这里放就行了, 我直接放的是我那个项目,呃,也就是这个项目的 gitlab 这个项目的链接 应该就是放的这个。呃,对,就是这个, 就这个,然后放过来,然后这就完了,然后就是提交申请,然后之后提交申请之后它那个邮箱会给你发一个,呃,就代表你通过了的,就是我那个, 哦,我发的那个之前一个作品的第一张图就是代表,呃,确认你通过了,然后这个应该可以提前保。嗯,就是说一个注册吧,你就是因为到时候你登进去, 呃,因为它不是通过邮箱发送吗?包括你这里注册也是这个邮箱,所以它登录应该是那个邮箱登录进去的账号才有那个 token。 我 感觉是这样,所以我,呃,但它是刚开始是手机号登录,我看一下。 呃,哦,对,刚开始因为没有小米的那个账号,所以他但他注册只能用手机号注册,所以一般是先注册手机号,然后在这个就是从这里,呃,其实也就是这个页面回来, 就是就是这个页面往下滑,这里, 呃这里这个零四这里,然后点击这个前往绑定,就会跳转到这里, 你到时候把那个手机号跟那个邮箱给绑到了,绑到了过等一段时间,呃,并且那个 qq 邮箱里面发了邮箱,那 qq 邮箱里面发邮箱一般是要过个呃一天以上, 或者我也不知道,反正我是一天以上。然后呃再确定你这个账号跟手机号是绑定了的,然后之后再用邮箱登录,登录以后,然后就能看到我不知道为什么我余额还是零呢?然后就能看到你这个订阅的送给你的一个呃,套餐, 然后这个这个套餐如果你自己买的话还还要还要三百块钱呢,当白嫖三百了。然后之后是怎么再呃接入,这又到哪去了? 嗯, 接入就是接入要的东西,就是这里原本刚开始是什么都没有的,就是要你创建一个 api, 然后它仅在创建的时候可复制,所以创建以后记得要复制一下,然后复制以后这个是需要的,还有一个需要的是这个, 呃,因为我是接入 cloud, 其他的我不知道。点击这个 cloud 配置, 嗯,这个要先安装那个 cloud 的 那个,呃,安装我我都不记得怎么安装的了,反正就是得有, 就是你在命令行里面输 cloud, 它能展示出 cloud 的 那个页面,然后配置,配置情况就是跟着这个教程,你在那个文件里面,这个用户 里面找到这个点 cloud, 然后再找到它那个配置文件 setting and json, 把它打开以后,再把这个就直接把这个全部,然后布置到这里面,然后要替换的就是这个 base u r l, 诶,这个 u r l 它这里也提示你了,是用这个 我给你念,呵呵。呃呃,反正就是用这个协议,然后这个协议是在 啊,反正是就是我之前说的那个要记得的那个一个里面填这里,然后还有一个填那个你刚用的那个 api, 然后把这两个给替换来, 像我这样把这两个替换了以后,记得点 ctrl 加 s 保存,然后再把它叉了。然后还有一个是这个,呃,用户的 这里有一个点 cloud json, 然后这个里面还要把这个呃这个给弄上去, 然后这个我当时也不知道有没有。那你就先呃把它复制了,然后在这里面点 ctrl 加 f 查找一下,要是有的话就不用搞了,直接插掉就行,然后之后再在你的终端里面呃,打开 cloud 就 直接输,就是如果你下载好了,你直接输 cloud, 就是 也是应该会有那个这个界面的,你想看你有没有好 哦,用这个输入一个,哎,中文英文的,然后 status, 就是 情况嘛,看一下它的那个模型卡到了,呃,然后, 呃就可以看到它这里,这里用的是小米的那个协议,然后这里的模型用的也是 pro。 对,然后按 esc 退出就可以继续。呃,想说什么命令就说什么命令了,然后连到控制台, 就是刚刚刚那个 u base u r l 填的就是这个,然后 api 填这个还有啥? 嗯,还有就是它用的挺快的,我问了两次哦,我用的是 pro pro 它是相当于是它用消耗是两倍的这个模型,反正我问两次就用了这么多了,哈哈。哎,反正白嫖的。不用白不用了,就这样了。

我们今天介绍一下 cloud code, 它的话是一个 ai agent。 我 们先聊一下 ai 的 一个演变的过程,第一代主要是用来对话的, 代表产品是 excel gpt, 第二代是强化了它的推理能力,主要代表是 deepsea。 第三代就是我们这边要介绍的 ai agent, 它是一个智能化,代表的是 cloud code 或者或者 github 的 palette。 在 第一代和第二代的 ai 中,它主要作用还是比如说你去问它一个,然后它告诉你一个结果。那我们以比如说 coding 为例,其实你还是需要手动去改代码。我每次比如说 开启一个新的绘画,你需要把比如说工程里面的任务东西都在喂给这个 ai, 让他去回答,就比较繁琐。有一个是需要手动去取要代码,然后另外一个就是 每次开启新绘画的时候,需要重新去给他喂知识。 在 ai agent 第三代的时候,相当于它可以你提需求,它可以直接帮你把代码也修改好,甚至可以帮你提交到 data 上面,或者是用 get 去做一个管理,这是它的优化的地方。 第二个优化地方就是它可以去感知环境,就比如说你是在一个工程里面打开的这个 ai agent, 那 这个时候它会去基于你整个工程去便利找到它需要的内容,然后生成知识,然后反馈出来, 这它两个比较大的提升,也当相当于在 ai agent 这一代的时候, 它的作用会更明显,或者说更加能够契合进整个工作流里面。那这整个 air 的 眼镜现在到第三代可能还有第四代、第五代,但目前应该是 air agent 以 cloud code 为代表的会用的多一些, 我们讲一下 cloud code 它主要的一个变化,主要还是 目标的一个导向。举个例子,我们可以把可爱的扣子当做一个实习生,你给他喂的知识越准确越详细, 那其实最后能完成的就是达成的效果也就越好,越明显。我们这边举两个例子,第一个有时候我这边有一个工作是需要去 给十个工程它里面的头文件添加一个红,那正常呢?其实我们就是手动自己去一个一个添加,但这种其实比较简单,也比较怎么说耗费时间但不耗费心力的, 那这个时候你可以交给克拉的扣的,让他去完整,你用自然语言去描述框定一下这十个工程, 那你其实都一个定量了,你要定性,你希望他去修改每个工程里面就具体名称的一个图文件,再去得位置加一个红,那你这边他生成完以后,你再去检查一下 这边比较重要的一个点,你去作为一个 reviewer, 就是 一个审查者以及一个决策者,你去决策它生产出来的东西是不是你想要的,如果是就保留,如果不是再继续跟他对话去迭代,让他去生成新的内容。第三个,当比如说一个 目标比较大的时候,你作为,比如说你把它当做一个实习生,你是给它,你需要把它这个大目标就是笼统的目标,给它拆解成小的目标。我们简单举个例子,比如说你需要用一个脚本 去,比如说去计算一个看控制器里面它的 mesh mailbox 的 一个,或者说 mesh to buffer 它的一个分配情况。那第一个就是这个目标比较笼统,那对于 ai 来说,它比如说你有很多灯需要配置, 那其实第一步你需要把这些针吃进来,一般是以表格的形式。那第二个你可能是需要去处理这些,它的一个复杂的分配,你需要去计算,还有若干的这些都是小目标, 你一个一个,比如说 a 达成了,你就用 get 把这个提到 get 上面做一个管理,然后 b 达成了,你给它提到把一个大的目标拆解成小的目标,让这个 cloud code 去完成, 那本质还是把它当做一个智能体,或者说一个能干的实习生帮你做一些事情。小目标可以让他直接,比如这个目标比较简单,你可以直接跟他说,让他把这个直接完成,但是目标比较大的时候,你作为一个拆解, 一个小目标完成以后,你再用 get 去管理,让他一点点的去携带去,再按照步骤 拆分,逐步完成。其实最后还是你去作为一个 review 或者说决策者去判断他每一个小目标是不是完成的足够好,如果完成足够好以后,你再进行下个小目标,得到最后一个大目标的一个整体的完成。然后第三个我们介绍一下,就是积累 一般可能的扣子,他是需要去,比如说,呃,我们以第三个就是你的目标表达拆完以后就是你可以把这些小目标都记录下来。 这边 cloud code 它提供了,比如说 skills 或者是 rule, 或一般是记录规则或者 skills, 或者说你这个脚本它单独有一个 cloud code, 点 m d 去单独记录这个脚本它是怎么产生的的?一些重点的调试的步骤都可以就在这里面。 这就涉及到一个是积累,你把你这边整个思考的过程其实是记录在这个 cloud dmd 里面。关于 code code 我 们介绍这里。

tikub 官方出手了,他们做了个 m c p 服务器,将近三万颗 star。 什么概念?你的 ai 编码工具,比如 cloud code cursor, 以前只能帮你写代码,写完还得你自己去浏览器里创建 pr, 查 ci, 处理 issue。 现在不用了,一句话, ai 直接帮你全搞定。它的工作原理很简单,中间是 m c p 协议,左边是你的 ai 工具 cloud code, 浏览器 ci 全都能接。 右边是 datab 的 所有能力仓库 issue p r c i c d 安全扫描,中间通过 m c p 的 tools resources prompts 三层能力打通。 而且它支持远程和本地两种模式,远程模式 off 零配置直接用,企业用户也可以接入 datab enterprise。 以前你用 ai 写完代码,还得自己切到浏览器创建 p r, 切回去看 ci, 结果切到 issue 页面分配任务, 一次开发四五个上下文切换,光操作 github 就 两分钟起步。现在有了 m c p server, 你 的 a a i 工具只有一个入口,一句话就把这些全干了。它内置了十八个工具级, 默认开启仓库、 issue、 pr 用户和上下文这五个核心能力,你还可以按需解锁。另外十四个 actions 监控 c i c d code security 扫描安全漏洞 depend about 管理依赖告警 discussions 看社区讨论 远程版还额外支持 copilot 编码代理和文档搜索。关键是按需开启不用的工具及不加载,减少 ai 的 上下文占用,让模型更精准的选工具。给你三个真实场景感受一下。 第一个,你跟 ai 说帮我 review 这个 pr, 它就自动拉取代码,检查安全扫描结果,给你完整的审查意见。 第二个 c i 挂了,你说帮我查原因,他直接读失败,日制定位到具体哪行出错。第三个更夸张,你一句话让他批量处理五十个 issue, 他 会自动按标签分类分配给对应负责人。三个场景全是自然语言,全是 ai 自动完成。技术选型上 github 选了 go 语言, 对比 node js 的 mcp, 实现 go 版本启动不到五十毫秒,内存只占二十兆,单二净置打包才十五兆。 认证方面支持三种模式, off 免配置 pet 灵活控制 enterprise 企业级对接三百二十八个 open issues, 说明社区非常活跃,不断在迭代 github, mcp server 接近三万 star, 十八个工具级 mit 开源完全免费, github 有 一亿多开发者,这个项目几乎就是二零二六年 ai agent 工具链最重要的基础设施之一,支持所有主流 ai 编码工具。一个 mcp server 全搞定。关注我,看更多开源好项目, ai 加 github 就是 未来的开发方式。

好,我这几天深度体验了一下,用可老的接上这个 deepsea v 四 pro 之后的效果给我的感觉呢?怎么说呢,在之前最开始时候我用 tree, 我 觉得它非常好用啊,后来的时候我用 vsco 的 里面的 copec, 然后觉得那个非常好用,但是它现在已经出现限额了, 然后后面我用去了,用了 codex, 但是用的是中软战,给我的效果感觉也是一般化吧。直到最后,也就是最近一段时间,我接触到 deepsea 威斯,加上我的可乐扣的我这个组合真的是, 反正给我的感觉就一个字,太便宜了吧,真是太便宜了,可以给大家看一下。我这边的话,这场使用下来啊,就今天一天整整用了三千万头啃, 平均下来是三块四毛九,因为它有这个缓存命中跟未命中缓存吗?啊,有这个命中缓存跟未命中缓存 只用了三块九。三块四毛九,这个价格呢,平均下来每块钱可以换到八百五十七万的头根,这个价格我只能说真香,太香了。这你要是去用 xpt 五点五啊,或者说用 oppo 四点七,这个价格肯定是 太太香了,真是太香了。而且我实际应用下来,包括用克拉克的座椅,下来之后,我发现真的这样之后还挺好用的。当然他也有一个自己的问题吧,就是说他的那个 没有这个图像识别能力,但是我听说后续好像也在开发了,等到后面有这个多媒体功能的话,可能会更好一点,那基本上我感觉就相当于是我们的平替了。 然后这个用下来给我感觉呢,就是现在的算力啊,可能 g p c 公司他们自己想做的,就是去把这个算力打成跟我们以后电费一样的价格吧。我估计以后会这样子,因为他最后的时候不是用深层芯片吗?在下半年的时候大规模的投产,到时候这个价格肯定还会可能还会更便宜点。对, 看看我这边让他做的这个的话,做这个想法集吧,大概是用了十几二十分钟啊,包括前面的前啊前端设计,我是让那个吉米奶三点一 pro 给我做的,然后前段设计好之后,后端功能包括数据库啊,全部都是让这个这个 vc 来做, 然后整体做下来的话,基本上一遍就跑通了,然后你要有问题给他的话,他还能帮你改,基本上不会超过两遍, 而且你后期要什么功能他都能给你加上去。包括你把这个东西移植到我,把我现在做这个页面移植到我之前的那个项目里,他都是可以用的,而且 识别的非常快,然后做的非常准,所以实际体验下来还是非常不错的。我感觉跟我之前用 gbt 五点四差不多,但是你要说有五点五或者奥克斯四点七这种强度吗?应该是没有的,但是他真的便宜啊,是吧?这么便宜了还考虑那么多干嘛呢? 然后包括我这个坐下来这个想法集坐下来之后,是吧?谁可以输入你的想法?你好,把你的想法记录下来。你好,我是 叉叉叉啊,这些东西包括啊这些前端的话都是,呃,基于在三零一 pro 做的,但是后端这些功能包括它有个 ai 整个分析,还有 ai 表达优化,然后还有这个关联想法,这些 啊都是让第四个 v 四来做了,整整体做下来的感觉都非常好好,包括你后面接这些 a p i 啊什么的,他基本上都能帮你完成,也不会出现什么太大问题。如果这东西丢到车里面做,哼,丢到车里面做,那你这个提示词工程能力得非常的强大才行。对,提示词工程能力得非常的强大才行。 可以看到我们这个现在用这个扣的加 v, 呃,第四个 v 四我感觉是 比较适合那种呃自己搞个人开发或者说在方面感兴趣的人去使用。当然如果你大公司是吧,有些公司它会有这些 呃报销的,那你就去用 g p t 五点五 off 四,四点七嘛,反正公司有报销。但对于我们个人来说,平常如果只用用玩玩的话,我觉得 d b c v 四加上可洛克的真的是一个非常好的一个方案。

ai 编程工具怎么选?三个我都用过,说说我的真实判断。 cursor 是 ide, cloud code 是 终端工具, winsurf 是 agencic ide, 三个东西长得就不一样。 先说 cloudcoat, 它是终端里的架构师,你在命令行里跟它对话,它直接操作文件,跑命令管 kit。 选它的理由很简单,你怕架构搞砸就用它。终端环境安全,项目大规模重构都是它的主场。 再说 cursor, 它是编辑器里的速度机器 tab, 一 键接受建议多文件并行编辑,上手就会快速写小功能的时候最舒服,你不需要想 prompt, tab 就 完事了,而且能会用 cloud gpt gemini。 最后, win surf 最激进的那个,不只是辅助你写代码,是把整个任务丢给 ai 去完成 模型选择最广,不想被锁定的人应该看它,但自动化还在早期,别指望它替你干完所有活。 我的判断标准就三条,你在改什么?你的环境是什么?你接受几个供应商大众购?选 cloud code, 小 功能选 cursor, 探索实验选 win surf, 三个工具解决三个不同的问题。 有人说 cloud code 降低架构风险, cursor 降低实现摩擦,两个工具解决的不是同一个问题,别纠结哪个最强,搞清楚你现在最怕什么,选对应的那个就对了。


上一条视频很多人说不知道什么是 ai 编程,那正好现在中午我就跟大家演示一下啊。然后这个就是 ai 编程用的最多的工具,它叫 cloud code 哦,然后那这个叫 open ai 的 codex, 然后它俩的驱动模型不一样,但做的都是一样的事情。然后它的驱动模型是这个 sonata 四点六,然后我设置的顾问模型 advisor 是 这个 opa 的 四点七, 然后那 codex 我 的默认模型是这个 g p t 五点四,然后其他的我也会用,比如说这个是微软的这个 gitapopilot, 然后它也可以自己设置驱动模型,我自己设置的是 g p t 五点四, 然后这个是 factory joy 的, 然后,呃,那它的默认模型我目前设置的是这个 opus 四点七,然后我自己还有一个这个 google 的 这个 germine 的 话,我的默认模型是这个 germine 三。哦, 然后为什么会有这么多呢?核心就是因为现在算力不够用,所以每一个基础套餐他的算力都是有限的, 你的模型调用次数都是有限的,但基础套餐一般都是二十美元左右,所以你如果想要用到更多的话,那就要用到一百到两百美元,所以像我这种人就会多开几个 大厂的不同的这种编程工具的基础套餐,然后这样混合着用起来,其实第一是模型能够去重叠着用,然后第二是这个能更省钱。我跟大家说一下,比如说你像这个 cloud code, 然后它默认的话就是酸奶四点六,然后你可以把它默认设成这个 oppo 四点七,那这样的话就会很贵,你可以看到它是两倍用量, 这个是他的一个用量表,你可以看到他每周都是有这个限量的。我这周的限量已经用的差不多了,还好二十一个小时之后就重置了,然后每五个小时也会有一个这个当前的这个用量的限,然后这 codex 也会有 哦, compile 也会有,就 ai 编程真的很简单,大家千万不要对这个终端界面有惧怕感,你会发现当你装了一个语音输入法之后,你直接用语音输入往里边跟他说话就行了哦,之后我再跟大家演示一下。