粉丝4.2万获赞12.9万

哈喽,大家好,今天我们聊一聊我们程序员开发都是怎样去通过这个 ai 去辅助编程的,大家可以畅所欲言,在这个屏幕下面,我来谈谈我的一感受吧。我目前就是用的是 cos, 最近这个 cos 呢,就特别的智障,不知道大家有没有发现,更新完之后 老是出现这个凸浪,对吧?太长了,然后呢,就卡死,之后呢,你要用这个可乐扣的这个模型,我发现了, 之前的话应该是六千多万的一个透痕量,更新之后呢,他直接显示一个有一个 api 的 用量,那 api 用量呢?就是我们的这个 cc 的 用量,就可乐扣的用量, 这个用量呢,感觉已经被压缩到三四千万了,因为一般啊,六千多万桃根我一般是可以用两周的,有了这个更新之后呢,只能用 一周左右,最后就是 auto 加 composer, 据说 composer 的 底层用的是 kimi, 然后用起来真的是不太行,而且我要吐槽一下这个 c c 啊,在 qq 上面用的也是非常的不比我好,因为呢, 你开梯子也不行,其实你所在的区域不支持,然后呢,只能从 h t t p 二,然后切换成 h t p 一 点一,导致非常卡,提前晚上就跑。用 cos 二的话就是这样的一个情况,最近呢,然后再用这个 q, 这 q 的 话,你是新用户的话,送你五百 credits, 这个的话,我感觉五百啊, 我目前用了都已经有两周了,还没有用完。现在就是你的一轮绘画,如果是简单的任务,用零点二,零点四这样的一个 christmas, 如果是一个比较复杂的一个任务,你发给他之后,他给你去解锁很多 这个文件啊,那可能用的就多了,可能花一个啊,二点多的一个这样的 credits。 所以 啊, cost 这块的话我真的是不打算续费了,但是今天我看了一下,又被订阅了二十美豆,最后一个月后面就不再用了, 用这个 qq, 我 这块没有订阅的原因是因为我这块没有这个银行卡,后面就是搞一个电子虚拟的一个这样的一个信用卡,然后去进行支付,这是我的一个使用。大家平常都是怎么使用呢?可以评论一下。

一定一定要学 curser, 我 说真的,它满足普通人最爽的一件事,让 ai 直接看你的本地文件,按你的项目来干活。而且很多人没意识到, curser 的 免费版就已经能够让你用到怀疑人生。今天我只用三点让你了解免费版的 curser。 先跟大家讲一个很多人的福音,它不吃配置,很多人都想玩 ai, 都卡在第一步,玩 ai 是 不是得需要配置高的电脑? curser 更像是一个做业务的人来说,这就是最值钱的地方, 先谈交付,再谈过程。接下来我们直接进入正题。第一点,他最强的就是带着上下文干活。你以前用对话框最大的痛苦是什么? 聊了一堆关键信息,其实讲到最后,你自己都快把活干完了。而 curson 不 一样,本地 markdown 文档保存好,他可以看到你的目录结构,你的命名方式,你的资料内容,所以你一句话就能派活。按我这份资料给我出一版结构,再把它改成口播稿, 你会第一次感受到这个 ai 像个坐在你旁边的同事,而不是外面的陌生网友。第二点,它的本地资料库玩法才是真正的效率核弹。你把它当做一个随时能换场景的资料柜,比如你有投标资料、产品手册、历史文案库三个文件夹,你切换任何一个文件夹就相当于换了一个行业背景, 你有任何的指令,他都会按照你资料来写,这就叫可控。他最大的好处是,你不需要每一次都从头再讲一遍,你只需要说按照这个资料库的口径来,这比你在对话框里反反复复粘贴省事的多。第三个点就是大家绕不开的编程,那编程能力对于普通人来说,他到底有什么用? 就是你不一定要写代码,但你一定会遇到需要一点代码才能帮你省半天的事,比如批量改文件名,比如 如批量整理表格,比如批量生成模板,把一堆重复操作自动化,你以前要么自己干,要么找人做。现在 curser 的 意义就是一个指令,他帮你把工具直接给你搭建出来,你不用成为程序员,你只需要成为一个会下达需求的人。 最后再给大家科普一下, curser 的 会员到底有没有必要开。第一,可调用多种大模型版,比如 gpt、 五点四,可 loft 四点六, oppas 适合哪项工作,他就调用哪个更适配的大模型。 第二,更长的上下文,如果你敲代码或处理长文本,可以考虑。第三,说白一点就是限速调用次数以及更多的功能性等等一系列问题, 他会在你使用量增大后给你限速这种操作来让你开通会员。目前我的会员也是刚刚到期,暂时是够用的,所以我建议大家先正常使用,如果不够的话再考虑买会员,因为你买的不是模型,你买的是更稳定的生产率。我是林然,我们下期见!

众所周知, cursor 是 一款非常好用的编程 idea, 但是使用起来有非常多的陷阱,比如我们想调用第三方或者中转站的大模型的时候, cursor 要求必须是会员才能调用第三方大模型, 不过这难不倒我,今天就教大家怎么绕过这个陷阱。首先我们下载一个名为 cursor 助手的软件,下载后打开,然后我们点击打开屁镜 运行模式,选择本地服务模式,然后点击打开模型配镜,点击添加模型。这里大家可以参考我的填写,把 base u, r, l 和 api key 换成自己的就行。我用的模型是 g p t 杠,五点三杠 kodaks, 大家也可以填自己认为好用的, 之后我们点击保存配镜,然后我们就可以打开 ctrl 了,我们点击 ctrl 的 模型设计, 在这里我们就能看到仅有一个我们在科室助手里设计的模型了,这里我们测试一下,现在我们选择设计的模型,然后进行对话,接下来就是见证奇迹的时刻, 还在等什么,赶紧用起来吧。

你有没有感觉, cursor 在 处理复杂任务时就是不如 clod code? 明明用的是同一个 clod 的 模型,为什么差距会这么大?这背后其实有三点重要的原因。 第一,上下文。 cursor 是 id 一, 它会把你所有打开的标签页、侧边栏,甚至历史记录都作为上下文塞给模型。这些看似贴心的信息,其实都是噪声,分散了模型的注意力。 而 cloud code 是 命令行工具,它只关心文件本身,上下文干净又精准。这不仅 send token, 更重要的是它让 agent 能聚焦在你给他的任务上。 第二,反馈闭环。在磕舍里, ai 改完代码报错或者其他负反馈,需要人工介入调教,但在 cloud code 里,它可以自动运行,保护报错、定位、文件修复,再跑测试,直到成功。这种负反馈闭环能力,磕舍暂时还不如 cloud code。 第三, 原厂调教哥 sir 要同时支持 cloud code、 gpt、 gemini 等好几个模型,就像一个餐厅同时做川菜、粤菜、西餐,哪道菜都很难做到极致。 而 cloud code 是 亲儿子,只为一个模型服务,他知道 cloud 的 脾气、习惯、擅长什么,能用最对的方式把模型的潜力全榨出来。所以科 sir 跑不过 cloud code。 不是 科 sir 不 行,而是它们的定位本来就不一样。 科室的优势恰恰在于它是 i d e, 支持多模型,界面友好,上手门槛低,无论你用 cloud 还是 g p t, 都能在一个地方搞定。 a cloud code 是 命令航空器,专为 cloud 模型深度定制。最后,大家日常开发习惯用科室还是 cloud code 评论区,一起聊聊。

如果你可能没有意识到但非常扎心的事实,你用 ai 用了多久了?一年还是两年?那我问你一个问题,他现在认识你吗? 你的写作风格,你这些年沉淀下来的那套知识体系,他有没有真正的吃进去?大概率是没有的。其实大部分人用 ai 都有过这种痛苦的体验。每次开一个新的对话窗口,都要重新自我介绍我是做什么的,我的风格是,我希望你做什么。聊了一个多小时,把背景篇、好规则全部交代清楚了, 明天一打开新窗口,又回到了原点。你花了一年时间用 ai, 他 对你的了解可能还不如一个刚认识一个月的新朋友。这不是 ai 不 够聪明,是在线 ai 的 底层设计就是这样的,每个对话窗口彼此独立,关掉就忘。他没有你的长期记忆, 但这件事是可以解决的。今天给你两个方法,从简单到进阶,你自己选择。首先,第一个方法,给 ai 建一份专属你的个人记忆文档,用标准化的提示词,一次性把你的身份编号规则全部为 ai, 让他从陌生助手变成懂你的伙伴。这是最关键的一步, 直接给你一个万能的模板,复制修改就能用。写完后,把下面这段文字固定放在每次对话的开头, ai 就 能一次性记住你的所有设定,不用再重复介绍自己。这个方法适用于任何 ai, 优点是零门槛, 五分钟就能配好。缺点有两个,第一,他对你的了解仅限于这段话。第二,他记得你是谁,但记不住你这几百万字的内容积累,你的书稿、课件、文章他还是不知道。那么就需要第二个方法,用科室搭建本地知识库,让 ai 全面学习你的知识积累。这个方法稍微进阶一些, 但我一步一步讲,你跟着做就行。首先,在 ctrl 里面给 ai 建一个永久的身份档案,打开项目,新建一个文件,名字叫 ctrl r s, 把刚才方法一的提示词模板复制进去,根据你自己的情况填好保存。这份文件的作用是, 只要你打开这个项目里的对话, ai 第一步就会先自动读拒,它,知道你是谁,知道你的规则是什么,不需要你再重复地手动粘贴。第二步, 把你的内容资料全部导入进来,你手里面有多少知识文章合集、课间书稿、演讲记录,然后按主题分文件夹管理,后面在咳嗽对话里就艾特文件夹名的方式调取, ai 会直接在你的内容里解锁,不是凭空帮你想或者乱编幻觉回答的内容呢,都是给予你过往的资料进行的输出。 第三步,答完之后不要着急,用先测一测,问他一个只有你能回答的问题。比如说用我的风格解锁某某文档,斜断关于某个话题的文章,如果出来的内容有你的味道,有你的逻辑,那么知识库就生效了。并且呢,他还能调取拆 ppt、 gemini 和 cloud 三个大模型来测试出效果, 你就说强不强。前段时间,我帮一个做知识付费的博主,把自己六年的课间文案私教对话记录按这个方式整理进了 qs, 大 概有两百多万字。答完之后,他出的选择题写的文案,回答学员的问题, 全部先在这个知识库里面做检测,再让 ai 用自己的风格组织输出。他跟我说了一句话,以前觉得 ai 就是 一个问答器,现在才觉得他能真正帮自己工作了。这两天他已经开始用知识库,打算写一本十几万字的输出版。 ok! 对 于拥有大量知识积累的朋友来说,让这些资料发挥价值 才是用 ai 的 重点。大多数人的内容资产现在是睡着的,躺在硬盘里,压在文档里都没有被激活。那么方法一,适合内容不大,想快速让 ai 记住你的基本偏好的人,复制模板改一下就能用,今天就能打好。方法二,适合手里面有几百万字甚至更多积累的人。但说实话,资料怎么脱水提纯分仓逻辑怎么设计, 提示词怎么写才能让 ai 不 乱说话?这几个环节我都已经做过很多遍了,一起聊聊怎么搭建自己的 ai 本地知识库最合适。

我先抛出一条爆论,就是庆儿行业一定一定会在不久的将来发生翻天覆地的变化。 相信大家也看到了 opencloud 和 cloud 的 最新代码模型,我在深入使用两种模型的过程当中,首先感受到的是惊喜,因为它的效率太高了,然后感受到的是头皮发麻,因为以前两天的工作现在五分钟就能非常快速准确的完成,几乎一次调试就能通过, 这实在是太令人震惊了,我现在也是非常的焦虑迷茫,不知道现在学习的速度还能不能跟得上行业的发展。 下面我结合我这两天的一个使用体验,来给大家看一下他这个 color 模型的运行效果,我相信如果大家掌握这个工具的话,一定会对自己的潜入编程的效率有着大幅的提升。 这里我是把指令输到了这个科室里面,然后他就自动的要用系统的权限帮我生成了相应的点 c 和点 h 文件,并且是自动把所有的报错全都解决掉,而且这里面设计的器件很多,我几乎没有怎么调试,他就能把这些复杂的逻辑全部正确完成。 本次项目的 pcb 是 在家里创打的,家里创现在上线了,买满孔并且最多可以做到六十四层,非常推荐大家使用。然后我让他加了一个显示实时时间的功能, 在这里能够自动把代码改好,然后调用系统权限,把代码自己填进去,然后回到 q 里面 变异烧录下载,可以看到它已经把这个功能添加好,非常快。

最近我那一条介绍 opencode 的 视频啊,突然爆了,但评论区啊,几乎被两句话刷屏了,免费木星没了,是不是根本没法用了? opencode 豪迈还不如科 sir。 说实话呀,这些问题我一看就知道,基本都是配置没搞对啊,或者还停留在老的 ide 的 使用思维上。 那今天这条视频啊,我就直接讲清楚三件事, open code 现在到底怎么接模型呢?才最省钱最好用,那格式到底还值不值得用啊?为什么我现在越来越推荐大家用 open code 呢? 还有一些看起来很高级,但其实特别容易踩坑的方案。如果你正在用 open code, 或者正在纠结你要不要换工具,那这条视频一定能帮到你。 先从大家最关心的模型问题开始啊!很多人问我说 open code 里面默认的免费模型没了,那到底还怎么用啊? 其实啊,现在主要就两条路,如果你是国内的用户的话,你想要一个又便宜又稳定的方案,我推荐你直接用国内大模型的官方编程套餐啊。第一个呢是智普的 codeignite, 他 前三个月一共花五十四块钱,平均下来呢,每个月十八块钱。 那三个月之后啊,它会恢复到每个月四十块钱,这对于大部分的个人开发者跟日常使用者来说呢,就用量已经很充裕了。 那第二个呢,是 mini max 的 编程套餐,它有两个档位,一个呢是 starter, 每个月二十九块。还有一个呢是 plus, 每个月四十九块,用量就会更多一点。 那这两家呀,现在价格基本上都在二十块到五十块这个区间啊,算是非常的良心了。那大家完全可以根据自己对模型的风格偏好来选, 我现在用的是智普的套餐,我整体体验下来还是很不错的。但如果你追求全球最顶级的模型啊,比如说 open i 的 g p t 啊, google 的 jimmy 三 pro 啊,还有 cloud 的 系列模型的话呢, 目前我认为性价比最高的方案就是直接买 github 拍了的会员,在 opencode 里面配置一下就可以用上了。 那么它现在主要有两个档位啊,一个呢是每个月十美元的,就可以同时使用 gbt、 cloud、 gmail 这几大顶级模型。另一个呢,是每个月三十九美元,就适合用量非常大,或者呢,你对性能要求特别高的用户,用量基本上就可以随便跑了。 那对于大多数的个人用户来说呀,我提供的这两个方案已经完全够用了。那顺便也给大家分享一下我个人呢,在 opencode 里面的一个实战工作流。第一步啊,就是计划和方案讨论阶段,我一般呢就把模型切换到 gpt 五点二, 因为它的沟通能力真的非常的好啊,很像跟一个真人专家在讨论问题,特别懂你的需求。那第二步呢,真正写代码,我会把任务交给 cloud 的 模型, 因为它在逻辑的严谨性和代码的可信这一块目前是最稳的。那第三步呢,如果涉及到前端的开发,或者对于图片界面的理解呢,我就切换到 gmail 三 pro, 因为它在视觉理解跟前端的任务上表现非常的强。 最后一步就代码审查还有改 bug, 那 我就会切换到 gpt 五点二的 codex 模型,因为它在长上下文的理解能力非常的强,很适合做 code review 的 工作。那么这套组合用下来啊,那效果非常的赞。 很多人又问我啊, ctrl 其实也挺好用的,我为什么还要折腾 open code 呢?我告诉你啊,我曾经也是 ctrl 的 付费用户啊,但我现在都转到考 code 和 open code 这种工具上来了。原因很简单啊,因为他们的工作方式已经完全不在一个时代了。 ctrl 的 核心逻辑其实还是传统的编程的 i 的 能力,那么你在 ctrl 里面呢,更像是布置一个一个的任务, 它后来虽然加了一些 agent 的 功能啊,但本质上它还是围绕 ide 在 转的,所以 ai 更像是一个随时跟你对话的高级助手。 但是当你切换到 opencode 之后啊,你的整个体验就完全变了。你在用科室的时候,你还是会忍不住的去盯代码逻辑啊,项目结构啊,文件细节呀。但是你在 opencode 里啊,因为你只有一个对话界面呀,所以你根本不会去关注代码的。 你只需要告诉我, ai 我 要做什么目标,我要拆成哪些步骤,我最后要交付成什么样子。那第二个变化呀,就是你角色定位的转变,因为以前啊,你是借助 ai 去写代码的一个人,那现在呢,你更像是在指挥一群 ai 工程师去完成一个产品, 所以你的精力也会全部放在怎么描述需求啊,怎么规划流程啊,怎么检查结果呀,而不是盯具体的实现细节。 那自从我适应了这种工作方式,我就再也不想回到科室那种 id 工作流了。还有不少朋友啊,在评论区提到过一个方案,就是通过呢 c c switch 这种开源的项目,我可以在 cloud code 里面去切换和接入其他模型啊,我干嘛要用 open code 呢? 我告诉你啊,我自己也在用 c c switch, 主要是为了更方便的切换 cloud 模型和我的智普的 coding plan 的 套餐。 但我为什么不太推荐普通用户去折腾这种方案呢?第一个是成本控制风险,因为当你在 cloud code 里面通过 cc switch 去接其他模型的时候呢,你只能走 api key 这种方式,你没有办法用你已经买好的订阅套餐啊。 所以如果你控制不好这种调用的频率的话,你,尤其是像 gpt 五点二 codex 这种高端模型,那你通过 api 跑任务的成本可能会吓死你的。 第二个呢,是平台政策的风险,就是你要明白啊, osmotic 提供 cloud code 这个免费的工具,它的核心的目的还是希望大家去用它自家的 cloud 模型啊。那如果大量的用户都拿它当一个免费的壳子去挂别家的模型,对它来说没有任何商业价值啊。 现在这些接口还能用,可不代表以后不会手挤,甚至直接给你封掉。那今天这条视频啊,我最后想跟大家说的是,你真的可以去接受和尝试 open code 的 这种基于终端的 ai 智能体,因为它真的太好用了,它比传统的 ide 太丝滑了。 我发现很多同学他不愿意切换,不是因为他不好用,更多的呢,是对一种终端工具的天然恐惧。我一看到黑乎乎的窗口呢,下意识觉得,哎呀,给程序员给高手用的。 其实实际上啊,你现在几乎根本不需要敲什么命令,你都是在跟 ai 对 话呀, 而且我可以很负责任的告诉你一句啊,现在 ai 的 发展方向已经非常的明确,就是正在全面的走向智能体协助和自动执行任务。那最近刚刚爆火了一个叫做卡的 bot, 它就是一个跑在 mac 电脑后台的智能体, 然后它可以通过即时通讯软件呢跟你沟通,所以以对话和调度为核心的工具一定会越来越主流的。 那 opencode 只是这个阶段一个非常好用的代表。那如果你愿意,真的可以跟着我这条视频一步一步试起来, 哪怕你先跑一个小项目,你很快就能体会到这种差异了。我最近也在尝试呢,在 mac mini 上来跑 cloud bot。 如果大家希望我单独出一期视频详细讲解的话,欢迎你在评论区告诉我。最后啊,也欢迎关注我,这里是范凯说 ai, 我 会持续的跟你一起拆解 ai 趋势,教你真正把 ai 用到工作和生活中,让你在 ai 时代不焦虑也不掉队。

curse sdk 公测了,一行命令装好就能把编辑器里的编程智能体搬到你任何地方。本地跑或云端跑,云端自带沙箱,克隆仓库配好环境,电脑断网,它都能继续干干。 openai antropic, google 一 键切换,还有 cursor 字眼模型。更狠的是代码缩影语义搜索, m c p 工具拆分子 agent 全开放。如果你的电脑能自己加班,你最想让它帮你完成什么任务?关注我,带你了解更多 ai 咨询。

大家好,我是辣椒,最近我都在用 ai 工具来提升我自己的工作效率,今天尝试用 case 来做数据分析报告,整个过程太惊艳我了,想要跟大家分享一下。事情的起因是我需要对公司的客服处理公单的数据进行分析, 就整了一个特别复杂的 excel 表格,我自己看了就头大,我就把这个 excel 表格微给了 case, 选了 agent 模式,模型用的是 opus 四点六, 我给他输入了一个提示词,大概意思是说你是一位非常资深的数据分析师,你现在要针对这份 excel 文档去做数据分析,并且总结出分析报告,需要总结现状问题以及提出优化建议,并且以 word 文档的形式发给我。敲给他了之后,他就开始进行分析了, 我就看他整个的工作流,我觉得非常有意思。首先他去判断我有没有安装 python, 结果我没有安装 python, 他 就把我安装了一份 python, 自己生成脚本去读取整个 excel 文件里面的这个字段,读取完了之后呢,还会告诉我你读取完毕,现在我开始给你生成数据报告。 最后他给我发了一份分析报告的 word 文档,存到了我的本地电脑里面。我看了这一份分析报告之后,我觉得非常的惊艳,我觉得他做的比我还好。 首先他的逻辑结构非常的清晰,完全按照金字塔原理的那一套标准来输出, 先总后分,先讲结论后展开,既有对当前数据概览的概述,也能指出其中的核心问题,给出你相应的优化建议,还能给出优化建议实施的节奏。 第二点就是他会帮我去做相应的数据总结合分析,我未给他的是一些很散乱的文档,但是他输出给我都是很规范的总结好的。但数据分类模块 三个点就是他给出优化建议很具有参考性,一个是他能基于前面的问题的总结,给出相应的这个优化策略。第二个点是他能自己去解锁公网的这些信息,给到你竞品的一些参考,或者是同行里面别人的一些数据参考, 这就省去了你需要去做竞品分析的这个动作。我自己评估了一下,如果是我去写这份分析报告, 从写完到修改我觉得可能需要花两天的时间,但是他只用了十分钟的时间就帮我搞好了。最后这份文档基本上百分之八十都被我自己采用了,我只要在里面进行修修补补的工作就可以了,我觉得这真的是极大的释放了我的人力。 通过这一次跟科室的这种交互,我对 ai 是 生产类革命的这个观点真的有了非常深刻的体感。接下来我还会去体验一下 open cloud, 而且公司愿意承包你的托管费用,所以我还蛮期待接下来我跟 open cloud 的 整个互动的直播间分享就到这里,拜拜。

ai 圈刚刚发生的一个小事件,但其实信息量特别大, ai 模型刚发布就被识别出 dna。 嗨,大家好, ai 编程工具 curser 想必大家都不陌生,它刚刚发布了一个新模型,叫做 compressor 二, 官方宣传非常直接,更强,更便宜,甚至在部分测试里超过主流模型。听起来非常猛, 但发布没多久,开发者就发现了一个细节,在模型的 id 里出现了 kimi k two point five 的 标识。同时就有人对比了这个 tokenizer, 发现行为模式跟 kimi 高度一致。 在 ai 圈,这基本等于一个信号,这个模型很可能不是丛林训练的。很快,科瑟的联合创始人就发文确认了,他们测试了很多底座模型,发现这个 kimi k two point five 是 表现最强的一个。 而 composer two 是 在这个基础上啊,做了持续的预训练,又进行了高算力的强化学习, 规模扩大了四倍。也就是说,这不是直接调用模型,而是基于墙底座的二次训练。这里简单的说一下 kimi, 他 来自中国公司温氏的 ai, 特点也非常的明确,他有这个超强的这个超长上下文的理解能力, 然后它的推理成本相对来说比较低,所以在业内,它经常被当做底座模型。有点像不是自己种菜,而是先买到最好的食材,再做一道更复杂的菜。 更有意思的来了 kimi 的 官方账号,随后也转发祝贺,直接表示很高兴看到 kimi 成为 composer two 的 foundation。 这基本说明这是一次公开的技术合作。那为什么还是引发争议?其实问题并不在技术,而在表达方式。如果一开始科 sir 就 说,哎,我们基于某某型做增强,呃,我觉得行业完全可以接受, 但如果用户理解成是完全自研的,这个预期就会完全不同。而真正值得注意的是背后的行业变化。因为现在 ai 的 产品竞争已经越来越少的公司是从零开始训练模型的, 大家比的是谁选的底座更好,谁训练的更聪明,谁把产品体验做到极致。换句话说,未来拼的可能不是谁造出了最聪明的大脑,而是谁会利用聪明的大脑。 所以这件事的核心其实不是有没有用 timi, 而是一个现实,未来很多 ai 产品可能都建立在同一批模型之上。那问题来了,你觉得这种二次开发算不算真正的技术能力?

如果有人跟你说用本地部署的大模型去养龙虾,可以无限掏坑,非常爽,那么 我想说这个人一定在坑你,他一定没有自己实践过把大龙把这个大模型部署到本地,然后配置到大龙虾里面,然后去跑一下任务啊,我为了实践这个东西,我这个电脑的配置也挺高的,对吧? 我在 windows 电脑上也试了,我在 mac 电脑上也试了,而且全网我在 b 站上面只刷到一个博主在讲这个事情,讲的跟我实践的结果是一样的,大家可以看一下我给我的电脑里面用,这是一个苹果电脑,用 o m l x 布了模型,布了两个模型,就是现在特别火的谷歌的开源的伽马四,这么四的这个模型就这个 g e m m 四,我也不知道怎么发音啊。伽马四我布了两个参数,一个是三十一 b, 一个是二十六 b 都布了,布完了之后呢,你直接在 o m x 里面,我们直接去跟它对话, 我这里如果选上三十一币的话,我这里跟他对话,跟他对话的时候,他的反馈速度其实还可以的,那这个反应速度还能还能跟得上, 对吧?但是他现在第一次有点加载模型的一个感觉啊。那么这个完了之后呢,你如果再用二十六币再去跟他聊天的话,也是一样,他也非常快,我先把它一停啊, 它也非常快,但是这个是在不的这个软件里面,你如果再把它配置到你的龙虾里面去的时候,你就会发现三十一 b 完全就跑不动, 所以呢,我就用二十六 b 去跑了,那么我把二十六 b 的 模型再给我配置到这个 walkabout 之后,当然前面我在 opencloud 里面也配过了,配过了之后跟 walkabout 的 感觉是一模一样的。 我让他跑了一个非常简单的一个任务,我说你在我桌面上的本地龙虾窝里面,对吧?我有一个呃,我想写小说的一个想法,你我我让你帮我把他登记进去,他连这个事情都做不了, 你看我给他说完了之后,他给我建了一堆的文件夹,建了一堆的文件夹,我说我有个想法,我要写一个和我媳妇的二十年青春这个小说,对吧?他给我建了一堆文件夹,如这就我的深刻的一个体验是什么呢?这些小的模型你跟他做做文字性的聊天是可以的,但是你如果说把它配置到 配到这个 i d e 工具里面,或者配置到龙虾里面,让它通过反复的思考,常思考去帮你完成一个工作的话,本地部署的大模型加本地的龙虾,完全想不通, 行不通,除非啊。当然我现在说的前提是就是我们现在布的,我现在电脑已经算是配置还可以,布的二十六 b 的, 三十一 b 的, 它都跑不通,除非你以后你非常豪气,你能把开源的模型全量部署到你电脑上,我觉得是行得通的。 来,我们现在来给他测试一个任务啊,请在桌面帮我创建一个 好老师名字的文件夹,他大概率是能帮我创建出来,对吧?我今天其实也用过,八点 我去做了一些事情,一开始是用别的模型把脚本啥都跑好,跑好了之后我再换成本地的,专门四让他去跑,跑的时候呢,他还是把结果跑不出来,他跑到一半他就不跑了。来,我们来看一下。好,郝老师的名字。这个没有问题啊,帮我创建 一个 tft 文档,用来记录我的灵感, 看他能不能在这里面帮我创建一个 txt 的 文档啊,当然这些文这些任务都比较简单,他能,他能帮你创建,哎,没有呢,哎,你看问题就来了哈,问题就来了,这也是我自己实践出来的一个一个 一个收获啊。你看这里面是没有文档的,来,他说我已经帮你创建了文档,在什么有文件名,优思好与刚什么什么的。这面看我让他,我让他在这个里面帮我创建,他给我创建到这去了,对吧?我也不知道他这个在哪里呢, 对吧?那我再给他说一下,我说的是在桌面上的郝宇刚郝老师名字,对,你看他非常耿直啊。郝老师名字 文件夹大家可以看一下啊,他非常耿直,如果说是别的模型,他肯定会把这个文件夹命名成郝老师,但是呢,在这个里面, 在这里面他是怎么做的?他非常梗,你说郝老师名字,他就叫郝老师名字好, ok, 他 是不是在这个文档里面?好,那我就要继续给他说了,请在你刚才创建的 的文档文档里面帮我记录,我今天吃了十个馒头, 看他能不能把这么简单的一个一个动作完成了啊。其实这个事情呢,大家如果看我的这个文件夹的话,你会发现这个龙虾窝这个文件夹啊, 哎,不是这个,应该是这个本地龙虾窝,我现在在用它写,我想把我之前的经历给记录下来记录下来之后呢大家可以看一下这个故事素材里面这是我配的也是 oppo 八的呀,但是用的是 呃谷歌的五点一的模型啊。不是谷歌那叫那叫智普的五点一的模型。我跟他说完之后人家能理解我的意思我不管说啥他都知道我随便一说他就知道我要记录到我辅导员的这个 记录里面来。只有啊我反正我现在说的这些只有你真的去实践了你才会有体会对吧。帮我记录好了我们来看一下这里面有没有来我今天吃的十个豌豆。还可以啊,还可以再帮我记录我明天要去北京开会 就有的一些简单的任务你让他帮你做行但是你必须非常明确的告诉他在哪里在哪里在哪里他才可以如果说 你的记录不明确的话。哎这个也行啊如果说你的记录不明确的话他也帮你做不了对吧?好,那我再给他来一个难一点的对吧。呃请在桌面 好老师名字这个文件夹里面帮我 创建一个小说 我的五年辅导员生涯的小说的框架要求列出一百张的标题。 好,其实这个任务你交给别的 ai 工具的话手到擒来非常简单的一个任务。因为我用别的测试过了我之前写的时候人家给我写三百张的标题人家都写出来了, 我看他能不能帮我把这个写出来啊。哎,大家看啊我已经忘记创建好了文档的基础框架对吧。为了这一百张标题我建议将这五年分为几个几个阶段处理处理以及什么你让我生成这是一百张的标题吗?大家说这就是一个问题, 如果你是正常的龙虾他就直接帮你写好了,但是你配这种小魔性的啊,他有一个毛病是啥嘞?他总喜欢问你,问你能不能行,可不可以,你给他说可以了,他也不一定帮你做好。想让我开始为你升这一百张标题吗?我给他写个开始,看他能不能帮我去做啊。 这就是他的一个问题,也是我实践过程当中的问题啊。就是总感觉吧说用也能用,但是吧就是没有那么聪明, 反正最后总结下来是啥呢。我建议大家不要去折腾我本地的龙虾,我用本地的模型去养,养不出来的,而且实在是用不成啊实在用不成,而且这个发烫还是挺严重的,我这个电脑现在我手啊,我手放在下面已经非常非常烫了,桌子已经非常非常烫了。 这个还是 macbook pro 还带着风扇的那种啊,他能把这个风扇能给你驱动起来了。 来我们来看一下。 哎,还可以啊,他把一百张的标题给我已经写出来了,这次做的还可以。还行啊还行还行。 呃但是总体来说呢我们看一下他的这个质量啊他的这个质量啊,那些年关于未来的引导,关于未来的期待,关于什么什么关于什么?他和我这个里面人家帮我写的这个标题就差差老鼻子 没有,我把它打开,我看怎么打开呢? 你看啊,这里的标题处分学生的分量,感受签字时的责任与荣誉,第一次写工作日记啊什么什么的教训啊, 我总觉得人家这个写的质量是会更好一点,我们可以看内心天平的倾斜,逐渐离开的决心,提交申请的那一刻,正式提出申请时的复杂情绪,这是讲的是直接的一个变动,对吧?他比他比这个,他比这个龙虾,这个写的 啊,那些那些什么那些什么那些什么啊,我觉得质量要好的啊,反正我总体感觉下来呢,还是不建议大家再去折腾这些了。也不用说是,哎,我想体验本地的无限算力。我我我 我买一个高配的电脑,我花两三万买个高配电脑,然后我把格玛四三十一 b 一 步步完了之后你会跟我有同样的一个感受,就是用不成。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

给大家聊一下最近使用口派来的感受,其实在二四年的时候,我们公司就给大家分配了口派来的账号,说实话那个时候感觉作用不大,主要是起到一个代码补全,嗯,排查一些简单的编码问题啊,或者是 或者是写一些简单的算法。直到去年,模型和工具都有较大的发展,比如试用了 qsort, 包括字节的 tree, 还有阿里的 code 等新的 i 编程助手, 这时候才发现,爱编程助手真的能帮我们干活了。两个月前被同事安利升级了可派乐的插件,用上了最新的可乐模型,我发现携带码真的太丝滑了。以前一个模块,一个高级程序员,可能需要三到五天加班才能完成的工作, 使用 ai 编程助手可能只需要半天,而生成代码可能只需要几分钟,其他的时间可能主要是用来验证和调试。说说对 ai 编程助手的感受吧,让我联想起了格斗和汽车 两个人格斗一般是高的和胖的,能够打得过矮的和瘦的。直到后面枪的出现,身体素质和体力不再是平静,而是对枪子的熟练程度。 最开始人类只能靠双腿走路,走路的速度和距离有限,后面出现了马匹,在后面出现了汽车,人们能走的越来越快,越来越远。今天的大模型变成助手的出现,其实也是一样的道理,其实就是更好的工具出现了, 人类的生产力也要大大提高了。我们并不用害怕新的事物出现导致我们没了工作,他们仅仅是工具,我们只需要学会使用新的工具。