粉丝82获赞441

近期好多同学问主播,面对众多国产大模型,我该如何抉择呢?近期新推出的 glm 五迷你 max m 二点五、 kimi k 二点五和困三点五这四大模型各有特色,接下来我会挨个为你详细讲解。 glm 五是智普最新的旗舰大模型,总参数达到七千四百四十亿,激活参数约四百亿。它采用独家的 dsa 吸收注意力机制,专注提升长文本逻辑推理能力。 在各种评测中, glm 五的编程与数学推理表现被认为是当前国产模型中最强的一档。一句话总结,这是一款又快又聪明的推理型选手。 千问三点五是阿里巴巴的最新多模态大模型,具备文本和图像双模输入能力,图片模块来自千问 vl 系列,它采用自注意力和限性注意力结合的结构,生成速度更快,理解更细。 千问三点五还支持多次预测 m 七 p 在 生成流畅度上有明显提升。一句话形容它能写、能看、能自己动手的智能选手。 mini max m 二点五的参数相对紧凑,仅两千三百亿,总体偏轻量化,但性能稳定,且推理效率很高。它采用传统的 self 天性架构,牺牲了部分多模态能力, 换来了更快的响应速度和更低的算力消耗。 m 二点五不追求花效功能,而是扎实可靠。一句话总结,它是大模型世界里的经济适用型狠角色。 timmy k 二点五拥有全场最大体量高达一点零五万亿参数,激活参数三百二十亿。它采用 m l a 多层次注意力机制,理解复杂语境的能力相当突出, 同时支持文本与图片输入,在多模态理解上表现抢眼。一句话概括,既有大脑容量又有想象力的综合型强者。

刚才有粉丝问我,可乐酷的和大冒险有什么区别?我估计还是有很多朋友不知道,所以我拍个视频给大家说一下。这两个东西啊,他都是软件, 可乐酷狗通常需要安装在我们本机,而大模型呢,它也可以安装在我们本机,不过它对电脑的要求非常高啊,通常我们的电脑是无法满足的,所以一般我们就用第三方的,比如说像阿里的千问大模型呢,那个还有就是智普的 g m 大 模型呢, 还有就是国外的那个 open a r 的 g p t 大 模型。 那可乐酷狗和大模型到底有什么区别呢?这帮我给大家举个例子,好吧,大家一听就懂,比如说我们要让大模型给我们开发一款 网页版的坦克大战的小游戏,那么我们可以把这个需求以文字的方式在我们本机发给可乐扣的,可乐扣的呢,会把这个需求发给大模型,大模型,然后他那边经过思考之后, 他那边他那边是知道这款游戏怎么做,需要创建哪些文件,这个文件的代码是什么样子的,他会一股脑的返回给 可的扣的,可的扣的收了之后,就会让你本机创建具体的文件,然后把这些文件内容也会写进去,然后这款游戏就创建好了,在整个过程中呢,就是游戏具体怎么做是由大模型来完成的, 但在你本机去创建这游戏的文件,文件内容是由可乐扣的负责完成的。好吧,就可乐扣的他具体不知道游戏是怎么做的啊,他是负责落地去生成文件,去把文件内容写进去。 哇,就这么简单,就这个区别。实际上创建这个游戏你也可以不用可乐酷的,你直接去问大冒险也是可以的,大冒险会告诉你需要创建哪些文件,文件内容是什么,你可以通过手动的方式, 然后在你的电脑上去创建文件,然后把这些内容给粘贴进去也是可以的。好吧,只不过现在这个过程是交给可的酷的去做了,可的酷的把你 ctrl c ctrl v 这个过程给替代了,做成自动化的了。 好吧,大家可以去了解一下,还有什么不懂的可以留言,我会回复大家,大家也可以一起来交流。

分享一下最近国产大模型推出的 coding plan, 我 体验了阿里云、百联和火山方舟。先说一下直观感受,百联支持 glm 五,但是 max token 给的太小了。 火山给的 max token 很 大,但是没有 glm 五。火山我用的是 kimi k 二点五,阿里云我用的是 glm 五。 总体感受下来,在编程开发还是 g m 五更好,基本可以配合 cloud code 完成一些日常开发任务, 但是比较复杂任务还是得上 ops。 四点六。一般来讲, cloud code 配合国产的 coding plan 开发一些小的应用没有任何问题,所以还是要从自身需求出发,选择适合的模型来达到最高的一个开发效率。

这个阿里云百炼不行啊,几十块买回来用起来感觉非常差,我把它接到那个 cloud core 里面嘛,让他去帮我处理任务, 然后我把任务全部都计划好了,他做一下突然间停了,然后我叫他继续,然后没多久他又突然停了,而且是那种一点反馈都没有,突然就停了, 就好像断线了一样,就坐一坐又停,坐一坐又停,就不要叫他做完所有任务的,就一个小任务他都完成不了,但他不是一直都这样子, 他有时候是早上,有时候是中午,有时候晚上,就是不知道他什么时候才会这样子。然后我切换到代理的卡里面,一下子就完成了,所有任务都自己就完成了,就不用我说什么继续啊什么的。 现在智浦那边已经爆了,已经用不了了。想到那个百炼撑个一两天发现,哎,可能就是人多吧,哎,再给他一两个月时间吧。

cloud 模型它有多贵啊?我现在才知道为什么好多业余的,他想搞开发,想做点东西,一花就是花几千块钱啊。 我昨天想调整一下我的页面,因为 cloud 的 这个模型它效果比较好,所以我就买了这个工具,因为这个工具它能充九块九美金,所以我充了九块九美金,花了将近七十块钱。 然后我用的是 cloudsonic 四点六,应该是新出来不久的模型啊。我调整了一下我的页面,然后有的地方加了一些滚动分页,结果花了百分之四十的 toc 啊!百分之四十的 toc 是 什么概念? 也就是我稍微让它改一改页面,我已经花掉了三四十块钱,真是太贵了,就毫无性价比可言。

阿里云百链刚刚发布了史上最香的 coding plan, qw 三点五、 glm 五迷你 max m 二点五、 k 二点五四大顶流模型不仅全部集结,还支持在 cloud code 和 open cloud 里自由切换, 新用户首月居然只要七块九,这波头可量大管饱!国内开发者真的过年了!不仅是订阅服务,阿里还连发了多款 qw 三点五模型。 虽然其中提到的三十五 b 版本并非其见,且其在摆列上的托管价零点二元每百万 t 肯尚未完全证实,但其性能上完全不需已发布的 gpt 五分钟安,甚至能直接部署在消费级显卡上,这性价比简直是给独立开发者送温暖。 聊完了模型,再看应用 astropics 正式推出了针对 hr 和同行的智能体工具。不同于以往的对话框,这些 agent 可以 直接处理复杂的自动化工作流。 看来 cloud 的 四点五 opus 的 推力能力已经开始在金融领域大规模变现了。与此同时, gry 也更新了现在 ai agent 正在协助修 bug 和管理进度。这种人机并排的模式标志着协同办公正式进入 agent 时代。 观众老爷们,你们的 ai 同事可能要来领工资了。多模态领域也有新动作, adobe firefly 的 视频编辑器现在支持根据素材自动生成首个剪辑草稿。 虽然这项新功能目前还在贝塔阶段,但这效率提升对短视频博主来说绝对是刚需,剪辑门槛再次被 ai 踩碎了。今天最重磅的人才变动, opencloud 的 创始人 peter samburger 宣布加入 openai, 投身骚扰团队,负责世界模拟与机器人方向, 这意味着 oppenai 正在全力攻克物理智能, sora 二点零的真实感可能要从视觉模拟进化到物理规律模拟了。硬件圈也炸了。前谷歌 tpu 团队创办的芯片公司 matex 拿到了五亿美元融资,连卡帕西都投了。他们主打 a o m 专用芯片,号称要在同一颗芯片上 同时拉满训练、吞吐和推理延迟,直接硬钢英伟达 h 三百,这路线确实硬核。 openclaw 创始人 peter stanberger 最近在访谈中聊到了 openclaw, 他 坦言, ai 编程时,代码不必追求百分百审美,关键是方向。对,现在的 pr 更多是意图驱动, 而非手动写马。 web coding 正在被 agent engineering 快 速取代。最后看看大湾区,深圳 ai 终端基金和香港的 ai 加产业策略委员会都在积极推动 ai 发展。 算力和钱粮都到位了,就看各位开发者能不能在这一波产业浪潮里整出点新活了。两千零二十六年的 ai 竞赛,已经从卷模型变成了卷生态和卷落地,阿里云这波 kdplan 真的 把门槛打到了地板上。 如果你是开发者,现在就是入场 agentext engineering 的 最好时机。好了,今天的硬核速递就到这里下课。

今天我是纯分享,重点推崇一下阿里云的这个售后服务,这是我亲身的一个经历,我经常用 ai, 那 我 ai 常用的就是可乐扣的,可乐扣呢会调用各种大模型的 api, 我 最近呢就发现呢,阿里云它的千问的有一个大模型的一个 叫扣丁 plan 的 一个优惠套餐,就是每月只花二十块钱,大概能调用一万八千次这个额度,这样你就会省很多的 token 的 钱。我发现之后呢就订阅了,然后就生成 api, 可乐的扣的有一个 大魔性,调用的一个软件叫 cc switch, 然后我在 cc switch 上就加载了这个扣丁 plan 的 这个 api, 结果当天呢就发现这个费用就超了一百多块钱,结果过了一个多月,他们一个售后小哥给我打电话就问我你一个二十块钱套餐用的怎么样?我就把这个事情跟他说了,我说 一天就用了一百多块钱,是扣后付费的,他说你可能模型调用错了,因为千万有很多各种模型,我可能调用的是百炼的那个模型,我就把那个模型改了,用 cc switch 又重新加载了一下, 结果加载完之后呢,再用可乐酷狗调用的时候,我就发现这个就行不通,后来这个事我就放在一边了,我嫌麻烦,就买了那个 deepsea 的 那个头肯,结果过了一段时间,那个小哥又给我打电话,他说你那个后来改了模型了,然后用的怎么样?我就把这个事情又跟他说了,那我具体的,我让技术给你服务一下,他就在上面掉了一个工单,他让我把实际情况给他们后台的技术人员反馈一下,我就把那个截图发给技术人员, 技术人员说你这次也是描模型调用错了,你要用调用最新的一个前文的模型,我就在那个 cc switch 上重新把那个模型改了一下,不到一分钟这个问题就解决了。其实我每月的花费就二十块钱,但是 对阿玉李云的这个售后来讲,他就会有专人来给你做服务。其实遇到这些问题,如果我主动联系那个小哥早就解决了, 但是我因为一用就卡那一卡,那我就不管了,我就改用别的模型了,但是那个售后小哥就孜孜不倦了,一个月半个月之后就问你反馈帮我解决了这个问题,我就觉得其实我的消费量是很低的,但是阿里云他的售后在这方面真的挺负责的。

不用 cloud code 有 哪些 ai 编程工具的命令行工具?第一个 code x 啊,写后端 y y d s 大 部分时间都是用它,并且性价比拉满。现在在某鱼拼车基本八到十块钱就可以买到啊, 根本用不完,强烈推荐用它写后端无敌。然后还有就是这个签子啊,用它唯一的好处就是如果你买了阿里云的编程套餐,那在这里直接不需要配置,直接用它的 api 就 可以进行登录。还有就是 open code 的 平替的工具, 那它唯一不好的地方就是支持的模型多,但是配置要麻烦一些。最后一款呢,叫 deep v code 的, 猎豹出品的一款 命令行 ai 编程工具,它的好处是里面有 cloud 模型啊,并且官网支持充九块九,所以说我们做前端页面 code x 搞不定,但是用 cloud 模型是可以帮你搞定的,所以它支持 只充九块九。当前端页面搞不定的时候,我们可以用它里面的 cloud 模型来搞定。但我不推荐用 cloud 模型,是因为做后端 cloud 模型还是干不过 codex, 并且 codex 性价比拉满。另外还有其他的命令行工具吗?评论区告诉我。

大家好,欢迎来到玲姐书为 i, 这期视频是 cloud code 系列的第二期,如果你没有看过第一期视频啊,可以在我的视频主页里面以 cloud code 作为关键词来搜索相关的合集视频。 设计视频的主题是要给大家实操,并且讲解如何在 cloud code 的 里面联通阿里云的 coding plan 计划并使用。实际上我最近给大家做的核心的视频内容是要讲解 cloud code 的 skill, 还有 co work 类似这样的深度内容啊, 大家可以期待一下,如果还没有订阅我的频道,也记得点一下关注,打开你的小铃铛,不要错过后面的精彩内容。我在准备这些视频的时候,我发现这前面还有一个前期工作可以做一下,就是联通阿里云的 coding plan。 最近啊,我也在养我自己的龙虾,我养的这个过程中啊,我发现有一个痛点,就是你会发现在使用 opencloud 的 时候,它的 token 的 消耗量是非常大的,可能平时我们一个很简单的操作,比如说点一下鼠标,那么我们人的整个判断链路啊,是非常快的,让它去搜集一些信息。 如果说是我们深度参与的时候,我们可以去直接打开一个 chat 的 界面,和大模型沟通几轮就完成整个任务了。 但是用 openclaw 小 龙虾的时候啊,它需要连通的动作有上下文,各种操作,从命令的指令到最后发出,完成整个闭环, token 的 消耗量 非常的大。在二月份的时候,阿里云就做了一个重大的更新,它推出了一个 coding plan 计划,我觉得这个简直是太逆天了,这个操作就是一个掀桌子的行为。先给大家看一下它的整个的 coding plan 是 什么样子的,它分为两个套餐, lite 和 pro, 而且它支持四个模型,你看这里他说了支持千问三点五, k 二点五, g l m mini max 等等, 相当于他把国内的四大这种开源模型啊都容纳进来了。原来你还要纠结这个 api 接口,我是放 a 的 还是放 b 的, 现在你只要接入这个 coding plan, 你 可以丝滑地在里面切换四个模型。也只有阿里能这样干了, 月之暗面是他的亲儿子,不说了, g l m mini max 都是他投资的公司,可见阿里 在 ai 的 基础设施生态这一块的布局是非常深的,而且这个价格也非常香啊。像 light 模型,首月只要七块九,次月也只是五折二十块钱,第三个月开始四十块钱。 如果说你是一个深度的重度的开发用户,还可以买 pro 模型 pro 套餐,首月三十九块,九,次月一百,第三个月两百块钱。 对比海外的一些动不动两百美刀的这个会员费,我觉得这个价格性价比简直就是拉满了。而且它这里的用量啊, 是按照次数来限制的,像 lite 基础套餐,每五个小时是一千两百次请求,每周是九千次,每月是一万八千次。如果是 pro 的 话,它每五个小时是六千次请求,每周是四万五千次,每月是九万次请求。 我相信大部分的用户每月九万次的请求都用不了,如果不够用,你就多开几个账号嘛。而且它这样的调用方式,还有这样的这种整合方式啊, 相当于打破了原有的 ai 模型的这个 token 的 供给方式,现在大家只是养养龙虾,搞搞 open call, 未来我们真的到了 agi 的 那个阶段的话,这样的这个 coding plan 的 计划就会对大众的开发者有更强的吸引力。 从表面上来看,它的这个操作啊,只是加了模型,降了价格,提了配额,但是在我看来,这是一种收口的清场行为, 它改变了原来的这种 a p i 接口计费的模式,它不是搞更强模型啊,它相当于是在搞模型自由。本来作为云厂商,它的市场份额就是排第一的,它的市场份额比 第二名到第四名加起来的还要多。他在搞一个类似这样的抠钉计划,相当于把原来的模型供应商的方式打破了, 他自己摇身一变,从一个云厂商变成了一个 ai 基础设施服务的云服务商。哇,这一招牌 实在是有点狠呐!但是不管怎么说啊,这个操作对于我们养龙虾还有使用 cloud code 的 普遍的这些开发者确实是一个福音,使用的成本降下来了。 所以啊,为了让大家之后更方便地使用 cloud code 啊,减少一些后顾之忧呃,用好这个 coding plan 类似的计划。所以这一期我就加了一期视频, 讲讲怎么在原来的基础上把 cloud code 和这个 coding plan 打通,把它接口搞好。下面我就接着 cloud code 系列的第一期,我接着讲 coding plan 联通的方式和方法。我来开始讲实操喽。准备工作要做好,打开阿里云百链的链接, 在左侧这个地方点击订阅套餐。点击进去之后呢,我这里是已经完成了订阅,我先定了一个 lite 套餐,如果有需要的话,可以点击这里的升级,从这里进入呢,你就可以看到这个 coding plan 的 计划, 现在呢是有活动期的,我也会把这个我的推荐和分享的链接放在我的置顶评论区,从我的这个链接进去啊,你和我都可以获得一定额度的代金券, 欢迎大家从我的邀请链接里面点击进入购买套餐。完成之后,在模型服务这个位置啊, 这里会有专属的 api key 把它复制下来进行备用。还是延续上一期所说的,我们打开乌班图,我们是在 wsl 环境下使用 cloud code, 如果说这台电脑本身你只用于 cloud code 这样的生产任务, 我认为直接去使用不使用虚拟环境也是 ok 的。 如果说本身你的这个电脑不是单一任务使用的,我还是强烈建议大家使用 wsl 这样的虚拟环境去操作使用。 如果你是玲姐的老粉丝老观众,你按照第一期已经连通了 cloud code 和国内模型,比如说千问 kimi 的 api 接口已经把这件事情跑完的时候, 嗯,在做这一步操作,你怕万一系统出现什么问题,可以先做一个备份啊,这也是我做的事情啊,可以把这个代码复制进去,先备份一下文件, 然后呢,再按这条命令确认一下你的这个备份文件在不在这期视频所使用到的所有的命令行这里的以及后面的,我都会同步放在我的同名公众号,玲姐说 ai 里面,大家可以去关注相关的文章去查看, 同时我也会放在我的 x 平台账号名也叫做零解说 ai, 大家可以去搜一搜,方便海内外的观众根据自己的需要自行取用。如果备份成功的话,你就可以出现这样的命令,如果你后面出现问题的话,你还可以方便去回滚。接下来两步就可以完成安装联通。 首先是复制这个长代码,到时候会给到大家,这个是我优化过的,它是不容易崩的。然后呢,把它复制下来, 像这样直接粘在这个乌斑图的系统对话框就可以了,回车一次性安装,跑完之后就复制这里命令,把你的 key 写进去。这里有两个 key 啊,你看一个是 dash scope key, 一个是 coding plan key, 这个 coding plan key 就是 刚刚你购买的这个阿里云的计划里面的这个 coding plan key, 把它复制在这里啊,这里替换一下就可以了。这里的 dash scope key 呢,就是我之前讲的你接入了其他模型的 key 啊,比如说一个单独的供应商,一个单独的 team 的 key, 把它复制在这里。然 然后呢,你就相当于你同时打通了两套模型,两套供应商的体系。如果说你只想用一个供应商,就用阿里云的这个 coding plan, 你 就写一个 key 就 可以了。接着呢,你就验证一下你的整个 coding 联通没有,比如说看到在这个对话框啊,我就发给他 cc 千问, 然后呢他给我回复了, hi, 这里呢,我问他 cc coding, 他 给我回复了, hi, 这个就代表我的整个的 coding plan 的 计划和我的安装的 cloud code 已经联通完成了,现在我们就可以正常启用 cloud code。 可以 启用联通 coding plan cloud code, 或者是联通千问或者 kimi 特定供应商模型的这个 cloud code, 它的起用的命令啊,我是设置不同的,我们可以通过启动命令的不同来启动不同的背后模型支撑的 cloud code。 在 这里啊,我给他的命令是 c c coding。 这个命令呢,是起用联通阿里云 coding plan 的 这个 cloud code, 然后回车开始进入工作空间,回车 信任文件夹。好,现在看到没有,我就进入了联通 coding plan 的 cloud code 了。这时候有人要问了, coding plan 不是 有多种模型吗?这多种模型我怎么进行内部的切换呢?我们再回到这个界面啊,要搞清楚它支持哪些模型。在这里啊,它有推荐的一些模型,这些模型名称啊,大家可以把它摘下来备用。 在我们切换模型的时候啊,需要使用到它,我们先输入 status, 看一下现有模型的状态。它这里显示啊,现有的模型是千问三点五 plus, 千问肯定首推它自己的模型啊, 它也说了,在这个 coding plan 里面,三点五 plus 是 默认的模型。如果说你想使用其他的模型啊,就要使用这么一条命令,比如说我想使用 kimi 的 二点五的模型, 你就输入这条指令,斜杠 model kimi k 二点五。把模型名称写在这里啊,也可以根据你的需要把它换成 gim 或者 minimax 模型,然后回车,它这里就会显示把这个模型转化成 kimi k 二点五。这个时候我们再用 status 看看它现有的模型使用的是哪个。 看在 model 这里,它就显示现有的模型使用是 kimi k 二点五。以上的内容就是如何在 cloud code 里面联通阿里云的 coding plan, 并使用切换模型的整个实操过程。后续我的 cloud code 系列 都直指生产力的提升,相信会对你有启发。记得订阅玲姐说 ai 的 频道,我们下期再见。拜拜。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

今天我来教大家一个方法,让你能完全免费地使用 qq。 我 们要做的就是让 qq 直接内置欧拉玛的功能。这事知道的人不多,但欧拉玛其实兼容 nfl 的 api, 这就意味着 qq 可以 调用开源模型了。 这样一来,你就能用上 mixraw、 glm 这类开源大模型了,完全免费,直接在你自己的电脑上运行,并集成在跨 code 里面,也就是说,你能通过跨 code 在 本地畅用所有这些厉害的开源模型。说真的,这绝对会是开发工作的一次革命。 当然了,效果可能比不上 coa coa 自带的官方 coa 模型,但是关键在于你能免费获取 coa coa 的 核心,它的智能代理能力,而且还是本地运行,完全免费,想想就觉得很夸张。举个例子,我现在就在用我妈妈在本地运行通一千问困三点五二十七币这个模型,并且已经把它和 coa coa 无缝对接上了。 靠着这个本地模型,我成功做出了这个非常好看的落地页。要知道这模型可是纯本地运行,完全开源的,能做到这样真的太强了,这无疑为开源社区打开了新世界的大门。大家想想看,你现在就能用上 coco 全部的智能能力,而且还是搭配这些本地免费的模型, 这包括通过欧拉玛子代理并行执行任务的定时指令等功能,以及用于文件查找、代码探索和资料研究的内置网络搜索功能。 所以本质上你获得的是一个功能齐全的智能体开发环境,其背后是完全免费运行的开源模型在提供动力,供大家参考。以下是我的电脑配置详情,我用的是一张 nvidia g force rts 四零九零显卡,它完全有能力在本地流畅运行捆三点五七十二 b 这样的大模型, 同时还能为大型代码的上下文窗口留出充足的显存空间。这样一来,你既能在本地享受到强大的上下文窗口留出充足的上下文支持, 那么要上手使用,你首先得搞清楚自己电脑的配置要求,也就是说,你得知道自己的电脑要在本地跑这些模型需要满足什么样的硬件条件。 这是我找到的一个非常给力的网站,你可以用很多类似的网站来查一下你的显卡能带的动哪个模型。比方说,如果你有一张三千零九十这样的显卡, 然后输入你显卡的显存大小,还有你希望模型具备哪些功能特性,它就会准确的告诉你哪个模型能跑的很流畅,哪个是勉强能带的动的。并且它还会具体给出上下文长度和推理速度的预估,这样一来,你就能更清楚的知道自己的电脑本地能跑哪个模型了。 另外顺便提一嘴,我的 discord 服务器是完全免费加入的,我最近分享了一个 cloud pro 订阅的优惠,可以享受三个月五折。我不太确定这个优惠现在还有没有,但如果还有效的话,说真的这波绝对不亏。事先声明一下,我既没接 and fpx 赞助,也跟他们没有任何合作关系, 我只是想跟咱们社区的朋友们分享点有用的干货,同时我也在筹建一个学校社区,在那里我也会分享这类好东西。当然,你通过我的 discord 也能看到这些内容。这个 discord 频道对你完全是免费的, 不过这只是我将在学校社区里分享内容的一小部分。预览此剧内容已融入第五十条定稿一文。如果你想抢先一步拿到最新最好的 ai 工具、工作流和资源包,那就赶紧点击下方描述区的链接,订阅我的免费资讯邮件吧,完全免费,不收一分钱。 接下来你需要做的是打开 olama 的 官网,官网链接我也放在下面的描述区了。点击那个下载按钮,然后根据你的电脑系统, windows、 mac 还是 linux, 把 olama 安装到本地。像我用的就是 windows, 所以 我就点这个 windows 版的下载, 这样就会开始下载安装程序。安装完成后,打开安装程序,接着点击安装按钮即可继续。这样 olama 就 安装到你的系统里了。 安装完欧拉玛后,会自动弹出聊天界面,这个界面不用担心,你可以关掉它,当然留着用也行。如果你想在本地把大模型当聊天机器人来用, 下一步当然是要确保你本地已经装好了 cursor。 你 可以通过终端里的 v s 扣来安装它,甚至用桌面板应用也能跑。欧拉玛的模型选择有很多,我个人习惯在终端里用,所以用下面这些不同的命令就能轻松安装。具体命令取决于你的操作系统, 比如我用的是 windows, 就 会在命令提示符里安装 cursor。 装好之后,我妈妈官方给出了一些建议。当你通过 cursor 来运行我妈妈上的开源模型时,官方建议最好运行上下文,长度至少达到三十二 k token 的 模型。这里还有几个推荐的模型, 我强烈推荐使用 q n 三点五这类模型,如果你资源充足,那就上二十七 b 模型。不过我觉得 q n 三点五的小尺寸版本也相当给力, glm 四点七的其他量化版本也挺能打的。所以通过在本机搭配云代码,使用这两款牛掰的模型,你的选择空间很大。这样一来,你就能解锁云代码的全部功能。比如最近刚上线的循环功能, 你可以让研究任务自动化运行。你可以检查一下你的 pr 拉取请求。你可以调用所有的智能体功能,比如插件。现在借助开源模型,你在云代码里还能玩转其他各种功能。 接下来你需要打开命令提示符或终端,我会把集成仓库的链接放在视频简介里。在这里你首先需要进行导出或设置操作,具体取决于你的操作系统。如果你用的是 macos or linux, 那 就用 export 命令。不过因为我用的是 windows, 所以 得用 set 命令, 所以直接复制第一条命令就行。这条命令的作用是为 and fabic 设置 lama 的 认证令牌。等我们把这行命令粘贴进去之后,接下来就需要连接 lama 服务器了。理想情况下,这就是将要运行您 and fabic 实力的本地主机。这样我们就可以复制这段代码,粘贴到命令提示符里,然后按回车键。 等您搞清楚系统要求之后,并且知道哪个模型最适合您的电脑配置,就可以着手安装那个欧拉曼模型了。而且操作特别简单,您只需要找到想安装的那个模型的详情页。比如我现在想安装 cuan 三点五,我可以点击想安装的任意模型, 复制您要安装的那个特定参数模型的代码名称,然后把它加到安装命令的最后面。接着您就能复制这个欧拉曼运行命令,然后粘贴到命令提示符里。以这个例子来说,您可以用欧拉曼运行捆三点五,然后就能开始安装了。这需要点时间,因为模型有十七 g d 大 小,它要安装到我的电脑里。 安装完成后,我就能直接用这个模型配合 colo 十力。不过这里有个小差距, 你不能直接通过云服务启动十例,否则系统就会默认调用 and hyper 的 模型。这时候你就需要新开一个命令提示符窗口,然后使用欧拉姆模型来运行云代码十例。 具体操作是,先复制云服务相关的指令,再复制模型相关的指令,最后添加上你已安装的特定模型名称。以我为例,我安装的是 k 三点五二十七 b 模型,所以我就把它添加在指令的最后。 这样一来,我最终的完整指令就长这样。接着直接按下回车键,这样就能在 clone co 中使用 ken 三点五二十七 b 模型启动我的云代码。实力完全免费,全靠本地的欧拉玛在背后驱动。 这样一来,我现在就能使用 clone co 的 智能体功能了,基本上我可以让他帮我编辑任何代码,而且只消耗本地资源。这真是太牛了, 现在能完全白嫖这个智能恋爱编程助手,这绝对是一次颠覆性的改革,比如现在我让他创建一个着陆页,他就会借助 kim 模型的思考能力来着手开发。瞧,就这么简单,我们的 plasma facial 着陆页就搞定了。这就是 kim 模型的杰作, 他能在本地调用高质量模型,并与云端大模型协调工作,还能部署子代理来生成这个落地页,这功能简直太强了,这就是这套组合拳能实现的真实效果。

今天我发现一个宝藏网站可以无限制使用到最新最强的 cloud 三百四点六和 op 四点六都可以任意的选择,并且可以去进行联网查询,然后提问的时候啊,他的回答速度啊也是非常的快,并且也是官网的模型啊,就是这个网址啊, 里面有多个 cloud max 账号,就两百美金的,都可以跟我们任意选择使用,如果大家想使用的话可以去看一看。

各位,我们天天在那怕 ai 把我们的工作给替代了,结果呢,昨天晚上就发生了一件很恐怖的事情,我常用的那个大模型直接宕机了, 结果我发现我已经连文档都写不利索了。当然宕机这个不是豆包呀,而是 cloud。 对 了,就是那个美国白天全面禁用,结果晚上就接着用它分析情报的那个大模型啊, 全球近万的开发者同时崩溃了,但这还不是最魔幻的啊,就在前一天,大家也都看到了一的那个导弹,起初啊,有的就打到阿联酋了, 结果就有不明飞行物直接命中了亚马逊 a w s 的 数据中心,然后呢,就起火断电了,中东的几十个云服务啊,全部瘫痪,而这个 cloud 就 跑在这些云上,因为他的母公司阿斯特跟亚马逊有四十亿美金的算力合同啊。 虽然后来奥斯罗维克自己辟谣说 cloud 宕基跟中东的事没关系,是因为用户这两天太支持他了,结果他的服务器扛不住了。但这件事也暴露了一个所有人都没法回避的事实啊, 你的 ai, 你 的数据,你的云服务,现在全都跑在物理世界的机房里边,不是虚拟世界啊,所以一枚导弹就能让它们全部宕基。 更让人无语的是啊, cloud 这个最强大的模型啊,他也没能算到,他在帮人类那分析情报呀,锁定目标呀,结果呢,这边一开打,把自己给打进去了,算里云给打没了这个闭环,你细想一下,那比任何科幻电影都荒诞呀,这个世界真的是太魔幻了。

大模型开始自己训练自己了! mini max 刚刚发布的 m 二点七旗舰模型,通过 agentharness 体系深度参与自身优化, 在研发场景中能承担百分之五十的工作量,内部评测效果直接把高百分之三十。 ai 自我进化的起点真的到了!除了自我进化, mini max m 二点七在龙虾测试中正确率达百分之六十,二点七追平 ko 的 四点六。 它能自动关联监控精准牌照并提交 pr, 简直是 s r e 工程师的梦幻替身。 mini max m 二点七已于二零二六年三月十八日发布,而 cloud opus 四点六则在二零二六年二月五日发布。 聊完模型,阿里也放了大招,钉钉发布首款独立 ai app 悟空,把所有产品能力全面 c i 化,让 agent 能像老手一样精准操作电脑和文件, 这才是真正的 ai 原声工作台。阿里悟空 app 已于二零二六年三月十七日上线。音界玩家看过来,普林斯顿团队发布的 flash attention 四彻底解决了 b 二零零的偏科问题, 通过软件模拟指数函数,将算力利用率从百分之三十暴拉到百分之七十一,翻译速度更是狂飙三十倍。 flash attention 四已于二零二六年三月五日至六日正式发布,并能将 nvidia b 二零零 gpu 的 算力率提升至百分之七十一。 老黄也没闲着, ic 平台引入 g r 零零 t n 模型和搜麦 x 框架,现在机器人通过合成数据,几天就能学完现实中几年的技能, 几身智能的通用化进程正在加速,但开发者老爷们注意,钱包要缩水了。阿里云和百度智能云今天同步调价,算力和存储最高涨价百分之三十四。 官方说法是 top 掉用量暴涨,导致算力资源极度紧缺。阿里云和百度智能云已于二零二六年三月十八日宣布调价, 其中阿里云部分产品最高涨价百分之三十四。巨头开撕,微软正考虑起诉亚马逊和 open 纳爱,因为双方内比五百亿美元的交易可能违反了微软的独家云合作协议。 asher 这一波防御反击 火药味十足,微软正在考虑对亚马逊和 open nai 采取法律行动。安全圈也有大关。美国国防部称 asrapec 构成不可接受的国家安全风险。争议焦点在于 asrapec 拒绝将其 ai 用于致命武器打击, 这道红线让五角大楼很不爽。美国国防部已将 as rapid 标记为不可接受的国家安全风险。两轮车也进入 ai 时代,小牛电动发布灵犀 aos 首发搭载 qw 三点五大模型,离线语音、 ai 导航、人脸识别全都给整上了, 这骑的不是车,是移动智能体啊! qw 三点五大模型已于二零二六年二月十六日发布。最后看看大厂财力,腾讯总裁刘志平透露,去年 ai 投入一百八十亿,今年投资至少翻倍。浑源大模型正全面接入腾讯全系产品, 大厂的 a 赛决战已经全面打响。有趣的是,曾经的伯克利研究项目艾瑞娜如今估值已达十七亿美元。这群博士生成了 ai 行业的判官,他们的排行榜直接影响着各大厂的融资和 pr 节奏。艾瑞娜的估值已于二零二六年一月六日达到十七亿美元 大模型自我进化 app 全面四幺 i 化算力利用率极限压榨。两千零二十六年的春天, ai 正在以前所未有的速度重构世界。各位开发者老爷,你们的本地龙虾养的怎么样了?评论区聊聊,别忘了三连关注这里是 ai, 天天叫,我们明天见!

codex 跟 c c 到底哪个好?我想大家各自都有自己的判断。在我个人为二者都充了二百刀的 pro max 会员以后,我个人的体感是 二者的模型能力之间并没有本质的差异,甚至都足够惊艳,让人心喜。但它们其实代表了两种完全不同的人。与 ai 合作的费洛索费 本质上,我们不是选择两个工具,而是选择两种与 ai 交互的模式。你习惯使用哪种模式,你的工作场景是哪种模式,你就应该选择支持哪种哲学的普顶工具。通常来说,抽象的讲, 软件工程开发的模式可以粗略地分为两大类,首先一类是那些探索性不确定的 idea。 在这种场景下,我们自己可能对需求要做什么,最终的一个中态是什么,甚至过程中该如何实现,它都没有一个明确的定义,它更多是我们一个拍脑袋的灵机一动的想法。当我们解决这类问题时,我们期待的一个 partner, 无论是不是 ai, 它应该都要能 快速的与我们进行交互,通过一些他主动的提问甚至判断给我们更多的信息输入,通过一系列的沟通,最终确定出一个相对更结构化,信息密度更高的思维原型来指引我们后续的执行。 而另一种常见的工作模式则是一个更明确的需求,比如说产品已经给我们了相对明确的 p r d, 那 我们剩下要做的只是说把这个项目 真正转移为一个可以被执行的代码而已。对于绝大多数的研发而言,这种场景下想要做的事情是基本完全确定的,我们在此时要做的无非只是一些 dirty work, 把那个 p r d 转化为真正写出来可用的代码而已。 而结合我自己的使用经历来看, c c 更适用于前者者的工作模式。它会在你输出一些观点之后快速地给你响应,并且高频地向你发出提问,以确定它后续的一些方向执行思路。但 codex 则完全相反,它会在你给完需求以后, 非常认真且可靠地将你的需求描述执行完。这个过程会花很长的时间,但是 结果往往是令我们满意的。想要更明确的拆分这两种工作模式的分野,我们不如从三个维度上来进行拆分,首先是任务商,也就是目标的清晰程度以及约束条件的多少。其次则是以我们预期的交互结构, 我们到底期待着与其他 partner 是 同步的沟通,还是说是一些异步的沟通模式?另外则是一个人类所占主动性的比例, 我们到底期望 ai 占据多少责任?他们是只是执行任务,还是说给我们也有一些他自己的认识建议?其实这三者并非是一个非常正交的关系。一个很明显的结论是,如果一个 目标的本身并不清晰,只是我们拍出的粗糙 idea, 那 我们显然就需要我们的协作者能快速的发问,帮我们把 自己大脑中一些比较模糊的观念导出出来,并且通过一些沟通确定哪些思考是我们需要的,哪一些是可以被删除的。通过这种 快速的同步沟通,得出来一些更结构化的结果,那在这个流程中, ai 需要介入的部分以及引导的主动性就会占比更多,但如果这个需求本身就像我们之前讲的已经相对来说明晰,是一个低伤的场景,那我们就不太 需要。它是一个很同步,事无巨细都要向我们发问的流程,它完全可以在我们把事情说清楚之后,一步的完成这个工作,从而解放我们人类自己的时间。我们也不需要给他太多主动发挥的空间,他只需要忠实的执行我们给他的需求就可以。我觉着对未来工具的使用以及工作流的设计,也都是从这三个维度去进行判断,动 态的选择。我们到底适用于哪种工具,应该主要采用哪一种工作流的思路?如果要打一个比方的话, c c 更像是坐在你隔壁工位的好蜂蜜, 会在有了一些 idea 之后立马的打断你现在的所作所为,跟你去探讨它的一些碎片化想法。而 codex 则更像是一个你忠实可靠的下属,在你交代完任务需求以后,忠实的可靠的帮你把事情完整的办完再通知你。我已经做好了。 每个模型都有它们自己的性格,我们也可以顺应的这种性格,在不同的工作场景中选择不同的工具以及模型。 以上是二零二六年二月我对这两个投影工具的一些使用场景总结,但我相信这个领域是日新月异的,二者工具之间 大概率在未来也会发生一些融合。不会说一个工具只是一种工作流场景,那就需要我们未来本身人类自己有一些对需求使用场景的预判,从而能告诉模型它应该采用哪些工作流模式。软件工程永远没有银弹, 不可能说我们用着一种模式,一条道走到黑,就可以得到一个很完美的结果。如果你在错误的场景使用了错误的工作模式,那模型给你提供的支持也就会非常有限。 结合自己的需求,场景动态切换自己的工作流模式才是一个更高效率开发的必经之途。以上是本视频的全部内容,如果你有一些想法或者建议,期待评论区讨论,谢谢大家!

大量的 ai 产品会慢慢的被大模型吞食掉,我们开发者、创业者到底该怎么办?因为二零二六年是 ai 产品的生死危机期,在二零二六年以前,大模型比拼的是谁更聪明, 现在大模型已经发展到了瓶颈,大模型厂商开始往大模型里疯狂的塞工具、手脚、记忆等横向能力。 google 能够直接操作你的电脑了, codex 能自动写完整个项目并测试运行, gpt 能联网,能画图,还能做数据分析,最新的 gpt 五点四能够直接操作电脑。这意味着什么?那些单纯调 api, 做垂直工具、垂直智能体、 sas 网站和 app 的 公司,正在一个一个的被大模型吞食掉。 这些产品到底在卖什么?调个 api, 做个图片的编辑器,核心能力是谁的?做个智能体,核心能力是谁的? 还是大模型的?如果只是加了一层壳,当大模型厂商们自己把这层壳补上的时候,这些产品就没了。我自己就是从大厂出来创业的,从去年开始做独立开发,做了图片编辑、视频工具、聊天、智能体、文字工具,前前后后做了六七八个产品,做着做着发现模型一升级,我零食就没了,模型一降价,我的利润也没了, 同时还要面对成千上万个同样的竞争对手。说白了,我不是创业者,我只是搬运工,这就是套壳产品现在所面临的困境。最后我想明白了一件事情,你的产品必须有一样东西是用户直接从大模型里拿不走的,也是大模型厂商升级之后干不掉你的。 那是什么东西呢?有三种。第一,内容资产。你积累的所有的原创的内容库,你建立的品牌认知。第二,数据飞轮,你有十万条用户行为的数据,这会让你比 通用模型更懂你的用户,后来者不可能追得上。第三,品牌经营,本地化的运营小语种 seo, youtube 上面建立你的粉丝, 你的私域,这些需要人去判断和经营的事情, ai 代替不了。最后,我想表达一个核心观点, ai 是 工具,不是产品本身,否则辛辛苦苦做出来的产品,可能在某一刻直接被大模型消灭掉。