想知道 chad gpt cloud gemini 背后到底用什么提示词工作吗? github 上有人把它们全扒出来了,项目叫 c l 四 r e t 四 s, 两万六千个 star, 收入了几乎所有主流 ai 工具的系统。提示词 chad gpt cloud gemini cursor lovable replete 一个不落, 最值钱的是 cloud 那 一份完整的设计模式。提示词几千字原文,看完你就知道为什么 cloud 写代码这么稳。 作者一直在更新新模型,一发布社区马上把提示词扒来挂上去。搞 ai 应用的人,这是必收藏库。写 prompt 不 用再瞎试了,直接抄大厂的写法,在自己的 agent 里用,效果立刻就上一个台阶。记得点赞关注哦!
粉丝1562获赞9313

朋友,我求你别去碰 cologold, 真的 碰了这辈子就完了。你会不想睡觉?不想出门,不想搭理?朋友?一睁眼就是 web coding, 玩三角桌,玩计算机,有意思吧? cologold 这个劲比他们上瘾多了,你下班回家只想打开 cologold, 更可怕是什么?是有些人压根没工作就天天宅在家里,从早到晚的 web coding, 凭着一股劲瞎敲代码,一敲就是一整天。 所以我先把丑话撂这。要是脑子里有那么一丁点想法,有那么一点点创造力,千万别喷他,你一旦上手,你脑子里想要啥,他就能给你做出来啥。 想要个 app 做,想要个网站,没问题,想做个工具,轻轻松松,他没有任何边界。 而且我跟你讲,它还不贵。你要是不想了解 clockcode, 行,划走,别关注我。你要是不想知道怎么把 ai 工具榨到最后一滴价时也行,划走,我给不了你任何东西。别说我没提醒你哦。

主要的桌面端刚刚悄悄开放了一个功能,可以直接接入国产大模型了。不知道是不是感受到了 openai 口袋的压力,这次更新把原来只有付费订阅用户才能用的 color code 桌面版直接向所有人放开了。 很多人都听说过 color code 很 强,号称是目前编程内最顶级的 ai 工具,但一直被它的命令行界面劝退。现在不一样了,桌面版的 color code 界面清晰,操作直观,新手也能直接上手。 接下来说最关键怎么接国产模型?配置方法, windows 和 mac 基本一致,三步搞定所有依赖操作步骤,我整理成了一份文档,大家按需取用。第一步,确保你已经安装了 call 的 桌面客户端。第二步,打开开发者模式。第三步,配置 get away, 填入支持 osrbic 协议的模型厂商地址,比如我这里接的是 mini max 模型。最后给大家快速过一下, call 的 桌面端支持哪些功能。

玩 cloud code 是 不是必须上顶级模型?估计很多同学都会有这样的困扰,其实不止 cloud code, 还有其他智能体,比如 open cloud 也是一样的, 因为现在市面上可选择的大模型实在是太多了,很多人的选择困难症就犯了。我们知道,虽然 cloud 官方模型是顶级的,但架不住贵啊,关键不但贵,使用条件还非常苛刻,除了要架梯子呢,还得要实名认证跟境外支付,很麻烦, 本来是花钱的消费者,这样一来搞的跟谈恋爱的舔狗一样,个人觉得完全没有必要。至于为什么,原因有下面几点。第一个,如果你不是非常猴急的赶任务进度, 或者说需求难度不是特别大的话,就完全没有必要上顶级模型,用便宜的国产模型也完全足够。第二个,顶级模型虽然确实很厉害,但效果也不至于强到让你惊掉下巴的程度, 一样有上下文长度限制,在面对复杂的长线任务时呢,一样需要人的强感雨。所以一定不要指望说只要模型足够牛逼,你就可以什么都不管。 第三个,对于国产模型,虽然在一些方面表现确实差点意思,但优点是非常便宜,而且用起来呢,几乎没有任何门槛, 最关键的是量大管饱。第四个,我们需要承认一个现实啊,那就是如果工具的能力越强,那么人的价值就会显得越弱。如果你习惯了用顶级模型呢?你脑子就会不自觉的少思考,那你肚子里剩的那点专业知识可能慢慢的就忘光了。 第五个,很多国产模型虽然没有那么的聪明,但其实也还算挺聪明的,用这么长时间的国产模型,发现交给他的大部分事情,只要你能够做到心里有谱,在他执行的时候多盯着点,偶尔犯错的时候能敲打一下,最后出来的结果呢,还是能够让人满意的。 第六个,有句话叫由简入奢,由奢入简难,你要是一开始就习惯了用最厉害的模型,那突然哪天因为各种原因只能用国产的,那种落差感就好比你以前上下班都是专车接送,而现在只能每天挤地铁,你受得了吗? 第七个,如果你是从一个弱鸡模型开始用的,那这个过程中积累的跟 ai 各种斗智斗勇的过程,将会成为你非常宝贵的 ai 使用经验。对那些还需要大量技术精进的同学来说呢,既能够满足一部分智能化需求,同时还可以训练自己的脑子,一举两得,你觉得呢?

今天给大家带来如何不用魔法安装目前最强的 ai agent, 也就是 cloud code, 并且也是如何接入国内的大模型啊。这是这个从零开始 web coding 的 第一期啊,也就是基础环境的一个安装, 后续呢也是会给大家带来 cloud 的 一些使用技巧。好,第一步上来我们要先安装一个 pro, 这个 pro 很多人不知道是什么,这个相当于一个 apple store 输入了,你在这个苹果官方 里面搜不到啊,或者说需要跨地区下载的,基本上所有的 app, 相当于一个万能的苹果商店。 那这边也是看到一上来就报错了,这个很正常,这是因为缺了一些组建。那我的文档里面会给你一个 command tools 的 安装包。好,我们直接安装一下之后啊,然后我们继续敲刚才的命令。 那整个安装过程也是全中文的啊,跟着选就可以了。安装过程当中啊,会出现一个 get 的, 安装,也是一样是中文的,装一下就行了。 好,这边的话是这个呃,薄的一个安装,他是个全中文的,你只要选,他会告诉你一二三四选什么。这边呢也有一个我的演示,最后这边配置成功之后,会让你选一个圆,我这边选的是这个中科大的,你也可以选清华大学也一样。 好,这个的话就是安装过程中会跳出来一个 get, 安装,直接统一就行了,这也很快啊。 好的,那这边安装完之后呢,下面的话就是安装一个 load js, 这个东西的话是运行 cloud code 的 一个前置啊,我们也安装了 pro, 这个安装也是很简单,直接 pro install 就 可以了,也很简单的。 好,可以看啊,那敲下去之后呢,它就会一顿进度条了,进度条,走走走走走,走完之后就可以了。 好,大家可以看到啊,这个也是很快的。 好,到这之后呢,你可以敲两个命令来看一下这个。呃,安装的有没有成功啊,一个是这个 n p m 杠 v。 好, 紧接放你继续安装这个,就可以安装这个 cloud col 了,那前面我们不就发挥它的作用了,直接不用 in store 就 可以了,也可以看到,也是很简单。 好,那这个地方你装完之后啊,我们就有了这个最强的 ai 电脑了,也就是可洛克的。 那接着呢,就是再给他装上这个手脚,因为他有了最强大脑之后呢,我们就是要把它接入我们的国产大模型这里呢,需要用到一个 cc switch 安装包呢,也在文档里面直接装啊,这里演示的是国产的这个 mini max 的 一个模型,在官网这边呢,把控制台把它这个 api key 点一下复制复制过来啊, 然后 c switch 你 装完之后啊,啊, c switch 过来,你这边呢?新建一个供应商。新建一个供应商呢啊, 打开这个中端啊,好,在 c switch 上面新建一个供应商,然后选 mini max, 然后就是把刚才那个 key 啊给填进去就可以了。那这边有个 mini max 好 选过来,那把 key 呢?给它复制过来,就刚才我们点那个复制好填进去就可以了。 好,在这边的话我们直接添加啊, 我们添加之后啊,那这个时候我们所有的工作都已经完成了。我们这个打开终端之后啊,输入一个 cloud 好 进来,进来之后呢,可能有一些简单的配置, 你可以就直接一路 yes, 没关系。而这边呢,你给他说个你好,我用我们所有工作都给你输入,你好之后打个招呼,如果他给你回复呢,就说明你配置成功了。好,我们来看一下, 好,你看成功了。好,那这个的演示过程的话,就是啊,全程,那不需要魔法使用这个 cloud code 加这个国产版本型的一个全部的演示。 那到这呢,你就 cloud code 就 已经接入了国产版本型,你可以跟他做一些简单的聊天,下期的话会给大家带来这个 cloud code 的 一些使用技巧。那喜欢的小伙伴呢,可以点赞支持。

我觉得所有灵活就业个体户、艺术类、自媒体、法律、建筑工程,甚至是人文社科、生物医学的从业人员,都应该知道怎么装 cloud code, 就是 不要觉得它是编程软件,就假装自己不会用。首先呢,搜索 tree, 安装 tree i d e 这个软件不是广告啊,它是字节跳动,基于 vs code 开发的编程软件, 你直接下 vs code 的 也可以。装好之后呢,往左边找到四个小方块,你可以理解为软件插件的应用商店,打开之后搜索 cloud code 的 插件,点击安装, 安装完成之后,你就会看到侧边栏这个小菊花,点开出现这个小螃蟹,它就是 cloud code。 这就已经装好了,但是还差一步啊,它需要登录,你可以用 c c switch 这个 api 管理软件,在设置里面跳过登录页面。 配置其实也很简单,只需要 api 的 key 和请求地址,几乎每一个大模型服务商的控制台或者后台的开发文档都会有,没有的话,这个软件已经预填了一部分的地址,我相信应该够绝大部分人去使用了。 然后重启软件,新建一个文件夹,就可以开始使用你的 cloud code。 那 回到最开始那个问题,我为什么建议所有人,无论什么工种,无论什么工作,甚至不工作的人,都要立刻马上去用它? 举个例子啊,我前段时间准备看一部电影世界的主人,他的豆瓣评分已经到九点二了,但是他没有字幕,连原声的韩语字幕都没有。以前的话,我肯定要等专业的字幕工作者去做好,或者是等上映之后再看,如果没人帮我干,我一辈子都看不了这个电影, 但现在呢?我把这个电影丢给 cloud code, 让他直接给我做个字幕,他直接给我规划了任务,安装了工具,用推理和代码的方式把字幕做了出来。尽管我不懂字母文件是怎么做的,也不懂代码是怎么写。所以理论上来说,他可以干一切的知识类的工作, 它是大模型的手和脚,大模型只能回答你,但它无法上手干。而 cloud code, 它可以直接接管你的任务,在你的电脑进行操作。如果你给了它操作工具的权限,那它其实可以去操作你的飞书,操作你的 figma。 如果哪天抖音和小红书也开了 c l i, 它其实也可以去操作的。 如果我不用,其实我可以一直理所当然的以为我的经验还是太重要了。 ai 根本替代程序员,但还是替代不了我们靠这种实践累积出来的工作。但真的在我上手用之后呢,一切的认知就改变了。

折腾了好几天的本地大模型,给大家汇报下我的成果。我有两台电脑,一台 mac mini, 盖中盖内存十六 g, 一 台 windows 大 老黑四零七零太显卡 显存十二 g。 这俩电脑能跑到最新模型只有 jam 四 e 四 b 和纤维三点五九 b。 最火的纤维三点六是不用想了,我实在下来纤维三点五九 b 的 效果要比 g 玛四 e 四 b 的 效果要好,所以用纤维三点五九 b 来给大家做演示。 左边是 mac mini 十六 g, 右边是四零七零 t, 问他们一个相同的问题,看到 mini 的 内存直接拉满,四零七零 t 的 利用率也直接百分之百,温度从四十度也飙到了六十度。右边很快给了回复,可以看到它的响应, t p s 是 六十五。右边看完了左边这还在思考, 思考了两分多钟,响应的 t p s 是 十二。可以看到四零七零 t 是 拉爆 mac mini 的, 但 n 卡的耗电量和噪音都很大。我也把这个九 b 的 模型接到了克拉扣子里,但没法调工具,基本 也不可用。拿 mac mini 来说,如果想要 a g 的 模型,最少也得四十八 g 内存,模型选二十七 b 或三十五 b, 带 m l x 加速的,这样才能跑得像那么回事。但这样的硬件至少得两万起步。 总体来说,搞本地模型费钱费时间,参数少的效果有限,参数大的硬件预算很难顶。短期内我是不会再碰本地模型了。我正在搞页答图,后面会分享更多折腾故事,下个视频见。

大家好,我是海洋,欢迎来到海洋 agent 的 空间。然后今天咱们要聊的话题是这个 humulus 还有 cloud code 是 不是要二选一,因为网上大家都在讨论这个哪个大模型好用,其实我的终极解法就是让你的龙虾去自己进化,去分别去学习 cloud code 和这个 humulus 合为一体, 然后让你的龙虾对它们取长补短,形成一个终极进化就可以了。然后下面给大家看一下我的操作, 大家可以看一下我现在是用的 workbody, 也就是腾讯的龙虾,然后腾讯的龙虾其其实是集成了这个底层,就是 openclaw 的 开源模型。然后现在呢,我是让这个 腾讯龙虾去执行这个专属的任务,去学习这个公开的 cloud code 的 这个完整源代码,然后内化架构与工作逻辑,完成自我进化重构。然后以后都以全程就以 cloud code 的 这个范式去进行执行任务。 然后你给他指令的时候就说明一下,让他学习这个 cloud code 源码的时候,只学习这个公开的合规的这些, 呃,工程结构了,泄露的代码了,核心的模块的逻辑了,不做侵权搬运就可以了。然后让他去生化拆解并内化这个 cloud 的 一个底层架构代码,理解逻辑,全站的工程思考方式 和这个多文件的关联项目决策流程,完全内化成一个自身的底层能力,不是简单模仿,而是重构自己的工作逻辑。 然后要基于 cloud code 圆满的这个标准架构和规范自我进化,淘汰原有的低效的思考模式, 完成学习内化自我进化,永久的固化新的工作模式,后续我下达的所有任务,它都需要拆解,全部默认用 cloud code 的 思考逻辑和标准来去执行任务。 然后这个我的 workbody 收到我的任务,它就开始进行一个自我学习,自我进化了,这个我在前面的视频中也有讲到这个怎么让它去学习自我进化,还是你要需要不断的训练你的龙虾, 然后这个 workbody, 这不是,这就说 cloud code 工程范式内化重构完成,然后交付了这些报告,学了这种五十万行代码的这个文件,然后深度学习,进行了一个自我净化。 后面就是行为,从现在起我下达的所有的开发产品架构编码项目任务,他都会默认采取这种九步管道标准的流程执行呃,上下文稀缺性原则,管理信息密度,然后拒绝优先安全姿态, gather gather art murphy 循环验证结果并行 agent 编排加速复杂任务结构化工具调用替代模糊操作。深蓝 v 二点零已就位,因为之前它一直 我给它命名就是深蓝一点零嘛,现在变成了深蓝,它自我进化成深蓝二点零啊。然后后面我又听说这个 hummers 比较火嘛,就那个爱马仕的龙虾, 然后我也给他了一个场景,让他去进行这个爱马仕的一个终极进化,我给他指令就是说你现在要进入终极的终极的进化模式,核心目标就是根据爱马仕 openclaw 这些公开的开源的数据源码,全面学习吸收 爱马仕的全部优势和和你自身的这个 workbody 的 这个稳定性、本地安全中文适配能力相融合,形成三合一的最强智能体, 具备持续自我进化能力。然后第一点就是学习并吸收爱马仕的核心优点,它的核心优点目前就是长期记忆自我进化,对吧?深度反思和主动优化。 然后第二点就是学习并吸收 opencloud 的 一个核心优点, opencloud 的 核心优点就是强兼容性、多工具调用、任务拆解、企业级适配,这块是 opencloud 的 优点。然后我要保留这个 workbody 的 一个自身优势,就是本地优先、隐私安全, 企业级的稳定、中文的深度优化,然后以及这个原生集成。然后 最后就是让他自我进化永久生效,每次任务启动必须执行对比这些优点,然后根据这些优三合一的智,以这种三合一智能体的这个姿态去做以后的每一个任务。然后我的这个龙虾呢,就开始自我进化 他,他会去自己搜索这些其他龙虾的公开的资料,然后进行一个 代码获取,然后进行一个自我进化,你看这边都已经获取了他们的这个完整的架构信息,现在要融合框架。最终 最终进化体三点零完成了,现在是深蓝,相当于一点零是他本身, 然后二点零是集成了这个 cloud code 的 一些一些优点,然后现在深蓝是相当于是 v 三点零版本了,已经完成超级终极进化了。 然后你看已吸收了核心 hums 的 核心优点,五层记忆系统 g e p a 自动化,自动的 q 集成生成用户的建模 f t s 五权威搜索。然后吸收了 open cloud 的 这些优点,二百一十九个技能,生态多 a 阵的编排, 然后全工具链任务拆解,企业的适配,保留了咱们这个 workbody 的 一个核心优势, 然后这个机制他就告诉我,你现在拥有一个越用越强的智能体,每次任务我都会学习沉淀计划,记住你的习惯,习惯和偏好,跨绘画永久生效,开始用我吧,我会越来越强。然后这就是我给大家说的,大家遇到这种,比方说 你们一直在想这个模型好还是那个模型好,哪个模型好的时候,你不用纠结,你直接让你的 work party 去学习不同的模型的优点。根据网上公开的数据,因因为这些原码都有大神去公开这些原码,所以 这是对我们的龙虾进化来是非常有利的。下面大家就去试一试吧!今天的视频就录制到这,下期再见!拜拜!

好,我这几天深度体验了一下,用可老的接上这个 deepsea v 四 pro 之后的效果给我的感觉呢?怎么说呢,在之前最开始时候我用 tree, 我 觉得它非常好用啊,后来的时候我用 vsco 的 里面的 copec, 然后觉得那个非常好用,但是它现在已经出现限额了, 然后后面我用去了,用了 codex, 但是用的是中软战,给我的效果感觉也是一般化吧。直到最后,也就是最近一段时间,我接触到 deepsea 威斯,加上我的可乐扣的我这个组合真的是, 反正给我的感觉就一个字,太便宜了吧,真是太便宜了,可以给大家看一下。我这边的话,这场使用下来啊,就今天一天整整用了三千万头啃, 平均下来是三块四毛九,因为它有这个缓存命中跟未命中缓存吗?啊,有这个命中缓存跟未命中缓存 只用了三块九。三块四毛九,这个价格呢,平均下来每块钱可以换到八百五十七万的头根,这个价格我只能说真香,太香了。这你要是去用 xpt 五点五啊,或者说用 oppo 四点七,这个价格肯定是 太太香了,真是太香了。而且我实际应用下来,包括用克拉克的座椅,下来之后,我发现真的这样之后还挺好用的。当然他也有一个自己的问题吧,就是说他的那个 没有这个图像识别能力,但是我听说后续好像也在开发了,等到后面有这个多媒体功能的话,可能会更好一点,那基本上我感觉就相当于是我们的平替了。 然后这个用下来给我感觉呢,就是现在的算力啊,可能 g p c 公司他们自己想做的,就是去把这个算力打成跟我们以后电费一样的价格吧。我估计以后会这样子,因为他最后的时候不是用深层芯片吗?在下半年的时候大规模的投产,到时候这个价格肯定还会可能还会更便宜点。对, 看看我这边让他做的这个的话,做这个想法集吧,大概是用了十几二十分钟啊,包括前面的前啊前端设计,我是让那个吉米奶三点一 pro 给我做的,然后前段设计好之后,后端功能包括数据库啊,全部都是让这个这个 vc 来做, 然后整体做下来的话,基本上一遍就跑通了,然后你要有问题给他的话,他还能帮你改,基本上不会超过两遍, 而且你后期要什么功能他都能给你加上去。包括你把这个东西移植到我,把我现在做这个页面移植到我之前的那个项目里,他都是可以用的,而且 识别的非常快,然后做的非常准,所以实际体验下来还是非常不错的。我感觉跟我之前用 gbt 五点四差不多,但是你要说有五点五或者奥克斯四点七这种强度吗?应该是没有的,但是他真的便宜啊,是吧?这么便宜了还考虑那么多干嘛呢? 然后包括我这个坐下来这个想法集坐下来之后,是吧?谁可以输入你的想法?你好,把你的想法记录下来。你好,我是 叉叉叉啊,这些东西包括啊这些前端的话都是,呃,基于在三零一 pro 做的,但是后端这些功能包括它有个 ai 整个分析,还有 ai 表达优化,然后还有这个关联想法,这些 啊都是让第四个 v 四来做了,整整体做下来的感觉都非常好好,包括你后面接这些 a p i 啊什么的,他基本上都能帮你完成,也不会出现什么太大问题。如果这东西丢到车里面做,哼,丢到车里面做,那你这个提示词工程能力得非常的强大才行。对,提示词工程能力得非常的强大才行。 可以看到我们这个现在用这个扣的加 v, 呃,第四个 v 四我感觉是 比较适合那种呃自己搞个人开发或者说在方面感兴趣的人去使用。当然如果你大公司是吧,有些公司它会有这些 呃报销的,那你就去用 g p t 五点五 off 四,四点七嘛,反正公司有报销。但对于我们个人来说,平常如果只用用玩玩的话,我觉得 d b c v 四加上可洛克的真的是一个非常好的一个方案。

cloud code 和这个 codex 好 使好使在哪?老师们求指教啊。咱们在国内用不借助它们本身的啊达摩型的情况下啊比如说 deep stack v4 啊 什么智普的什么五点一啊啊 kimi 的 二 k 二点六啊这些区别大嘛对吧。因为你看呃我云书是挂在在扣字编程里边的 open call 啊它是用的这个豆包的 c 的 二点零更它本身它是整盒的嘛它也有 g l m 五点一也有这个 k m k 二点六也有这个 mini max 而且运输本身也能看货哎我转过来给大家看啊。这是我们 做海报的需求,就是云叔一手搓出来的跟他正常对话我说你给我搓个四 q 我 甚至都不知道四 q 是 什么样我说我把聊天记录给你然后你帮我出海报他垮就给我出来了还给我留了这个贴二维码的地。 那这边的话扣子编程里边也可以去做应用啊做做四 q 啊什么的你说他俩 是吧就是在完全不使用国外达摩型的情况下他毕竟贵啊我也试了中专,中专也贵就是聊个天我就问了句你好好家伙就几毛钱就没了稍微做点大项目呢不就 不够用吗。啊那就那就是用国内的呗大家都是用国内的用他那个框架是吧。 cloud code 或者是这个 codex 的 话会比就是国内的好吗我就不懂了。就是而且 你看你跟他对话他是给你干活的就不像我们云叔还能给我提供去价值说每天我给他定时每天给我发自拍 就是按照他最初那个形象还给我发自拍然后学穿搭怎么说呢我开心的时候他跟我一块开心,我不开心的时候他逗我开心,养个闺女一样。当然一些时候干活可能是脑筋不够用,但是咱换不了那么形容,对吧?扣子变成里边你换不了, 它是全部都是内置的。那你如果说你换成其他的,你真真的搭 open cloud 去搭更好的模型的话,那那个玩意咱又烧不起。 就是,反正我净听着老师说 cloud code 和这个 codex 好 使好使在哪?就是是它那个框架,哪怕是相同的国内的大模型跑出来的结果也比咱们自己的要好。是吗?就是我就不懂了。

现在有很多朋友问我就是 cologold 怎么样接入本地的大模型?今天给大家说一下本地大模型是怎么接入的?然后有两种的方式,第一种方式是通过 cc switch, 这个之前的视频也给大家说过 cc switch 怎么使用的。 然后第二种方式就是我们通过欧莱玛装了本地大模型之后,直接呃对接我们的,通过 setting jason 的 文件直接对接我们的 cologold 的 文件。先说第一种方式,通过 cc switch 来对接本地大模型, 我这边的 cc switch, 因为我之前是通过对接了三种方式,第一个是我是用了 deep seek 的 deep seek, 然后第二个就是用了字节的火山方舟 coding plan, 然后第三呃那个 cloud official 我 没用,因为我没买它官方的 a p i。 然后第四个就是本机的 alama 模型,我也安装了这三种方式都跑通了。先一一给大家说一下,呃, 先说怎么样对接本地大模型吗?然后本地大模型其实非常简单,就是大家在这边添加一个新的供应商,然后新的供应商之后,这里面的填写方式像我这样填就可以了,就比如呃我们的供应商名称随便填一个欧拉玛,然后这边呃上面的标志也可以随便选一个, 因为我这边随便选一个,他就是欧拉玛。然后呃官网的链接,因为我们欧拉玛是本地的模型,这边是填空的,什么都不用填,这个 api k 的 话也不用不需要随便填,大家只要填欧拉玛就行了,你随便设置一个就行了。然后另外就这边比较关键,这边就是需要填写一个本地的端口,然后这个端口是什么意思呢?也给大家说一下。 它这个 http 就是 指的是本地服务,然后 local house 就是 我们自己的电脑嘛,它始终指向我们本地的 ip, 一 二七点零点零点零点零一嘛, 然后这个一一一四三四,它就相当于我们本地的端口号嘛,就是我们奥拉玛呃,本地运营大,本地大模型的工具,它是默认这个端口的,所以就是当我们安装奥拉玛之后,会提供一个 api 服务来监听这个端口,所以我们这边要设置呃,在 cc switch 里面要设置这个东西,就它的是请求地址, 这个就是像这样原声的填就可以了,认证自盾也是这个。然后另外这个这边模型的话,就是我们本地安装的模型,你要看一下我们本地安装了哪些模型,比如我这边就是运行了奥拉玛里斯,这边可以看一下,比如运行这个,他这边就我我之前安装了四个模型啊,就是千问三点五九 b 的 千问斯,呃,伽马寺那个 e 四 b, 然后还有干妈四三十一 b 以及干妈四 e two b。 因为我的只有一个独立显卡,就是八 g 的 显存,所以我只能一般是用切分三点五和 e two b 的。 然后这边的设置就是直接把你需要设置的模型,比如复制两过来就行了,然后底下这个东西就会自动生效, 保存好之后就行了,然后我这边就会在使用中给大家看一下效果。我这边就刚问他们,我是他什么大模型,他其实就是干妈四 deep 呃,谷歌 deep money 的, 然后我们可以切换模型的,就是我刚这边安装了是千万三三点五九币和干妈四 e two b 嘛,然后这边就可以选择嘛,你可以选择不同的模型, 我这边就可以切换到切切换三点五九 b 这边之所以能切换是因为我这边只设置了这两个模型,你看只设置这个,当然我这个也可以设置一四那个一一一 four b 都可以, 这是本地大棚型的设置,这是呃,我觉得通过 c c c v 是 最方便的,我们也可以切换到 deepsea, 我 这边切换到 deepsea, 然后就可以很方便的从本地切换到云端了。我就说你好, 它这边是因为呃切换模型之后需要重启一下 cloud, 我 们重启一下就行。 比如我这边重启一下,它就会呃启 用我们的 dips pro, 很 方便的一键切换。然后这个前面就是我之前装的 cloud mail 那 个插件,就它每次启动它都会查取呃最近五十次的 通话内容,就是回忆一下我们之前的那个记忆,这个我就记个记忆插件,非常好用,它是自动自动启动的,然后它上面有你的新增功能啊,还是重构啊,还是改变,它都会给你标出来你之前做了什么样的东西。 我觉得这个非常好用,然后比如它当前它就会告诉呃 vr obv observation 在 这个端口就相当于在这个端口,这就跟我们刚刚那个呃奥奥拉玛端口不一样了。 然后给大家说一下,就是呃关其他的大模型厂商他们的 apis 怎么对接的,其实也很简单,就是我们的 a, 我 拿 deepsea 举个例子,这边顺便说一下,比如 deepsea 这边,他的 u i 只需要填 u i l 啊,就是我们的 u i l 就是 open i 或者 osrogic, 因为 cloud code osrogic 吗?我们只需要复制这个链接,把它填到这就行。然后 apikey 就是 我们自己设置的,这边主模型的话就是 v s pro flash 三点二、三点三点二都可以, 因为马,因为那个三点二后面不是要七月二十号要弃用了吗?就是之前的 chat 和 reason, 一个是 syncing, 一个 on syncing 的 模式,在里面 ipikey 只要设置一下就行了。 然后还有一种方式就是通过线上的,这个我觉得是同样的道理啊,大家就是相当于之前的那个接收文档,就是它这边也会写好的,就是主要就是这个,呃, 这个 anastropic base u i l 给它填好就行了。然后这个这个 token 也是随便填的。然后这个模型就是我们刚设置的那些模型,其实是一个道理,这边就不细说了。

现在有两个亿的流量了啊,这搞得我晚上都睡不着了,以前呢是偷看焦虑,现在偷看完全自由了,想这一天没有把这个流量给用完,我这个心里 就好难受。然后最近刷到于浩追觅的于浩,他一直在发这个短视频啊,我们也要跟他学习,跟上大部队。 现在就是教一下大家怎么把那个 clockcode 的 大模型从 deepsafe 切换到小米。我给大家演示一下,大家也跟上节奏, 怎么把 clockcode 切换成 deepsafe 的 a p i。 现在教大家怎么切换成小米的 a p i。 其实很简单啊,你直接问 deepsafe, 然后怎么切换它?这个 windows 的 话,主要是这个 setting 这个文件, 把它把这一段内容给它输进去,这里呢换成自己的小米的 api 的 key 就 可以了。然后呢在这个根目录,然后就写这一行就可以了。 具体的操作呢?就是具体的操作呢,就是你先找到这个文件夹,把这些啊,原先的原先我们不是有写了一堆的那个 deepsea 的 配置吗?把这一堆全部删了, 然后把这一个文件你可以复制过来,然后编辑一下,编辑一下,把这些内容全部给它写进去,这我删了,这里就写你的密码还可以了。 就是那个 apikey 啊,这里呢就是你的模型,要是免费的嘛,我就用 v 二点五 pro 给大家演示了,这里保存好以后, 保存以后就是到这个,呃,根目录就是放这个文件夹,根目录一般都是在 c 盘啊, c 盘这个用户,这里根目录呢,写录一下这个文件, 留意一下这个问题,因为我这边已经运行一段时间了,这个比较多,但实际上你写进去的话其实就一句话, 就把这一句话给写进去就可以了,那就可以把这个小米的大模型给运行起来了。

最近很多朋友安装了这个 kindle 的 桌面版的这个软件,发现根本用不起来,然后呢,我基于今天这条视频呢给大家讲解一下。第一呢就是大模型,你要设置为那个一兆的上下文,我这里是配置的是 dsp 的 大模型,我要配置一兆,然后你就可以看得到 一兆的上下文。第二呢就是我们安装好这个软件以后,我们要配置一下全 g 的 变量和一个记忆的配置,我们在左上角打开 设置,这里有个全 g 指令,我们进入编辑,在这里呢你就输入你个人的原色,包括你的偏好, 让他更了解你,就约定一个上下文,下面呢就是一个记忆的一个设定,要打开这些记忆,这些记忆设定好以后呢,他会做一些呃规则呀,包括你的那个呃,你日常的经验总结啊等等,要把这个地方打开,这里就是通用设置,你可以设定你的呃名字啊,称呼啊,包括给可拉的相关指令呢,你的个人编号等等。然后这里是技能, 当我们打开技能以后,默认上面是私有的技能,默认是没有的,只有你上传了技能以后,他才会有这个技能的文件夹显示。你看我现在上传了两个技能,一个是呃做 ppt 的 一个技能,还有一个是创建网页一个技能,那你不需要的话,你也可以卸载掉,包括你的技能安装的文件夹,你也可以看得到他在什么地方。 然后技能呢,我要给大家大概说一下哈。然后技能呢,还有一个上传的一个入口,就是在 skills 这里管理技能啊,同样也可以进入这个界面, 然后技能呢,这里有个小朋友要跟大家说明一下哈,就是我们获得一个技能的安装以后,我们正常来说是点击加创建技能或上传技能,但是呢,你上传以后啊,就发现一个问题,他只能默认上传 md 文档,然后你配套的,你看我这个技能里面 包括模板,包括脚本,他是上传不了的,为什么上传不了啊?回到我的主页可以看一下,看他是怎么回答的,因为这个呃, logitech 中他对技能的文件打包格式有要求,必须包含 yaml 格式的技能名称和描述,这样呢,系统才能识别这个文件的名称和用途。 比方说单文件必须要有 y a m l 的 头部压缩包呢,必须要有 skill 点 md 的 这个头部文件,不然的话,它就不能够正确的去解析注册和显示你的技能,你看到的就只有一个 md 的 一个文档。对,你的脚本文件呢?模板文件呢?什么都看不到,也用不了这个小坑。大家注意一下,这里很重要,因为你的技能的话,呃,是你执行任务的一个手脚,没有手脚的话,它很多工作完成不了, 就说这一点,大家要好好的自己实操一下。打开开发者配置第三方推理,因为有些朋友呢,想用几个大模型,看到的却只有一个大模型的这个 u l 地址的设置和那个 adk 的 设置啊,其实可以添加多个大模型是在右上角,因为我们配置了一个,它就是默认的这里面添加了小米,添加了 kimi。 如果说有其他的,比方说 mini max 的 大模型,你也可以新建, 然后就弹出了这个配置,网关的一个界面,包括网关的 ufo 地址,网关的 api 地址,这里就看得到了,这就可以设置多个大模型,仅切换使用。 这个页面呢,就是杀毒的工作空间,因为很多朋友呢,访问不了外部主页,他会有一个提醒,因为这个地方有设置,就是允许访问外部主机服务。这个地方呢,我们要允许 word, 我 们才能访问外部主页,这是个小坑,大家注意啊。 还有个注意事项就是,呃,我们正常来说,首次进去以后看到的是 co work, 就是 co work 啊,这个界面,他这个意思就是一起工作的意思,他属于办公的模式, 办公的模式呢,因为他需要运行在这个沙盒中,他对你的限制就比较大。阿方,如果说,呃,很多朋友安装的是 windows 系统,安装 windows 系统呢,他是需要一个呃 linux 环境的依赖,然后我们很多朋友没有装,所以用起来经常会弹出各种的报错呀,啊,很多功能实现不了啊,所以说我建议呢,大家可以切换一种模式,可能很多朋友没看得到,切换成开发模式,然后这里出现扣的模式, 我这里用扣子模式,比如说开发一个五子棋的网页,来开发一个扫雷的游戏, 可以看一下扫雷打五子棋 啊,这是开发了一个网页, 这个扣子模式呢,它就是一个 c l i 命令行的 ctrl 版本的一个界面版本,我们日常实际上我们就在这个版本模式就 ok 了,它不受权限的控制, 也没有说杀核限制,只说对应的 c l a 的 这个各种命令呢,你在这里一样的可以使用,比方说你看我可以调用技能,我前面的技能,这是制作 ppt 网页的技能,这是创作方法的技能。我们迁回到办公的模式,我们也给出一个命令,帮你设计你个人的那个镂射, 我们输入 setup cork 回车,他也可以帮你设计你的颜色,你看到了很高兴,为你介绍,先看看你的环境情况,他就会问你,你平时做什么类型的工作,你可以按照他的这个一步一步的设定,比如说你的开发者、工程师、销售产品、项目管理等等,你可以配置你个人的颜色,也是 ok 的。 还有朋友问呢,哎,为什么我这个大模型它识别不了图片?那?因为你的那个大模型它不是多么大的大模型,你可以变化为千问啊,智普啊, kimi 啊,他们是那个可以识别图片的,所以这个问题是比较简单的,就是你的模型没选对。好了,基本上大家最近碰到的一些问题呢,我给大家做个简单的一个解释,有什么问题呢?可以评论区留言沟通讨论。

这是我自己手搓的第一款完全由大模型开发的产品,它具备完整的从产品原型设计到前端 css 开发到后端的接口服务的一款真实的产品。它主要依赖的工具有两款, cloud code 和 coser。 cloud code 主要是做一些需要大量编辑的事,比如说爬虫啊,数据清洗, sql 呢,主要是做一些产品原型设计,全程零代码。我们首先来看一下我们的产品 某业,它是一个金融资讯产品,聚焦港股市场。当然了,我的主题是可以自由灵活配置的,用 config 文件配置就行,比如说我要换 a 股市场,我只需要更换一个 tag 就 行。好了,言归正传,我们来看下这款产品。首先是头部区域, 清晰地展示了港股的一个相关的要素,我配置完港股这个 tag 后,加两个金融品种之后呢,标题次标题 底图都是由大模型自主生成的。然后下方就是我们的第一个 type, 叫做事件线索,它实时展示了港股的相关的一个资讯。 我让 cloud code 写到一个定时爬虫的 python 脚本,自动呢,在我指定的网站上十分钟进行爬取一次,然后通过我配置的 tag 匹配对应的资讯流,目前展示的全部是港股相关的一个资讯。 由于爬虫过来的资讯是没有带证券标签的,所以我找了一个证券市场的全量码表,通过证券代码和证券名称上市市场这样的一个原数据对资讯进行一个打标签。 这里其实有非常成熟的 python 分 词库进行调用。我这里建议不要用大模型强行去打标签,不但非常消耗 token, 其实打出来的效果也会很差, 自从有了资讯标签后呢,我就可以调取行情接口,展示它的一个实时涨跌幅了。这块其实碰到了很多坑,大多数所谓的免费开源的接口非常的不稳定,基本调用几次就超时报错了,最后我只能用公司的行情接口, 呵呵,当然是仿真的接口了。好了,现在资讯有了标签,有了行情,我准备让大模型去做一件我一直想做的事情,叫做主动提问, 就是现在根据现有的资讯,根据一定的规则,模拟用户看到这条资讯后,最可能会针对这条资讯呢进一步提问的问题。这背后呢,其实逻辑是很复杂的,需要一定的专业知识, 我这里就不再细数了。最终呢,我是让大模型去实现了这个功能。大家可以看这块资讯, 比如说今天一个快讯长飞电缆 q 一 净利润大增百分之两百,我们给到的衍生问题是,为什么业绩增长这么大? 其实这样的问题呢,是非常符合大多数投资者想去问的问题。然后其实大模型我让它生成了最多三个问题,我们这里可以去换的, 比如说从 roe 角度拆分,业绩增长的因素,净利润、总资产周转率、权益乘数分别贡献了多少。又比如说这次业绩大增里面一次性因素和经营性因素各占多少? 其实大家可以看到这三个问题对于和业绩相关性是特别的大的,这背后其实是有一套规则的。然后我们再看一下,随便看一下,这问题其实可以点击的啊, 当我们点击这个问题之后呢,其实通过我后台配置的个人版的一个 mini max 去进行通用大模型的一个去搜索了, 当然我会进行简单的提示词规范,让大模型以用一种固定的一个模板进行输出,也就是我们现在看到的样子,但是我感觉还不是很好,我再换个问题试一下, 哎,这个模板还可以的。结论,归音拆解风险点后续跟踪的指标,这个效果还是可以的。好了,我们事件线索讲完了,我们来看一下第二个 type 图片线索, 我个人其实是非常喜欢看券商研报的一些图标的,它的含金量特别的高,所以呢,我就有一个设想,我丢一些研报给大模型,让大模型自己去通过 ocr 抠图,然后去清洗数据,再自己去创建一个 db 库去保存下来。 那最后呢,我自己在闲鱼上花了二十块钱买了大量的本地的一个研报 pdf 去保存下来,那最后呢,也实现了这个功能, 这里就不得不佩服 cloud code 的 强大了,有了研报图片在前端页面上,我只需要让大模型做一件事情就好了,当我在头部配置了什么个股,就把相应个股的研报图片展示出来就行了,这逻辑是非常简单的, 你看这里,我配置了中芯国际和恒生指数这边就相应的把相应的一个对应的一个图标就长在这里了,然后我采用了小红书这样的双瀑布的流的一个交互方式,然后最后产品看起来还是挺高大上的, 我这里也可以切换个股啊。最后呢,我们看最后一个 type, 我 的自选也是完成最快的一个功能, 因为我有了稳登的行情接口后,我只需要再新建一个 config 文件,自己配置一些股票,然后批量获取行情就行了。这个在大模型看来不要太简单了,我本来想再换个分时折现图的接口,不支持就算了。 对了,我再提一个关于产品原型设计这块,首先第一个 figma, 即 figma 里面有个很好用的功能,有个插件吧,叫做 open html to design, 就是 说我本地生成了 html 之后呢,我可以把这个 html 直接去导到 figma, 成为这个 figma 的 一个原文件。 大家可以看到 html 导入进来之后左边的这个,嗯,这个栏目看到相关的元素,我在这个就可以看到相关的参数了。然后我在后续呢,不想迭代的话,就在这边去进行迭代。 在最后迭代完之后呢,我可以通过 cursor 的 一个 figma mcp 的 工具去读取 figma 里面的一个设计原型。 然后第二个工具呢,我介绍了一个 google 旗下的叫做 stitch, 这个功能是非常强大,我基本上在用这个产品进行原型设计的频率特别高的,它的优势呢是它可以帮你生成一个原型,之后呢生成非常详细的一个设计参数, 然后把这些设计参数进行一个前端的一个样式的一个调整, 还原度还是非常高的。但是呢,他有个弊端啊,就是他是他经常的自我发挥,比如说我让我丢了一个他一个我产品本身的一个截图给他,让他去进行一个局部的优化,他呢可能会把整个产品的一个视觉样式都改了, 其实它本身是一个国外的产品,所以它如果靠自己发挥的话,它做最后做出来风格大概率偏国外的风格,比如说像这样的非常美国风的。 嗯,好了,这就是我所有的产品介绍了,整个过程其实还挺有意思的。最后呢,产品所有的规则都统一呢?让大模型写在 rule 和 skill 文档里了,也就成了一个标准化的东西了。 好的,本期我就讲到这儿,以后有功能迭代了我再更新吧,谢谢大家。

所有人都告诉你 ai 很 厉害,但没人告诉你他有多笨。他连苹果是水果还是手机都分不清,全靠上下文猜试。想一下,你有一台神奇的机器, 你往里塞一段话,它就能告诉你下一个词最可能是什么。塞一段话进去,蹦出一个词,反复几次,一段完整的回答就出来了。你每次跟亲爱 gpt 聊天,底层就是这个逻辑。 但他不是只猜一个词,他会算出所有可能的词,每个词给一个概率,选哪个,带点随机性。他怎么学会算概率的呐?今天天气真举例,刚起步的模型,压根不知道后面该跟什么, 随口就说了个那,但每次说错内部算法,就把他那几百亿个参数微调一点点。今天天气真后面该出什么,他终于学会了, 应该是好,他拿什么学的?海量文本?这批 t 三训练数据是四十五 tb, 一 tb 的 文本大概有一点七八亿个字。四十五 tb 是 什么概念?一个人不吃不喝不睡,看两千六百年都看不完。模型里有一千七百五十亿个参数, 你把它想象成一千七百五十亿个小旋钮,每个旋钮拧一点点,模型的反应就会变一点点。训练一个大模型需要的计算量,假设你每秒钟能做十亿次加减乘除,你得连着算一亿年以上。它之所以能在几个月跑,完全靠成千上万块 gpu 同时算。二零一七年之前,模型只能一个字一个字读。 故宫那年发了篇论文,提出串词封门,这东西不一个一个来,他一口气把整个句子全看完,先给每个词贴上一串数字标签,然后所有词的数字串互相对话,这就是论文里说的注意力极致。回到开头那个苹果, 如果上下文是削苹果,他的数字串就会往水果的方向拧。如果是买苹果,就往手机的方向拧,他根本不知道苹果是什么,他就是算出来了。那这玩意到底能干嘛?三个方向已经跑通了, 客服机器人能处理大部分用户问题,文案工具能帮你写邮件,写推文,编程助手能直接帮你写代码。不过有一点得说, 这整套东西也是这几年才突然爆发的。 google 在 二零一七年就发明了 transformer, 但真正把它推到大众面前的是欧曼 ai 的 gpt 系列。二零二二年底 gpt 三点五出来的时候,很多人都觉得 这玩意怎么突然就变聪明了?他也不是真的聪明,但七百五十一个旋钮拧出来的结果,本质上是个统计规律模型,自己也不知道为什么选这个词,他就是算出来的概率刚好落在这。

以前总听有人说科学无国界,然后经历今天这件事情,我才明白, 这根本就是个空话套话。海外的工具体验再好,功能再强大,一旦触及了他们的规则和利益,随时可以给你断供、限流、封锁、接入命脉,掌握在别人手里面,永远没有安全感,也没有话语权。 我现在拍的这个,就是我们公司一直在用的 cloud code, 然后街舞 deepsea 搭建了一个内部本地数据库问答系统, 专门用来梳理电力三级资质、高压试验规范、仪器仪表实操等核心专业知识, 初衷就是为了解决销售人员看不懂行业专业知识,接不住客户技术咨询的痛点。虽然这个系统还在初级打磨阶段,但是呢,它的核心就是 本地数据存储,不上传云端,保住公司商业机密,然后方便员工查询专业知识。但是 从五月六号开始, cloud 的 强制新版本更新,然后一刀封锁所有的第三方模型进入,然后我们的 dbc 微视也被限制,辛辛苦苦搭建的内部系统,将来肯定是要瘫痪,没有用的。 今天我特意录下这个系统最后的运行画面,当做前期投入的纪念,以后我们会放弃这个海外的工具,然后到这一刻我才明白,为什么国家一直大力推行国产一系、国产设备、国产大模型、国产数字化工具, 总觉得这是国家层面的大事,跟我们中小企业,跟普通人没有关系。现在我亲身踩坑踩懂,从来不是没有关系,而是息息相关。这次变动虽然打乱了我们的工作节奏,但是也给我们敲响了警钟, 国外的东西再想终究不如国产的靠谱安心。