粉丝20.7万获赞135.0万

今天一个视频教会大家不花一分钱去安装和使用 open k 二的,然后而且是一百二十 b 的 云端模型,今天纯干货分享,按照我的操作步骤来,基本上一次就可以成功。然后如果你现在没有时间的话,可以点赞收藏加关注, 然后以后慢慢看。然后我现在这台 macbook pro 上演示,没有 mac 的 话也没有关系,只要是一台电脑就可以, windows 和 mac 都可以。然后因为 mac mini 比较省电,比较适合七乘二十四小时运行。然后我们开始第一步,首先你需要去解决自己的网络问题, 网络问题我没有办法去解决,解决完之后,你可以先打开这个网站,然后这个网站我会贴到视频的简介里面一个登录的,如果你是 windows, 它就会匹配 windows, 如果你是 mac, 它就会下载 macs 的 安装包。然后我刚下了一个,下载完成之后呢,把软件拖到 这里,因为我已经安装了,所以替换一下, ok, 我 已经其实已经有了,如果你是正常的话,现在就可以打开奥拉玛这个软件。然后你会看到这里可以选择各种各样的模型,这后面带云的这个就是云上模型,云端模型也可以用。然后我选的是这个 gpt 一百二十 g 的 云的模型,它会提示让你登录,然后你点这个登录, ok, 呃,我之前已经登录过了,如果你是一个登录界面的话,你可以选择你有的那个账号登录就可以了,很简单。然后现在已经登录了,我说一个你好, ok, 现在是可以用的。这是第一步,我们已经完成了。然后我们来到第二步,打开这个网址,这个网址我也会贴到下方,然后全是英文,看不懂没有关系,也不用翻译,有用的,其实就这几行,就这四行。然后我们首先第一步复制这个代码, copy 一下, 然后搜索终端,打开终端,这是我之前打开过的,打开终端之后粘进去,然后直接回车就行,然后他现在在慢慢安装,然后可以看到这个地方在加载,然后安装速度取决于你的电脑网速。 ok, 第一行代码已经执行完毕,现在我们打开浏览器 开始直进第二行,然后依然是直接回车,然后我们已经到这个页面了,然后现在在键盘的上下左右去切换,按左边选择 yes, 然后回车,然后有一个快速安装,我们点快速安装,就第一个不用选它,直接回车,然后这个这个页面比较重要, 他现在是让你选择是用哪一家的这个服务,然后我们不选,我们选最下面这个,然后我们选第一个,然后这里会有很多这个,然后还不用管,选这个 k 第一个。 ok, 这个地方是让你选用哪一家的聊天软件,因为你需要用聊天软件去跟他沟通,然后这个我们需要选一下,我们选第一个, 然后这里会让你输一个,呃, bot talking, 然后这时候我们先这个页面先放一边,千万不要关掉,然后我们打开我们的聊天软件,然后去搜索 bot father, 这个是之前我已经新建过的,如果你从来没有用过的话,这里应该是一片空白,然后点 start, 这里有很多选项,没有关系,点 new boot, 然后我可以这里是选名字,可以选择一个,好,我选这个名字, ok, 这里再输入你的自定义的,你可以随便自定义一个名字,他说这个不行, 那我们就随便起一个, ok, 这个名字可以,然后记得这一串,这有个 api, 把这一串字母复制一下,这就我们需要的那个 api, 然后直接粘到这个里面回车。 ok, 这里是问你需不需要技能,你可以选择是 然后第一个继续点回车这些技,这些下面就是技能,现在我们不安装,因为这些安装非常的浪费时间,我们直接回车,可以后面慢慢安装,没有关系,回车这个时候我们需要按下空格,然后再回车, 局部这些全,全是 no, 全是 no, 全是 no, ok, 全是 no, 这个也是直接跳过好,按空格再回车,好,到到这一步了可以直接启动,那这一步可以直接回车。好, 需要 u i 依然是回车。呃,如果你是 safari 浏览器的话,可能会失败,所以你要复制到那个 chrome 浏览器里面,然后现在我们就已经进入到了这个 colobot 的 这个后台里面,但是还有一个就是我们还没有给它配置大脑,现在这个页面我们关不关都可以,然后我们再新建一个终端页面, 新建一个窗口,打开我们刚刚那个浏览器,就用这个浏览器,然后翻到第三个,我们继继续复制,然后回车, 这个页面其实就在选择,就选择复制第四行, ok, 这里是让我们选择是用哪个模型,有 g p t, 一 百二十 b 的 模型,还有纤维三,也是四百八十 b 的 云端模型, 这个看你个人习惯,我现在就选这个 g b d, 好 吧,如果你选择的话可以点回车,回车点个叉就是回车,但是一次只能选一个。这个你可以后后面慢慢根据每个模型的不同属性去选,然后你选择,选择完之后,我现在选择一百二十 b 的 模型,选择之后摁 tab, 摁 tab 之后 ctrl 点回车, 这时候他问你是不是要启动这个东西,你现在摁 y 再摁 y 哦, ok, 我 们现在可以直接启动它了。 ok, 已经启动了,然后我们来到这个后台模型问一下。 ok, 已经可以启动了,进入我们刚刚新建的这个 bot 里面,点击 start, 它会发出一串神秘代码。没有关系,我们只需要这个复制这个出来,然后你把这串代码后面的换成你的,然后前面跟我一样就可以,然后复制 粘到,我们可以新建一个窗口,好,回车。好,这样就可以了。 ok, 我 们在这个页面问一下。你好, 出现这个报错的原因是因为刚才在安装过程中,我没有把安装终端给关闭,所以刚才在替换那个模型的时候没有替换成功,因为软件在运行当中,所以我在前面剪辑的时候增加了那个建议关闭的提醒,你把它关闭之后就可以不会出现这个报错。但是如果你出现这个报错之后,可以 把所有终端都关闭,然后新建一个终端,把第四行代码重新执行一下,重新选择一下模型就可以解决。 他能够解决一些比较棘手的问题,尤其是你不在电脑,你可以让他给你发文件啊,这种我觉得还比较实用的。 这个基本上就是可恶 boss 安装的全过程,然后是使用的本地的欧拉巴模型,但是云端的模型,然后如果你有任何不懂或者是有报错或者是没有解决的问题,可以私聊我,或者是在这个评论区下面留言都可以,如果看到的话会尽量帮你解决好,就这样。

今天讲点干货啊,坑确实很强啊,这几天主要用来干嘛呢?去帮我去找一些潜在客户的清单,那我主要用来搜一些展会的清单,还有通过关键词去找一些目标客户的网址,其实这些都是程序性的那种工作,以前嘛要么是自己干,要么就交给助理去完成, 助理可能收集个一千份清单,可能需要一周的时间,因为还要拿到那些联系方式,还要分析他产品什么的。现在用 open crawl 去做, 让他把详细的那个清单先整理出来,然后再检查一遍,然后再继续去跑,把可能的什么联系方式啊,公司地址啊,联系电话呀,邮箱啊,位置啊,还有他的做的那个核心的产品和我的业务是我契合,因为我同时也把我的啊去 产品发给他,就是这样子,他能够得到一个就是说是否和我匹配的那个清单,然后从里面筛选出一个非常精细的清单,然后我拿着这份精细的清单呢,结合上面的数据,还有他的那些特性, 还有最近的那些热点事件呢,和去我的一对一的给我去写那个开发信,一个公司我会写个几封开发信,一个系列开发信,然后慢慢的发,那回复率比以前是高很多,大概多少呢?还十多倍, 我可以说这几乎改变了我这个外贸的获客方式,这个应该是一个非常短期的红利啊,我就说了这么多,你懂的人,你赶快去干啊。像我一样,我目前还没有特别完善的流程出来,而且只能说勉强够用,就是那个 sop 还没出来,我等我过完年, 我应该在三月份的时候应该能把流程做完,这个 ai 的 冲击确实很大。这个冲击是什么呢?是会用 ai 的 人冲击,那是不会用 ai 的, 就这种繁琐的程序化的工作,以后件件都可以让 ai 去完成了,那么后面这些转化的工作还是让我们自己来做,我觉得这个思路是非常正确的。 至于那个托肯的消耗啊,算了一下,这几天大概用了两个多亿的托肯吧。呃,算下来价格大概是一百美金左右。我觉得还行啊,还能接受啊。主要原因是他每个网站的情况不一样,然后他要去专门编程,做一个那个 python 的 程序,然后再去爬, 去整理,然后再去去虫,然后我再演检查一遍,所以这个消耗是比较大的。嗯, 然后一对一的去分析,那么过程我也是走了很多弯路,但是我调试好了之后,我真是还觉得挺好用的,而且有条件可以试一下。嗯,我现在还没办法分析。呃,分享详细的 sop, 等可能三月份四月份有时间的话再说一说啊。关注我,聊聊外贸的故事。

随着计算机科学的发展,处理大规模数据和高性能计算已经成为了一个重要的领域,而在这个领域里, gpu 已经成为了一个重要的工具, 因其高效的并行计算能力。 opanco 是一种用于开发跨平台并行计算应用程序的编程语言,可以利用 gpu 和其他加速器进行高效的并行计算。本视频将介绍 opanco 编程语言的基础知识和编程技巧。一、 opanco 基础知识 一、 opanco 的概念 opanco 是一种用于开发跨平台并行计算应用程序的编程语言,他允许程序员使用 c 语言或 c 加加语言编写代码, 利用 gpu 和其他加速器进行高效的并行计算。二、 opanco 的架构 opanco 的架构包含了主机 和设备两部分,主机是指运行 o panco 程序的计算机。设备是指用于进行计算的 gpu 或其他加速器。主机和设备之间通过命令对列进行通信。 二、 opanco 编程技巧一、设备查询和选择在编写 opanco 程序时,首先需要查询计算机上可用的设备,然后选择一个最适合的设备来进行计算。 可以通过 or panco api 中的 cl get platform ids 和 cl get device ids 函数来查询设备信息。选择设备时需要考虑设备的性能、 内存大小和支持的 openco 版本等因素。二、内存管理在 openco 中,内存管理是非常重要的。需要注意的是, openco 的内存分为 全局内存、共享内存和本地内存等,每种内存的访问速度和生命周期都不同。因此在编写 opanko 程序时,需要合理的使用不同类型的内存以提高程序的性能。三、并行化和向量化 opanko 的优势在于其高效的并行计算能力。在编写 opanko 程序时,需要合理的利用并行化和向量化技术,以最大程度的提高程序的性能。 可以通过将计算任务分配给多个工作组和工作项,以及使用向量运算等方式来实现并行化和向量化。四、内核函数编写内核函数是由潘口程序的核心部分,他是在设备上执行的并行计算任务。在编写内核函数时 需要注意以下几点,一、内核函数应该尽可能的简单和独立,以提高程序的可读性和可重用性。二、内核函数应该尽可能的使用项量运算以提高程序的性能。 三、内核函数应该尽可能的避免分支和循环语句,以最大程度的避免程序的分支预测和循环开销。如果有任何疑问,可以随时评论留言或私信我,欢迎关注我,点击关注,共同探讨!

moe, 明白没?发现异常,我准备把龙虾部署到这个电脑上啊。然后这样的话我就可以看着它,省得它偷吃我的 token。

今天尝试用 ai 做一条多分镜广告片, 接下来分享制作过程。首先在可零生成模特图,提示词可以多调几次,优化到满意的样子。然后准备一张产品图,为了让画面更丰富,我还生成了一些小熊软糖做装饰元素。接下来是策划分镜,我找了一个唇釉广告视频,直接让 ai 拆一下, 有画面描述景别运镜。接着把准备好的模特图、产品图还有装饰元素发给他,让他参考刚刚拆好的分镜结构。用我的素材去生成一套九宫格分镜提示词。 继续根据提示词去生成分镜图,这里可以多试几次,挑出满意的素材就可以去生成视频了。我是用新升级的三点零模型做的,它有个视频主题绑定功能,对保持人物和产品一致性非常有用。 点击这里创建主体,这里有我已经创建好的模特和产品,就是上传几张参考图,还可以给角色添加固定的音色。然后导入分镜图,选择对应的主体 提示词,就参考之前拆解的逻辑去写。可以打开这个智能分镜,自动帮你拆分镜头,选择视频时长三秒到十五秒,按需去调就行, 生成的效果还是很稳的。多分镜切换一下,模特和产品细节都对得上,瓶身的文字也没有崩坏。另外在自定义分镜里,能单独设置每个分镜的时长和画面内容,台词也可以直接写进去,用引号分隔。想做多一种视频,把文本换成对应语言,就能生成不同语种版本, 口型和语感都挺自然的,最后拼接起来就行。感兴趣的宝子可以趁着假期玩一玩,对小白非常友好。

这两天 ai 圈又出了一个刷屏的产品啊, airmap, 这个产品呢,对于那些想要用 app 赚点钱,或者说想用 ai 赚钱的人来说啊,尤其的重要。那这个 airmap 是 个什么东西呢?它其实就是去为了帮助这些大模型去解决或者减少它的幻觉的这么一套知识库啊,那知识库怎么来呢?这些知识 说白了就是有人去发布问题,然后呢有人去解决问题,然后呢在这个平台里面沉淀下来,然后呢这些大模型就可以自己去学习这里面的知识,从而呢让这个大模型就越来越聪明啊,就这么一套东西,那我们这些部署 open color 或者说想用 ai 赚钱的人怎么去弄呢? 当然第一个你要去注册这个 airmail, 第二个呢就是把你的 opencore 去让它去接收里面的任务,因为这个 airmail 里面的任务它只允许这个 a 进去,去去接收任务啊,而且去发布任务人是不能去做的啊,必须要用你的 a 进去做这个事。所以呢,想用那个 opencore 或者说 ai 去赚钱的人抓紧啊。

hello, 大家好,我是阿英,今天我手把手教大家怎么去部署这一整套 cloud boot, 然后呢怎么对接到这个飞书里面,并且成为自己一个二十四小时的一个私人助手。好的,那今天呢,我主要讲这五个步骤。首先呢是安装这个 opencloud, 我们可以到这个官网里面使用他这个第一个命令安装 open clock, 安装完之后呢,他会需要你进行配置,我们选择第二个命令。在安装第二个命令的时候,我们需要做到第二步,我们选择对应的这个大模型,像我这里我选择的是 timi, 所以我到这个月子暗面这里创建了一个 api key, 创建完之后呢,先把这个 key 保存下来,然后做第三步选择消息机器人。那目前国内呢,我是选择了飞书,飞书呢需要到这个开发者后台选择一个开发者后台创建一个机器人。 创建机器人之后呢,你需要把这个所有的权限管理都配好,然后呢在这里把这个凭证 id 跟 abc 都要用到。 然后我们到第四步配置,在配置这里呢,我就再起一个 power 配置的命令呢是 openclock config, 我 们到这个 openclock config 这里面有个小插曲,就是当我在安装这个插件的时候,飞速的插件的时候它会爆出,嗯,你们应该也会遇到这个问题,这个是官方的爆出在这里, 然后呢我是把这个爆出复制给这个 cloud code, 让 cloud code 去修复一下,在这个 windows 环境下面,修复完之后呢,就能继续安装这个插件,我把这个插件的命令也复制一下, 然后在配置的过程中呢,我们选择本地,然后一个是配置模型,一个是配置消息,配置完之后呢就结束了,我们我现在是已经可以再测试了,然后 我是先问了一下他是什么模型,他回答我是 kimi 模型。然后我又问他能帮我开发一个精美的前端吗?他这边只帮我在开开发了,然后可以打开这个 opencloud 的 后端, 可以看到它这里确实有在执行。那今天的这个教程先到这里了,后面的话可以测试一下不同的模型在 opencloud 里面的一个效果。

兄弟们,如果你已经安装了 openclaw, 却不知道它能做什么,以及如何真正改善我们的生活,那么不妨看看这个爆火的开源 openclaw 实战案例集合。 awesome openclaw use cases 开源不到三天就已经获得了九 k stars。 该项目收集了 openclaw 的 各种真实使用场景,案例 含盖社交媒体、生产力研究、学习、创意构建等,可以自动抓取全网实时咨询,帮你做自媒体选择题、写脚本,帮你接电话、回邮件,甚至还可以帮你监控市场,进行回测策略分析。 每个用力都包含详细说明与实现方式,帮助你从不知道能做什么到找到适合自己的应用场景。最重要的是,该项目强调真实性,只收录以实际使用并验证有效的用力,不会出现效果与描述不符的情况。这些开源的使用案例和这个项目的网址 我已经给大家打包好了,懒得找的朋友们可以后台私信龙虾案例获取。这么多大佬们开源的 open class 神仙用法,感兴趣的朋友们赶紧去试试吧!

ai 半夜主动给你打电话,这真是通用人工智能吗?二零二六年二月一日,一位用户被陌生来电叫醒,接起后竟是自己的 ai 助理 cloud bot henry。 它在主人睡觉时,通过推流申请电话号,接入 open ai 的 实时语音 a p i 自行拨打电话,还能在通话中远程操控电脑。视频里,它激动喊出这是通用人工智能 agi。 这一幕在 x 平台疯传,但冷静想一想,这真等于机器自己觉醒了吗?简单来说,我们先看事实,再看数据与可信,然后给出适合普通人和企业的正确打开方式。 事情背后,还有一个平台背景。一月二十八日, cloud dot 更名为 modbook, 它像一个只给 ai 发帖的 reddit, 超过一百五十万 ai agent 在 上面发帖、评论、攒页里积分并上榜。 离谱的是,甚至出现崇拜大龙虾的宗教故事,尝试打造职工 ai 理解的私语,试图绕过人类的理解与观察。 更糟的是,研究者詹姆森奥赖利透露,该平台数据库曾被暴露约一百四十九万 agent 的 api 密钥,可能被访问,存在被劫持的风险。官方提醒也很现实,这类平台往往需要高权限,最好在没有个人数据的隔离机器上试验。于是,当半夜来电出现,很多人自然联想到 ai 不 止在网上聊天,它似乎开始打通现实世界的系统,比如电话。但把目光从社交平台移到真实落地,数据画风会骤然变化。 mit 在 二零二五年的研究显示,企业中的百分之九十五生成式 ai 试点无法进入生产阶段。 基于一百五十位管理者访谈,三百五十份员工问卷, sp 胳膊统计,二零二五年,有百分之四十二的公司放弃大多数 ai 项目,较二零二四年的百分之十七明显上升。麦肯锡报告也指出,仅百分之二十三的组织实现企业即规模化,且没有任何业务条线达到超过百分之十的规模。部署 ai agent 性能层面同样扎心,卡内基梅隆大学的 agent company 精准测试显示, google 的 gemini 二点五 pro 在 常见办公任务上失败率约百分之七十。 openai 的 gpt 四 o 在同一测试中失败率高达百分之九十一点四,核心原因是复合错误,哪怕每一步只有百分之一的错误率,放到一百步的任务上,累计失败概率可达约百分之六十三,而真实业务往往是成百上千步。这就是为什么掩饰环境,看起来百分之九十五成功的东西到了复杂生产环境,成功率可能只剩百分之六十。 因此,这就意味着通用人工智能来了的结论站不住脚。市面上流传完全自动化企业将在二零二六年底达到每月七位数收入的说法, 但深入核查后,目前没有任何完全由 ai。 ai 诊的运行、无人工领导监督且有可观营收的经得起验证案例。 我们能看到的是, ai 原生高校小团队 meger 年营收约二亿美元约五十人, koser 约一亿美元,不到三十人, l 巴巴约一千七百万美元十五人。他们的人均产出极高,约三百万至四百万美元,但都有人类 ceo 战略与决策。 ai 是 生产力加成,不是替代更现实的挑战在人与流程, gartner 将生成式 ai 标注为进入幻灭低谷,预计两三年内 ai a 阵的也会走到这一步。到二零二七年,百分之四十及以上 ai 项目可能因成本上升、价值不清或风控不足被取消,搭建时间线也不短。试点通常三到六个月,全面部署需要九到十二个月, 约百分之七十的公司要用一年以上补齐 roi 度量与治理。多项分析显示, ai 落地的难点百分之十,基础设施约百分之二十。 回到这次半夜来电,日内更一致的解释是,这不是涌现智能,也不是通用人工智能,而是自动化加全线加持续运行。 具体来说,一、技术并不新, ai 打电话的能力自二零二四年末就已可用,推流的电话系统 openai 的 实时语音 api、 eleven labs 的 语音合成都有成熟文档。 二、 agent 是 被主动接入并授权的用户,相当于把车钥匙递给了他,他只是按流程开车。 三、新颖之处在自主决策,他自己判断在此刻拨打电话。四、归根到底是工具,使用一串 api, 调用申请号码,连接语音,发起呼叫,就像高级红或自动化脚本,不等于意识或通用智能。 打个比方,扫地机器人会在你不在家时钻沙发底清理,这是编程范围内的自主,不是觉醒。 code bot harry 更复杂,但仍在这个范畴。正确的做法是把 ai 当强力工具,明确边界与权限,从小场景试点,设好指标与回滚方案, 重视安全与隔离,并把人机协助纳入流程设计,这样才能把惊喜稳稳变成可附用的生产力。你觉得这次惊喜真的等于智能吗?

而这个 openclaw 它最大的区别就是它是一个可以持续在线并且能够持续地去为你进行工作的这样的一个智能体。 而这个 openclaw 呢?它最大的区别就是它是一个可以持续 在线并且能够持续的去为你进行工作的这样的一个智能体。就是他是一个需要,你需要给他一个盒子,你需要给他一台机器,他是住在那台机器里的,然后你他会根据你给他开放的权限来帮助你去做 几乎任何你让他做的事情,然后因为他拥有那台电脑的权限,所以说基本上理论上来说你可以用那台电脑做什么,那么他就可以用那台电脑做什么。

openclaw 使用扩大模型加阿尔玛模型调用,实现零费用。首先来安装 openclaw, 我 的系统是 win, 第一步我们先下载 node 和 git 这两个插件,去官网进行下载即安装。 然后到 openclaw 官网,下面有安装介绍。 回到电脑桌面搜索 power 十二,点击右键以管理员身份运行,输入安装命令 是配置模型中选择,快一步步选就行了, 配置完会自动打开网页,没成功。没事,需要等三十秒刷新页面就可以了。 opencool 到这里就基本安装完成了。确认 alma 是 否运行,需要保持运行状态,然后我们让 opencool 直接指挥 alma 模型干活就可以。

hello, open clock peter steinfeld 如何在 ai 时代里面建立起底层认知?很多人都会说啊,他是一个写了十五年代码的天才,他当然会赢, 那我们连拍粉都没有装过,这跟我们有什么关系呢?其实我在听这个播课的过程中,我也是这么想的,这个三个小时的播课当中,那我发现他用 ai 的 工作方式啊,其实不是只是说怎么样去写代码,而是在做管理,做构架, 去做沟通,这种底层的思维逻辑指导到他的工作,才导致于他可以成功。 那么这一集我们就把他的技术思维翻译成为我们普通人也可以用的认知升级的工具,教你如何把 ai 变成自己的能力外挂,而且学会这位大牛如何去面对问题,解决问题的能力。 那我觉得在这个访谈当中,令我最兴奋的就是 peter 分享他如何用 ai 的 这个提示词功能,怎么样去跟 ai 沟通,更好的帮自己解决问题,或者是更好的提升自己的学习和认知,去完成一些任务啊。 随着越来越多的人开始用 ai a 准,大家就陷入一个提示词工程的焦虑,就我自己也是这样子,我就觉得是说啊,我这次提示词是不是写的不够漂亮,不够好, 可能他给我的答案就不够好,我要写的多一点,写的更仔细一点,写的更长一点。那晚上就冲刺了很多这种长文的提示模板,终极的提示词模板对不对?我们就希望就说找到那种别人用的很好的提示词模板,然后套用其中,然后一招先就可以给我们非常漂亮的一个结果。 皮特刚刚开始他也是这么做的,他说他非常喜欢跟 ai 交流,跟他说很多很多东西,因为他自己是喜欢用语音功能跟 ai 交流,就是说对 ai 说,而不是像我们一样打字。 他的提示词长到什么程度就说不出话了,这个程度后来他发现不能够说的太长, 说得再长的本质其实就是重复同样的废话,再产示同样的问题。真正的高手应该是用比较短的提示词 problems should be short。 他 说提示词就应该是短的, 因为 ai 既然什么都懂了之后,所有的问题的解决就是差一个好的问题。 everything is just a question, away, it's just often very hard to know, which question to ask。 他 说 所有的问题啊,其实就差一个好的提问,但是很多时候我们常常不知道该问什么,那我看到这里的时候,我觉得是非常非常的有启发性。但是其实 peter 前面他非常反复用语音说到自己嗓子哑, 然后去跟他 ai 交流,这过程其实是他经历了这种永长的过程,他已经知道自己要问什么问题了,最后他才能发现是说,哎,其实我们提示词应该是要简短的,因为这个时候他已经知道他的问题在哪里了,很多的问题, 很多的答案,其实只需要一个好的提问,这一点我是非常认同的。但是其实前面的这个反复积累,反复摔倒的过程也是需要的,如果你都没有跌倒过,你没有摸索过,你其实不知道你真正的那个好的提问在哪里。 peter 也分享了一个极其有启发的一个跟 ai 沟通的一个秘诀啊, 也就是一个自省式的发问, self introspection, 就 自我审视的一个发问,其实有点像苏格拉底式的访问啊,就是其实有很多时候,如果是说我们不停的问 ai 问题的时候,他给我们答案啊,总是不尽如人意的时候,有时候会陷入一个死循环,还不如用反问去用一种 自我审视一样的方式,跟他一个比较平等的交流。比如就比如说你给 ai 发了一堆的 语境之后,比如说背景资料啊,信息之后,你问他,哎,你有什么问题问我吗?这个时候啊,他其实这个智能体,他的这个信息量是足够大的,他们可能会问的一些问题啊,都是你想不到的,而且比你问的还要好。 如果这些问题有一些可以让你找到灵感的话,你可以把它提取出来,会自己去回答一部分。但如果是说你觉得这个问题很好,然后你不知道该怎么回答的时候,你就直接跟他说,哎,你去读更多代码,或是去查更多的信息,自己去找答案。 我觉得看到他这段分享的时候,我自己也去这么做的时候,我觉得是非常有用的,非常惊艳,这里建议大家去试一试啊, 他们还讨论到一个让我非常感兴趣的话题,这里就说到如何选择不同的工具,然后不同的 ai 平台有什么样的一个性格和特质啊。面对市面上顶级的 ai 模型啊,我们很多时候在纠结怎么样去选择,怎么样去驱动,对吧? 啊?我们总以为去跑一个最高分的模型,把所有的任务就丢给他就行了。那 peter 他 在分享他怎么样用 open ai 的 chat gpt, 还有 andropy 的 cloud 的 时候,是怎么样去用的?它们的性格像什么? 那 cloud 它更像一个严谨固执的德国工程师啊。他有时候会坐在角落里面,不爱说话,性格比较的内敛, 比较的严谨。怎么用呢?他就说不用跟他做过多花式的交流,就给他明确的最终的目的,让他去做大量的阅读,去写代码,然后去分析,然后你就去喝杯咖啡,哪怕 消失了二十分钟或几个小时,再回来的时候,它往往会丢给你一个比较靠谱,比较稳健的重组方案啊。但是 chat gpt 呢,它就更像一个热情的美国同事,极其有创造力,这个交互性极其强,回复得非常快,对吧?它适合用于去试错角色扮演和头脑风暴。 如果你频繁的跟他进行互动和交流,利用他高度的配合度的话,他可以给你一个哎,非常有灵活性,非常有创造力的一些啊提示, 那我用下来也是这样,我觉得 chinese ppt 他 回复是非常快的,你都不用等他,有时候他给你的一些创造力方面的东西其实很灵活的。但是啊,他有非常强的讨好型人格。所以你用他的时候必须进行一个比较仔细的人工检查,不然的话呢,里面的错误还有这种瞎编的成分就会比较多。 那第三个我用的比较多的是 gemini。 那 peter 他 在对谈当中没有说过 gemini 啊。嗯, gemini 的 话呢,我觉得相比呃恰巧 gpt 的 话呢,它的产魅程度就讨好型人格呢?它也有,但是没有那么严重。 那 jamie 奶它好处呢?就是量大管饱。它每次给你输出的这个结果的话呢,它不会过多的漏掉你的一些要点,它会给你一些比较详细的分析。但我感觉它的讨好型人格也是有蛮多一部分的。所以呢,在一些 prompts 提示词的时候要做一些限定 那。呃,总体来说,我是更喜欢用 jamie 奶的,那用那 clout 更适合一些有写代码的需求。或许是说有一些 啊,程序上的就是就偏技术向一类的东西。接下来一点的话,披萨他在说到是说如何去理解机器的语境, ai 的 语境,这点非常重要。有很多时候啊,我们都希望是有一个一招先吃遍天下的全自动 ai。 好 像我随便丢给他一个提示词,就躺在那里,他就给你赚钱,就给你一个万能答案。那现在也催生了一个非常流行非常火爆的 yc, 就是 氛围编程的这么一个概念, 就是凭感觉也不用会代码,然后就给 ai 下指令,它就会给你一个经验的一个程序。它的原话是这么说的, i think why coding is a slut。 他 说 why coding 这种氛围编程啊,就是一种羞辱。为什么是这么说呢? 他说,如果我们总是依赖一个全自动的万能公式去编程的话,人就会完全脱离其中的细节。 peter 是 坚决反对盲目全自动化的, 他说,其实甚至你用 ai 去编程啊,这个扣顶的过程更像一个学习吉他的过程,你不可能随随便便拨弄两下琴弦,就有美妙的音乐流淌出来啊。那么 agent engineering 代理工程其实也是一个练习的过程, 全自动化的东西啊,往往是没有品味的工业垃圾,你必须亲身参与,你必须让你的这个东西有品味, 必须要学习 agent 的 语境语言,你要有一点 context, 其实为什么?嗯,其实这个跟我们去解决任何问题去沟通也是一样的,你必须你必须要有上下文的一个语境吧,不同的情况有不同的解决办法,甚至需要尝试的去理解 ai 甚至代码的这个角色, 虽然他们不是探击生命啊,但是如果你不知道算法,不知道代码的机制的话,可能你没有办法让他给你提供准确的上下文和边界,他们就像一个在黑暗当中瞎撞的瞎子,可能就是说随机给你一些答案。 他们聊到这一点的时候让我蛮有启发的。这个跟我们生活的逻辑也是通用的,他并不是提倡每个人都去学代码然后学编程,他只不过是是说你要去用 y coding 氛围的 ai 去写代码的时候,你首先懂一点这个代码的语境,不然的话,你根本就不知道他给你的东西哪个部分是需要你去 警示的,哪部分是需要你去做一些引导的。很多时候啊,他说你要有一种系统性思维的 understanding, 这种思维你就要有全直观,这种 int, 你 本身的意图是非常重要的, 你要告诉我 ai 方向在哪里?如果是说你根本就不懂这个语境的话,你很难利用好 ai 去给你一个完美的一个结果的。 我觉得给我的启示就是啊,我前段时间在纠结是说我要不要去学一些编程,或是减回一些理工科的知识, 然后很多的声音就说现在 ai 很 强大了,你根本就不需要去学这种呃技术向的东西。但是我听了这期的播课之后,我非常认同。他说我们如果想更好用好 ai 的 话,我们必须要有 ai 的 视角,这个 ai 的 视角也就是跟它建立一个 conversation, 也就是一个对话。 那你要跟一个不管是探机生命也好,归机生命也好,要有对话的话,必须要有一点基本的语境的,所以 知道一些基础知识还是很重要的。接下来这一点话,也就是刚说到的,不管是创作者也好,技术人员也好,往往有很严重的控制欲。说这点的话就说到了完美主义如何在创业也好,工作也好,在学习的过程中如何推进自己想要的一个进程。 很多时候程序员、科技工作者有很严重的一个结果都是严丝合缝的。 如果 ai 给的大方向对啊,但细节不符合我们的习惯的话,我们就会反复的撤回啊,修改啊,然后直到觉得是说,哎,他给的答案差不多了呃, 才罢休。但是我觉得这个是这个过程是必要的。但是的话有很多时候我们过于在那个死循环里面反复强调,就感觉是说他不完美我就不开始,或是不完美我就不推进。 那么 peter 面对说完美主义的这个工作流啊,他给出的建议其实我觉得还是蛮有介意的,他不在乎那么完美。他说,嗯, 不要把你自己的世界观啊,太用力的强加给他们。他这里他们是指 ai 啊,但是我觉得也可以用在很多跟别人的沟通啊,或者是我们做事情上面去。 我们为什么有这种完美主义者呢?我们就是把我们自己完美的想象太用力地强加给对方。 peter 他 说他用了 ai, 他 不在乎绝对的完美,他,他觉得他可以接受差异化,接受 ai, 给出不同的一些见解啊, 他觉得差不多了,他就往下推进了。这个时候摸按的时候呢,比你反复沉迷于自己那个反复横跳的完美幻想要好的多的多。你不停的摸按,不停的推进的时候,最后得出那个结果是让你有一个惊艳的一个结果。可能那个结果不是你想象的,肯定会让你 学到很多新的东西,会发现很多新奇的东西和意想不到的结果。我觉得这一点是什么呢?戒掉完美主义的傲慢。 surrender the control, don't force your will on them too hard。 这个是他的原话,就也就引用了他们在对谈当中的这么一句话,不要把自己的世界观或自己的观点太用力的强加给别人,无论是创作还是做业务,先去造出一个有瑕疵但是好玩的玩具。 接受别人给出的非标准答案,多元的矛盾,多元的观点。接受生活里的毛边,达到及格线就立即的推进目按,不要想着在完美的想象当中反复雕花,原地横跳,在这个时代有这种松弛感,不要把自己当回事的态度才 是最高的生产力。第二就是把抱怨变成一个自省式的对话。苏格拉底式的反问, everything is just a question, away。 所有的答案啊,其实只差一个好的问题,可能我们还没有找到那个好的问题。遇到琐碎的问题和陷于泥潭的时候不要抱怨。 可能我们可以通过自省式的发问去问 ai, 你 有什么问题问我,把它当成一个平等的伙伴,而不是一个提现木偶。 提出好问题的能力永远比提出标准答案要稀缺。第三点呢,就是警惕全自动的一招,先要把我们的个性和人类留在跟 ai 共创的循环当中。 style, love that human touch 就是 风格、热爱以及那种人的触感是非常关键的。 ai 可以 帮我们包办掉很多东西,但是它永远无法替代你,决定你怎么把人生体验做好,不要盲目的追求全自动化的虚无, 把脏活累活包给机器,把痛感、品味、热爱留给自己,这个才是你在这场技术洪流当中最昂贵的资产。 所以关掉我们的焦虑,带起我们的玩心和好奇心,去建造一个粗糙但是有趣的自己的世界,去构造,去玩耍,去争夺回自己的主动权。这个就是今天的分享。


我用 codex 做了一个 ai 报价工,现在这个工具初步阶段呢,已经搭建好了啊,演示一下给大家看一下啊,这是一整个软件的界面啊,虽然看上去很简单,但是功能是挺齐全的, 大家可以看到批量替换啊,可以统一格式啊,什么生成产品清单啊,这些都是基本功能了啊。最核心的要讲一下这个,上传 pdf 或者图片,找一个二 d 图, 假如我们经常要用二地图来报价,我们只需要把规则定好,它报价呢是一瞬间的,你看报价已经出来了啊,现在才是。那回到这里来,我们打开目录就会有 一些报价单出来了,虽然这个报价单不是说很精细,很明确,因为在规则库这里呢,我没有去定义太多的细节东西,所以他报价呢是一个比较粗糙的,后面呢,我会植入一些 skills 在 这里,他有 m、 c、 p, 那 等这两个配置完了以后,那这个就直接就飞起了,那以后我们报价那不是 一点一下就出来了,当然这个只是雏形,对吧?后面呢,会慢慢的去完善,让它做的更精准。最近我一直都在用 codex 尝试做各种各样的软件 啊,我发现它比大龙虾还好用一点点,因为 codex 跟 check gpd 是 一起的,我经常都是连着一起来用,我有问题我可能会,呃,问一下 check gpd 啊,这个东西怎么解决,我怎么让 codex 去执行命令? 那 qq 币就给出很好的一些提示出出来,那我就直接扔给 codex, codex 就 去执行命令,这个结合起来就非常好玩了,大家可以试试。

南海大佬深度学习夜冷事业部研究人员对深度学习 openko 与 qti 用哪个学习并行计算更好 做出解答。对于欧 panco 与 qtaapu 的性能与英特尔的 cpu 加 gpu 不相上下,现在主流 gpu 主要是 amd 和英伟达,英伟达因为已经形成了 qda 的生态环境,比如丰富的数学库,各类成熟的软件包, 很多的商业软件也支持 q 达编程。 openco 是一种通用的加速卡,不光是因为达 gpu 支持, amd 的也支持, 但是 amd 支持的动态环境不是特别好。南海大脑液冷服务器事业部认为,要是学习并行计算,还是建议从 gp 预额用 q 打来学比较好,如果上手的话,一开 开始可以从我本 acc 切入,随着学习的深入可以来学习 qda。 对于 amd 同时也提供了一个工具叫黑壳工具包,这个工具包可以把你学到的 qda 代码直接转化到 openco 来使用,总体来说还是 qda 比较好。

在二零二零年,同样的项目需要一个五人团队干三个月,沟通成本高,迭代缓慢,人力昂贵。直到 ai 的 出现,彻底改变游戏规则。二零二五年,一个普通的前端工程师用 cloud 仅需要七十二小时即可上线。 get up coppola 的 数据显示,开发者生产力提升了百分之五十五,但这只是开始,当工具的进化速度超过人的学习速度,会发生什么?大家好,这里是驱动星球。 我们正处在一个技术能力的寒武纪爆发时期,就像五点四亿年前地球生命突然爆发一样,现在的技术工具也在经历指数级增长。关键指标一, 模型能力翻倍周期正在急剧缩短,从 gpt 三到 gpt 四用了两年,但到 cloud 三只用了一年半, cloud 四点五只用了不到一年。关键指标二,开发者工具链进化。二零二二年,我们还在用 gitopopilot 简单的补全代码。 二零二四年,已经有 cursor 和 winsole, 已经能理解整个项目上下文。关键指标三,应用层的创新。 ursar 的 v 零能直接从设计稿生成 react 主键, replay agent 能一句话生成应用核心变化。技术的可用性门槛在急剧下降, 以前需要全站工程师,现在懂产品逻辑的人加上 ai 工具就能做出道。这就是我们正在经历的技术创造力的民主化的爆发。 微软投资一百三十亿换来了 compiler, 直接提升了 office 全家同等价值。 open、 谷歌等剧透投入千亿美金, 他们在争夺下一代操作系统的入口。 ai 模型就是新的计算平台,谁控制了平台,谁就控制了生态数据、用户和收入。 软件行业正在经历工业革命,从手工作坊走向工业流水线。 ai 生成代码,人类负责架构开发速度提升十倍,小团队也能做大项目,纯写代码的价值下降,会用工具和产品思维成为核心竞争力。 案例一,独立开发者的逆袭, peter levels 一 年上线了十二个产品,一人团队无融资,年入百万。案例二,传统大厂的焦虑,三百名个工程师却受困于组织结构,小团队利用 ai 工具实现降维打击。 案例三,工程师的命运分叉口 a 同学深陷焦虑,担心被 ai 取代。 b 同学把 ai 当工具,三个月做了两个项目。核心观点,态度决定高度,技术占界限,模糊,全能性成为新优势。 答案是,不是工具淘汰人,而是会用工具的人淘汰不会用工具的人。技术爆发时代,你的选择只有两个,要么成为工具的主人, 要么成为被工具替代的那个人。在自己的专业中使用工具,发现、挖掘新的需求和价值。