第二就是聊天工具一定要选对很多人,因为在国内用,第一首选是飞书,但是如果说你是想真正把 opencloak 用好的话,我强烈建议不要选飞书,因为飞书的限制多的是, 令人抓狂。他的 a p i 调用有呃次数的限制,而且消息格式卡的要死,这是很关键的问题,稍微长一点的消息他直接截断这个你不知道龙虾到底工作给你做到什么程度,这是一个很可怕的一个事情,所以说我建议大家另选其他,比如 discord 或 qq, 因为它是唯一官方 和社区积极更新 skills 或者定制化的这么一个聊天工具,它不仅稳定而且还快,而且它里面的官方文档或者社区文档写的特别清楚, 你想跑通它的 graph 基本就是几分钟时间,哎,在上面我们,呃增加一个杠六,一个机器人,然后怎么怎么样配置,我几乎没有几分钟,我没想到我跑通的这么快,而且体验特别好。 而且在它的 graph 里面可以有一个默认的菜单,菜单里面已经把所有的斜杠命令都给内置了进去,不管你装了什么 skills 还是内置的一些命令一键,比如说你想看, 呃,想重启一个一键,呃,杠瑞斯达,你这个不用输一点,哎,这个重启了很多这样的命令,特别的方便,所以说,呃,一定要大家想玩的好的话,一定要重视起来。
粉丝1193获赞530

跟 ai 聊天说谢谢,一个月多花几百块,你敢信?上个月 ai 大 模型的 api 账单出来了一千多,这个月改了三个习惯,直接省了几百块。 用 api 调用大模型的朋友们,你们有没有想过,你的聊天习惯正在偷偷掏空你的钱包,发现大多数人用 ai 的 时候还保留着跟真人聊天的习惯,每个 token 都是真金白银那些你好,谢谢, 麻烦请帮我全是白花钱,给你算一笔账,一句谢谢,麻烦帮我总结一下,比直接说总结多,烧了七个头,肯一天问一百次,一个月就是两万多头,肯按照 gpt 十欧算,这就是好几十块钱。 马上教你三个降本习惯。第一,不说废话,别说你好,谢谢,请直接说需求请帮我写代码,改成写代码,省百分之三十废话。 第二,能文字别语音,语音转文字要额外消耗 token, 而且识别错误还得重来,文字输入又快又省。第三,能文字别发图,这个最关键,多模态识图的 token 消耗是纯文本的几十倍,一张截图等于几百到上千 token, 能打字说清楚,千万别截图。我自己实测,改之前每天平均十万头肯,大概三十块钱,改之后五万头肯搞定,省了一半,一个月就是四百五十块,一年五千多。记住,用 ai 不是 聊天,是下指令,每个字都是要花钱的,把客套花的钱省下来,多问几个有用的问题,它不香吗?

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

面试官问你,大模型多轮对话怎么实现?聊久了,上下文太长,该怎么优化?这个问题啊?是 ai 岗位面试里的高频题, 如果你只会答,把对话历史都发给模型,那面试官心里大概率会想,这哥们还没出 demo 阶段吧?咱们先思考一个基本问题,大模型它真的有记忆吗?其实所有的 l、 m、 a、 p i 本质上都是无状态的, 哪怕你刚跟他聊完一分钟,下一次请求对他来说也是全新的开始。他现在的记忆力基本为零,轮他不记仇,所以必须得由咱们帮他记笔记。那具体怎么记呢?标准解法就是手动维护一个 messages 数组, 在这个数组里,我们要把用户的问题和大模型的回复交替存进去,核心动作就两个字,追加。每次提问时,把这个完整的笔记本发给模型,他才知道你之前说了啥。但是笔记能一直记下去吗?肯定不行! 这就引出了第二个核心考点,上下文太长的灾难。大家看这张图,每个模型都有自己的 token 上线, 一旦对话太长,就像火车撞墙一样,报错卡顿,还特别烧钱。 token 就是 钱啊,权量发送就是在浪费预算。 所以面试官真正想听的是你的优化策略。针对不同的业务场景,咱们有三套组合权。第一套,上下文截断,也就是滑动窗口, 这是入门首选,零成本。思路很简单,记不住就忘,只留最近的恩伦。优点是简单快,缺点是会有健忘症, 聊着聊着,他就把最初的目标忘了。第二套,滚动摘药,这是目前的通用最优解。 当历史太长时,我们让模型自己做一份浓缩笔记,做法是把老对话压缩成一小段摘要,拼接在最新对话前面,这样既省了 token, 又没丢掉用户的核心意图,性价比极高。第三套向量召回,也就是 rag, 这是生产级的标配。既然全量发太贵,那咱们就把全量对话存入向量数据库,用到什么找什么,实现无限记忆和按需提取。大家在回答时还要注意避开这几个雷区。 第一,绝对不能只存提问不存回复,如果你漏了回复,模型就会变成复读机,根本接不上话。 第二,千万别把思考过程塞进历史,现在很多推理模型会输出一堆逻辑链,那玩意儿除了浪费 token, 还会严重干扰模型后续的判断。 第三,历史记录不设上限,如果你不做保护,系统必触发上限,报错接口直接卡死。最后,咱们来规范一下,多轮对话靠手动维护 messages 数组实现。上下文太长,需要分场景优化,简单场景用截断,通用场景用摘药, 生产场景用向量招回。把这一套逻辑清晰地讲给面试官,你的 ai 架构功底直接拉满。我是 fox, 关注我,带你拆解更多 ai 应用的硬核面试题,咱们下期见!

啊,如果你的 deepsea 罢工了怎么办?就是当你和 deepsea 就 某一个问题一直在聊的过程当中,忽然下一次他给你回复,说什么呢?我的上岸纹长度达到上限了,我没办法再和你聊天了,我没办法给你回复了,你只能是再开启一个新的对话。 这个时候我们就是非常崩溃的,为什么开启了这个新的对话?虽然还是同一个 deepsea, 但是这个新对话,它对你之前聊的所有的内容一无所知,这个时候怎么办?我告诉大家一个小技巧啊,非常简单的小技巧,可能很多人都知道,就是我们把上一个对话里面所有的聊天过程直接复制下来, 直接复制下来放到一个文档里面,然后把这个文档扔给第二个新的对话的 deepsafe, 然后你告诉他,呃,这是我和你的聊天过程,你先呃清楚这个过程的思路,然后对我接下来题的问题做出回应。 哎,这样大家来看啊,就是我上个 deepsafe 聊的所有的内容,只成了一条记录,对不对?这是一个小技巧啊。再一个就是当你用豆包或者用什么这些 ai 工具的时候, 如果你发现你问他的问题啊,反复给他纠正,越纠正他跑的越偏,怎么办?你很生气,越聊越恼火,怎么办? 这个时候也是同样的办法啊,你把你和他的聊天记录也是整理成一个文档,你换一个 ar 工具,比如说你觉得豆包太笨了怎么办?你想用 deepsafe, 好, 你把你和豆包的聊天记录整理成一个文档,然后扔给 deepsafe, 告诉他,这是我和豆包的聊天过程,你先理解这个过程,然后我现在想要问你的问题是什么? 这个时候哈,你会发现会有意想不到的效果,记得点赞关注哦。

大家好,我是小众 ai 的 主理人清澈君,今天跟大家聊一个特别实用的话题,怎么让 cloud 帮你操控电脑,甚至用手机远程控制你的电脑干活。这个功能叫 computer use, 加上 dispatch 远程控制,说白了就是把你的 cloud 变成一个真正能动手干活的 ai 助手。 好,我们先搞清楚一件事,现在 ai 操控电脑主要有两条路线,一条是 cloud 走的视觉路线,就是像人一样看屏幕,看到什么就点什么,完全不需要软件有 api。 另一条是 open curl, 也就是小龙虾,走的是代码驱动路线,直接调用底层 api。 两种方式各有优势。 今天我们重点聊 cloud 这条视觉路线。 cloud computer use 的 核心逻辑很简单,他就像一个人坐在你电脑前面,看着屏幕,然后决定下一步要点,哪里,输什么字。优势很明显,任何有界面的软件他都能操作,不管你有没有 api, 他 都能越过去。但缺点也有,速度相对慢一点, 因为每一步都要截图识别,最适合的场景就是那些没有 api 的 本地软件,比如微信剪映这类。 接下来说怎么开启,其实很简单,三步走,第一步,打开 cloud 桌面端的 settings。 第二步,找到 computer use 那 个开关,打开它。第三步,设置一下浏览器权限,整个过程五分钟以内搞定,不需要装任何插件,也不需要写代码。 说到这个,可能有人会问我,人在外面,电脑在家,能不能远程让 cloud 帮我干活?答案是可以,靠的就是 dispatch 功能。操作也很简单,电脑端打开 cloud 左侧,选中 dispatch, 然后用手机扫码配对,配对成功之后,你就可以在手机上发指令, cloud 在 电脑端帮你执行, 相当于你的手机变成了电脑的遥控器。我们来看第一个实战案例,翻阅微信群聊记录。微信是没有直接操作它,但 cloud 可以, 他直接打开微信客户端,视觉识别屏幕内容,把几百上千条聊天记录全部读完,然后帮你提炼关键信息,讨论主题、代办事项,最后输出一份结构化报告,这就是视觉路线的核心价值所在。 第二个案例,自动发朋友圈。流程是这样, cloud 先帮你搜索相关话题,然后根据你的需求生成符合风格的文案,发布之前会先给你看预览,等你确认确认之后才会自动完成发布流程。有人可能担心 cloud 偷偷发奇怪的东西,不会的,每次操作都需要用户确认,安全机制做的很完善。 第三个案例,操控剪映自动剪辑视频剪映同样没有 api 接口,但 cloud 的 视觉方案可以直接操作,它打开剪映之后,能识别时间轴、转场、字幕这些界面元素,然后根据你的描述自动执行剪辑操作,最后导出视频发给你预览这个场景以前完全没有 ai 工具能做到,现在 cloud 实现了。 好,我们来做个快速总结。 cloud computer use 核心就这几点,第一,视觉操作,任何有界面的软件都能搞。第二, computer use 负责桌面操作, dispatch 负责手机远程。第三,安全机制完善,每次操作都要授权。 第四,实战场景覆盖了翻群聊、发、朋友圈、操作、剪映这些无 api 的 软件,可以说它填补了代码路线覆盖不到的那块空白。 总的来说, cloud computer use 真的 开创了 ai 操控电脑的新方式,如果你还没试过,现在就可以去开启,体验一下用手机远程操控电脑的感觉真的挺神奇的。 再梳理一遍核心卖点,视觉路线兼容一切有界面的应用。 dispatch 实现手机远程控制,微信群聊、朋友圈批量文件处理都能搞, desktop 端一键开启,设置极简,最重要的是多层安全机制保底。放心用这套组合拳目前真的没什么竞品能完整复刻。 好了,今天的内容就到这里,立即去开启 cloud compute use, 把你的 ai 助手从会说话升级成会干活。感谢大家收看,我们下期见!

上一集我们说了 token 是 ai 世界的游戏币,但问题来了,怎么把这枚游戏币花出去?今天的主节, api 就是 你的投币口, 还记得吗?你和 ai 聊天,每说一句话就消耗一些 token, 但 token 不 会自己飞过去。你需要一个传话员把你的话带给 ai, 再把 ai 的 回答带回来。 这个传化源就是 api, api 的 全称叫应用程序编程接口太绕口了,还是用餐厅比喻。你坐在餐桌前想点一份牛排,你不会直接冲进厨房找厨师,你只会叫服务员告诉他你的需求。 服务员把你的订单传给后厨,厨师做好菜,服务员再把菜端回给你。在整个过程中,服务员就是 a p a。 你 不需要知道厨房怎么运作,只需要告诉服务员,然后等待结果。 现在我们把三样东西放一起,你打开天气 app, 问今天热不热, token 你 的问题被切成碎片,准备付费。 api 服务员带着你的问题和 token 走向服务器厨房。 api key 进门时要出示的会员卡,证明你有权点菜。你现在用天气 app 查深圳温度,你的 app 会做三件事,带上你的 api key, 通过 api 向天气服务器点一份深圳温度数据, 服务器验证 api key 后,从你的账户里扣除一些 token, 然后把二十八摄氏度情端回来, app 显示给你。整个过程就像你去餐厅吃饭, token 等于你的钱, api 等于服务员, api key 等于会员卡。 所以 token 是 你的游戏币, api 是 帮你跑腿的服务员, api key 是 证明你身份的会员卡。下次你看到调用 api 就是 派服务员去办事,看到消耗 token 就是 付了游戏币, 看到请输入 api, key 就是 服务员在验你的会员卡。三个概念,一个餐厅故事全搞懂,学会了点赞,下期带你了解模型是什么。

兄弟们,你们是不是也跟我一样,和 gpt 聊了很久,对话内容越来越多,页面卡的也没法用了,输入框响应也会有明显的延迟。但如果打开新的聊天, 原先的上下文环境又丢失了,那我就亲测了两种有效的解决方法。第一个就是直接 ctrl a 复制全部内容,千万千万啊,记住千万不要手动拖动,否则的话会卡的更厉害。然后把它保存到, 保存到一个 txt 文件,再新建一个对话, 把这个 txt 文件给它上传来。模型呢,这个大模型会把文件里的内容当做输入直接处理,不需要重新渲染这些内容,页面就会轻松很多,输入和生成都能恢复正常。 那另外一种呢,就是用到这个新项目,这个功能 把相关的话题给它加到一个项目文件里,比如说我们刚才生成的这个,刚才的这个聊天框,我们在这里给它 移到项目组里面去,对于你认为特别有用的数据,可以给它添加到项目原理, 可以作为你下一个问题的数据来源。在同一个项目里面, ai 的 回答他会相对统一跑数据,出图表的速度也会非常的快。 以上是我认为比较有用的方法,然后我最近发现了一个非常好用的 gpt 会员升级网站,分享给大家,就是这个 ai ai 八点挖机,可以根据自己的需要 选择合适的品类,不需要信用卡,一分钟就能搞定。最后如果你喜欢这个视频,请你可以点个小爱心。

嗨,大家好,我是兔兔,欢迎来到我的频道。上期视频我们聊了 open cloud 踩坑相关的内容,那这期视频我们来聊一个大家都比较关心的点,钱 a p r 账单怎么控制、模型怎么分工最划算,以及用了那么久的 open cloud, 它到底值不值? 我第一次安装 open cloud 的 时候,当时刚建了一个 gmail api, 然后我就想测试看看,就把这个 api 填进去了,就开始跟他聊天,其实也没干什么。但是几个小时之后呢,我突然收到了邮件报警说我用了三十美金, 当时我就天呐,这么贵的吗?我什么都还没有干成呢。后来大家都说国内的模型便宜,我就充了一百块的 mini max, 在 macbook 上测试用,跑了一天多花了五六十。所以我最终意识到用 api 的 方式简直就是无底洞, 果断的采用了 cloud 的 订阅方案,它的底层原理就是 off api 的 反向调用,但是网上很多人说这样用会被封,我目前呢,还没有被封,如果遭封了我就换一家。 总之, offcloud 的 top 消耗太恐怖了,按量计费的 api 就是 给土豪准备的,像我们这些普通玩家就只能走钢丝用包月订阅。然后在具体的使用中呢,我又发现了两个成本的坑,一是关于模型选择, 同一个厂家本身就有不同的模型,系列能力和定价都不同,那很多人呢,默认就会让旗舰模型去完成所有的事情,无论这件事情是简单的还是复杂的,就比如说查天气,看邮件,发推文,抓文章,还有什么定时之类的, 一个周末如果说 a p i 不 限额的话,用掉两百美元那也是有可能的。如果说采取的是订阅方案,会因为额度满了之后降级变笨,最后才是限额,所以在具体的使用当中,可以进行行为策略的优化,节省成本。 举个例子, cloud, 它就分 os、 sunny、 high、 cool, 反正能力越强,价格越贵,但能力越弱,响应速度就越快。在研究系统设定核心任务部署的时候,就可以采用最强的,这样出错的概率就会大大降低。 在日常使用的时候就可以换成便宜一档的平衡模式,因为我们只需要它理解我们的指令,做难度一般的事情就可以了。至于很简单的自动提醒、定时自动检查类任务,就可以把它交给最便宜的。把钱花在刀刃上,消耗的 talk 更少,但是实现的效果是一样的。 不过据我的了解, openclaw 目前并不支持主对话的智能动态切模型,但是可以手动指定定时任务的模型。所以如果已经有了本地模型,那就可以让本地模型去跑这个定时任务,把这部分的 talk 消耗节省。 另一个是采用官方都比较推荐的 sub agent 模式,也就是设置子弹笔,简单来说就是把不同厂家的 ai 模型都加上,根据不同的资费能力去分工。 再一次以我自己举一个例子哈,就是现在我的主 ai 呢,是 cloud, 然后我其实同时还订阅了 jimmy、 叉、 gpt、 mini max、 deepsea, 还有 kimi 这些。 那我是让 cloud 去作为主 ai, 负责指挥,也负责完成最核心最重度的任务。 gmail 呢,它就比较擅长翻译、制图、嵌 gpt, 比较擅长文字处理。 mini max 之前是试用了一段时间,用来做代码调试。 前段时间我部署了千万二十七 p 大 模型,就把所有的翻译文本、校对工作都丢给了它,因为是本地模型,完全没有产生花销。 说真的,现在本地模型的能力是越来越强了,我感觉以后一些比较轻度的工作都可以丢给他,这样就获得了一个免费打工人。 这种做法其实就是把某一家的大额订阅拆分成好几家的小额订阅。这就需要我们对每一家在用的模型非常了解,而且也要很懂成本分摊。可是这其中我觉得又存在某种备论,如果我们真的很懂每一家模型,大概率也不是新手了, 那可能在优化 top 方面也是有一定经验的。而且怎么确保这么多家的小额订阅加在一起的花费就比一家的大额订阅更低?也就意味着我们是不是要投入更多的时间精力去研究、去算? 可是我们用 a i a g 的 本身就是想花钱去买时间,但如果是这样,岂不是又要花钱又要花时间?这个不就本末倒置了吗?所以我觉得,嗯,还是没有必要去开通很多家,先把一家用好再说。 open color 里有一个机制叫 heartbeat, 就 可以把它理解成一个定时闹钟,每隔一段时间自动醒来,检查一下有没有事情干。之前我还设置了一个更复杂的,用 air drop 传文件给 mac mini, 他 收到了之后就要问我怎么处理这个文件, 频率很高。我相信很多人看这个功能的时候会觉得,哇,这个太赞了!这是一个非常理想的自动触发机制, 可能一开始就会设置,多久检查一次邮箱,多久抓取一次热点事件,多久去生成一个报告,多久去汇报一下系统运行状态等等。虽然 heartbeat 对 talk 的 消耗不多,但是它依然有消耗,并且频率越高消耗越大。 而且你有一些定时任务就我不是很能理解,就比如说什么天气汇报这一种, 手机解锁一看不就知道了吗?还有就是拿比较聪明的 ai 配合 heartbeat, 其实是一种浪费,因为现在已经有很多成熟的自动化服务,就比如说 if t t t n 八 n 甚至是苹果的快捷指令, 这些都能够更省就更低成本的实现同样的效果。那如果你说我不想用自动化服务,我就要用 ai 去定时执行,那就可以把 hrd 的 监测部分去交给本地模型或者便宜的模型,然后再把一些重要的核心的工作去 交给主力 ai 去执行,优化整个工作流。而且我们在做很多任务和工作的时候,可以依赖脚本来实现,就比如之前我做的系统监测面板,完全不消耗 ai 的 流量,使用脚本的方式来定期推送系统信息。 同样的,我的 notion 和 youtube 文本的抓取同不到本地也都是采用的定时脚本来完成的,全程都不需要 ai 的 参与。 实际上 ai 它并不适合用来进行高度单一、很简单、重复性很高的这种工作。就好比你让一个高级程序员天天去站在复印机面前去复印资料,这简直就是资源错配,非常浪费, 真正的价值是让他去干那些复杂的硬核的任务。就比如说我作为一个普通人,我不懂技术,我可以借助他从零开始去开发一个工具,去制作一些什么,比如说他可以在几分钟的时间内帮我解决我完全胜任不了的技术问题。 所以最近我也在研究让 mac mini 尽可能多地装本地模型,把所有的基础工作都本地化,这样就可以非常省 talk, 就 可以既享受到本地免费,又享受到云端智能,可以说双赢。 对了,再补充一点个人小经验,在丢任务给 ai 之前,其实可以先让它帮你分析一下,第一是可行性,第二才是分配方案,第三考虑性价比。 要强调的一点是,让 ai 在 任何时候都要记住你的电脑配置、运行环境,让它先评估出方案。如果你有多个 ai, 甚至可以把它们召集在一起开会,先来一个方案竞标。 很多人认为现在用 opencloud 就是 一种烧钱行为,因为无论哪一家的旗舰模型都很贵,而且硬件的投入也是一笔不小的支出。所以网上我们可以看到铺天盖地的都在说怎么赚钱, 我觉得县级段用它来赚钱对于我们大部分人来说还言之尚早,但如果说用它来提升工作效率也是一种赚钱方式的话,那它其实算是赚钱的。 至于有些人为了降本,纯粹用本地模型对话,或者把 opencloud 装在一些硬件能力特别有限的设备上, 整个用下来会给人一种哪有那么神,都是吹的的感觉,就进入一种观念误区了。然后现在网上又是铺天盖地的宣传它,真的有点夸张了, 它是用来解决问题,分担工作量,优化效率的,但如果是为了使用它而去创造需求,这绝对本末倒置了。 之前有不少网友评论留言说这个东西到底有什么用?为什么大家都在讨论怎么有人就把它吹上天了?有那么夸张吗?普通人用得上吗?怎么有一种为了叠醋包了一顿饺子的感觉? 这其中当然有人在传播焦虑,仿佛不接触这个东西,一秒就会变回原始人。其实我跟资深人士比,已经算接触 ai 很 晚的了, 我在用了之后呢,我自己的真实感受就是他确实很厉害,主要厉害的点于我而言就是打破了很多强,比如说信息强、技术强、硬件强。 当然我也觉得对于我们这普通人来说,他远远达不到即刻,只要你用上,他就能给我给你带来现实层面的东西回报之类的。还有就是 社会结构层面改变,变格也谈不上,但确实存在一些机会,比如之前很离谱的咸鱼袋装,比如华强北有人做了适配的主机,这种商业嗅觉是我很缺乏的,可趋势是让人无法忽视的。但这其中也不乏有应用商, 有服务商的利益驱动。所以呢,在这个过程当中,也希望大家能够保持警惕,要清醒,当然也不要因为一些声音就去产生一些抵触情绪。 其实最近我一直在思考一个问题,为什么最近网上的声音两级分化这么严重?一边人们说它特别特别好用,怎么怎么牛逼,可以做很多很多的事情。另一边对这个评价很低,认为是新瓶装旧酒。 不知道大家有没有看这张图最近在网上成了一个新笑话,一种观点说这叫制造 follow, 就是 贩卖焦虑,通过斗兽新理念制造新的恐惧, 的确非常值得我们警惕。真没想到这种时代入场券的夸张程度。我以前折腾 nars 去部署 docker 什么的,很多时候其实都搞不定的,要在网上花很多的时间去学习,但往往就不一定会有好的结果。 而对话式 ai 出来的时候,我已经觉得他很强大了,我可以把问题描述给他之后,获得一个非常精准的答案,我只要按照步骤操作,通常不会有问题, 能够解决我的问题。而现在这种可接管的 ai 代理,他可以全自动的操作,只需要下达一句指令就可以了,当然你需要为他的操作负责, 所以他其实优化了这一部分的工作内容。而对发烧友来说,他们可能在探索去实现脑中疯狂的想法,所以本质上是一根技术杠杆。无需求的人可能用不上技术,大佬可能又会觉得精度不够,但是对于需求强烈但是没有技术的人来说呢,他就成为了一个 非常重要也非常厉害的跨越技术鸿沟的桥梁,就是可以把人从很枯燥的试错当中拯救出来。 另一个说法是,在 ai 时代,你要花钱找人装 opencloud, 或者报班学习怎么装 opencloud 的 话,那你本身其实就是不需要用 opencloud 的。 这就是一个悖论, ai 时代助推的绝对不是总是身处在焦虑之中,天天都在想怎么翻身的人。 ok? 那 么本期的分享就到这里,欢迎大家评论留言,主要是我也想看一看大家对于 open cloud 到底是怎么看怎么评价的。那么本期的分享就到这里,我们下期见。

今天咱们聊个特别技术的词, a p i 和 skills, 别走别走,我保证不用代码,只用你每天都在做的事。扫码买水,两分钟给你讲明白。先问大家,你渴了想买瓶水,走到自动贩卖机前,你会干啥?掏出手机扫个码,弹出来一个小程序界面,上面有可乐、矿泉水、绿茶, 你点一下可乐付钱,哐当一声,饮料出来了。好,记住这个场景,那个等你扫码的贩卖机就是 a p i, 它就是个工具,安安静静待在那儿, 它屏幕上的二维码和弹出来的界面就是它的说明书。告诉你我这有啥,多少钱,怎么买,你点哪个按钮,它就给你啥东西,你压根不用管它里面怎么制冷,怎么找零,对吧? 而扫码买水这一整个事就是 skills, 你 从渴了到喝上水,中间经历了啥感觉?渴了眼睛找贩卖机,走过去扫码点单,最后弯腰拿饮料, 这是一连串动作,最终解决的是你口渴这个问题。所以你看 api 是 那个工具, skills 是 用工具办成一件事的能力,你不是为了扫码而扫码,你是为了喝水才去扫码,放到智能音箱上也一样, 你问今天热吗?音箱先听懂你是在问天气,然后去调天气, a p i。 拿到数据再告诉你,今天三十度,挺热的。总结一句话, a p i 是 那台贩卖机, skills 是 你买水喝的全过程。 以后再听到这两个词,就想想你扫码买水的样子,是不是一下就通了? ok, 今天就是这些,觉得有用,点个赞,咱们下期见!

兄弟们,我直接说重点, ai 应用开发工程师不是会掉个 api 就 叫工程师。讲真的,这个行业现在分水岭特别严重,特别明显,一边是玩提示词的,一边是能把模型真正落地的。那你要进工业界,能力结构要必须清清楚楚。 先说基础,这个没得商量, python 必须滚瓜烂熟, python torch 必须能手写。那神经网络深度学习原理, transform 底层机制别只会掉裤,底层的 forward 怎么写, attention 怎么算你得懂,否则面试官两句话你就露馅。 ok, 基础打完,我们说企业级能力,四大块缺一不可。第一块,小模型的工程能力,比如 bird t 五这种 经典模型,问题不是会不会用,而是你能不能把它建进公司的业务流,能不能分装成 a p i, 能不能部署成稳定的服务,能不能处理并发,那说实话,这才叫工程能力。那第二块,大模型的微调能力,别只会调用通用大模型,企业要的是在垂直数据遇上做适配 lora 这些参数高效微调方案你得是超过,那微调完之后怎么部署,怎么压显存,怎么做推理优化这部分是真正拉开差距的地方。第三话, agent 开发能力。现在所有的公司都在做智能体,基于 long try, long graph 这种框架的流程编排能力是刚需,你要理解工具调用记忆机制, 多步骤推理链,不是简单的串一个 api, 而是设计可控的决策流程,这块能力决定你是不是应用架构型选手。 那第四,还底层性的认知强化学习,基本原理要懂,那模型并行推理加速机制要有概念, v l m s g, lung, flash, attention 这些关键词面试一定会问。 当然喽,工作中前三块最核心,但第四块是你冲高薪的筹码。最后一句,说实话,学习最怕的不是难,最怕的是没有路线图,方向错了,再努力也白搭。 我整理了一套二零二六最新学习路线,四个阶段,告诉你先学什么,后学什么,看什么书,念什么。项目不是鸡汤,是路径,需要的自己拿去对照规划。别再瞎喷了,这个行业很卷,但卷的是结构,不是时间。

还在听别人满嘴跑 ai 黑话, a p a 到底是个啥?今天我用一句人话给你讲明白, 听完你比百分之九十的人都懂! a p a 根本不是什么高大上的科技,它就是软件和软件之间的传递员、翻译官、 快递员。简单说,没有 api, 软件跟 ai 就 没法聊天,没法联动,没法干活。你想让你的小程序、 app、 网站用上 ai, 必须走 api 这条通道。就像你家要接水接电接网, api 就是 那个接口插座,打门插一句就能用,连上线就能跑。你平时用的智能工具,自动脚本一键生成文案, ai 画图 全靠 api 在 背后偷偷打工。记住了, api 等于软件之间的万能连接器后,再有人跟你装专业,你直接怼回去,不就是个传话通道吗?关注我,下期带你看懂更多 ai 黑话!

有 ai 之后就不要再学这个 s p s s 了,直接用 ai 一 句话就搞定了。就这个 q s p s s。 从这里上传数据,一句话给他说,看看我的数据能做哪些分析,随便分析几个试试。你看他做了很多这个,对性别做了一个频速分析,对年龄也做了一个频速分析, 对品牌认知度做了描述性统计分析。描述性统计分析,这个太方便了,每个分析结果都是三线表,直接复制粘贴到 word 就 可以,然后面相关分析、文字分析、报告文字结果解读这一句话就搞定了。这个还学什么 spss 呀?