00:00 / 01:31
连播
清屏
智能
倍速
点赞64
00:00 / 02:04
连播
清屏
智能
倍速
点赞114
00:00 / 05:06
连播
清屏
智能
倍速
点赞35
00:00 / 00:58
连播
清屏
智能
倍速
点赞14
00:00 / 03:11
连播
清屏
智能
倍速
点赞55
00:00 / 02:05
连播
清屏
智能
倍速
点赞78
00:00 / 00:37
连播
清屏
智能
倍速
点赞927
00:00 / 03:54
连播
清屏
智能
倍速
点赞29
10分钟成为尊贵的爱马仕Agent用户 还在折腾OpenClaw?它已经Out了,现在全网最火的AIAgent叫Hermes Agent。 跟OpenClaw相比起来,它有两个大升级: 1️⃣ 有记忆,能根据跟你的聊天记录自我进化 2️⃣ 稳定性极高,不会动不动出问题、升级以后哪里又坏了 作为全网最细AI博主,我这期视频里从零演示完整流程: • 一行命令安装,依赖自动装、自动配 • 模型配置:自动识别本地的OpenRouter Key • 国内外模型都支持 • 飞书一键对接:扫码自动建应用、配权限、设事件订阅 • 实战场景:文档整理、Todo管理、Get笔记、定时提醒 这次我还重点试了一个最近刚发布的免费模型——百灵Ling-2.6-flash 🚀 为什么试它?因为AI Agent的日常工作里,很多其实是简单执行型任务,并不需要深度思考。这种场景下,速度和价格才是关键,而百灵2.6 flash刚好把这两点拉满了: ⚡ 整理一份很长的演讲速记 → Markdown大纲,只用了5.66秒 🐢 同样的任务,国内某主流模型花了将近150秒,差了快30倍 🎯 而且输出质量我觉得百灵2.6还更好一些 💰 最关键的是——OpenRouter上目前完全免费 视频里还教了一个小技巧——你可以给单个定时任务单独指定模型,简单的活交给Ling 2.6免费跑,主力模型留给硬核任务。 模型选择就像搭团队,合理搭配才是最优解 ✨ #openclaw #百灵大模型 #蚂蚁百灵 #hermes #hermesagent
00:00 / 12:14
连播
清屏
智能
倍速
点赞145
龙虾换模型丢记忆?爱马仕“记忆隔离”丝滑热插拔! 玩 AI Agent 的高阶玩家们,今天聊点不一样的干货。本地跑智能体,到底是用‘龙虾’(OpenClaw)还是‘爱马仕’(Hermes)?很多小白只看处理速度,却忽略了决定自动化工作流生死的关键——记忆管理! 先说龙虾。不可否认它很强悍,但在实际跑复杂任务时,你会遇到一个极其抓狂的痛点。 龙虾把‘模型’和‘记忆’绑定得太死了!假设你正跑着一个长线任务,前置的简单数据清洗用的是小模型,进行到一半,你想切换到满血的大模型来做深度推理。 结果呢?在龙虾里一切换模型,之前的上下文‘啪’的一下,直接清空!记忆当场丢失,工作流直接断掉。就像公司换了个新主管,交接文档全烧了,一切得重头再来。 #hermes #hermes爱马仕 #openclaw #龙虾智能体 #AI智能体 这时候,你就知道‘爱马仕’为什么用起来那么丝滑了!它最大的杀手锏,就是这四个字:记忆隔离。 爱马仕在底层架构上,把作为‘大脑’的模型,和作为‘笔记本’的记忆库,彻底解耦分开了! 这意味着什么?意味着你可以随时**‘热插拔’**换脑子! 任务跑到一半想换个更聪明的模型?随便换!因为记忆是独立存储的。 新切上来的大模型,能瞬间读取之前的全部进度和记忆,完美接棒,继续干活。中间没有丝毫卡顿,没有半点记忆断层,如丝般顺滑! 所以,真正用来做本地自动化、做长线工作流的利器,记忆的连续性才是王道。爱马仕的这种隔离机制,确实比龙虾高明了一个段位。 还在踩坑的兄弟们赶紧去试试。
00:00 / 01:43
连播
清屏
智能
倍速
点赞34
00:00 / 05:12
连播
清屏
智能
倍速
点赞28
00:00 / 03:58
连播
清屏
智能
倍速
点赞577