00:00 / 03:08
连播
清屏
智能
倍速
点赞1220
00:00 / 04:31
连播
清屏
智能
倍速
点赞92
00:00 / 00:36
连播
清屏
智能
倍速
点赞378
00:00 / 01:34
连播
清屏
智能
倍速
点赞37
00:00 / 02:45
连播
清屏
智能
倍速
点赞25
00:00 / 02:09
连播
清屏
智能
倍速
点赞NaN
00:00 / 03:34
连播
清屏
智能
倍速
点赞5
00:00 / 01:33
连播
清屏
智能
倍速
点赞89
蕴白4天前
本地部署OpenClaw,不消耗tokens 最近在研究如何让openclaw仅靠本地部署运行 在4060上,实现不消耗任何云端tokens费用就 能够24小时跑。不过最后发现openclaw的架构 太烂了,阿斗扶不上墙🤣😂 买的云端千问API都稳不住,时不时还把 tools搞崩🤣别提本地8bit超小模型了😭 现在正在手搓中,打算重新构建框架,专 门为本地超低算力环境设计 开发环境为12代i5,4060laptop,16g内存+8g显存,debian环境(arch/window改依赖也可以)。使用了Ollama-qwen3:8b模型作为支撑,模型支持最大输入8k tokens🤓 归递询问架构,集成skills的重型规则引擎,机制支持动态接入skills(即插即用,无需配置),目前能够让本地模型稳定对接规则引擎,常见的场景已经可以覆盖了,效果如图☝️☝️☝️ 不过目前还在测试阶段,有很多复杂任务,本地小模型无法胜任,需要手写规则(类似skills,不 过不支持通用skills,本地小模型跑起来费劲, 需要专属skills),后续有时间再慢慢完善skills,这是个漫长而枯燥的过程 目前可以执行简单任务了,对于一些物联设 备也支持调用,前提是你得手动录入规则引擎 和知识库,后续会考虑集成到skills里,把物联网设备接入。简单的文件处理、信息检索当然不在话下。目前正在完善缝补怪式上下文补全引擎,尝试将上下文与长期记忆使用规则引擎压缩融合,兼空闲调度AI处 理,减少本地算力消耗。 得益于防火墙,以及嵌套好几层的NAT,目前暂时只写了napcat QQ进行通信,否则就得交钱去买内网穿透,但毕竟这款框架最开始目的就是本地、免费、低配置,所以我注册了个QQ小号,分配给机器人托管😋😋😋效果还算稳定,比内网穿透强,毕竟这玩意可不兴堵 框架2x模式下,生成聊天回复大概10s左右,5x模式下,大约25s左右,完整7x模式下,大概30~40s跑完。显存消耗7g左右,内存基本不消耗,CPU占用极少。可以同时办公刷视频等等,2D小游戏没问题,3D渲染就算了 后续主功能还会增加空闲记忆整理引擎,以及 图片分析引擎。如果有能力,打算单独写个自 动编写skills的引擎,用云端大模型跑,帮我写 skills,毕竟一个人写太费肝了 #openclaw #龙虾 #AI #机器人 #自动化
00:00 / 00:22
连播
清屏
智能
倍速
点赞1
00:00 / 03:19
连播
清屏
智能
倍速
点赞13
00:00 / 02:00
连播
清屏
智能
倍速
点赞2636