查看AI文稿
李新新AI
李新新AI

粉丝20获赞281

相关视频

  • openclaw养龙虾使用的Token openclaw攻略 openclaw攻略养龙虾国内外模型的token费用是多少,一个表就能明白#养龙虾 #openclaw #token #数字员工 #OpenClaw使用攻略
    00:13
    查看AI文稿
  • 一招搞定openclaw🦞省钱攻略 千万别一上来,就给你的 OpenClaw 大龙虾接上最顶级的 AI 模型!
我们群里有个朋友,刚装好openclaw,兴奋地跑了一晚上定时任务,早上一看 API 账单,直接扣了 500 多块钱,心痛得差点把电脑砸了。 
为什么会这么烧钱?你要知道,大龙虾和普通的聊天 AI 完全不一样。
大龙虾在你睡觉的时候,也在持续吃粮食吃算力,你的经费在不断燃烧,原因是它的“心跳机制”的,每隔几十分钟,它就要在后台自我思考一下:“我现在该干嘛?”。
如果你连它发个呆、查个日程,都用 Claude Opus 或者 GPT-5 这种顶级大脑,那简直就是用高射炮打蚊子,钱全烧在无效运转上了! 
今天教你一招我独家的“穷鬼配置套餐”,能把大龙虾一天的运行成本,压到 10 块钱以内!
秘诀就四个字:高低搭配。
大龙虾日常的巡逻、收发消息、整理文件,这些低端工作的智能体,你就给它配置国产模型,比如 DeepSeek 或者阶跃星辰。速度极快,几百万 token 也就一瓶水的钱。这样子,大龙虾连续工作7天也就一个外卖的钱,非常划算。 
只有当大龙虾遇到复杂任务、或者做深度决策的时候!通过配置路由,让它自动去调用 Claude 4.5 这种顶尖模型。
这样搞下来,你的 AI 既有顶级架构师的脑子,又有廉价打工人的执行力! 
#Openclaw #AI #人工智能 #AI员工 #OpenClaw使用攻略
    01:46
    一招搞定openclaw🦞省钱攻略 千万别一上来,就给你的 OpenClaw 大龙虾接上最顶级的 AI 模型!
    我们群里有个朋友,刚装好openclaw,兴奋地跑了一晚上定时任务,早上一看 API 账单,直接扣了 500 多块钱,心痛得差点把电脑砸了。
    为什么会这么烧钱?你要知道,大龙虾和普通的聊天 AI 完全不一样。
    大龙虾在你睡觉的时候,也在持续吃粮食吃算力,你的经费在不断燃烧,原因是它的“心跳机制”的,每隔几十分钟,它就要在后台自我思考一下:“我现在该干嘛?”。
    如果你连它发个呆、查个日程,都用 Claude Opus 或者 GPT-5 这种顶级大脑,那简直就是用高射炮打蚊子,钱全烧在无效运转上了!
    今天教你一招我独家的“穷鬼配置套餐”,能把大龙虾一天的运行成本,压到 10 块钱以内!
    秘诀就四个字:高低搭配。
    大龙虾日常的巡逻、收发消息、整理文件,这些低端工作的智能体,你就给它配置国产模型,比如 DeepSeek 或者阶跃星辰。速度极快,几百万 token 也就一瓶水的钱。这样子,大龙虾连续工作7天也就一个外卖的钱,非常划算。
    只有当大龙虾遇到复杂任务、或者做深度决策的时候!通过配置路由,让它自动去调用 Claude 4.5 这种顶尖模型。
    这样搞下来,你的 AI 既有顶级架构师的脑子,又有廉价打工人的执行力!
    #Openclaw #AI #人工智能 #AI员工 #OpenClaw使用攻略
    查看AI文稿
  • 养龙虾3条安全准则 #openclaw #ai openclaw龙虾袭来,已经势不可挡。
用AI赋能规模化生产,第一要务,不是效率,是信息安全。
单独管理龙虾使用的token,给龙虾限定范围,写死规则文件。
龙虾好用,但安全永远排第一。
    01:59
    查看AI文稿
  • 拯救windows用户,一键用上大龙虾的方案来了 一键完成OpenClaw部署。三句话把它塞进飞书。适合小白们的大龙虾方案来了! #科技  #AI部署   #OpenClaw
    03:04
    查看AI文稿
  • OpenClaw,养龙虾干货,创建你自己的工作流! 永动虾下载方式kdocs.cn/l/cnYGvf610Krc#openclaw#openclaw教程#openclaw安装#openclaw部署#养龙虾
    02:24
    查看AI文稿
  • openclaw不在担心token 让龙虾吃个饱~token成本全面降低#OpenClaw #AI变现 #智能体 #AI #Gemini
    00:17
    查看AI文稿
  • 大龙虾半个月使用感受 从0到1部署openclaw,到完全自动化运行。
个人感受分享
#openclaw #大龙虾 #openclaw部署 #Agent #token
    04:44
    查看AI文稿
  • 改造openclaw源码以后,这只“大龙虾”变得更美味了 feat.摩尔线程AIBook + AI Coding Plan 上手体验
#AI写代码 
#AIbook 
#whatsapp 
#openclaw 
#效率提升
    06:26
    查看AI文稿
  • Openclaw Zero TOKEN,零成本畅用所有主流AI模型。#openclaw  #token #AI #龙虾
    00:42
    查看AI文稿
  • 你的OpenClaw龙虾像个智障?试试这几个技能! 永动虾下载kdocs.cn/l/cnYGvf610Krc,#openclaw#openclaw部署#openclaw技能#养龙虾#openclaw教程
    01:47
    查看AI文稿
  • 龙虾OpenClaw免费使用Token方法,一直有,直接用 #openclaw  #龙虾  #myclaw
    01:16
    查看AI文稿
  • 别再花钱买 API 了!谷歌最强开源 Gemma 4 + OpenClaw 本地部署全流程,31B 大模型满血联动!#AI新星计划  #Gemma4  #gemini  #人工智能  #AI
    09:55
    查看AI文稿
  • 笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 
为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 
让我们来看看最终的核心数据,也就是Token 输出速度: 
1. 谷歌的中量级模型Gemma 4 E4B
MacBook的Token输出速度为21.25 tokens/s;
Windows笔记本的Token输出速度为12.64tokens/s;
在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 
2. DeepSeek R1 8B
MacBook的Token输出速度为16.74 tokens/s
Windows笔记本的Token输出速度为7.8 tokens/s 
3. 阿里的Qwen 3.5 9B
M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
而Windows笔记本的Token输出速度为5.9 tokens/s
低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 
4. 谷歌Gemma4:26B的重量级模型
MacBook Air 笔记本显存直接爆掉,完全无法运行。
而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 
#vibecoding#gemma4#openclaw#大龙虾#大模型
    04:29
    笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
    今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
    众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。
    为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。
    让我们来看看最终的核心数据,也就是Token 输出速度:
    1. 谷歌的中量级模型Gemma 4 E4B
    MacBook的Token输出速度为21.25 tokens/s;
    Windows笔记本的Token输出速度为12.64tokens/s;
    在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。
    2. DeepSeek R1 8B
    MacBook的Token输出速度为16.74 tokens/s
    Windows笔记本的Token输出速度为7.8 tokens/s
    3. 阿里的Qwen 3.5 9B
    M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
    而Windows笔记本的Token输出速度为5.9 tokens/s
    低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。
    4. 谷歌Gemma4:26B的重量级模型
    MacBook Air 笔记本显存直接爆掉,完全无法运行。
    而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。
    #vibecoding#gemma4#openclaw#大龙虾#大模型
  • 小白一键安装龙虾 实测腾讯龙虾 AI,免复杂配置,双击安装即用,每日赠4000万token。默认集成大量的SKILLS。小白快速养虾一键开启。
#AI工具  #QClaw  #OpenClaw  #AI龙虾  #微信控制电脑
    03:01
    查看AI文稿
    6434斐哥
  • Openclaw大龙虾和AI大模型本地双部署 #openclaw #openclaw本地部署  #AI员工 #一人公司 #大模型本地部署
    06:45
    查看AI文稿
  • 一个skill,让龙虾消耗省80% #AI营销  #AI工具  #ai工具 #ai营销 #openclaw  #龙虾ai #claude  #kimi #agent  #skill
    03:23
    查看AI文稿
  • 微信直连QClaw!每日领取4000万Token💥#OpenClaw #QClaw #龙虾 #微信
    00:34
    查看AI文稿
  • openclaw烧了4000块,3招教你省下80%成本 我终于发现大龙虾烧钱的秘密了,这2天,我用GPT-5.4-pro搭了个SKILL,短短两天,直接烧掉我4000块钱!查完账单我整个人都傻了:我明明只是随便发了一句话,后台竟然扣了我30块钱,相当于大龙虾回复一句话,一份外卖的钱就没了!
很多人以为,咱们用这些顶级的AI模型,是包月或者按“聊天次数”收费的。大错特错!大模型是按Token算钱的。这就像你开车从来不看油表,以为自己才溜达了10公里,后台其实踩着地板油给你烧了100升油。
哪怕到了2026年,99%的人都还在踩这个Token陷阱。GPT-5.4-pro的输入价格是30美金一百万Token,你以为你只敲了200个字,但真实情况是,openclaw在后台偷偷打包了系统提示词、巨大的Skill文档、还有又长又臭的历史聊天记录。你发一句话,大龙虾送出去了10万个Token的隐形支出,这就是为什么你不知不觉就烧了几千块。
那怎么才能捂住我们的钱包,避免掉进这个Token陷阱呢?今天教你3个核心技巧,直接砍掉隐形输入,帮你省下至少80%的成本。直接抄作业!
第一,精简你的系统提示词。
很多人写System Prompt,恨不得把整个产品需求文档全塞进去,一发就是一万个Token。正确做法是:系统提示词只保留最核心的几百字指令!详细的背景文档放在外部,让AI需要时再去调用。
第二,动态加载Skill技能文档。
千万别把你所有的AI技能包一次性全塞给它。说白了,这就好像让一个厨师去炒个土豆丝,你非要硬塞给他一本满汉全席的菜谱让他先背一遍。用到哪个Skill,再去加载哪个,把文档模块化拆分,光这一步就能帮你省掉70%的输入token。
第三,一定要定期给AI“洗脑”,清理历史记录。
AI的记忆是会无限累积的。你和它聊到第11轮,它会把前10轮你们聊过的废话全部重新带给大模型!你看不到,但后台都在疯狂烧Token。正确做法是:每5到10轮清空一次记忆,或者直接让AI用50个字总结一下前文,带着这个“压缩版的记忆”继续聊。
给你算一笔账,优化前我一天聊10轮要花200块钱,用完这三招,一天只要40块,成本直接暴降80%! 
#openclaw #人工智能 #vibecoding #AI #智能体
    03:26
    openclaw烧了4000块,3招教你省下80%成本 我终于发现大龙虾烧钱的秘密了,这2天,我用GPT-5.4-pro搭了个SKILL,短短两天,直接烧掉我4000块钱!查完账单我整个人都傻了:我明明只是随便发了一句话,后台竟然扣了我30块钱,相当于大龙虾回复一句话,一份外卖的钱就没了!
    很多人以为,咱们用这些顶级的AI模型,是包月或者按“聊天次数”收费的。大错特错!大模型是按Token算钱的。这就像你开车从来不看油表,以为自己才溜达了10公里,后台其实踩着地板油给你烧了100升油。
    哪怕到了2026年,99%的人都还在踩这个Token陷阱。GPT-5.4-pro的输入价格是30美金一百万Token,你以为你只敲了200个字,但真实情况是,openclaw在后台偷偷打包了系统提示词、巨大的Skill文档、还有又长又臭的历史聊天记录。你发一句话,大龙虾送出去了10万个Token的隐形支出,这就是为什么你不知不觉就烧了几千块。
    那怎么才能捂住我们的钱包,避免掉进这个Token陷阱呢?今天教你3个核心技巧,直接砍掉隐形输入,帮你省下至少80%的成本。直接抄作业!
    第一,精简你的系统提示词。
    很多人写System Prompt,恨不得把整个产品需求文档全塞进去,一发就是一万个Token。正确做法是:系统提示词只保留最核心的几百字指令!详细的背景文档放在外部,让AI需要时再去调用。
    第二,动态加载Skill技能文档。
    千万别把你所有的AI技能包一次性全塞给它。说白了,这就好像让一个厨师去炒个土豆丝,你非要硬塞给他一本满汉全席的菜谱让他先背一遍。用到哪个Skill,再去加载哪个,把文档模块化拆分,光这一步就能帮你省掉70%的输入token。
    第三,一定要定期给AI“洗脑”,清理历史记录。
    AI的记忆是会无限累积的。你和它聊到第11轮,它会把前10轮你们聊过的废话全部重新带给大模型!你看不到,但后台都在疯狂烧Token。正确做法是:每5到10轮清空一次记忆,或者直接让AI用50个字总结一下前文,带着这个“压缩版的记忆”继续聊。
    给你算一笔账,优化前我一天聊10轮要花200块钱,用完这三招,一天只要40块,成本直接暴降80%!
    #openclaw #人工智能 #vibecoding #AI #智能体
    查看AI文稿
  • 配置openclaw的coding plan #codingplan #openclaw #龙虾 #token #配置codingplan
    06:54
    查看AI文稿