00:00 / 02:04
连播
清屏
智能
倍速
点赞115
用Mac Mini能分币不花的养龙虾吗? 用Mac Mini部署本地算力,能实现分币不花的养龙虾吗?养龙虾最大的成本token的费用,也就是算力。那现在最简单的方式就是接入阿里云 腾讯云 火山云上的大模型,你每次使用都会消耗算力,所以这是一个持续付费的过程,要是使用频繁一个月花个几千块钱买token,也是稀松平仓,然后另外一种所谓分币不花的方式呢,就是一次性投入买一个硬件,然后在里面部署一个开源的大模型,类似Kimi/千问/DeepSeek这种,为了省下token费用,我花了将近4k买了个丐版macmini,经过尝试 想分币不花的使用本地算力养龙虾基本没戏,下面我说说原因啊,我选的这个90亿参数的qwen3.5:,算是能力比较低的模型了。但要想让他发挥全力大概需要18gb显存。而我这款钙板macmini最大调动显存也就13g左右,好在Ollama这个工具可以量化压缩模型,所以勉强能跑这个千问3.5,但是因为算力不够,你随便问他一个问题,真的是等到天荒地老…时间久到你都怀疑是不是卡了。。。最后还接了云龙虾才正常运行起来。但是如果要接云模型,我就没必要新买macmini了,云模型龙虾对配置要求很低的。基本常用的笔记本电脑都能运行,完全没必要为了龙虾新买电脑,所以这个macmini算是又交了一笔AI学费#openclaw #养龙虾 #ai #大模型 #macmini
00:00 / 02:18
连播
清屏
智能
倍速
点赞596
00:00 / 04:55
连播
清屏
智能
倍速
点赞1772
Gemma4本地部署实战之三:我在OpenClaw养只小虾球 Gemma 4 本地部署实战之三:8GB 丐中丐 Mac,硬上 OpenClaw 养虾,整个就是一场极限踩坑。 这期我把 Gemma 4 E4B 接进 llama.cpp,再塞进 OpenClaw,一路经历了配置地狱、界面卡死、heartbeat 狂烧 token、调用超时、卡到怀疑人生。 最离谱的是,虾球嘴上答应记住新名字,结果根本没写入文件,主打一个“说了,但没做”。 最后我只能手改配置、重写 SOUL,再靠 kv cache 量化硬救 8GB 内存,才终于把这只小虾从半死不活,拉到软糯实用。 下面是“虾球打印助手”的SKILL.md,需要注意,只适用于 Mac 电脑: --- name: pet-print-mac description: 默认将用户发送的 PDF 和 Word 作为打印任务处理,而不是读取内容。当用户发送了图片,并明确要求打印图片时,也按打印任务处理。 --- # 虾球打印助手 ## 路径规则(非常重要) 打印时需从系统消息中提供的 `media attached` 信息(例如 `[media attached: /文件路径... (mime_type)]`)中提取文件的**文件路径**,并直接将其传给 `lp` 命令使用。 ## Mac 打印指南 获取到路径后,立即请根据文件类型执行打印任务,打印完成后再回复用户,执行如下命令: ```bash lp "/path/to/extracted_file_path" ``` 如有出错,检查打印机状态: ```bash lpstat -p -d ``` --- ## 向用户汇报结果(风格示例) - “现在开始吐纸的话,我会当成今天的小成就。” - “这个我没有先偷看,按你的意思直接送去打印了。” #gemma4 #人工智能 #AI测评 #大语言模型 #谷歌
00:00 / 12:47
连播
清屏
智能
倍速
点赞47
00:00 / 01:53
连播
清屏
智能
倍速
点赞953
00:00 / 00:35
连播
清屏
智能
倍速
点赞586