查看AI文稿
不做NPC的老伙计
不做NPC的老伙计

粉丝1634获赞1.0万

相关视频

  • 最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
    01:30
    查看AI文稿
  • 笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 
为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 
让我们来看看最终的核心数据,也就是Token 输出速度: 
1. 谷歌的中量级模型Gemma 4 E4B
MacBook的Token输出速度为21.25 tokens/s;
Windows笔记本的Token输出速度为12.64tokens/s;
在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 
2. DeepSeek R1 8B
MacBook的Token输出速度为16.74 tokens/s
Windows笔记本的Token输出速度为7.8 tokens/s 
3. 阿里的Qwen 3.5 9B
M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
而Windows笔记本的Token输出速度为5.9 tokens/s
低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 
4. 谷歌Gemma4:26B的重量级模型
MacBook Air 笔记本显存直接爆掉,完全无法运行。
而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 
#vibecoding#gemma4#openclaw#大龙虾#大模型
    04:29
    笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
    今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
    众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。
    为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。
    让我们来看看最终的核心数据,也就是Token 输出速度:
    1. 谷歌的中量级模型Gemma 4 E4B
    MacBook的Token输出速度为21.25 tokens/s;
    Windows笔记本的Token输出速度为12.64tokens/s;
    在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。
    2. DeepSeek R1 8B
    MacBook的Token输出速度为16.74 tokens/s
    Windows笔记本的Token输出速度为7.8 tokens/s
    3. 阿里的Qwen 3.5 9B
    M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
    而Windows笔记本的Token输出速度为5.9 tokens/s
    低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。
    4. 谷歌Gemma4:26B的重量级模型
    MacBook Air 笔记本显存直接爆掉,完全无法运行。
    而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。
    #vibecoding#gemma4#openclaw#大龙虾#大模型
  • Gemma 4本地部署指南:根据显存大小选模型 想在自己电脑上跑Gemma 4?从6G普通显卡到128G高端Mac,各档位硬件能跑多大模型?本文带你梳理最低门槛与满血配置,揭秘KV Cache显存吞噬陷阱,并客观对比Mac统一内存与PC独立显卡的真实推理速度差异。#Gemma4 #Mac #大模型 #本地部署 #显卡
    02:56
    查看AI文稿
  • 1分钟搞清楚关于Gemma的一切 为什么它号称全球最强开源模型?4大版本怎么想?硬件要求高不高?我该用它干嘛?一次性全解答#Gemma #OpenClaw
    02:13
    查看AI文稿
  • 小龙虾技能六:本地部署多模态大模型 2026年4月,Google DeepMind放出Gemma 4全家桶:
⚡E2B/E4B:笔记本/手机都能跑,128K上下文,办公本无压力
⚡26B MoE:推理只激活4B参数,256K超长上下文
⚡31B Dense:性能位列开源榜单前三
全系原生支持图像+文本输入,OCR、图表理解、离线代码生成一把梭。Apache 2.0协议免费商用,数据不出电脑。
#Gemma4  #开源大模型  #本地部署  #AI编程  #多模态
    01:34
    查看AI文稿
  • 谷歌杀疯了!Gemma4 开源免费,AI 使用成本直接归零 还在为大模型 token 账单肉疼?谷歌最新 Gemma4 直接 Apache2.0 协议开源,商用魔改全免费,本地一键部署,配合 OpenClaw 零成本用 AI,小白也能跟着做!#Gemma4  #开源AI  #本地部署大模型  #openclaw #小龙虾
    00:58
    查看AI文稿
  • 16GB版mackbook部署实测Gemma4 E4B多模态,接入龙虾(附傻瓜式部署)
本视频主要测试了Gemma4 E4B LiteRT (3.6G大小)这个模型的文本、音频和视频理解能力。mac用户强烈推荐使用omlx傻瓜式部署本地模型!#ai #gemma4 #ai新星计划 #本地部署
    06:28
    查看AI文稿
  • 谷歌新发布的开源大模型Gemma 4。正在下载ollama安装包,更新后部署Gemma 4测试
#ollama #谷歌ai #AI大模型 #Gemma  #真实生活分享计划
    01:08
    查看AI文稿
  • Gemma4在编程能力上是否可以取代云端大模型呢?简单任务还行#gemma4#claudecode#ollama
    04:10
    查看AI文稿
  • 26B只跑4B算力?谷歌新王炸!#AI #08 #gemma
    01:51
    查看AI文稿
  • Gemma4本地部署实测上手体验! Gemma4本地部署实测上手体验!#Gemma4  #Ollama  #开源模型   #技术分享  #AI实测
    03:09
    查看AI文稿
  • Gemma 4显存怎么选?一次讲清楚 #Gemma
    02:07
    查看AI文稿
  • 谷歌Gemma 4发布!M1 Mac Mini丐版本地部署实 谷歌这次不讲武德,直接甩出Gemma 4全家桶——E2B、E4B、26B、31B四个版本一口气端上来。量化到4bit后,E2B只要3.2G内存就能跑,E4B也就5GB左右,关键是2B和4B版本全支持文字+图片+音频输入。
这啥概念?等于给咱们本地部署党量身定制的“龙虾”端侧模型啊!
本期视频直接上E4B,用我手上这台丐中丐M1 Mac Mini硬刚Gemma 4,看看它到底能不能打
这支视频原发在视频号和B站,咱家这儿刚开号落户,赶紧把这段“干货”快马加鞭给大家补上,以后同步更新不迷路! #Gemma #Gemma4 #人工智能 #大语言模型  #ai测评
    08:39
    查看AI文稿