查看AI文稿
Gavin0228
Gavin0228

粉丝447获赞3015

相关视频

  • 笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 
为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 
让我们来看看最终的核心数据,也就是Token 输出速度: 
1. 谷歌的中量级模型Gemma 4 E4B
MacBook的Token输出速度为21.25 tokens/s;
Windows笔记本的Token输出速度为12.64tokens/s;
在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 
2. DeepSeek R1 8B
MacBook的Token输出速度为16.74 tokens/s
Windows笔记本的Token输出速度为7.8 tokens/s 
3. 阿里的Qwen 3.5 9B
M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
而Windows笔记本的Token输出速度为5.9 tokens/s
低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 
4. 谷歌Gemma4:26B的重量级模型
MacBook Air 笔记本显存直接爆掉,完全无法运行。
而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 
#vibecoding#gemma4#openclaw#大龙虾#大模型
    04:29
    笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
    今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
    众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。
    为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。
    让我们来看看最终的核心数据,也就是Token 输出速度:
    1. 谷歌的中量级模型Gemma 4 E4B
    MacBook的Token输出速度为21.25 tokens/s;
    Windows笔记本的Token输出速度为12.64tokens/s;
    在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。
    2. DeepSeek R1 8B
    MacBook的Token输出速度为16.74 tokens/s
    Windows笔记本的Token输出速度为7.8 tokens/s
    3. 阿里的Qwen 3.5 9B
    M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
    而Windows笔记本的Token输出速度为5.9 tokens/s
    低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。
    4. 谷歌Gemma4:26B的重量级模型
    MacBook Air 笔记本显存直接爆掉,完全无法运行。
    而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。
    #vibecoding#gemma4#openclaw#大龙虾#大模型
  • 最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
    01:30
    查看AI文稿
  • 1分钟搞清楚关于Gemma的一切 为什么它号称全球最强开源模型?4大版本怎么想?硬件要求高不高?我该用它干嘛?一次性全解答#Gemma #OpenClaw
    02:13
    查看AI文稿
  • 16G显存跑Gemma4-26B设置教程 运行+Gemma4-26B办公能力测评 #Gemma426B能办公吗  #Gemma426B办公测评 #16G跑什么模型推荐 #16G跑Gemma426B设置教程
    01:16
    查看AI文稿
  • Gemma 4本地部署指南:根据显存大小选模型 想在自己电脑上跑Gemma 4?从6G普通显卡到128G高端Mac,各档位硬件能跑多大模型?本文带你梳理最低门槛与满血配置,揭秘KV Cache显存吞噬陷阱,并客观对比Mac统一内存与PC独立显卡的真实推理速度差异。#Gemma4 #Mac #大模型 #本地部署 #显卡
    02:56
    查看AI文稿
  • 谷歌离线模型 Gemma 4 开源,国内安卓有望用到吗? #Gemma4#谷歌大模型#开源大模型#端侧AI#科技热点
    00:21
    查看AI文稿
  • OpenClaw + Gemma4全新本地模型体验来了 #OPENCLAW #Gemma4
    03:20
    查看AI文稿
  • 手机就能跑的AI大脑!Google Gemma 4实测 Google 刚刚开源了 Gemma 4 系列模型,最小的 E2B 只需 4GB 显存,手机就能离线运行。
本期用 iPhone Air、iQOO 15、iQOO 12 三台手机真机实测 Gemma 4 E2B,跑了常识推理、数学逻辑、代码理解三类任务,用数据告诉你端侧 AI 到底能不能用。同时演示 Ollama 本地部署 Gemma 4 + Claude Code 调用的完整流程。
#Gemma4 #Google  #本地大模型 #Ollama #ClaudeCode
    05:06
    查看AI文稿
  • Gemma 4 接入 OpenClaw,真能省 token 吗?
#Gemma4 #OpenClaw #本地大模型 #AI工具 #AI测评
    04:26
    查看AI文稿
  • G歌edge gallery上线的手机本地可运行的AI模型gemma4,不用联网,最小模型应该6G内存就能运行,可以用来玩玩#玩机技巧
    00:38
    查看AI文稿
  • OpenClaw加Gemma 4,直接跑进普通笔记本 #OpenClaw  #Gemma4  #MacBookAir  #AI  #AIAgent
    00:41
    查看AI文稿
  • 谷歌Gemma4本地部署教程+接入OpenClaw实测! 谷歌最新开源大模型Gemma4的实际战斗力到底怎么样?这期视频除了保姆级的本地部署教程,还接入小龙虾🦞进行实测!运行速度、推理能力、Agent 联动效果一次性为你揭晓。建议点赞收藏备用!#大模型   #AI   #本地部署    #OpenClaw  #macmini
    06:19
    查看AI文稿
  • 别再迷信大模型了!Gemma 4 这种“小钢炮” 才是 AI 的真命天子。参数大有个屁用?Google 告诉你:活儿细,比嗓门大更值钱 #Gemma4  #开源模型  #Gemini  #google  #本地大模型
    02:26
    查看AI文稿
    84JUN
  • 本地大模型横评!Gemma 4 26B vs Qwen 3. 同样约27B参数,MoE vs Dense架构,性能差距让人惊讶!
*核心对比:
*- 架构:Gemma 4 MoE激活3.8B vs Qwen 3.5 Dense全量27B
*- 显存:16GB vs 55GB(差了3倍!)
*- 编程:Gemma 4 ELO 2150 vs Qwen 3.5 ELO 1899
*- 上下文:Gemma 4 25.6万 vs Qwen 3.5 100万Token
*选哪个看需求:
*- 硬件有限/视频理解/算法编程 → Gemma 4
*- 超长文档/Agent工作流/工具调用 → Qwen 3.5
*关注我,持续输出AI开源干货!
*#开源大模型 #本地部署 #Gemma4 #千问 #AI测评 #大模型横评 #程序员 #人工智能 #AI工具 #Ollama
    01:17
    查看AI文稿
  • 上条视频说Gemma4只能当聊天机器人,我不信。 
今天给它装上了文件系统权限,它能在本地创建文件了。
然后我又想了个新招:让聪明的模型先示范一遍,再让Gemma4复刻——
结果它找到了图片,调用了技能,就是卡在最后一步出不来。 
是模型太笨?还是内存不够?我倾向于前者,但还不确定。
答案等4月16号Mac Studio到货才揭晓。 
另外顺手整理了一个选版本的经验公式,内存怎么对应参数量,视频里说清楚了。 
#Gemma4  #openclaw #本地部署 #AI工具 #AI测评
    04:58
    查看AI文稿
  • 实测Gemma 4本地运行 笔记本与台式 谷歌最新开源AI模型Gemma 4发布 基于Gemini 3技术 视频使用LM Studio在MacBook和台式机上分别安装测试7 5B和26B参数版本 涵盖
    08:14
    查看AI文稿