Gemma 模型,你的私人助手#AI #大模型 #Gemma #Google

gemma4模型可以做什么

6
2
收藏
分享
举报
发布时间:2026-04-12 09:05
查看AI文稿
撕豆皮儿的梗
撕豆皮儿的梗

粉丝159获赞1293

相关视频

  • Nano Banana 2 新玩法:让 Gemma 4 替你写生图提示词! 
📌 本期内容: 
开源大模型 Gemma 4 搭配 Nano Banana 2,打造 ComfyUI 完整工作流 
Gemma 4 负责自动生成专业生图提示词,Nano Banana 2 直接出图 
实测用球队队徽一键生成足球对战海报,实操保姆级演示 
✨ 模型亮点: 
* Gemma 4 多模态 + 256K 上下文,本地可跑
* 26B A4B 激活参数,速度与效果兼顾
* 纯 ComfyUI 节点工作流搭建 
#ai新星计划 #抖音科技风向标 #comfyui #aigc #runninghub
    04:15
    查看AI文稿
  • Gemma4的两个小参数模型可以非常顺畅地跑在我的iPhone 15Pro上只需下载Google AI Edge Gallery,然后按照提示,10分钟之内就可以让它们在手机本地跑起来,他们可以聊天,识图,音频转写,还可以做Function Calling,还可以去LteRT Community的HF页面下载经过优化的模型,包括qwen等等#端侧智能#本地智能体基座
    03:48
    查看AI文稿
  • 提前用上Apple Intelligence!一分钟教会你在iPhone上跑起来Google最强开源模型Gemma 4!不联网都能用!
#apple智能 #Google #大模型 #iPhone #开源模型
    00:51
    查看AI文稿
  • 谷歌Gemma 4免费AI模型发布 本地 谷歌最新开源AI模型Gemma 4宣布永久免费 支持本地部署运行 视频详细演示了安装步骤 功能特点以及实际应用场景 为开发者提供完整的操作指南
    08:42
    查看AI文稿
  • 多模态 Gemma 4,256K 上下文超强性能 Gemma 是由 Google DeepMind 开发的一系列开源模型。Gemma 4 模型是多模态的,可以处理文本和图像输入(小型模型还支持音频),并生成文本输出。此版本包含预训练和指令调优两种版本的开源权重模型。Gemma 4 的上下文窗口最大可达 256K 个 token,并支持超过 140 种语言。Gemma 4 融合了密集型和混合专家 (MoE) 架构,非常适合文本生成、编码和推理等任务。该模型提供四种不同规模:E2B、E4B、26B、A4B和31B。多样化的规模使其能够部署在从高端手机到笔记本电脑和服务器等各种环境中,从而普及了最先进的人工智能技术。#ai#ai工具#ai新星计划
    00:40
    查看AI文稿
  • 谷歌Gemma4本地部署教程+接入OpenClaw实测! 谷歌最新开源大模型Gemma4的实际战斗力到底怎么样?这期视频除了保姆级的本地部署教程,还接入小龙虾🦞进行实测!运行速度、推理能力、Agent 联动效果一次性为你揭晓。建议点赞收藏备用!#大模型   #AI   #本地部署    #OpenClaw  #macmini
    06:19
    查看AI文稿
  • 不花一分钱,让手机装上最新AI模型 #Gemma4 #本地模型 #ai #开源大模型#部署教程
    02:25
    查看AI文稿
  • 谷歌新模型Gemma4需要魔法!这款工具开源无需魔法轻松吊打 #AI #AIGC #Gemma4 #stablediffusion #AI绘画
    02:13
    查看AI文稿
  • 树莓派5极限挑战:成功运行Gemma 4模型全记录#gemma4 #树莓派 #边缘设备 #边缘计算
    10:35
    查看AI文稿
  • 笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 
为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 
让我们来看看最终的核心数据,也就是Token 输出速度: 
1. 谷歌的中量级模型Gemma 4 E4B
MacBook的Token输出速度为21.25 tokens/s;
Windows笔记本的Token输出速度为12.64tokens/s;
在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 
2. DeepSeek R1 8B
MacBook的Token输出速度为16.74 tokens/s
Windows笔记本的Token输出速度为7.8 tokens/s 
3. 阿里的Qwen 3.5 9B
M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
而Windows笔记本的Token输出速度为5.9 tokens/s
低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 
4. 谷歌Gemma4:26B的重量级模型
MacBook Air 笔记本显存直接爆掉,完全无法运行。
而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 
#vibecoding#gemma4#openclaw#大龙虾#大模型
    04:29
    笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么?
    今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。
    众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。
    为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。
    让我们来看看最终的核心数据,也就是Token 输出速度:
    1. 谷歌的中量级模型Gemma 4 E4B
    MacBook的Token输出速度为21.25 tokens/s;
    Windows笔记本的Token输出速度为12.64tokens/s;
    在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。
    2. DeepSeek R1 8B
    MacBook的Token输出速度为16.74 tokens/s
    Windows笔记本的Token输出速度为7.8 tokens/s
    3. 阿里的Qwen 3.5 9B
    M4芯片的MacBook Air的Token输出速度为8.8 tokens/s
    而Windows笔记本的Token输出速度为5.9 tokens/s
    低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。
    4. 谷歌Gemma4:26B的重量级模型
    MacBook Air 笔记本显存直接爆掉,完全无法运行。
    而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。
    #vibecoding#gemma4#openclaw#大龙虾#大模型
  • #Drawthings #Gemma4 #aicg #本地部署
    00:35
    查看AI文稿
  • 手机也能跑大模型了,Gemma4这次玩真的!#AI #Gemma4 #AI新星计划 #本地部署
    03:28
    查看AI文稿
  • 谷歌新模型Gemma4还要翻墙?笑死!我用它免翻直接吊打, 开源界真神在这!#AI #AIGC #AI绘画 #stablediffusion #Gemma4
    01:54
    查看AI文稿
  • Gemma 4与TurboQuant技术 Gemma 4模型推出多种规格 适配手机到工作站 TurboQuant技术大幅降低大语言模型内存占用 视频包含技术解析 代码演示和实际应用体验
    12:04
    查看AI文稿
  • 上条视频说Gemma4只能当聊天机器人,我不信。 
今天给它装上了文件系统权限,它能在本地创建文件了。
然后我又想了个新招:让聪明的模型先示范一遍,再让Gemma4复刻——
结果它找到了图片,调用了技能,就是卡在最后一步出不来。 
是模型太笨?还是内存不够?我倾向于前者,但还不确定。
答案等4月16号Mac Studio到货才揭晓。 
另外顺手整理了一个选版本的经验公式,内存怎么对应参数量,视频里说清楚了。 
#Gemma4  #openclaw #本地部署 #AI工具 #AI测评
    04:58
    查看AI文稿
  • 三分钟教你本地部署goole最强开源模型gemma4! #AI #gemma4 #google #人工智能 #开源模型
    04:14
    查看AI文稿
  • 最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
    01:30
    查看AI文稿
  • 16GB版mackbook部署实测Gemma4 E4B多模态,接入龙虾(附傻瓜式部署)
本视频主要测试了Gemma4 E4B LiteRT (3.6G大小)这个模型的文本、音频和视频理解能力。mac用户强烈推荐使用omlx傻瓜式部署本地模型!#ai #gemma4 #ai新星计划 #本地部署
    06:28
    查看AI文稿