Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
dbeaver脚本文件保存到哪里
openclaw怎么用豆包给指令
claude code设置黄金宠物
codegpt插件怎么还需要打赏
sakura-cat流量怎么消耗的
himine1怎么进
codex长任务中断怎么避免
hindsight使用教程
opc如何领取
openrouter不充值可以用吗
AI技能研究社
1周前
Gemma 4全系列评测:纯开源协议支持商用 Google发布Gemma 4,彻底转向Apache 2.0纯开源协议。本文详细对比31B、26B MoE及端侧模型在编程、语音、视觉及显存部署上的真实表现,并提供针对不同显存配置的部署建议与避坑技巧。#Gemma4 #Google #开源大模型 #本地部署 #AIAgent
00:00 / 04:06
连播
清屏
智能
倍速
点赞
93
YZZ
1周前
Gemma 4 26B 我先替大家本地跑了一遍~ 结论先放前面:真的快! 因为是MoE A4B 架构,每次启动只会加载4B的模型,所以装之前我知道应该比较快,但装完测试没想到这么快,而且还是多模态,有点东西的。 这次视频里我主要测了 3 件事。 第一件事是响应速度。 这个不用多解释,大家看画面基本就能感受到。对本地模型来说,快不快,几乎直接决定了你后面还愿不愿意继续用。 第二件事是逻辑理解。 我拿一个经典陷阱题去试它:1+1=3 为什么成立。 这个问题测的不是算术,而是它能不能理解提问背后的语境。结果看下来,它不是那种很机械的回答方式,而是会顺着问题去找成立条件,这一点加分。 第三件事是图片识别。 着重测了它的多模态能力。现在很多模型都在讲自己支持图像,但“支持”和“真能用”之间差别很大。Gemma 4 26B 至少说明了一点:它不只是个聊天模型,图片理解这块能力是真的能打的。 先发这条,给大家看第一轮真实体验,我后面还会继续测 31B,也会接进 OpenClaw 看看工具调用和多步骤任务表现怎么样。 #gemma4 #google #本地部署 #开源模型 #OpenClaw
00:00 / 03:00
连播
清屏
智能
倍速
点赞
181
小布大叔
1周前
笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么? 今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。 众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 让我们来看看最终的核心数据,也就是Token 输出速度: 1. 谷歌的中量级模型Gemma 4 E4B MacBook的Token输出速度为21.25 tokens/s; Windows笔记本的Token输出速度为12.64tokens/s; 在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 2. DeepSeek R1 8B MacBook的Token输出速度为16.74 tokens/s Windows笔记本的Token输出速度为7.8 tokens/s 3. 阿里的Qwen 3.5 9B M4芯片的MacBook Air的Token输出速度为8.8 tokens/s 而Windows笔记本的Token输出速度为5.9 tokens/s 低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 4. 谷歌Gemma4:26B的重量级模型 MacBook Air 笔记本显存直接爆掉,完全无法运行。 而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 #vibecoding#gemma4#openclaw#大龙虾#大模型
00:00 / 04:29
连播
清屏
智能
倍速
点赞
456
Ken's
1周前
Gemma 4 接入 OpenClaw,真能省 token 吗? #Gemma4 #OpenClaw #本地大模型 #AI工具 #AI测评
00:00 / 04:25
连播
清屏
智能
倍速
点赞
68
AI信息差
1周前
Ollama本地部署 Gemma 4 实操指南 涵盖从硬件选择、安装配置到多模态调用及避坑指南,让你的电脑快速跑起Gemma 4。#Gemma4 #Ollama #本地大模型 #AI部署 #多模态
00:00 / 03:37
连播
清屏
智能
倍速
点赞
722
轻算力AI实验室
1周前
16G显存跑Gemma4-26B设置教程 运行+Gemma4-26B办公能力测评 #Gemma426B能办公吗 #Gemma426B办公测评 #16G跑什么模型推荐 #16G跑Gemma426B设置教程
00:00 / 01:15
连播
清屏
智能
倍速
点赞
1110
小胡-API
5天前
Google重磅发布Gemma 4:史上最强开源模型诞生! Google重磅发布Gemma 4:史上最强开源模型诞生!#这也能开播 #魔幻花城 #vlog教程 #金拱门 #外卖运营
00:00 / 11:47
连播
清屏
智能
倍速
点赞
2
安思派人工智能
1周前
1分钟搞清楚关于Gemma的一切 为什么它号称全球最强开源模型?4大版本怎么想?硬件要求高不高?我该用它干嘛?一次性全解答#Gemma #OpenClaw
00:00 / 02:12
连播
清屏
智能
倍速
点赞
274
阿凯的TK日记
5天前
gemma4接入openclaw测评 要玩本地部署还是得提高配置啊#gemma4 #openclaw
00:00 / 01:40
连播
清屏
智能
倍速
点赞
14
集集集集盒🌈
5天前
最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
00:00 / 01:29
连播
清屏
智能
倍速
点赞
296
声译看世界
6天前
实测Gemma 4本地运行 笔记本与台式 谷歌最新开源AI模型Gemma 4发布 基于Gemini 3技术 视频使用LM Studio在MacBook和台式机上分别安装测试7 5B和26B参数版本 涵盖
00:00 / 08:14
连播
清屏
智能
倍速
点赞
382
萌娃玩AI
1周前
gemme4模型来了 #热点 #AI #google #comfyui #开源大模型
00:00 / 01:10
连播
清屏
智能
倍速
点赞
4
荒野芯智观察
1周前
实测iPhone 17PM本地跑全模态Gemma4! 这一次,我们直接在 iPhone 17 Pro Max 上“生吃” Google 最新的 Gemma 全模态大模型!不再依赖云端,本地端到端测评:从视觉识别(Vision)、对话交互(Text),到代码编写(Code)和音频处理(Audio)。全方位展示 Gemma 4 大功能模块在移动端的极限性能。狮子般强悍的性能,闪电般的速度,本地 AI 的新基建已至!看这一篇就够了。
00:00 / 24:37
连播
清屏
智能
倍速
点赞
55
AI赚钱研究社
1周前
Gemma 4全系开源,本地部署实操指南 深度解析Gemma 4家族四款模型架构,涵盖31B Dense、26B MoE及端侧模型,提供从Ollama到vLLM的详细本地部署方案与显存优化技巧。#Gemma4 #谷歌大模型 #大模型部署 #开源模型 #AIAgent
00:00 / 05:41
连播
清屏
智能
倍速
点赞
42
AI龙虾
4天前
本地大模型横评!Gemma 4 26B vs Qwen 3. 同样约27B参数,MoE vs Dense架构,性能差距让人惊讶! *核心对比: *- 架构:Gemma 4 MoE激活3.8B vs Qwen 3.5 Dense全量27B *- 显存:16GB vs 55GB(差了3倍!) *- 编程:Gemma 4 ELO 2150 vs Qwen 3.5 ELO 1899 *- 上下文:Gemma 4 25.6万 vs Qwen 3.5 100万Token *选哪个看需求: *- 硬件有限/视频理解/算法编程 → Gemma 4 *- 超长文档/Agent工作流/工具调用 → Qwen 3.5 *关注我,持续输出AI开源干货! *#开源大模型 #本地部署 #Gemma4 #千问 #AI测评 #大模型横评 #程序员 #人工智能 #AI工具 #Ollama
00:00 / 01:16
连播
清屏
智能
倍速
点赞
26
AI技能研究社
5天前
Gemma 4 架构解析 深度解析Google DeepMind新发布的Gemma 4,揭秘其KV共享、Global Attention五重压缩及双路径混合架构如何实现“以小博大”,并对比Qwen3与GLM-5的技术路线差异。#Gemma4 #DeepMind #大模型 #模型架构 #AI部署
00:00 / 09:21
连播
清屏
智能
倍速
点赞
32
名小龙虾字牛马
4天前
谷歌突然开源 4 个大模型!AI 圈彻底炸了 最轻量 E2B:手机离线就能跑,内存只要 3G; 多模态 E4B:图文音频全能,笔记本就能带; 性价比之王 26B MoE:推理超快,普通显卡够用; 最强旗舰 31B:长文本 256K,开源榜直接前三! #谷歌 #大模型 #AI #开源 #人间观察计划
00:00 / 00:39
连播
清屏
智能
倍速
点赞
39
赛文乔伊
6月前
万亿参数模型正式开源,国产AI从能解题走向能实战 #AIGC #人工智能 #玩儿个很新的东西 #开源模型 #科技热点
00:00 / 01:37
连播
清屏
智能
倍速
点赞
3923
GeekerV
5天前
谷歌杀疯了!Gemma4 开源免费,AI 使用成本直接归零 还在为大模型 token 账单肉疼?谷歌最新 Gemma4 直接 Apache2.0 协议开源,商用魔改全免费,本地一键部署,配合 OpenClaw 零成本用 AI,小白也能跟着做!#Gemma4 #开源AI #本地部署大模型 #openclaw #小龙虾
00:00 / 00:58
连播
清屏
智能
倍速
点赞
70
集集集集盒🌈
1周前
谷歌新发布的开源大模型Gemma 4。正在下载ollama安装包,更新后部署Gemma 4测试 #ollama #谷歌ai #AI大模型 #Gemma #真实生活分享计划
00:00 / 01:07
连播
清屏
智能
倍速
点赞
39
星核说AI
1周前
谷歌Gemma 4深度解读,与Qwen顶尖大模型巅峰对决 Google DeepMind 刚刚甩出开源王炸 —— Gemma 4 正式上线! 这次不仅全系标配“Thinking”(深度思考)模式,还实现了“参数性价比”的跨代跨参数碾压!#AI工具 #大模型 #打工人效率神器 #副业 #教程分享
00:00 / 00:53
连播
清屏
智能
倍速
点赞
355
天工开帧
4天前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
284
冬序元启·望辰
2天前
小龙虾技能六:本地部署多模态大模型 2026年4月,Google DeepMind放出Gemma 4全家桶: ⚡E2B/E4B:笔记本/手机都能跑,128K上下文,办公本无压力 ⚡26B MoE:推理只激活4B参数,256K超长上下文 ⚡31B Dense:性能位列开源榜单前三 全系原生支持图像+文本输入,OCR、图表理解、离线代码生成一把梭。Apache 2.0协议免费商用,数据不出电脑。 #Gemma4 #开源大模型 #本地部署 #AI编程 #多模态
00:00 / 01:34
连播
清屏
智能
倍速
点赞
0
文化路xx号
3天前
13年前 iMac 跑本地AI,纯 CPU 硬扛 大模型 原创视频:2013 款 iMac 纯 CPU 跑本地大模型实测 i5+32G 内存,GTX775M 2G 显存不支持 GPU 加速,全程 CPU 推理。 Ollama 部署 6 款模型:gemma4:e4b/26b/31b、qwen3.5:9b、deepseek-ocr:3b、deepseek-r1:32b。 统一任务:作诗一首,计时对比生成速度与效果,低配置跑大模型到底行不行? #本地大模型 #ollama #数码测评 #老电脑改造
00:00 / 03:52
连播
清屏
智能
倍速
点赞
4
海晏清的阳光海洋
1周前
各位朋友,今天聊聊Google刚发布的Gemma 4模型,这可是开源家族的“性能王”!核心亮点在技术:1、混合专家架构首秀!26B模型总参数大,推理时只激活3.8B,像“按需叫专家”,又快又省算力。2、多模态全能:看图、听音频、读长文都行,视觉还能调图像比例。3、长上下文256K:一口气吞整本书或代码库,不卡壳。4、设备端超友好:2B/4B模型塞手机、树莓派都能离线跑,延迟几乎为零。用Apache 2.0许可免费商用,开发者本地建AI应用门槛大降!#人工智能 #机器人 #马斯克 #奥特曼 #黄仁勋 @尹烨 @红衣大叔周鸿祎 @雷军
00:00 / 00:45
连播
清屏
智能
倍速
点赞
9
轻算力AI实验室
2天前
gemma426B能干吗?VisionCutAI让它剪辑视频 12G显存电脑+本地gemma426B小模型,就能看懂视频,并帮你自动剪辑视频,VisionCutAI工具以开源 #VisionCutAI #gemma4 #16G显存跑gemma4测评
00:00 / 01:56
连播
清屏
智能
倍速
点赞
18
林宇
1周前
Google 开源大模型来了! Google Gemma 4 开源了!Apache 2.0 许可证,真正的开源!🔥 26B 模型可以在你电脑上直接跑,不用上传数据!隐私安全有保障! 支持 140 种语言,还能看懂图片、听懂语音! 开发者社区已经炸了——4 亿下载! #Gemma4 #AI #开源
00:00 / 02:51
连播
清屏
智能
倍速
点赞
15
碳基生物退役指南
4天前
8GB丐版Mac跑Gemma4!代码&图片实测 大家好!这次继续我们把上期视频没测完的Gemma4模型测完,还是用那台8GB内存的丐版Mac Mini来跑。从代码生成到图片识别,从推理速度到输出质量,我一项项进行了实测,并且按照热心网友们的后台留言,我加入了Gemma4和GPT-5.4、DeepSeek的横向对比! 不管你是想折腾低成本部署,还是好奇Gemma 4的真实性能,这两期视频应该都能给你一些有价值的参考。 #gemma4 #ai #ai测评 #google #大语言模型
00:00 / 13:37
连播
清屏
智能
倍速
点赞
296
程序员雨未凝
1周前
Token自由真的来了?Gemma4让本地部署大模型硬件门槛暴降 !隐私安全兼顾效率 #gemma #token #ai #隐私安全 #openclaw
00:00 / 00:34
连播
清屏
智能
倍速
点赞
828
小胡-API
2天前
重磅!Google、Microsoft与Anthropic同 重磅!Google、Microsoft与Anthropic同时发布AI领域核心炸弹#十万个吃什么 #文脉里的中国 #这也能开播
00:00 / 18:28
连播
清屏
智能
倍速
点赞
0
boris1993
4天前
iPhone 12 Pro本地运行Gemma 4 E2B实测 #ai #gemma #gemma4
00:00 / 01:41
连播
清屏
智能
倍速
点赞
4
AI 杰瑞斯
1周前
谷歌刚刚发布的最强开源多模态大模型,本地部署,龙虾最好的伴侣 就在刚刚,谷歌发布了他们最强的开源多模态大模型,Gemma-4,支持本地部署,逻辑推理水平等同于GLM-5和Kimi 2.5,并且有专门的优化版本,可以支持部署在 iPhone 15 Pro 等边缘设备上,重庆一小伙发布了炸裂的讲解,速看。 #AI #gemma4 #deepseek #谷歌
00:00 / 03:33
连播
清屏
智能
倍速
点赞
180
老 A 玩 AI
4天前
本地部署了#Gemma4 小龙虾实现了token 自由 #OpenClaw
00:00 / 01:41
连播
清屏
智能
倍速
点赞
220
景逸
2天前
26B只跑4B算力?谷歌新王炸!#AI #08 #gemma
00:00 / 01:50
连播
清屏
智能
倍速
点赞
16
秃头理发师
3天前
劝你别轻易试!我这电脑跑 26b 已经是极限了...😅 原以为带不动,没想到 Ollama + Gemma 4 居然给了我惊喜。效果确实比之前用的模型强出一截,本地跑 AI 真的越来越香了。 大家现在的本地大模型都卷到多少参数了?评论区晒晒你的配置!👇#gemma4 #gemma #软件开发 #AI #本地模型 @抖音小助手
00:00 / 00:33
连播
清屏
智能
倍速
点赞
14
追光的小扈同学(的日常)
1周前
谷歌Gemma4:26B模型 M4PRO 8+4核心 24GB 本地部署 网络#谷歌 #Gemma4 #macbookpro #AI #本地部署ai
00:00 / 01:13
连播
清屏
智能
倍速
点赞
133
AI踩坑指南
1周前
谷歌Gemma 4 MoE 26B模型实测。稳定且中规中矩。 谷歌昨天发布了旗下开源模型家族Gemma的最新迭代Gemma 4。相较于Gemma 3,能力大幅提升,个人感觉比千问3.5更强一些。 #gemma4 #谷歌ai #零基础学ai #普通人学ai #本地部署大模型
00:00 / 02:03
连播
清屏
智能
倍速
点赞
196
“亲爱的数据”科技科普博主
1周前
第一,它不是那种顶级推理模型, 而是——在“体积受限”的情况下,尽量让它更聪明一点。第二,把一个还不错的脑子,直接塞进你的手机、电脑等本地设备里,所以它不是在拼“最强”, 而是在拼“够强 + 能部署”。第三,对智能体场景,它能一次性看更多、更复杂的输入,并且不只限于文字。 这对 Agent 场景很重要,因为现实输入本来就是混乱的。Gemma 4 官方 4 个尺寸,31B 是这次最受关注的,性能强、单 H100 可跑,社区第一时间盯上它做优化,许可证这次真香,Apache 2.0 意味着可以放心商用了,这是 Gemma 系列第一次真正打开局面。#知识科普 #谷歌 #智能体
00:00 / 00:32
连播
清屏
智能
倍速
点赞
47
瘾。
4天前
#ai写作 #gemma4 #本地模型 #网文
00:00 / 04:10
连播
清屏
智能
倍速
点赞
15
v风
4天前
#谷歌 #gemma4 #ab #离线模型 #真智能
00:00 / 00:17
连播
清屏
智能
倍速
点赞
12
蓉漂码农
2天前
Gemma4本地部署实测上手体验! Gemma4本地部署实测上手体验!#Gemma4 #Ollama #开源模型 #技术分享 #AI实测
00:00 / 03:09
连播
清屏
智能
倍速
点赞
120
猫哥软件生意
6天前
谷歌Gemma 4本地部署|三步零成本跑AI模型🚀 谷歌最新开源模型 Gemma 4 来了! 🛠️ 三步搞定部署: 1️⃣ 安装 Ollama(Mac/Windows 一行命令) 2️⃣ ollama run gemma4:26b(自动下载) 3️⃣ 开始聊天,看到回复就成功了#Gemma4 #谷歌AI #本地部署 #Ollama #开源模型 #AI教程 #零成本 #大模型 #保姆级教程 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
244
AI龙虾
5天前
谷歌Gemma 4炸场:26B参数只用4B算力,16GB显卡 谷歌Gemma 4突然发布,AI圈炸了! 核心黑科技:MoE混合专家架构 ▸ 26B总参数,推理只激活3.8B ▸ 速度等于4B模型,性能打赢20倍对手! 硬件门槛超低: ▸ 16GB显卡(RTX 4080)跑26B ▸ 4GB内存(手机)跑最小版 ▸ Ollama一键下载,5分钟部署 性能真的猛: ▸ 开源排名全球Top3 ▸ 数学得分较上代暴涨4倍 ▸ 256K超长上下文 Apache 2.0开源,商用完全免费! 关注我,下期手把手教部署👇 #Gemma4 #谷歌AI #开源大模型 #本地部署 #AI工具 #免费AI #大模型 #程序员 #人工智能
00:00 / 01:25
连播
清屏
智能
倍速
点赞
3
冬序元启·望辰
2天前
小龙虾技能七:下载多模型大模型 Gemma 4 26B本地跑起来👇 不联网 | 不限次 | 不传数据 ollama run gemma4:26b 普通电脑就能带得动 你试过本地部署吗?评论区聊聊 #Gemma4 #本地部署 #效率工具
00:00 / 01:06
连播
清屏
智能
倍速
点赞
0
迪艾贼贼歪
5月前
无畏契约点评第五期:显卡AK 全网最具体详细的显卡手感分析。狗拳头,充钱就能变强👊。#无畏契约 #瓦罗兰特 #显卡ak #狂徒皮肤排行#电子榨菜
00:00 / 03:35
连播
清屏
智能
倍速
点赞
3716
李岚9256
4天前
#真实生活分享计划 MacBook Air M5本地运行Goolge 最新大模型Gemm4:26b +Claude Code,可以Token无限了#Macbookair#gemma#ClaudeCode
00:00 / 01:08
连播
清屏
智能
倍速
点赞
859
赋能创新家
1周前
Gemma 4:谷歌最强开源模型发布综述 谷歌正式发布了 Gemma 4 系列,这是其目前性能最强且遵循 Apache 2.0 协议 的开源模型家族。该系列涵盖了从适用于移动端的 2B 和 4B 轻量化版本到具备强大推理能力的 26B 和 31B 大型版本,旨在处理复杂的逻辑任务与智能体工作流。Gemma 4 在推理、编程及多模态处理方面取得了显著进步,不仅支持超过 140 种语言,还提供了高达 256K 的上下文窗口。
00:00 / 06:52
连播
清屏
智能
倍速
点赞
26
光不语
1周前
谷歌Gemma4接入OpenCode实测,结果有点意外 谷歌发布Gemma4,第一时间接入OpenCode试了一下。模型确实聪明,但让它整理桌面、装插件,它就是不动手。换回千问,秒执行。不知道是不是我的姿势不对,后面再折腾折腾。这期先教大家怎么接入,想试的可以看看#AI #gemma #OpenCode #ai工具
00:00 / 01:39
连播
清屏
智能
倍速
点赞
29
下雨💦别忘收衣服
6天前
#AI大模型 #Gemma4 #本地部署 #开源狂欢 🚀
00:00 / 01:38
连播
清屏
智能
倍速
点赞
18
粮厂Coder进化暴论
4天前
谷歌发布 Gemma4 2026 年 4 月 2 日,谷歌 DeepMind 发布了 Gemma 4 系列模型。 模型有四个规格——E2B、E4B、26B MoE、31B Dense——覆盖了从树莓派到单卡 H100 的全硬件区间,31B 在 Arena 开源榜冲到第三,26B MoE 只激活 38 亿参数就打出了同级 Dense 模型的效果。
00:00 / 00:31
连播
清屏
智能
倍速
点赞
11
关工聊编程
3天前
谷歌王炸落地!Gemma4拐点已至 谷歌王炸落地!Gemma4 直接终结 “本地 AI 难用” 魔咒,14B/26B 精准适配开发者工作流,本地跑通才是硬道理! #Gemma4杀疯 #本地AI新纪元 #AI实用主义 #谷歌AI
00:00 / 01:53
连播
清屏
智能
倍速
点赞
14
lantianlaoli
4天前
gemma4|初体验 嗨,欢迎回到我的频道👏。 我将使用这台m5 24g的MacBook air来测试一下 Google 刚刚发布的Gemma4 模型的本地表现如何。 测试一:自动泡泡机照片识别 测试二:编写一个AI 短片,给《环太平洋》中机甲暴风赤红打败尾立鼠编写多个镜头的图片和视频 prompt。 测试三:一个存放木材夹板的仓库,起一个具备工业风 + 科幻感的英文和中文名字 *工具:LM Studio #端侧AI #AI
00:00 / 11:38
连播
清屏
智能
倍速
点赞
3
甜橙1
6天前
《水滴宝库》不用联网的手机端AI大模型!一分钟教会你在安卓手机上跑起来Google最强开源模型Gemma 4! #安卓 #google #大模型 #人工智能 #gemma
00:00 / 00:32
连播
清屏
智能
倍速
点赞
4
李岚9256
2天前
#真实生活分享计划 Macbook Pro 、Macbook Air 或者Mac mini 的M1/M2/M3/M4用多大内存能跑Gemma4:26b、31b或者其他大模型?试试这个工具评估下。#macbookair #macmini #大模型 #gemma4
00:00 / 00:55
连播
清屏
智能
倍速
点赞
50
少林功夫好唉
1周前
Google 发布开放权重模型 Gemma 4 #OpenWeights #Gemma #31B #26B
00:00 / 00:30
连播
清屏
智能
倍速
点赞
1
製造星星
9月前
一张概念图就可以生成模型啦? #数字艺术#建模#ai#设计#视觉
00:00 / 00:44
连播
清屏
智能
倍速
点赞
NaN
老杜聊AI
3天前
Google Gemma 4 本地AI默认栈#创作者中心 #创作灵感 #Google #Gemma #AI
00:00 / 01:03
连播
清屏
智能
倍速
点赞
8
声译看世界
3天前
Gemma 4小模型实测 E2B与E4B 本期视频对Gemma 4小模型E2B和E4B版本进行了全面实测 涵盖本地部署 浏览器操作 多模态生成 音频处理及移动端性能等多个场景 通过对比测试 直观展示两款
00:00 / 30:19
连播
清屏
智能
倍速
点赞
8
GROK
1周前
Gemma-4-26B助力结构优化 双引擎驱动:AI赋能结构优化的探索之路 今天,我在本地部署测试了Gemma-4-26B模型,希望借助其强大的计算与推理能力,为结构优化领域带来新的突破。在不断深入测试与迭代的过程中,Gemma展现出了优秀的性能升级潜力,每一次的参数调整与场景适配,都让我看到了它在复杂结构分析中的独特优势。 与此同时,我也同步测试了线上豆包模型。两者在实际应用中呈现出势均力敌的态势:豆包凭借云端算力优势,响应速度极快,能够快速给出初步方案;而Gemma则在“大局观”上更胜一筹,对结构体系的整体逻辑、规范条文的深层关联有着更精准的把握,能够给出更具系统性的优化建议。 目前,我正尝试让两个模型“相互引导”——用豆包的快速响应提供基础思路,再用Gemma的大局观进行深度校准与拓展,如同“左脚踩右脚”般不断向上突破。这种双模型协同的模式,既兼顾了效率,又保证了方案的严谨性与创新性,为结构优化提供了一种全新的AI辅助思路。 这场探索仍在继续,期待未来能通过两者的优势互补,在结构设计的智能化道路上走得更远,真正实现“上天”般的效率与质量飞跃。
00:00 / 01:25
连播
清屏
智能
倍速
点赞
1
猫野
2天前
M4pro 24G部署Hemers+omlx跑gemma4-26b模型#hermes #omlx #gemma4
00:00 / 00:24
连播
清屏
智能
倍速
点赞
18
AI 老黄
4天前
ClaudeCode接本地Gemma4模型实现token自由 #Claude #Gemma #ai #token #Claudecode
00:00 / 01:08
连播
清屏
智能
倍速
点赞
650
老邓聊AI
1周前
Gemma 4显存怎么选?一次讲清楚 #Gemma
00:00 / 02:06
连播
清屏
智能
倍速
点赞
23
5211
3天前
#知识分享在线学习 #gemma4
00:00 / 00:07
连播
清屏
智能
倍速
点赞
642
沸天智能
1周前
4月2日,谷歌 DeepMind 发布 Gemma 4 系列开源模型(E2B、E4B、26B-A4B MoE、31B Dense),全部采用 Apache 2.0 协议(此前 Gemma 3 使用自定义限制协议,开发者曾有抱怨)。31B Dense 在 Arena AI(LMSYS/Chatbot Arena)文本排行榜上位列开源模型第3(整体高排名),以远小于对手的参数量(击败20倍参数模型如 Qwen 3.5 397B)展现极高“每参数智能”。 #Gemma4 #谷歌开源模型 #多模态开源模型 #手机端AI#沸天智能
00:00 / 00:19
连播
清屏
智能
倍速
点赞
1
简介:
您在查找“
gemma 4 26b是视觉模型吗
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-10 06:23
最新推荐:
老塞小兵有盒子吗
杨钰莹高情商说话
赵露思是四川巴中的吗
蒙语文版钢铁是怎样炼成的
d.总怎么去爆总团队的
codex被锁怎么办
墓地管理员过生日还送面是哪个博主
苏晴陆延洲在一起了吗
黄猄生活习性
逆战搜神搭配
相关推荐:
包河区今天发生了什么
假翅膀可以飞吗
林秋楠cw告别
今生最爱唐艺
愿世界再度沐浴阳光任务怎么过
鼻唇角小是什么原因
bro们的共同点在哪呢
圣羽翼王怎么出极品
大理寺你为什么天天都这么开心
武汉北部是哪里
热门推荐:
8.4.0理想adpro啥也没更新
热门播客女配音在哪
豆包提供的示例源码是否真实有效
优思益购买时属于跨境商品吗
zread能解析本地项目吗
3d打印鹦鹉安装
影石3S怎么激活APP
向阳花加几个爱分享效率最大
苹果显示boc密码泄露怎么处理
泰生活怎么登录