Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
投影相机真挚版是什么
解锁了润泽为啥装不上去
奶蛙桌面怎么删除
妹控和mg 32v2的密码是多少
奇丽叶雷蛇鼠标宏怎么设置
更新26级怎么突然多了两个应用
苹果手机侧边可以看到里面的光
小米手机奇丽叶挂机技巧
小米17ultra翻机不卡原因
Mythos与GPT6对比
玩车视界
4月前
风火轮布加迪飞火流星26B新款,漆面闪爆了,快来艾特你的兄弟给你买 #小比例车模 #汽车模型 #风火轮 #布加迪飞火流星
00:00 / 01:01
连播
清屏
智能
倍速
点赞
177
集集集集盒🌈
6天前
最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
00:00 / 01:29
连播
清屏
智能
倍速
点赞
308
轻算力AI实验室
1周前
16G显存跑Gemma4-26B设置教程 运行+Gemma4-26B办公能力测评 #Gemma426B能办公吗 #Gemma426B办公测评 #16G跑什么模型推荐 #16G跑Gemma426B设置教程
00:00 / 01:15
连播
清屏
智能
倍速
点赞
1130
YZZ
1周前
Gemma 4 26B 我先替大家本地跑了一遍~ 结论先放前面:真的快! 因为是MoE A4B 架构,每次启动只会加载4B的模型,所以装之前我知道应该比较快,但装完测试没想到这么快,而且还是多模态,有点东西的。 这次视频里我主要测了 3 件事。 第一件事是响应速度。 这个不用多解释,大家看画面基本就能感受到。对本地模型来说,快不快,几乎直接决定了你后面还愿不愿意继续用。 第二件事是逻辑理解。 我拿一个经典陷阱题去试它:1+1=3 为什么成立。 这个问题测的不是算术,而是它能不能理解提问背后的语境。结果看下来,它不是那种很机械的回答方式,而是会顺着问题去找成立条件,这一点加分。 第三件事是图片识别。 着重测了它的多模态能力。现在很多模型都在讲自己支持图像,但“支持”和“真能用”之间差别很大。Gemma 4 26B 至少说明了一点:它不只是个聊天模型,图片理解这块能力是真的能打的。 先发这条,给大家看第一轮真实体验,我后面还会继续测 31B,也会接进 OpenClaw 看看工具调用和多步骤任务表现怎么样。 #gemma4 #google #本地部署 #开源模型 #OpenClaw
00:00 / 03:00
连播
清屏
智能
倍速
点赞
183
AI技能研究社
1周前
Gemma 4全系列评测:纯开源协议支持商用 Google发布Gemma 4,彻底转向Apache 2.0纯开源协议。本文详细对比31B、26B MoE及端侧模型在编程、语音、视觉及显存部署上的真实表现,并提供针对不同显存配置的部署建议与避坑技巧。#Gemma4 #Google #开源大模型 #本地部署 #AIAgent
00:00 / 04:06
连播
清屏
智能
倍速
点赞
93
模型国度
4周前
【模型制作】炮塔组装、涂装与旧化 - B-26B-50入侵者 1/48 B-26入侵者轰炸机驾驶舱 B26入侵者 #飞机模型 #模型组装 #军事模型 #手工DIY #航模 #ICM模型 #148模型 #模型制作 #解压过程 #军事爱好者 #模型喷涂
00:00 / 01:24
连播
清屏
智能
倍速
点赞
80
AI龙虾
4天前
本地大模型横评!Gemma 4 26B vs Qwen 3. 同样约27B参数,MoE vs Dense架构,性能差距让人惊讶! *核心对比: *- 架构:Gemma 4 MoE激活3.8B vs Qwen 3.5 Dense全量27B *- 显存:16GB vs 55GB(差了3倍!) *- 编程:Gemma 4 ELO 2150 vs Qwen 3.5 ELO 1899 *- 上下文:Gemma 4 25.6万 vs Qwen 3.5 100万Token *选哪个看需求: *- 硬件有限/视频理解/算法编程 → Gemma 4 *- 超长文档/Agent工作流/工具调用 → Qwen 3.5 *关注我,持续输出AI开源干货! *#开源大模型 #本地部署 #Gemma4 #千问 #AI测评 #大模型横评 #程序员 #人工智能 #AI工具 #Ollama
00:00 / 01:16
连播
清屏
智能
倍速
点赞
26
安思派人工智能
1周前
1分钟搞清楚关于Gemma的一切 为什么它号称全球最强开源模型?4大版本怎么想?硬件要求高不高?我该用它干嘛?一次性全解答#Gemma #OpenClaw
00:00 / 02:12
连播
清屏
智能
倍速
点赞
275
小布大叔
1周前
笔记本部署Gemma4免费养“大龙虾”可行么? Gemma4本地大模型发布啦!你的笔记本部署本地大模型免费养“大龙虾”可行么? 今天 AI 圈最大的新闻,就是谷歌正式发布了本地开源大模型 Gemma 4,包含了 E2B、E4B、26B、32B多个参数版本。 众所周知,养大龙虾这种需要高频调用、实时反馈的智能体,Token 的输出速度就是生命线。 如果半天憋不出一个字,那不叫智能体,那叫“智障体”。 为了回答这个问题,我拿手头的两台主流配置的轻薄笔记本,用 Ollama本地部署大模型,做一次真机测试。 不吹不黑,我们直接用数据说话。 为了尽量还原大家的日常使用场景,我选了一台 Mac 笔记本和一台 Windows 笔记本,都是目前大家最常用的笔记本型号。其中苹果笔记本为MacBook Air M4 芯片,配置了16GB 统一内存和 1TB硬盘。而Windows笔记本为联想小新Pro 14 GT ,配置了酷睿 Ultra 5 CPU,以及 32GB 大内存和1TB 硬盘,笔记本为核显,没有独立显卡。 让我们来看看最终的核心数据,也就是Token 输出速度: 1. 谷歌的中量级模型Gemma 4 E4B MacBook的Token输出速度为21.25 tokens/s; Windows笔记本的Token输出速度为12.64tokens/s; 在小尺寸大模型中,苹果笔记本凭借统一内存架构,速度几乎快了一倍,是绝对的王者。 2. DeepSeek R1 8B MacBook的Token输出速度为16.74 tokens/s Windows笔记本的Token输出速度为7.8 tokens/s 3. 阿里的Qwen 3.5 9B M4芯片的MacBook Air的Token输出速度为8.8 tokens/s 而Windows笔记本的Token输出速度为5.9 tokens/s 低于 10 tokens/s 的模型体验非常糟糕,不建议在此配置下使用。 4. 谷歌Gemma4:26B的重量级模型 MacBook Air 笔记本显存直接爆掉,完全无法运行。 而Windows 联想小新笔记本的Token输出速度竟然达到了11.45 tokens/s,完全超乎想象。 #vibecoding#gemma4#openclaw#大龙虾#大模型
00:00 / 04:29
连播
清屏
智能
倍速
点赞
458
猫野
3天前
M4pro 24G部署Hemers+omlx跑gemma4-26b模型#hermes #omlx #gemma4
00:00 / 00:24
连播
清屏
智能
倍速
点赞
18
声译看世界
1周前
实测Gemma 4本地运行 笔记本与台式 谷歌最新开源AI模型Gemma 4发布 基于Gemini 3技术 视频使用LM Studio在MacBook和台式机上分别安装测试7 5B和26B参数版本 涵盖
00:00 / 08:14
连播
清屏
智能
倍速
点赞
392
追光的小扈同学(的日常)
1周前
谷歌Gemma4:26B模型 M4PRO 8+4核心 24GB 本地部署 网络#谷歌 #Gemma4 #macbookpro #AI #本地部署ai
00:00 / 01:13
连播
清屏
智能
倍速
点赞
141
拉布拉多点
2天前
#Google #TurboQuant 技术 💥炸裂本地实测 💥直接本地免费养虾🦞 丐版入门电脑#苹果Macbookair #macmini 16G内存轻松跑#Gemma4 大模型25token/s,稳定好用实用,重点是上下文直接128k起步,理论最高扩大6倍!
00:00 / 00:40
连播
清屏
智能
倍速
点赞
165
AI大模型课代表(籽料自取)
6月前
手把手教会你用Unsloth微调Qwen3-14B行业大模型 环境配置+模型微调+模型部署+效果展示详细教程!附代码,不信你学不会!大模型|LLM#计算机 #人工智能 #ai #模型微调 #qwen
00:00 / 11:25
连播
清屏
智能
倍速
点赞
37
进阶的奶爸
2天前
通过LM STUDIO部署了google/gemma-4-26b大模型来跑openclaw,速度非常快,有65tokens/s,大家可以来抄作业。#openclaw #小龙虾 #ai #大模型
00:00 / 03:10
连播
清屏
智能
倍速
点赞
18
跟陈博士学AI
1周前
2026年 本地部署大模型需要什么配置 2026年了,想在自己电脑跑大模型?别被必须4090起步吓住——关键不是显卡多贵,而是显存够不够。 显存才是命门,其他都是配角。#大模型部署
00:00 / 02:10
连播
清屏
智能
倍速
点赞
42
天工开帧
5天前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
349
李岚9256
5天前
#真实生活分享计划 MacBook Air M5本地运行Goolge 最新大模型Gemm4:26b +Claude Code,可以Token无限了#Macbookair#gemma#ClaudeCode
00:00 / 01:08
连播
清屏
智能
倍速
点赞
879
AI赚钱研究社
1周前
Gemma 4全系开源,本地部署实操指南 深度解析Gemma 4家族四款模型架构,涵盖31B Dense、26B MoE及端侧模型,提供从Ollama到vLLM的详细本地部署方案与显存优化技巧。#Gemma4 #谷歌大模型 #大模型部署 #开源模型 #AIAgent
00:00 / 05:41
连播
清屏
智能
倍速
点赞
43
AI龙虾
5天前
谷歌Gemma 4炸场:26B参数只用4B算力,16GB显卡 谷歌Gemma 4突然发布,AI圈炸了! 核心黑科技:MoE混合专家架构 ▸ 26B总参数,推理只激活3.8B ▸ 速度等于4B模型,性能打赢20倍对手! 硬件门槛超低: ▸ 16GB显卡(RTX 4080)跑26B ▸ 4GB内存(手机)跑最小版 ▸ Ollama一键下载,5分钟部署 性能真的猛: ▸ 开源排名全球Top3 ▸ 数学得分较上代暴涨4倍 ▸ 256K超长上下文 Apache 2.0开源,商用完全免费! 关注我,下期手把手教部署👇 #Gemma4 #谷歌AI #开源大模型 #本地部署 #AI工具 #免费AI #大模型 #程序员 #人工智能
00:00 / 01:25
连播
清屏
智能
倍速
点赞
3
冬序元启·望辰
3天前
小龙虾技能七:下载多模型大模型 Gemma 4 26B本地跑起来👇 不联网 | 不限次 | 不传数据 ollama run gemma4:26b 普通电脑就能带得动 你试过本地部署吗?评论区聊聊 #Gemma4 #本地部署 #效率工具
00:00 / 01:06
连播
清屏
智能
倍速
点赞
0
文化路xx号
4天前
13年前 iMac 跑本地AI,纯 CPU 硬扛 大模型 原创视频:2013 款 iMac 纯 CPU 跑本地大模型实测 i5+32G 内存,GTX775M 2G 显存不支持 GPU 加速,全程 CPU 推理。 Ollama 部署 6 款模型:gemma4:e4b/26b/31b、qwen3.5:9b、deepseek-ocr:3b、deepseek-r1:32b。 统一任务:作诗一首,计时对比生成速度与效果,低配置跑大模型到底行不行? #本地大模型 #ollama #数码测评 #老电脑改造
00:00 / 03:52
连播
清屏
智能
倍速
点赞
4
AI技能教学网
1周前
Gemma 4发布:Agent能力极强,附部署与微调全攻略 深度解析Gemma 4全系列模型:31B代码强、26B MoE适配本地Agent、端侧小杯支持原生语音。涵盖Ollama/vLLM部署及ms-swift微调实操指南。#Gemma4 #谷歌 #大模型部署 #LLM #AI微调
00:00 / 04:11
连播
清屏
智能
倍速
点赞
64
轻算力AI实验室
1周前
谷歌 Gemma4 26B MoE模型实测 16G显存可跑,能力超过QWEN3.5 #Gemma4 #谷歌Gemma426B #Gemma426B硬件要求
00:00 / 00:18
连播
清屏
智能
倍速
点赞
2266
名小龙虾字牛马
4天前
谷歌突然开源 4 个大模型!AI 圈彻底炸了 最轻量 E2B:手机离线就能跑,内存只要 3G; 多模态 E4B:图文音频全能,笔记本就能带; 性价比之王 26B MoE:推理超快,普通显卡够用; 最强旗舰 31B:长文本 256K,开源榜直接前三! #谷歌 #大模型 #AI #开源 #人间观察计划
00:00 / 00:39
连播
清屏
智能
倍速
点赞
39
天工开帧
2天前
实操演示,如何在本地有限的硬件上跑尽可能强的模型。 llama.cpp 配置参数解释: --no-mmap 只影响模型加载速度,小模型不用加,大模型加更稳,不卡死。 -ngl 层数,调低可以让你跑更大模型,但影响速度。27B的IQ4模型本机测试31层最优解。 -ot 指定层数可以将FFN 超大模块,强制放回 CPU 跑,避免KV 缓存放不下,长上下文直接崩,让显存刚好压在 15.5GB 安全线 * 'chcp 65001':设置 UTF-8 编码(适合表情符号/特殊字符)。无特殊用途。 * 上下文大小('-c'):66,000。 大概比64k多一点,预留给小龙虾窗口。 * GPU 层数('-ngl'):29 层。我的16G显卡最快其实可以开到31层,但会占满显存,导致我玩不了游戏了,这里自己权衡。当然不同模型层数不一样,自己查资料一点点试。 * 将特定层卸载给CPU(“-ot”):使用正则表达式强制特定块(27-30)到CPU。这是针对16GB显存卡(RTX 5060 Ti 16G)的高度优化,以防止内存不足(OOM)。 * 线('-t'):5. 这里大概逻辑是CPU核心数减1,还是留给自己打游戏。 * 闪光注意('--flash-attn'):启用。 * 缓存 RAM('--cache-ram'):32768(32GB)。 这里不要学我,我是内存多到没地方用,实际4G足够了。 * 内存映射(“--no-mmap”):禁用(强制加载到内存)。
00:00 / 02:02
连播
清屏
智能
倍速
点赞
145
识势者顺势而为
1周前
4080独立显卡笔记本本地ollama部署谷歌开源gemma4-26b的效果。机器配置:cpu i9,内存32g,英伟达4080独立显卡12g显存。大模型17g,部署后显存太小,内存使用20多g,大模型退回内存运行了,效果很差。#gemma4 #ollama
00:00 / 01:35
连播
清屏
智能
倍速
点赞
0
猫哥软件生意
6天前
谷歌Gemma 4本地部署|三步零成本跑AI模型🚀 谷歌最新开源模型 Gemma 4 来了! 🛠️ 三步搞定部署: 1️⃣ 安装 Ollama(Mac/Windows 一行命令) 2️⃣ ollama run gemma4:26b(自动下载) 3️⃣ 开始聊天,看到回复就成功了#Gemma4 #谷歌AI #本地部署 #Ollama #开源模型 #AI教程 #零成本 #大模型 #保姆级教程 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
262
景逸
3天前
26B只跑4B算力?谷歌新王炸!#AI #08 #gemma
00:00 / 01:50
连播
清屏
智能
倍速
点赞
16
冬序元启·望辰
3天前
小龙虾技能六:本地部署多模态大模型 2026年4月,Google DeepMind放出Gemma 4全家桶: ⚡E2B/E4B:笔记本/手机都能跑,128K上下文,办公本无压力 ⚡26B MoE:推理只激活4B参数,256K超长上下文 ⚡31B Dense:性能位列开源榜单前三 全系原生支持图像+文本输入,OCR、图表理解、离线代码生成一把梭。Apache 2.0协议免费商用,数据不出电脑。 #Gemma4 #开源大模型 #本地部署 #AI编程 #多模态
00:00 / 01:34
连播
清屏
智能
倍速
点赞
0
轻算力AI实验室
1周前
16G显存跑大模型推荐Gemma4 5060TI16G跑Gemma4大模型实测 推荐!# #5060TI16G跑大模型 #16G显存跑大模型推荐 #16G显存跑什么大模型
00:00 / 00:15
连播
清屏
智能
倍速
点赞
217
算力飓风
2月前
电脑,工作站,服务器有什么不同,玩大模型需要什么配置 #电脑配置 #服务器 #工作站 #大模型 #算力
00:00 / 02:39
连播
清屏
智能
倍速
点赞
205
老 A 玩 AI
5天前
本地部署了#Gemma4 小龙虾实现了token 自由 #OpenClaw
00:00 / 01:41
连播
清屏
智能
倍速
点赞
227
碳基生物退役指南
5天前
谷歌Gemma 4发布!M1 Mac Mini丐版本地部署实 谷歌这次不讲武德,直接甩出Gemma 4全家桶——E2B、E4B、26B、31B四个版本一口气端上来。量化到4bit后,E2B只要3.2G内存就能跑,E4B也就5GB左右,关键是2B和4B版本全支持文字+图片+音频输入。 这啥概念?等于给咱们本地部署党量身定制的“龙虾”端侧模型啊! 本期视频直接上E4B,用我手上这台丐中丐M1 Mac Mini硬刚Gemma 4,看看它到底能不能打 这支视频原发在视频号和B站,咱家这儿刚开号落户,赶紧把这段“干货”快马加鞭给大家补上,以后同步更新不迷路! #Gemma #Gemma4 #人工智能 #大语言模型 #ai测评
00:00 / 08:39
连播
清屏
智能
倍速
点赞
33
声译看世界
3天前
Gemma 4小模型实测 E2B与E4B 本期视频对Gemma 4小模型E2B和E4B版本进行了全面实测 涵盖本地部署 浏览器操作 多模态生成 音频处理及移动端性能等多个场景 通过对比测试 直观展示两款
00:00 / 30:19
连播
清屏
智能
倍速
点赞
8
零重力瓦力
1周前
Google Gemma 4:310亿参数干翻万亿大模型? 开源模型什么时候能真正跑赢那些动辄千亿参数的大怪兽?Google 最新发布的 Gemma 4 或许给出了一个有说服力的答案。 Gemma 4 模型家族有 4 个版本,最受关注的是 31B 稠密模型和 26B 的混合专家版模型(激活参数只有 4B)。在 Arena AI 文本排行榜上,31B 拿到了全球开源模型第三名,而它的对手 Qwen 3.5 总参数高达 3970 亿,Kimi K2.5 更是万亿级别。这样规模的模型,顶配 GB300 一样跑不动。而 Gemma 4 31B 在大多数中高端消费级 PC 上就能跑。 Gemma 4 的工具调用能力非常出色。SteveVibe 用 ToolCall 15 基准测试跑了所有 4 个版本的模型,31B 拿了满分。模型原生支持函数调用、结构化 JSON 输出、系统指令,能够无缝接入智能体工作流。AIME 2026 数学测试达到 89%,GPQA Diamond 84.3%,这样的的体量能有这样的成绩,确实也没什么好挑剔的。 Gemma 4 的两个小尺寸版本 E2B 和 E4B 用了逐层嵌入技术(PLE),每个解码层有独立的小型嵌入表,实际推理时参数量远小于名义值。模型还专门为手机、树莓派这类边缘设备做了优化,并且原生支持音频输入。 让人稍感遗憾的是上下文窗口,最大只有 256K,和目前 1M 上下文的顶级模型相比还是有不少差距。 模型基于 Apache 2.0 协议,Hugging Face、Ollama、LM Studio 都能直接下,商用也没有问题。总的来说,Google 这款开源模型,性能算不上最好,但实用性和性价比都没话说。 #Gemma4 #开源大模型 #google
00:00 / 09:46
连播
清屏
智能
倍速
点赞
9
海晏清的阳光海洋
1周前
各位朋友,今天聊聊Google刚发布的Gemma 4模型,这可是开源家族的“性能王”!核心亮点在技术:1、混合专家架构首秀!26B模型总参数大,推理时只激活3.8B,像“按需叫专家”,又快又省算力。2、多模态全能:看图、听音频、读长文都行,视觉还能调图像比例。3、长上下文256K:一口气吞整本书或代码库,不卡壳。4、设备端超友好:2B/4B模型塞手机、树莓派都能离线跑,延迟几乎为零。用Apache 2.0许可免费商用,开发者本地建AI应用门槛大降!#人工智能 #机器人 #马斯克 #奥特曼 #黄仁勋 @尹烨 @红衣大叔周鸿祎 @雷军
00:00 / 00:45
连播
清屏
智能
倍速
点赞
9
粮厂Coder进化暴论
5天前
谷歌发布 Gemma4 2026 年 4 月 2 日,谷歌 DeepMind 发布了 Gemma 4 系列模型。 模型有四个规格——E2B、E4B、26B MoE、31B Dense——覆盖了从树莓派到单卡 H100 的全硬件区间,31B 在 Arena 开源榜冲到第三,26B MoE 只激活 38 亿参数就打出了同级 Dense 模型的效果。
00:00 / 00:31
连播
清屏
智能
倍速
点赞
11
赋能创新家
1周前
Gemma 4:谷歌最强开源模型发布综述 谷歌正式发布了 Gemma 4 系列,这是其目前性能最强且遵循 Apache 2.0 协议 的开源模型家族。该系列涵盖了从适用于移动端的 2B 和 4B 轻量化版本到具备强大推理能力的 26B 和 31B 大型版本,旨在处理复杂的逻辑任务与智能体工作流。Gemma 4 在推理、编程及多模态处理方面取得了显著进步,不仅支持超过 140 种语言,还提供了高达 256K 的上下文窗口。
00:00 / 06:52
连播
清屏
智能
倍速
点赞
26
AI踩坑指南
1周前
谷歌Gemma 4 MoE 26B模型实测。稳定且中规中矩。 谷歌昨天发布了旗下开源模型家族Gemma的最新迭代Gemma 4。相较于Gemma 3,能力大幅提升,个人感觉比千问3.5更强一些。 #gemma4 #谷歌ai #零基础学ai #普通人学ai #本地部署大模型
00:00 / 02:03
连播
清屏
智能
倍速
点赞
196
少林功夫好唉
1周前
Google 发布开放权重模型 Gemma 4 #OpenWeights #Gemma #31B #26B
00:00 / 00:30
连播
清屏
智能
倍速
点赞
1
林宇
1周前
Google 开源大模型来了! Google Gemma 4 开源了!Apache 2.0 许可证,真正的开源!🔥 26B 模型可以在你电脑上直接跑,不用上传数据!隐私安全有保障! 支持 140 种语言,还能看懂图片、听懂语音! 开发者社区已经炸了——4 亿下载! #Gemma4 #AI #开源
00:00 / 02:51
连播
清屏
智能
倍速
点赞
15
木火相助
2周前
虽然电脑配置有限,但我还是装了本地大模型,关键还能顺畅地用起来,而且智力不低。虽然暂时还没解决怎么用它来养本地龙虾,但我相信会找到办法的。#本地大模型 #openclaw #ollama #创作者扶持计划 #创作者激励计划
00:00 / 04:57
连播
清屏
智能
倍速
点赞
209
言午论金
2天前
通过飞书来指令小龙虾工作,原本是安装了最近开源的Gemma4 26b a4b模型,运行速度非常好了!但还是不如付费模型计算,待机时间内会跳到付费模型,无形中增加了预算压力。需要在config.yaml文件中更改设置。 虽然问题发生在小龙虾,但问到谷歌那里的时候,它已经知道你想要干嘛了,并给予你解答,确实很神奇!
00:00 / 00:47
连播
清屏
智能
倍速
点赞
3
老高的高G
4天前
莫哈韦exb顶配改装升级教程,搭配闪电5500电池 #莫哈韦exb #闪电电池 #莫哈韦 #闪电电池 #rc模型
00:00 / 11:00
连播
清屏
智能
倍速
点赞
323
沸天智能
1周前
4月2日,谷歌 DeepMind 发布 Gemma 4 系列开源模型(E2B、E4B、26B-A4B MoE、31B Dense),全部采用 Apache 2.0 协议(此前 Gemma 3 使用自定义限制协议,开发者曾有抱怨)。31B Dense 在 Arena AI(LMSYS/Chatbot Arena)文本排行榜上位列开源模型第3(整体高排名),以远小于对手的参数量(击败20倍参数模型如 Qwen 3.5 397B)展现极高“每参数智能”。 #Gemma4 #谷歌开源模型 #多模态开源模型 #手机端AI#沸天智能
00:00 / 00:19
连播
清屏
智能
倍速
点赞
1
星月夜The.Starry.Night
1月前
安装OpenClaw #token #openclaw #AI #人工智能 #教学 图文教你安装OpenClaw及配置云大模型
00:00 / 00:30
连播
清屏
智能
倍速
点赞
1
AI信息差
1周前
Ollama本地部署 Gemma 4 实操指南 涵盖从硬件选择、安装配置到多模态调用及避坑指南,让你的电脑快速跑起Gemma 4。#Gemma4 #Ollama #本地大模型 #AI部署 #多模态
00:00 / 03:37
连播
清屏
智能
倍速
点赞
735
戎哥的技术分享
4天前
演示openclaw的安装和大模型对接 演示在ubuntu 24.04主机上安装openclaw并配置与大模型的对接,演示在移动云云电脑中通过openclaw maanger配置与大模型对接。#openclaw #Ubuntu #openclawmanager
00:00 / 11:38
连播
清屏
智能
倍速
点赞
1
轻算力AI实验室
3天前
gemma426B能干吗?VisionCutAI让它剪辑视频 12G显存电脑+本地gemma426B小模型,就能看懂视频,并帮你自动剪辑视频,VisionCutAI工具以开源 #VisionCutAI #gemma4 #16G显存跑gemma4测评
00:00 / 01:56
连播
清屏
智能
倍速
点赞
17
DX模玩频道
4天前
近期拼多多大降价的模型推荐#高达模型 #玩啥我们都认真 #模玩 #手办模型
00:00 / 01:21
连播
清屏
智能
倍速
点赞
1083
洋葱
1周前
适合新手安装openclaw+配置本地模型 大家好,今天给大家带来#OpenClaw #小龙虾最新官方版 #openclaw完整安装教程 。#openclaw配置本地模型 #本地模型qwen359B 全程一步一步跟着做,新手也能一次成功。
00:00 / 33:57
连播
清屏
智能
倍速
点赞
21
AI溪水哥
2周前
一篇讲完 openclaw 的模型配置 openclaw25种模型介绍,kimi配置教程,qwen配置教程,deepseek配置教程,多模型切换教程 #openclaw #model #大模型 #模型配置
00:00 / 11:04
连播
清屏
智能
倍速
点赞
53
光不语
1周前
谷歌Gemma4接入OpenCode实测,结果有点意外 谷歌发布Gemma4,第一时间接入OpenCode试了一下。模型确实聪明,但让它整理桌面、装插件,它就是不动手。换回千问,秒执行。不知道是不是我的姿势不对,后面再折腾折腾。这期先教大家怎么接入,想试的可以看看#AI #gemma #OpenCode #ai工具
00:00 / 01:39
连播
清屏
智能
倍速
点赞
31
安嘉樂
4月前
今日分享🌑HOTWHEELS K.I.T.T. & 花田错 总花费不到二十元,嘎嘎好耍! #小比例车模 #风火轮 #kitt #汽车模型
00:00 / 00:55
连播
清屏
智能
倍速
点赞
46
教软件的张老师
3月前
按这配置选电脑,真能顺畅建模不踩坑?#3d 建模 #zbrush #电脑配置避坑 #电脑配置 #干货分享
00:00 / 01:12
连播
清屏
智能
倍速
点赞
20
鹿导 ACTION🎬 学院
1周前
配置大模型,试试这个方法#openclaw配置大模型
00:00 / 01:33
连播
清屏
智能
倍速
点赞
4
改变中的烦同学
1周前
OpenClaw基础配置完全指南:模型配置+基本使用+飞书 上期视频我们完成了OpenClaw的部署安装,但这只是第一步。本期视频将带你完成基础配置,让你的“龙虾”真正拥有智能大脑,并能接入飞书,成为团队可用的AI助理。 #openclaw #养龙虾 #AI助手 #本地部署 #扶持新人计划
00:00 / 03:37
连播
清屏
智能
倍速
点赞
9
边玩边想DIY装机店
3天前
跑模型配置分享:u7 270KPLUS+5070TI #u7270kplus #跑模型主机U7270kplus #兰州U7270kplus主机 乔思伯X400游戏跑模型主机配置分享,u7 270kplus搭配5070Ti显卡。这个配置就相当天花板。颜值性能担当的主机。日常装机,电脑配置咨询技术支持!
00:00 / 03:10
连播
清屏
智能
倍速
点赞
3
简介:
您在查找“
26b的模型需要什么配置
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-11 07:07
最新推荐:
可以给豆包的游戏口播提示词指令
牛脖子下面肿了是怎么回事
4月10号谈判影响
洛克王国怎么远程恋空
春magnolia歌曲
江苏卫视人间栏目还播吗
武亮老师来公司多久
源无获好人还是坏人
金风科技与战争有联系吗
红色沙漠传说坐骑找谁换
相关推荐:
权权v技能搭配
伊兰亚龙r键有什么用
精灵了不起老是加生命怎么办
狼蛋要用棱镜球吗
魔力猫性格怎么换成生命
婚后成瘾商沉吃醋
grok4.2怎么取消
洛克王国35级帽兜娃娃怎么判断异色
拙政园是从哪里进就哪里出吗
遛狗和遛猫的区别
热门推荐:
彩虹小猪豆包创作线安装教程
苹果手机自带黄色功能
威龙微信背景图怎么设置
vinecoding功能介绍
苹果15升级26.4会被攻击吗
iphone17电池健康
无人机拖沟
小米特别礼直饮杯怎么领
纸片转场教程剪映手机怎么做
腾讯云如何安装企业微信龙虾机器人