识势者顺势而为
识势者顺势而为

粉丝19获赞410

相关视频

  • 手把手带你使用Ollama本地部署Gemma4详细实操分享 Gemma 4 本地部署,零基础也能部署成功,本期视频知识点: 
认识Gemma4&优缺点分享
本地部署环境&配置分享
Ollama本地部署大模型方法&修改部署路径方法
本地模型文字生成和图片识别测试
#ai新星计划 #gemma4 #ollama #本地部署大模型 #ai大模型
    07:13
    查看AI文稿
  • Gemma 4 无拒答破限版太狠了! GPU卸载层控制实战,5090也能跑120B大模型,优云智算 Open WebUI 开箱即用 #Gemma4  #Gemma4破限版  #GPTOSSAbliterated  #Ollama   #优云智算
    03:23
    查看AI文稿
  • Gemma 4全系列评测:纯开源协议支持商用 Google发布Gemma 4,彻底转向Apache 2.0纯开源协议。本文详细对比31B、26B MoE及端侧模型在编程、语音、视觉及显存部署上的真实表现,并提供针对不同显存配置的部署建议与避坑技巧。#Gemma4 #Google #开源大模型 #本地部署 #AIAgent
    04:07
    查看AI文稿
  • #编程学习 #Hermes #Gemma4 #本地部署 #智能体 16GB显存,本地部署Gemma-4模型,再配置给Hermes agent
    00:43
    查看AI文稿
  • G歌edge gallery上线的手机本地可运行的AI模型gemma4,不用联网,最小模型应该6G内存就能运行,可以用来玩玩#玩机技巧
    00:38
    查看AI文稿
  • 手机也可以部署模型了! 
#ai #部署模型 #gemma4
    00:47
    查看AI文稿
  • 最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
    01:30
    查看AI文稿
  • 2026 本地部署大模型,你的显卡够跑吗?🤖 想在本地跑大模型?这份 2026 最新配置指南帮你选对模型!💻
📊 显存配置对照表:
• 8GB:Qwen3.5-4B(3-4GB)、Gemma4-E4B(5GB)
• 12GB:Qwen3.5-9B(5-6GB)⭐性价比之王
• 24GB:Qwen3.5-27B(15-17GB)专业级选择
• 48GB 双卡:可跑 4bit 量化版本
💡 核心技巧:
• 4bit 量化能省一半显存!
• Ollama 一行命令就能部署
• 响应速度可达 10-20 字/秒
🎯 选购建议:
预算有限直接上 12GB+Qwen3.5-9B,日常使用完全够用!
专业用户选 24GB+Qwen3.5-27B,体验最佳!
#本地大模型 #AI 部署 #Qwen3.5 #Ollama #显卡推荐
    02:13
    查看AI文稿
  • gemma4本地部署:爽是爽,就是等的想死
    00:26
    查看AI文稿
  • 谷歌王炸!Gemma4开放模型直接封神 #谷歌新模型 #Gemma4 #谷歌
    00:57
    查看AI文稿
  • Gemma 4本地部署指南:根据显存大小选模型 想在自己电脑上跑Gemma 4?从6G普通显卡到128G高端Mac,各档位硬件能跑多大模型?本文带你梳理最低门槛与满血配置,揭秘KV Cache显存吞噬陷阱,并客观对比Mac统一内存与PC独立显卡的真实推理速度差异。#Gemma4 #Mac #大模型 #本地部署 #显卡
    02:56
    查看AI文稿
  • 都在抢苹果电脑跑大模型?听句劝,别做大冤种了! #macmini#科技圈的那些事 #人工智能 
最近 Gemma 4 爆火,全网都在疯抢 Mac mini 跑本地模型,官网发货都排到 18 周以后了。 实不相瞒,我也跟风抢了一台,但拿到手半个月了,愣是没拆封。
因为我突然发现,比起疯狂内卷算力和配置,试图用 AI 搞钱的打工人,正在面临一个更真实、也更地狱的危机……
我那个眼看就要做起来的 AI 矩阵号朋友,前两天刚给我结结实实地上了一课🤡。 只能说,AI 还没来得及淘汰我们,我们可能就先被……
拒绝算力焦虑,视频里细说这个离谱的黑色幽默。
👇 最后真诚发问: 这台落灰的机器,除了垫桌角,各位懂行的朋友觉得还能拿来干啥?来评论区帮我排排雷!
    02:39
    都在抢苹果电脑跑大模型?听句劝,别做大冤种了! #macmini#科技圈的那些事 #人工智能
    最近 Gemma 4 爆火,全网都在疯抢 Mac mini 跑本地模型,官网发货都排到 18 周以后了。 实不相瞒,我也跟风抢了一台,但拿到手半个月了,愣是没拆封。
    因为我突然发现,比起疯狂内卷算力和配置,试图用 AI 搞钱的打工人,正在面临一个更真实、也更地狱的危机……
    我那个眼看就要做起来的 AI 矩阵号朋友,前两天刚给我结结实实地上了一课🤡。 只能说,AI 还没来得及淘汰我们,我们可能就先被……
    拒绝算力焦虑,视频里细说这个离谱的黑色幽默。
    👇 最后真诚发问: 这台落灰的机器,除了垫桌角,各位懂行的朋友觉得还能拿来干啥?来评论区帮我排排雷!
    查看AI文稿
  • Google发布最新开源模型Gemma4 #google大模型  #谷歌AI模型  #Gemma4开源  #开源多模态AI
    07:31
    查看AI文稿
  • 通过LM STUDIO部署了google/gemma-4-26b大模型来跑openclaw,速度非常快,有65tokens/s,大家可以来抄作业。#openclaw #小龙虾 #ai #大模型
    03:10
    查看AI文稿
  • Gemma 4显存怎么选?一次讲清楚 #Gemma
    02:07
    查看AI文稿