Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
AI抖音
探索
直播
放映厅
短剧
搜索
您是不是在找:
ab成结动画教程迅雷
原石研究院的供电终端怎么
yolo三角洲还有多少天
计算机中talent是什么协议
扣子工作流什么时候可以用skill
chawdbot使用教程
重启物资调度弹性怎么卖
surfjava群怎么加入
bind怎么才能让对方发现不了
让豆包设置光缆壁纸的指令
kate人不错
6月前
实测智谱 GLM-4.5,本地部署 GLM-4.5-Air 及构建 AI 应用 #ai新星
00:00 / 12:08
连播
清屏
智能
倍速
点赞
77
松哥AI
5月前
中国开源AI再次冲进全球前三! Z.ai正式发布GLM-4.5大模型,参数突破3550亿,综合能力排名全球前三,并实现高性能低成本的开源应用,标志中国开源AI迈入全新阶段。#国产大模型 #GLM4.5 #开源AI #ZhipuAI #人工智能竞赛 @抖音创作小助手
00:00 / 00:50
连播
清屏
智能
倍速
点赞
22
贞仔的AI日记
11月前
不要用Ollama做Deepseek部署 进粉丝群领资料(LMstudio/anythingllm/deepseek各显存对应模型/其他实操模型/18本deepseek资料书).也可私up或联系主页小助理获取#deepseek #本地部署 #AI #LMstudio #ollama
00:00 / 09:59
连播
清屏
智能
倍速
点赞
7391
是子鱼AI
5月前
本地部署OpenAI GPT保姆级教程!断网也能用!适合小白 #AI #OpenAI #AI新星计划 #开源模型 #AI测评
00:00 / 05:33
连播
清屏
智能
倍速
点赞
808
未来奇点
5月前
最简单一键本地部署gpt-oss最新模型,人人都能用 #gpt #openai #gpt5 #大模型 #AI
00:00 / 00:46
连播
清屏
智能
倍速
点赞
168
阴沉的怪咖
1年前
最低2G显存可运行,本地部署RWKV模型驱动AI小姐姐聊天 #RWKV #AI #二次元
00:00 / 06:18
连播
清屏
智能
倍速
点赞
10
第四种黑猩猩
10月前
一个视频弄懂:个人用户本地部署大模型,应该如何选电脑? #人工智能 #大模型 #本地部署 #电脑配置
00:00 / 09:00
连播
清屏
智能
倍速
点赞
1951
AI 博士嗨嗨
11月前
全网最简单本地部署 DeepSeek-R1教程 #derpseek #deepseek本地部署 #ollama #手把手教学 #大模型本地部署
00:00 / 14:23
连播
清屏
智能
倍速
点赞
7571
秋芝2046
8月前
Ollama幼儿园级教程,玩转免费开源大模型!【小白教程】 #ollama #本地部署 #教程 #秋芝2046 #AI新星计划
00:00 / 18:46
连播
清屏
智能
倍速
点赞
NaN
涌现.真实
10月前
单显卡最强大模型,Gemma3 27b,本地部署测试。#Gemma3 #deepseek #大模型 #科技 #ollama
00:00 / 02:37
连播
清屏
智能
倍速
点赞
242
小鹤玩AI
1年前
杠精发言?全网冲本地部署丨干货收藏(下) 爆肝新内容:deepseek大模型使用途径区别 (本地部署ollama教程,请看上期视频,保姆级教程) #deepseek #deepseek亮点全方面解析 #deepseekR1 #deepseek本地部署#deepseek为何能火出圈
00:00 / 02:30
连播
清屏
智能
倍速
点赞
2738
富贵羊羊AI
11月前
2分钟部署手机本地deepseek模型 #deepseek #人工智能 #ai #chatgpt #利用deepseek可以做什么
00:00 / 02:05
连播
清屏
智能
倍速
点赞
1062
老陈打码
2年前
【开源闻达AI教程】本地快速部署超强AI调用闻达平台-1 #闻达 #ai #chatglm #chatglm2
00:00 / 08:05
连播
清屏
智能
倍速
点赞
48
赛博小凡
5月前
OpenAI开源 模型,可商用,消费级显卡可跑! #gptoss #openai #ai新星计划 #人工智能 #科技热点
00:00 / 00:40
连播
清屏
智能
倍速
点赞
1377
是Skye学姐呀
6月前
5分钟学会本地部署Deepseek R1模型 #每天跟我涨知识 #deepseek本地部署 #deepseek #办公软件技巧 #知识分享
00:00 / 03:49
连播
清屏
智能
倍速
点赞
6280
贞仔的AI日记
11月前
不用Ollama,也能轻松构建本地AI知识库 进粉丝群领资料(LMstudio/anythingllm/deepseek各显存对应模型/其他实操模型/18本deepseek资料书)#deepseek #本地部署 #AI #知识库 #LMstudio
00:00 / 10:58
连播
清屏
智能
倍速
点赞
851
wind
9月前
Dify本地部署显存需求分析 “关于Dify本地部署的显存问题,咱们可以分三块来说: 首先Dify平台本身特别省资源,它自己只要不到2个G显存,不吃显卡,普通电脑都能跑起来。 真正占显存的是咱们接进去的AI模型。比如说您要是用个7B参数的中等模型,大概需要12到16个G显存,这时候建议用RTX3090这种24G显存的显卡,留点余量更稳。如果上到13B以上的大模型,那至少得24G显存起步了,可能需要两张显卡组队干活。 这里有几个省显存的小妙招: 用4位量化技术,能把大模型的显存砍掉一半,像32B的模型能从80G压到24G; 选轻量版模型,比如带quant后缀的版本; 调调Docker的内存参数,别让后台服务多吃资源。 如果是做个本地知识库这类简单应用,单张显卡就够用。但要是搞多模型协作或者高并发任务,建议直接上多卡方案。总之记住公式:实际显存=模型大小×优化系数,按业务需求搭配就OK啦!”#人工智能 #deepseek #AI #大模型 #dify
00:00 / 01:16
连播
清屏
智能
倍速
点赞
8
小胡-API
1周前
GLM-4.7 Flash (30B-A3B):最强本地 A GLM-4.7 Flash (30B-A3B):最强本地 AI 编码模型#来自热心市民的溜达建议 #暖厨 #逆战未来 #sakuracat怎么下载 #bluesky下载教程
00:00 / 08:30
连播
清屏
智能
倍速
点赞
2
程序员晓刘
5月前
实测智谱 GLM-4.5 大模型 #编程#程序员#开源#智谱 #开源大模型
00:00 / 02:01
连播
清屏
智能
倍速
点赞
70
AIStarter
6月前
本地模型也能这样玩?! 本地部署Ollama模型太麻烦? C盘爆满?模型下载失败? AIStarter帮你一键管理模型路径,支持任意盘符下载,轻松配置open-web-ui,小白也能快速上手! 再也不用担心模型路径混乱,本地AI助手也能如此简单! #本地模型 #AI助手 #Ollama #AIStarter #模型管理
00:00 / 03:55
连播
清屏
智能
倍速
点赞
5
刘和尘
10月前
五分钟本地部署文生图大模型 #ai #教你制作技巧 #教程来了 #本地部署 #摄影
00:00 / 03:50
连播
清屏
智能
倍速
点赞
81
小醒派
1月前
第 86 期 不用写代码,搭叩让我的网站创意快速落地 搭叩让我这个编程小白做出了专业级健康饮食网站! 只需用中文描述需求,它就能在独立云端沙箱中自动完成开发部署。 支持Qwen3-Coder、GLM4.6 、DeepSeek-V3.2等热门模型免费使用。 界面设计不满意?直接告诉搭叩修改,它会自动调整整个项目。 从想法到上线,真正的一站式体验,零技术门槛也能成为AI时代的创造者! 搭叩官网:https://dakou.iflow.cn/ #搭叩 #AIAgent #vibecoding #AI工具#开发效率神器
00:00 / 01:24
连播
清屏
智能
倍速
点赞
39
奇谱智慧
10月前
选对显卡,PC就能部署32B大模型 #deepseek #英特尔 #arca770
00:00 / 05:12
连播
清屏
智能
倍速
点赞
204
废才俱乐部Club
1年前
5分钟学会如何本地部署最强开源模型Llama 3.1 5分钟学会如何本地部署Llama3.1,不需要GPU,不需要高配置电脑,有手就行,包教包会。 #AI #Llama #开源大模型 #大模型 #AIGC
00:00 / 07:42
连播
清屏
智能
倍速
点赞
925
「AI模型研究所」
7月前
微信接入LLM或工作流 使用AstrBot项目对接即时通讯和LLM/工作流,使用WeChatPadPro项目对接微信,最终实现通过AstrBot接入LLM或工作流自动回复微信消息;支持API和本地部署模型,以及Dify等工作流平台。#AstrBot #Dify #LLM #MCP #微信
00:00 / 15:48
连播
清屏
智能
倍速
点赞
85
AI踩坑指南
1月前
屠榜开源本地ai大模型!GLM 4.6V实测! GLM 4.6V是智谱前阵子发布的基于GLM 4.6微调而来的拥有视觉能力的模型。106B的体积和12B的激活参数量让其本地部署使用成为可能,且拥有不错的推理速度。 跟着我,带你实测这个模型,看看开源且可以本地部署的模型已经达到什么水平了! #ai新星计划 #GLM #智谱ai #ai大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
24
第四种黑猩猩
5月前
「只说不一样」openAI新模型gpt-oss有什么特别的?其他不重要,只要记住三个点:开源,本地部署,AI安全风险 #人工智能 #openai #gpt #智能玩家联盟 #deepseek
00:00 / 02:47
连播
清屏
智能
倍速
点赞
602
喵叔实验室
11月前
deepseek本地部署总结(四) lm studio安装,国内源下载模型,设置模型本地路径,加载卸载对话演示 #deepseek #ai #人工智能 #科技 #一分钟干货教学
00:00 / 02:37
连播
清屏
智能
倍速
点赞
359
凌迟
1月前
AUTO GLM 和豆包比起来怎么样 GLM AUTO简单试用,整体测下来有以下几点感受 第一,速度问题,我这个模型不是本地部署的,是运行了远端的api,所以本身运行就很慢 视频是开了三倍速的,依然没有看到非常快的效果 第二,相比豆包手机,它本身可以看到是一个纯视觉效果,比豆包的解决方案还是差些的 第三,现在部署的话还是得依赖adb,也就是说需要有一个电脑,除非是群控系统或者一些自动化的业务 可以用的到,如果是私人生活用的话,还是差的远的 #豆包手机 #glm #ai #大模型 #ai手机
00:00 / 02:12
连播
清屏
智能
倍速
点赞
6
零度解说
1周前
白嫖顶级模型!GLM-4.7 + MiniMax M2.1
00:00 / 13:33
连播
清屏
智能
倍速
点赞
357
TheQuestion问题饼老师
4周前
通义MAI-UI 8B 模型本地部署实测+WebUI 最近把阿里通义实验室开源的 MAI-UI 也做了一个 WebUI。之前发过 AutoGLM 和 Stepfun 的界面,这套 MAI-UI 在 UI 识别精度上表现不错,尤其是 Grounding 能力比较扎实。 项目要点: 模型:目前实测的是 8B 版本(官方也开源了 2B),本地 4090 显卡配合 vLLM 部署。 环境:支持 Docker 部署,集成 ADB/Scrcpy。 交互:自研了点击位置的 Mark 标记,方便观察 Agent 的决策过程。 代码:已经在 GitHub 开源,提供了中文 Readme 和环境配置指南。 相比之前的几套方案,MAI-UI 的模型输出结构略有不同,部署逻辑参考了 vLLM 标准接口。 感受,MAI-UI模型本身 的定位还有执行准确0能力还是比较强的,但是有时候会有进入一个任务死循环的情况,比如在销量排行查找的过程会不断下滑查看。@通义大模型 GitHub:https://github.com/flyfox666/MAI-UI-WebUI #通义大模型 #MAIUI #GUI #编程 #claudecode
00:00 / 12:40
连播
清屏
智能
倍速
点赞
11
舒雄武
11月前
对很多单位来说本地部署满配版Deepseek是很容易的 做了十几年的数据中心,Deepseek的出现,让很多单位都可以轻松的部署满配版的了,但是最重要的是你要有数据给大模型训练,要有价值的数据训练后能实际的应用并能解决问题,个人本地部署搞一些问答推理没什么必要#机房 #数据中心 #Deepseek #deepseek本地部署 #大数据
00:00 / 01:17
连播
清屏
智能
倍速
点赞
1133
AI鼬
1月前
老年机直接变AI手机 国产模型autoglm实现在电脑本地部署,然后来控制手机,理论上来说,后面只要你的手机接入到模型,你的手机直接变成AI手机,一句话,直接帮你完成任何的操作。#ai #豆包手机 #豆包 #autoglm
00:00 / 01:13
连播
清屏
智能
倍速
点赞
224
闪存实验室
11月前
ollama deepseek 模型外置硬盘教程来咯 总装C盘太占空间了 #教程
00:00 / 01:24
连播
清屏
智能
倍速
点赞
41
暴躁哐哐
11月前
本地部署大模型(比如Deepseek)如何预估GPU资源 Deepseek带火了本地部署,但是很多小伙伴会发现部署后的模型又慢又笨,其实是因为GPU资源不达标。如何准确评估资源,本期视频用浅显易懂的公式讲解,建议收藏后慢慢消化 #Deepseek #本地部署 #gpu服务器 #大模型部署
00:00 / 09:13
连播
清屏
智能
倍速
点赞
516
痣哥设计电脑
9月前
DeepSeek本地部署畅跑32B模型配置 DeepSeek本地部署畅跑32B模型配置#deepseek #电脑配置 #本地部署 #电脑
00:00 / 01:35
连播
清屏
智能
倍速
点赞
39
折耳小米辣
11月前
三分钟讲懂本地部署 99%打工人不懂!本地部署藏着这些逆天优势~#本地部署 #本地部署gpt #本地部署ai
00:00 / 01:25
连播
清屏
智能
倍速
点赞
16
波波师兄
11月前
一招解决DeepSeek本地部署ollama下载速度慢的技巧 ollama 在下载DeepSeek模型的时候会越来越慢,只要你在慢的时候,通过 ctrl+ C打断下载,再重新粘贴地址再次运行就能提速。 #DeepSeek本地部署 #ollama #模型下载 #DeepSeek #提速
00:00 / 00:38
连播
清屏
智能
倍速
点赞
132
AI 智汇社区丨 林林
1月前
国内模型再传重磅!12 月 8 智谱 AI 发布并开源 GLM-4.6V 多模态#AI智能体 ##AI智汇社 #AI技术
00:00 / 00:30
连播
清屏
智能
倍速
点赞
30
喵叔实验室
11月前
deepseek本地部署总结(二) ollama运行模型,退出命令,卸载模型命令 #deepseek #本地部署 #AI #科技 #一分钟干货教学
00:00 / 01:16
连播
清屏
智能
倍速
点赞
862
AI踩坑指南
1周前
300亿参数量之王!GLM 4.7 Flash 一手评测! 大家久等了的GLM 4.7 flash就在刚才发布了。直接说结论:30B以下无对手,30B以上代码能力可以摸到Gemini 2.5 flash和Claude 4 Sonnet。 #ai新星计划 #智谱ai #GLM大模型 #大模型评测 #ai编程
00:00 / 04:21
连播
清屏
智能
倍速
点赞
18
蜀黍
1月前
《李李精选》智谱AutoGLM安卓苹果下载安装教程,本地部署教程#智谱AutoGLM #智谱ai #智谱大模型 #豆包手机 #智谱
00:00 / 00:25
连播
清屏
智能
倍速
点赞
4
AI踩坑指南
4月前
1060亿参数大模型本地部署!GLM 4.5 air实测! 这可能是不进行夸张量化下128GB Macbook Pro可以本地运行的最大模型了。智谱的GLM 4.5 air的参数量是不是意味着最强的本地AI性能呢?让我们来盘一盘它! #waytoagi #ai新星计划 #AI #大语言模型 #智谱ai
00:00 / 04:52
连播
清屏
智能
倍速
点赞
10
云之创 痣哥设计电脑装机
9月前
Deep Seek本地部署 畅跑32B模型配置 Deep Seek本地部署 畅跑32B模型配置#deepseek #本地部署 #配置 #配置推荐
00:00 / 01:30
连播
清屏
智能
倍速
点赞
52
明明见自己
11月前
用Ollama本地部署deepseek ollama run deepseek-r1:1.5b#明说 #电脑知识 #AI大模型 #deepseek
00:00 / 06:41
连播
清屏
智能
倍速
点赞
82
大模型学习路线
10月前
10分钟教会你本地部署QwQ-32B模型,全程干货! #AI #大模型 #LLM #QwQ #本地部署
00:00 / 10:12
连播
清屏
智能
倍速
点赞
10
AI工具箱 星弦
8月前
framepack图生视频本地部署 #图生视频 #开源软件
00:00 / 02:01
连播
清屏
智能
倍速
点赞
18
C哥爱分享
1年前
使用LM Studio在本地电脑上部署类GPT大语言模型教程 利用LM Studio超简单在本地部署类GPT大语言模型,快来让自己的电脑上拥有人工智能大语言模型玩玩吧!#Studio #GPT #gemini
00:00 / 01:43
连播
清屏
智能
倍速
点赞
28
司波图
10月前
本地部署AI小模型真的没有意义?我为什么如此上头AI~ 大家好!我是司波图。这期视频我来跟大家聊聊我最近沉迷AI的经历,以及我对小型AI模型本地部署的一些看法。 AI在生活和工作中的应用:分享如何利用大语言模型解决生活中的实际问题,例如育儿喂养建议。 探讨AI在技术方面的帮助,例如在Linux下部署深度学习环境。 展示如何使用Cursor等工具,通过AI代理控制电脑,实现自动化操作。 AI在技术方面的应用:介绍如何使用Dify工作流,结合大语言模型和API,自制刮削器。 探讨AI在处理多模态任务方面的潜力,例如图像识别和信息整理。 介绍一些AI工具,例如:OmniParser,Qwen2.5-vl。 本地部署小型AI模型的意义:分析小型AI模型在特定任务中的实用性,例如文本识别和图像处理。 讨论本地部署的优势,包括隐私保护和稳定性。 介绍一些小的模型,例如:Gemma3 27b,QwQ32b,以及Qwen模型。 介绍一些AI应用,例如:F5-TTS。 总结:分享个人对AI发展的看法,鼓励大家保持学习和尝试的心态。 呼吁大家关注小型AI模型的潜力,不要忽视它们的价值。 #AI #人工智能 #NAS #服务器 #DeepSeek
00:00 / 18:00
连播
清屏
智能
倍速
点赞
433
凌风今天学点啥
7月前
本地大模型部署框架-Ollama和VLLM的使用 本地大模型部署框架-Ollama和VLLM的使用 #ollama #vllm
00:00 / 11:00
连播
清屏
智能
倍速
点赞
13
酉星灵光
6月前
Ollama轻松部署大语言模型 如何本地部署大语言模型?Ollama轻松部署,只需一键安装就可以使用开源大语言模型。#干货 #ollama #本地部署 #知识分享 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
5
AI解决方案-大模型应用落地@老黄
9月前
企业自建本地rag知识库有哪些坑?#rag #知识库 #本地部署 #大模型 #deepseek
00:00 / 01:28
连播
清屏
智能
倍速
点赞
32
老任200斤
1年前
不会本地部署模型的朋友们一定要试试这个工具!操作非常简单#pinokio #玩点很新的东西 #aigc #大模型
00:00 / 00:43
连播
清屏
智能
倍速
点赞
474
郝朋友的AI进化论
6月前
GLM-4.5开源,专做智能体的开源模型 又挖到宝了!智谱最新开源的GLM-4.5模型,性能直接飙到全球第三,开源第一。本期视频硬核演示,看它如何用一句自然语言,直接生成一个能发弹幕的B站克隆版,以及一套完整的商业PPT。最后告诉你如何免费、低成本地用上这个国产AI神器。#AI #GLM #智谱 #程序员 #黑科技 #AI工具 #开源
00:00 / 01:16
连播
清屏
智能
倍速
点赞
14
Ai阿鉴
1年前
ollama部署本地大模型
00:00 / 03:00
连播
清屏
智能
倍速
点赞
458
AIStarter
5月前
GPT大模型本地整合包上线! 开源版 ChatGPT 支持本地部署啦!gpt-oss 发布了两个模型,20B 和 120B,分别可在 16GB 和 80GB 显存设备上运行。熊哥将它们整合成一键部署包,不用 Docker、不用命令行,点开就能跑! 整合了 Ollama 最新版和 OpenWebUI 网页界面,支持网页对话、模型切换、代码调用,适合开发者和小白用户!下载熊哥的 AIStarter,一键安装、极速运行! 用不了几分钟,你的本地 GPT 就能跑起来,真的太爽了! #GPT开源 #大模型部署 #本地AI #AI工具 #整合包
00:00 / 03:52
连播
清屏
智能
倍速
点赞
7
AI编程小朱
6月前
大模型的本地部署和推理工具,该怎么选? #人工智能 #大模型 #算法 #程序员 #大学生
00:00 / 01:26
连播
清屏
智能
倍速
点赞
551
咨钛服务器硬件
7月前
本地部署大模型还不知道怎么选配置? #服务器 #显卡 #英伟达 #抖音小助手dou上热门
00:00 / 00:40
连播
清屏
智能
倍速
点赞
84
知晓财经
1周前
全球大模型第一股,为啥是家中国的公司 #AI #智普ai #上市 #GLM大模型 #全球大模型第一股诞生
00:00 / 03:46
连播
清屏
智能
倍速
点赞
18
简介:
您在查找“
glm有本地部署的模型吗
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-01-28 05:44
最新推荐:
clawdbot怎么启动
赛里木湖冰锥什么天气
赵丽颖为什么拍逍遥
美联储维持利率不变黄金涨还是跌
莫名其庙的意思
和平精英古墓地下营地在哪里
和平精英道士衣服怎么获取
方圆脸醒图美颜参数怎么调自然
萨嘎阿多大大怪孟令辉百变小晨土松
什么时候我才能这么装
相关推荐:
余烬在帝江号的哪里
辛巴和黄晓明谁实力更强
奇迹笨小孩芒果可以看吗
白切鸡交通卡功能
创游世界我的世界终极哞菇巨兽怎么刷
女生脖子戴铃铛表示什么
polly牛津英语课程
八宝粥啥时候喝
如何查使用了本人身份证的东西
密室工作怎么找
热门推荐:
真我Neo8外观
蒜鸟输入法皮肤怎么设置大小
真我neo8发布后会GT8降价吗
你还能发现一个喷气背包
英伟达黄仁勋买水果红包多少
爱情怎么翻译在人人追剧上能看吗
养鸡人弹幕在哪看
wopow沃品充电宝
养鸡宝怎么置顶
特效烟花哪里能买到