Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
codex怎么review代码
亿维plc
龙虾反复调用api应该怎么操作
HTl文件是干嘛的
元宝bot生成的文件怎么查找
mtss里面有啥
怎么给女朋友自制小程序菜单
个人如何生成token绿电
codex怎么像龙虾一样用
openclaw怎么改bind模式
遇见AI
1周前
ClaudeCode +Llama.cpp本地部署 不是Ollama不可以,是Llama.cpp更有性价比。比Ollama推理更快的本地大模型部署方案,完美打通ClaudeCode,解放生产力~#Claude #Llama #本地部署 #AI编程
00:00 / 04:13
连播
清屏
智能
倍速
点赞
51
智橙码域(Orange3dev)
1年前
LLama.cpp Windows部署大模型 #llama2 #大模型 #openai #大模型部署 #llama
00:00 / 02:25
连播
清屏
智能
倍速
点赞
61
大海资源
3天前
谷歌 Gemma 4 首测!26B 专家模型究竟多强? #gemma4 #谷歌开源大模型 #本地大模型 #llamacpp #openclaw
00:00 / 16:43
连播
清屏
智能
倍速
点赞
53
薛定谔的叨叨
3周前
阿里千问qwen3.5-35B-A3B大模型本地部署体验,实现养龙虾模型自由#大模型 #本地大模型 #部署大模型
00:00 / 06:47
连播
清屏
智能
倍速
点赞
95
深火小号2024
1周前
llama.cpp一键优化35B 256K 40t/s 硬件配置CPU:i5-12400F内存:32GB显卡:RTX 4060Ti 16GB 模型与设置模型:Qwen3.5-35B-A3B Q4_K_M上下文:256K推理速度:稳定 40 token/s工具:llama.cpp + LlamaOptGUI 一键测速优化参数 方案本地部署大模型对接 OpenClaw,永久免费养虾,离线可用、无 Token 消耗、隐私安全 工具https://wwauw.lanzouu.com/i3ujt3lp45hg 密码:epri#openclaw #本地大模型 #llama
00:00 / 08:01
连播
清屏
智能
倍速
点赞
9
小红AI
2月前
openclaw使用LLAMA.CPP模型 #openclaw #llama #minimax
00:00 / 01:27
连播
清屏
智能
倍速
点赞
25
大曼哒
3周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
257
跟着Jack学AI
1年前
手把手教你微调LLama3,本地部署详细教程! #程序员 #大模型 #AI #人工智能 #llama
00:00 / 01:59
连播
清屏
智能
倍速
点赞
6
AI踩坑指南
1周前
提速20%!本地大模型的正确打开方式 ollama、lm studio和其他任何相似的工具其背后都是llama cpp。所以我们为什么不直接运行llama cpp呢?通过剥离额外的抽象层,我们可以立马获得20%的提速! #普通人学ai #零基础学ai #实用ai工具 #本地部署大模型 #ai工具使用
00:00 / 02:35
连播
清屏
智能
倍速
点赞
130
Ruby_Axxx
3周前
手搓本地agent测试 测试模型为qwen3.5-9b-q8_0量化版本,采用llama.cpp编译运行,测试过程的任务执行速度和工具调用能力在小参数模型里是一绝的#qwen #ai #agent #openclaw
00:00 / 01:40
连播
清屏
智能
倍速
点赞
2
GPT研究室
2周前
没GPU也能跑大模型 还在以为跑大模型一定要烧云 API、买大显卡? Llama.cpp 就是在干一件很猛的事:把大模型往普通电脑、本地设备和边缘侧拉下来。 它凭什么火? 用 GGUF 这种更适合本地部署的格式来装模型。 用量化把模型压小,内存占用直接降下来。 还能直接开本地 OpenAI 兼容接口,很多应用几乎就能无缝接上。 说白了, 这套东西真正打中的不是“炫技”,而是三件事:省钱、隐私、控制权。 你是更愿意一直租别人的 AI,还是把模型真正跑在自己手里? #AI部署 #AI本地部署 #AI大模型 #AI学习 #大模型部署
00:00 / 06:15
连播
清屏
智能
倍速
点赞
30
老段AI
2周前
精通部署本地大模型 使用openclaw的时候,会消耗大量的token,我们可以搭建本地大模型来为openclaw提供算力。本课程详细介绍了常见的部署本地大模型的工具,包括ollama、llama.cpp、LMStudio、vLLM的使用 #openclaw #vLLM #ollama #LMStudio #llama
00:00 / 03:45
连播
清屏
智能
倍速
点赞
28
王耀鐭
3周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
29
智慧办公坊
3天前
8G显存也能起飞?llama.cpp+qwen模型深度调优 为什么显存没占满,速度却掉到了脚脖子? 为什么 CPU 线程拉满,性能反而缩水 50%? 本期视频带你实测 RTX 3050 8G 在运行 Qwen 3.5 9B 时的性能极限。 通过《三体》3 万字压力测试,深度拆解上下文长度、KV Cache 量化、Batch Size 以及 CPU 线程对推理速度的真实影响。 【核心调优结论】 8G 显存黄金平衡点:32k 上下文--ctx-size 64k 极限模式:必开缓存量化 --cache-type-k/v q4_0 预处理加速:调大吞吐量 --batch-size 远比增加 CPU 线程有效。#模型调优 #本地部署ai 【我的配置】显卡: 3050 8G | 内存: 32G DDR4 | CPU: i3-12100
00:00 / 06:03
连播
清屏
智能
倍速
点赞
32
薛饿喵的腚
1周前
#qwen3.5 #手机本地部署大模型
00:00 / 03:22
连播
清屏
智能
倍速
点赞
17
囧囧_小白
5天前
无聊程序员对 Qwen 做了什么?它现在开口就是“喵~” #大模型微调 #LlamaFactory #猫娘AI #Ollama #Mac编程 #本地部署
00:00 / 02:04
连播
清屏
智能
倍速
点赞
2
智驭导师授AI
10月前
端侧部署llama.cpp+人机视觉对话应用:第2集
00:00 / 19:54
连播
清屏
智能
倍速
点赞
16
废才俱乐部Club
1年前
5分钟学会如何本地部署最强开源模型Llama 3.1 5分钟学会如何本地部署Llama3.1,不需要GPU,不需要高配置电脑,有手就行,包教包会。 #AI #Llama #开源大模型 #大模型 #AIGC
00:00 / 07:42
连播
清屏
智能
倍速
点赞
961
小工蚁
2年前
llama.cpp大神实现投机采样,让大模型推理性能直接翻番
00:00 / 07:10
连播
清屏
智能
倍速
点赞
431
AI数据科学
1年前
llamafile方式本地部署大模型#llamafile#llama.cpp#大模型本地部署#AI
00:00 / 03:12
连播
清屏
智能
倍速
点赞
17
AI与天问
1年前
无需部署,在groq上免费使用Llama3,感觉快如闪电,太炸裂了!#人工智能 #llama3 #大语言模型 #AI聊天 #科技与狠活
00:00 / 01:22
连播
清屏
智能
倍速
点赞
235
Ai 学习的老章
2周前
单4090 本地实测 Claude 蒸馏版 Qwen3.5 我这次实测的是 Qwen3.5 27B 的一个高质量优化版本,用 llama.cpp 在 24GB 显存的 4090 上直接跑。结论先说: 第一,显存压力比我预想的小很多。单卡就能启动,而且 64K 上下文可以稳定开。这个上下文长度,比 GLM 4.7 Flash 高出不少,对个人使用已经很够了。 第二,速度确实不错,平均大概 46 token 每秒,日常对话、文档总结、代码理解,响应都很快。 第三,效果属于中等偏上。核心任务能完成,尤其是阅读理解、SVG 代码生成这类任务,表现已经挺优秀了。 缺点是并发能力相对一般,我后面调了一些更高性能参数,提升不算特别明显。
00:00 / 01:06
连播
清屏
智能
倍速
点赞
27
牛码架构
2周前
NexaSDK本地部署任意AI大模型 这个开源项目必须给大家盘明白!敢喊出任意终端本地跑任意 AI 模型?Nexa SDK 项目已经在GitHub 狂揽 7.8k 星标。它靠自研内核级统一推理引擎,完美支持 GGUF、MLX 主流格式。对比 Ollama、llama.cpp、LLM Studio,它不仅通吃 NPU/GPU/CPU,还能在电脑、手机、车机全设备跑,一行代码直接调用,优势拉满!这么强的项目,赶紧冲! #本地大模型 #github优质项目 #本地部署大模型 #牛码架构
00:00 / 00:31
连播
清屏
智能
倍速
点赞
341
大语言模型
11月前
AnythingLLM+Ollama超详细部署教程 #AnythingLLM #Ollama#本地化部署 #AI大模型 #程序员
00:00 / 05:59
连播
清屏
智能
倍速
点赞
31
AI大陈哥
1年前
Raspberry Pi-5上运行Llama-3等模型指南 Raspberry Pi-5上已经可以使用Llama-3模型,只需要安装ollama就可以一键启用对话,非常简单。大模型在端侧的应用将会越来越多,适用端侧的模型也会越来越多。#大模型 #人工智能 #Llama #树莓派 #程序员
00:00 / 00:47
连播
清屏
智能
倍速
点赞
3310
code秘密花园
10月前
纯本地!零代码!一站式完整数据集准备到模型微调全流程(一) LLaMA Factory 微调系列教程来了! code秘密花园全套 AI 资料合集:http://ai.mmh1.top/ 全网都叫 code秘密花园、ConardLi ,其他都是搬运... #AI #大模型 #模型微调 #DeepSeek
00:00 / 27:53
连播
清屏
智能
倍速
点赞
878
AI小派
1年前
手机安装llama3大模型!超简单,3步一学就会! #ai #大模型 #人工智能 #llama3 #玩机技巧
00:00 / 00:21
连播
清屏
智能
倍速
点赞
54
阿甘探AI
6月前
超轻超快运行本地大模型,秒杀Ollama和llama.cpp!#本地大模型 #本地部署大模型 #开源工具 #ollama#AI
00:00 / 00:23
连播
清屏
智能
倍速
点赞
2568
大洋哥
1年前
Ollama本地部署教程 llama3.2Vision本地部署,免费使用支持图片识别的GPT语言模型,免费使用chatgpt4.0,本地无需联网使用chatgpt#chatgpt #人工智能 #图片识别
00:00 / 03:14
连播
清屏
智能
倍速
点赞
1091
猿变实验室
1年前
一个视频分清楚llm、llama、ollama、rag.. 刚刚接触大模型开发的小伙伴们, 很容易被一些基础概念搞混, 本视频老六分享了大模型中的几个概念 #llm #大模型 #deepseek本地部署 #大模型开发 #python编程
00:00 / 03:55
连播
清屏
智能
倍速
点赞
63
懂AI的引路哥
1周前
本地大模型部署圈新晋黑马 Llama-Swap #Llama-Swap #本地大模型部署 #多模型管理 #开源模型适配 #模型管理工具
00:00 / 02:28
连播
清屏
智能
倍速
点赞
11
xAI
9月前
分享4款主流的大模型开源训练微调框架 第一款LLaMA-Factory、第二款unsloth 、第三款deepspeed 、第四款Axolotl。#微调 #llamafactory #开源 #训练微调
00:00 / 00:37
连播
清屏
智能
倍速
点赞
178
智慧办公坊
1周前
Qwen 3.5本地部署全攻略 2026算力大饥荒:别再排队等API #Qwen3.5 #ai教程
00:00 / 05:07
连播
清屏
智能
倍速
点赞
22
AI大模型入门教程
9月前
Ollama部署本地DeepSeek #AI大模型 #后端开发 #程序员 #编程 #大模型
00:00 / 21:14
连播
清屏
智能
倍速
点赞
76
小北爱滑雪
1年前
想拥有一个免费的ChatGPT?教你本地部署最新开源大模型 使用LM Studio部署最新开源的大模型Llama 3.2
00:00 / 02:40
连播
清屏
智能
倍速
点赞
32
元宇宙阿呆
1年前
本地快速搭建Llama3 8B大模型#人工智能 #一分钟干货教学 #干货分享
00:00 / 00:58
连播
清屏
智能
倍速
点赞
1278
不秃头的程序猿
1年前
Llama3模型下载与配置安装 #人工智能 #程序员 #ai #计算机 #大模型
00:00 / 18:14
连播
清屏
智能
倍速
点赞
13
AI大师兄
1年前
使用AnythingLLM加ollama可以搭建本地大模型知识库#人工智能 #llama3 #大模型 #ollama #知识库
00:00 / 00:22
连播
清屏
智能
倍速
点赞
1061
哈瑞
1年前
3分钟学会llama3大模型微调,打造一个自己的专属大模型 llama3的微调代码和数据集都打包好了,全自动微调,一看就会,学了就用 #模型微调 #llama3 #llama3微调 #AI学习 #一分钟干货教学
00:00 / 01:15
连播
清屏
智能
倍速
点赞
1387
星环无限
1年前
一分钟本地部署最强开源大模型Llama3.一键安装包省去了装docker的麻烦,超级适合新手#chatgpt应用领域 #ai工具 #llama3 #人工智能
00:00 / 00:46
连播
清屏
智能
倍速
点赞
460
陈晨cc
1年前
本地部署大模型Llama3,断网也能用啦 #AI #llama3 #AI智能写作 #人工智能 #docker
00:00 / 01:01
连播
清屏
智能
倍速
点赞
42
迪哥Ai大讲堂
1年前
还不懂Llama3的有救了~ 从头开始实现一个,全部细节你都能Get到
00:00 / 00:32
连播
清屏
智能
倍速
点赞
3101
小闲AI
1年前
大模型训练神器llama-factory,Linux系统部署,0代码完成模型微调 #大模型 #微调 #deepseek
00:00 / 02:28
连播
清屏
智能
倍速
点赞
35
无絃的执着
1周前
本地部署大模型,量化是必修课。用 Ollama 跑模型时默认就是 Q4 量化,效果比想象中好得多。真正的精度损失往往发生在 Q2 以下——Q4 日常使用几乎感知不到差异,但显存需求直接砍掉 75%。 #AI人工智能 #大模型
00:00 / 00:24
连播
清屏
智能
倍速
点赞
0
编程快车
2周前
自己部署了一个小米大模型,速度飞起 部署方法三步搞定:第一步下载模型Xiaomi-MiMo-VL-Miloco-7B-GGUF;第二步下载llama.cpp;第三步运行模型。 详细步骤提示词: 如何下载模型Xiaomi-MiMo-VL-Miloco-7B-GGUF; Windows如何下载llama.cpp 或 Linux如何下载llama.cpp ; 如何运行模型; 个人电脑配置:5060ti 16G显卡,我查了一下,GTX1060 、RTX3050等以上的显卡都是可以的。 视频中使用的操作系统:Windows 11 专业版 版本号25H2 #小米 #大模型 #mimo #llama
00:00 / 00:22
连播
清屏
智能
倍速
点赞
0
AI踩坑指南
10月前
Ollama最新更新,新引擎支持开源多模态模型!完全本地运行 现在很多闭源模型如ChatGPT, Gemini都已经是多模态模型了。但是开源模型社区的多模态支持的并不是特别好。现在Ollama最新的0.7.0版本带来了他们的新引擎并与安生支持多模态模型。 #ai新星计划 #waytoagi #ai应用 #人工智能 #ai大模型
00:00 / 01:52
连播
清屏
智能
倍速
点赞
36
大模型教程
9月前
零代码LLaMA-Factory微调大模型,原理到微调全流程 零代码LLaMA-Factory微调大模型,原理到微调全流程#大模型 #AI #人工智能 #大语言模型 #程序员
00:00 / 24:38
连播
清屏
智能
倍速
点赞
13
AI猿姗姗
1年前
适合初学者的从零到一实现LLama3模型 #人工智能 #ai #llama #大模型 #程序员
00:00 / 00:32
连播
清屏
智能
倍速
点赞
2180
艾克ai分享
2年前
在本地安装大模型最简单的方法,只需要下载一个文件就能用上AI #人工智能 #科技 #大模型 #干货分享 #AIGC
00:00 / 00:25
连播
清屏
智能
倍速
点赞
1147
【教程👀简阶】爱学大模型的疯哥
1年前
【喂饭教程】10分钟教你本地部署大语言模型Llama3中文版 #大模型 #llama3 #本地部署 #ai #程序员
00:00 / 12:00
连播
清屏
智能
倍速
点赞
70
图灵程序员徐庶
1年前
10分钟用LlamaFactory微调模型部署ollama #程序员 #AI大模型 #LlamaFactory #deepseek #图灵Java
00:00 / 15:05
连播
清屏
智能
倍速
点赞
1155
韩亚投资官方主号
1年前
适合玩AI的电脑怎么选?你需要这样的配置! #数码产品 #装机 #电子元器件 #diy电脑 #电脑 小伙伴们,你是不是也想在自己的电脑上跑AI模型,比如ChatGPT、Stable Diffusion、Llama 3,甚至自己训练点小模型?那么,你需要一台能玩AI的电脑!今天就告诉你,什么样的电脑适合AI,以及具体的配置要求!
00:00 / 03:10
连播
清屏
智能
倍速
点赞
64
无絃的执着
6天前
从 Transformers 原生推理切换到 vLLM,不改一行业务代码,吞吐量直接翻 3-5 倍。私有化部署大模型,vLLM 是第一选择——但要注意:它对显存要求较高,小显存机器(<16GB)建议用 llama.cpp 或 Ollama 替代。生产环境记得开 --enable-prefix-caching,System Prompt 复用能省掉大量重复计算。 #ai人工智能 #大模型 #vLLM
00:00 / 00:24
连播
清屏
智能
倍速
点赞
23
迪哥谈AI
2周前
上班摸鱼3.5小时搭建私有知识库!豆包、本地部署、llama #AI新星计划 #豆包 #大模型 #知识库 #AI
00:00 / 58:58
连播
清屏
智能
倍速
点赞
287
龙丽坤
1年前
免费GPU部署DeepSeek 671B动态量化模型全攻略 #deepseek #gpu #deepseek部署 #cuda #llamacpp 在这期视频中,我将介绍如何在免费GPU上部署动态量化的DeepSeek 671B模型,以显著提高推理效率并减少内存占用。
00:00 / 08:11
连播
清屏
智能
倍速
点赞
473
山果AI脑壳
8月前
ChatGPT可以本地跑了,免费部署AI模型我选它! Ollama,一款轻量又强大的本地大模型运行工具,支持热门模型如:DeepSeek ,LLaMA,千问,及最openai最新开源的gpt-oss等通通能跑!而且还能作为本地AI项目的推理后端调用模型,用来做插件/助手/开发都很灵活! 主打一个:白嫖、安全、不费神,谁都能用。#ai工具 #ai办公 #ai大模型 #chatgpt #ollama
00:00 / 00:52
连播
清屏
智能
倍速
点赞
21
lee
3天前
LLaMA:开启大语言模型的轻量化民主时代 LLaMA:开启大语言模型的轻量化民主时代#LLaMA: #大模型
00:00 / 09:23
连播
清屏
智能
倍速
点赞
23
AI-Signal
2月前
#大模型 #大模型部署 #大模型算力
00:00 / 00:50
连播
清屏
智能
倍速
点赞
181
IANAI
3天前
Gemma 4炸场!谷歌开源模型碾压Llama 4 谷歌重磅发布Gemma 4开源大模型家族,在数学、编程、逻辑推理等核心基准测试中全面超越Llama 4和Qwen 3.5。更关键的是,这次采用Apache 2.0许可证,彻底取消商业限制。从4GB手机到单张4090显卡,四款模型覆盖全场景部署。最具突破性的"思考模式"让AIME数学得分从20.8%飙升至89.2%,开源模型首次触及封闭系统的推理天花板。 亮点: • 旗舰级31B稠密模型 + 26B MoE架构,128个专家网络仅激活3.8亿参数,算力节省87.5%却保持97%性能 • E系列支持原生音频处理,4-6GB内存的手机和笔记本即可运行OCR与语音转录 • Apache 2.0 + 链式思维推理 + MoE高效架构,企业级本地AI部署的游戏规则改变者 #Gemma4 #谷歌开源 #本地部署 #MoE架构 #开源AI
00:00 / 03:00
连播
清屏
智能
倍速
点赞
11
AI小蔡狗
3周前
开源玩转所有顶级大模型,完全在本地运行! #AI大模型 #github #编程 #本地部署 #网站推荐
00:00 / 00:39
连播
清屏
智能
倍速
点赞
1271
kate人不错
5月前
Qwen3‑VL 在本地怎么选更稳 llama.cpp 新 Web UI 真的香 本期你将收获: - 如何快速上手 llama.cpp 新 Web UI(安装、启动、功能全览) - Qwen3‑VL 32B/A3B 与 Gemini 2.5、Claude Sonnet 4 的多场景实测对比 - GGUF vs MLX 的真实差异:OCR/边界框/长图/反光/复杂版式等 - JSON 模式、PDF 当图像、HTML/JS 内联、URL 参数输入等“提高生产力”的新功能 - 何时选 Unsloth/GGML 的 GGUF 版本,避免 LM Studio 版本问题 - 4B‑Thinking 与 Omni‑3B 的“思考力/语音理解”实测与适用场景 - 我的结论: - 本地优先选 GGUF(GGML/Unsloth),llama.cpp 新 Web UI 体验非常好 - 32B 在多数场景下更稳更准,A3B 速度快但有场景差异 - MLX 量化存在精度/边界框问题,社区正在修复 时间戳 00:00 开场 & 上期更正 02:24 llama.cpp 新 Web UI 上手 03:31 Qwen3‑VL‑32B 亮点与基准 04:20 多模型实测对比 09:01 GGUF vs MLX 实测 17:04 4B‑Thinking/Omni‑3B 实测
00:00 / 18:56
连播
清屏
智能
倍速
点赞
36
唐国梁Tommy
1年前
案例实战-17-llama.cpp量化模型API服务部署 #llama #大模型训练 #api #大模型课程
00:00 / 13:58
连播
清屏
智能
倍速
点赞
5
锐的宝贝熙熙
1年前
#Ai大模型 一分钟教会你怎么使用各种Ai大模型deepseek -r1 通义千问 llama3
00:00 / 01:35
连播
清屏
智能
倍速
点赞
311
简介:
您在查找“
llama.cpp配置本地模型
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-07 06:42
最新推荐:
润泽洗礼石怎么给翠顶夫人
洛克王国直升50级教程
dnf超越武器怎么看buff
几个球出污染
龙息帕尔推主线怎么配技能
构图拍摄技巧上半身坐着车里
健身可以听的博客
迪丽热巴33岁还能演多少年
红通人员回国影响
就像已伤的心不胜折磨dj
相关推荐:
生活中最好不要有谎言高泽宇
为什么三角洲神人那么多
洛克王国图鉴102怎么获得
绒仙儿拿什么球抓
mc文旅教程
萧岸褒姒云番外
月鳞绮纪有感情线吗
洛克王国隐藏色是什么
塔防怎么卡猪猪侠
一个月的小狗怎么一直抖
热门推荐:
科科魔方智能控制器
加大功率小皮球怎么解锁
解压大师edc怎么卸载
小兴看看SC80
去年的订单还可以退货退款吗
claudecode源码魔改方法
拼多多助力国家不监管吗
向上一步播客在哪看
easyclaw怎么删除
豆包问婚姻模板使用教程