Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
image2如何出图
openclew如何微信插件
蓝桥杯省赛能查看自己是否提交了吗
image2看手相效果是开源吗
量化EA编译成功找不到了怎么找
异环一键配置教程
ai洗头问答怎么生成
烽火挑战赛全赢了会怎么样
libtv属于aigc吗
xiao模型在哪看剩余token
遇见AI
1月前
ClaudeCode +Llama.cpp本地部署 不是Ollama不可以,是Llama.cpp更有性价比。比Ollama推理更快的本地大模型部署方案,完美打通ClaudeCode,解放生产力~#Claude #Llama #本地部署 #AI编程
00:00 / 04:13
连播
清屏
智能
倍速
点赞
228
智橙码域(Orange3dev)
1年前
LLama.cpp Windows部署大模型 #llama2 #大模型 #openai #大模型部署 #llama
00:00 / 02:25
连播
清屏
智能
倍速
点赞
92
智驭导师授AI
11月前
端侧部署llama.cpp+人机视觉对话应用:第2集
00:00 / 19:54
连播
清屏
智能
倍速
点赞
18
大曼哒
1月前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
406
王耀鐭
1月前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
36
天工开帧
3周前
实操演示,如何在本地有限的硬件上跑尽可能强的模型。 llama.cpp 配置参数解释: --no-mmap 只影响模型加载速度,小模型不用加,大模型加更稳,不卡死。 -ngl 层数,调低可以让你跑更大模型,但影响速度。27B的IQ4模型本机测试31层最优解。 -ot 指定层数可以将FFN 超大模块,强制放回 CPU 跑,避免KV 缓存放不下,长上下文直接崩,让显存刚好压在 15.5GB 安全线 * 'chcp 65001':设置 UTF-8 编码(适合表情符号/特殊字符)。无特殊用途。 * 上下文大小('-c'):66,000。 大概比64k多一点,预留给小龙虾窗口。 * GPU 层数('-ngl'):29 层。我的16G显卡最快其实可以开到31层,但会占满显存,导致我玩不了游戏了,这里自己权衡。当然不同模型层数不一样,自己查资料一点点试。 * 将特定层卸载给CPU(“-ot”):使用正则表达式强制特定块(27-30)到CPU。这是针对16GB显存卡(RTX 5060 Ti 16G)的高度优化,以防止内存不足(OOM)。 * 线('-t'):5. 这里大概逻辑是CPU核心数减1,还是留给自己打游戏。 * 闪光注意('--flash-attn'):启用。 * 缓存 RAM('--cache-ram'):32768(32GB)。 这里不要学我,我是内存多到没地方用,实际4G足够了。 * 内存映射(“--no-mmap”):禁用(强制加载到内存)。
00:00 / 02:02
连播
清屏
智能
倍速
点赞
410
不夜
1周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
135
AI踩坑指南
1月前
提速20%!本地大模型的正确打开方式 ollama、lm studio和其他任何相似的工具其背后都是llama cpp。所以我们为什么不直接运行llama cpp呢?通过剥离额外的抽象层,我们可以立马获得20%的提速! #普通人学ai #零基础学ai #实用ai工具 #本地部署大模型 #ai工具使用
00:00 / 02:35
连播
清屏
智能
倍速
点赞
425
小工蚁
10月前
Llamafactory SFT训练Qwen3函数调用 #小工蚁 #大模型训练 #开源软件
00:00 / 03:50
连播
清屏
智能
倍速
点赞
79
搬砖最勤快
1周前
5060TI16G 测试Llama和TurboQuant 测试Llama-cpp原版框架vsLlama-cpp-TurboQuant框架 同参数跑千问Qwen3.6-35b-a3b-Q4km速度对比 小显存卡确实太吃力了 结果还蛮奇特的 有点意外 评论区哥们@喵 #Qwen36 #TurboQuant #35ba3b #本地部署 #本地部署大模型
00:00 / 02:48
连播
清屏
智能
倍速
点赞
117
AI.Accelerate
1年前
用MetaGPT + 本地llama3模拟一个软件公司,进行自动编程 #人工智能 #编程
00:00 / 01:35
连播
清屏
智能
倍速
点赞
1338
IT塔台
2周前
Ollama和llama.cp 到底啥关系?性能差一倍! #Ollama#llamacpp #本地大模型 #AI大模型
00:00 / 05:11
连播
清屏
智能
倍速
点赞
424
环线科技
1年前
玩ai就要配置好电脑,才能发挥各种ai软件的最佳性能 #ai #整合包 #电脑设置
00:00 / 04:18
连播
清屏
智能
倍速
点赞
470
胡泊Hubo
2年前
Llama 3 本地部署教程来了!而且是中文版 #chatgpt应用领域 #人工智能 #llama3 #gpt #科技改变生活
00:00 / 02:38
连播
清屏
智能
倍速
点赞
3684
AI陪你学
1周前
自动启动llamacpp的webui #AI #ai编程
00:00 / 01:28
连播
清屏
智能
倍速
点赞
10
智慧工具坊
1月前
8G显存也能起飞?llama.cpp+qwen模型深度调优 为什么显存没占满,速度却掉到了脚脖子? 为什么 CPU 线程拉满,性能反而缩水 50%? 本期视频带你实测 RTX 3050 8G 在运行 Qwen 3.5 9B 时的性能极限。 通过《三体》3 万字压力测试,深度拆解上下文长度、KV Cache 量化、Batch Size 以及 CPU 线程对推理速度的真实影响。 【核心调优结论】 8G 显存黄金平衡点:32k 上下文--ctx-size 64k 极限模式:必开缓存量化 --cache-type-k/v q4_0 预处理加速:调大吞吐量 --batch-size 远比增加 CPU 线程有效。#模型调优 #本地部署ai 【我的配置】显卡: 3050 8G | 内存: 32G DDR4 | CPU: i3-12100
00:00 / 06:03
连播
清屏
智能
倍速
点赞
81
AIGC 蛮子
3周前
实现Token自由,本地llama cpp搭建快速本地模型 【openclaw 保姆级基础教程】实现openclaw Token自由,本地llama cpp搭建快速本地模型#龙虾 #智能体 #模型 #qwen3 #llamacpp
00:00 / 06:58
连播
清屏
智能
倍速
点赞
40
博弈
7月前
在6张2080ti显卡上安装llama.cpp对glm4.5 air量化版106B-A12B-q4_k_m.gguf进行推理,量化模型69g大小,每张卡不到100w功耗,整机不到800w功耗,上下文128K,显存占用不到17G,显卡温度不超过40度,每秒31tokens,每小时耗电不到6毛,一天10小时不停不到5元电费,无限量tokens,glm4.5 air智商远超32B现有模型,代码能力超强,视频最后附安装步骤,截图发给AI即可按教程安装#大模型
00:00 / 00:32
连播
清屏
智能
倍速
点赞
58
老段AI
1月前
【反应飞快】让openclaw速度快的要起飞了 openclawoy 用llama.cpp平台部署的本地大模型,速度快的起飞,基本秒出 #openclaw
00:00 / 02:56
连播
清屏
智能
倍速
点赞
123
kate人不错
3周前
llama.cpp 文本生成提速15.1%(x86) SkyPilot团队做了个反直觉实验 👇 同样是用AI优化 llama.cpp CPU推理: - 只看代码的AI:死磕AVX2、循环展开,提升≈0 - 先读论文+扒竞品仓库的AI:读FlashAttention,研究ik_llama.cpp、llamafile、CUDA/Metal后端,然后动手 结果直接五连优化: ✅ Softmax融合:3次内存遍历→1次 ✅ RMS Norm融合:省一次内存pass ✅ 自适应并行化:prompt/生成动态切换 ✅ 补上CPU缺失的RMS Norm+乘法融合 ✅ Flash Attention KQ计算三步压成一步 战绩:x86提速15.1%,ARM提速5%,缓存更稳。 成本:3小时+4台云VM+$30。 30多次尝试里失败20多次,但恰恰说明——当最优解不在代码里,而在论文和竞品实现里时,先研究再动手才是王炸。 有benchmark的开源项目?建议立刻试试。 #AI编程 #llamacpp #开源优化 #FlashAttention
00:00 / 03:05
连播
清屏
智能
倍速
点赞
19
苦苦菜(Coding)
3周前
手机本地跑大模型 llama.cpp 部署 Qwen2.5 VibeCoding 第 11 期干货! ✅ 手机本地部署 llama.cpp+Qwen2.5-1.5B ✅ 体验本地大模型文本整理 ✅ Coze 工作流完成发票识别,业务全打通 下期教你 Windows 搭建 iOS 环境,移植 Flutter APP! 关注看更多 AI 编程实战~ #AI编程 #vibecoding #氛围编程 #程序员vlog #AI技巧
00:00 / 28:23
连播
清屏
智能
倍速
点赞
56
AI大陈哥
1年前
openAI的Triton语言联合Pytorch围剿cuda openAI开源的triton语言可以在不使用cuda基础上,同一份代码在英伟达,AMD和Intel的GPU上无差别使用,性能是满血cuda核心的80%,同时AMD发布的MI325X GPU性能已经是英伟达H200的1.3倍以上,鉴于NVidia的GB200 GPU共工艺缺陷导致产能受阻,cuda可能丧失其统治地位。#科技 #GPU #显卡 #英伟达 #openai
00:00 / 00:40
连播
清屏
智能
倍速
点赞
857
迪哥Ai大讲堂
1年前
还不懂Llama3的有救了~ 从头开始实现一个,全部细节你都能Get到
00:00 / 00:32
连播
清屏
智能
倍速
点赞
3104
蒋巍升学就业
2年前
#考研##编程 cuda 编程,好比你用习惯了windows ,你就垄断了
00:00 / 01:03
连播
清屏
智能
倍速
点赞
247
迪哥Ai大讲堂
1年前
Llama3微调-量化-部署-应用一条龙解读 内容较长,兄弟们可以先赞后看以备不时之需
00:00 / 14:10
连播
清屏
智能
倍速
点赞
3076
莫失莫忘
3周前
4月10日 #AI #gemma4 #llama本地部署
00:00 / 03:26
连播
清屏
智能
倍速
点赞
69
AI探趣星船长
1周前
本地大模型也能 AI 编程!逼近 #GEMINI 3 效果 #干货分享,#邪修 玩法! 不用付费 token,古董显卡跑本地#AI编程开源大模型#千问 ! #程序员 速码! Opencode + llama.cpp + Qwen3.6 + 2080TI 配置改完直接起飞!电脑都干冒烟了
00:00 / 01:03
连播
清屏
智能
倍速
点赞
311
不夜
1周前
ollama,llama.cpp,LMstudio性能对比 ollama,llama.cpp,LMstudio性能对比,结果让我选择放弃ollama #ollama #llamacpp #lmstudio #AI #人工智能
00:00 / 08:19
连播
清屏
智能
倍速
点赞
204
程序员老张(AI教学)
2年前
超越GPT3.5!最强开源大模型Llama3,本地化部署教程#chatgpt4 #ai #科技改变生活 #chatgpt4 #llama3
00:00 / 02:39
连播
清屏
智能
倍速
点赞
1213
博弈
2月前
通过6张2080ti显卡使用llama.cpp运行MiniMax-M2.1-UD-IQ3_XXS.gguf量化版大模型,使用opencode,并安装skill两款插件superpowers和ui-ux-pro-max,目前MiniMax-M2.1对工具的调用还有欠缺,希望年前用上更新的大模型MiniMax-M2.2,对做T程序进行界面更新,新增个股可T记录优先独立显示,新增个股信息详细显示,可快速根据价格和持仓数量,以及可T数量进行判断,优化实时数据的显示,高亮可T个股持续显示,进一步提供操作效率,减少工作量,财经资讯系统同步更新中,后续将会整合到主程序,进行实时显示#大模型 #量化 #量化交易
00:00 / 00:32
连播
清屏
智能
倍速
点赞
552
归宗智能Francis
1年前
Raspberry pi-5运行Llama-3等模型指南只需要安装ollama就可以一键启用对话。#人工智能 #大模型 #程序员 #Llama
00:00 / 01:03
连播
清屏
智能
倍速
点赞
50
余汉波
1年前
中文版llama3-zh-inst,怎么在Ollama上安装? #效率工具 #代码 #gpt #ai
00:00 / 05:26
连播
清屏
智能
倍速
点赞
5
深度挖掘机
10月前
LlamaIndex从零开始构建Agent #LlamaIndex #Agent #智能体 #workflow #经验分享
00:00 / 24:49
连播
清屏
智能
倍速
点赞
14
Mr.Chen
2周前
qwen3.6 35B配置hermes大脑 就是玩,这么新的大模型怎么能不体验一下呢 #hermes爱马仕 #hermes #qwen #openclaw
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
刘靖峰-峰哥讲AI
1年前
LLaMa4 Scout 刚刚发布! 本地安装比DeepSeek便宜好用的LLaMa4 Scout多模态大模型
00:00 / 05:59
连播
清屏
智能
倍速
点赞
5
天工开帧
4周前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
745
好好学AI
1年前
如何用ollama部署Llama3和qwen2大语言模型 #AI #LLM #大语言模型私有化部署
00:00 / 13:22
连播
清屏
智能
倍速
点赞
34
图灵程序员徐庶
1年前
10分钟用LlamaFactory微调模型部署ollama #程序员 #AI大模型 #LlamaFactory #deepseek #图灵Java
00:00 / 15:05
连播
清屏
智能
倍速
点赞
1162
Ai 学习的老章
3周前
Ollama 0.20,Mac 本地推理速度翻倍 MLX 是苹果专门给自家芯片做的机器学习框架。CPU 和 GPU 共享一块内存,数据不用来回拷,天然就快。之前 Ollama 用的是 llama.cpp,现在换了 MLX,等于直接装了涡轮增压。 效果有多猛?官方数据,基于 M5 芯片跑 Qwen3.5 35B 模型。预填充速度提升 57%,生成速度提升 93%,几乎翻倍。跑 Coding Agent 的时候,代码嗖嗖往外吐,那个感觉,爽。 而且这次量化格式用的是英伟达的 NVFP4。你可能会问,Mac 上跟英伟达有啥关系?关系大了。NVFP4 是英伟达的 4 位浮点量化方案,精度损失极小。什么概念呢?跑 AIME 数学测试,NVFP4 甚至比 8 位精度的分还高。用它量化,本地跑的结果跟云端几乎一样。以前本地和云端之间总有一条质量鸿沟,现在这条沟被填平了。 除了引擎换血,缓存机制也升级了。跨会话复用缓存、智能检查点、更聪明的淘汰策略。跑 Claude Code、OpenCode 这类 AI 编程工具的时候,整体响应明显快了一截。 我的看法:对 Mac 用户来说,这次更新必装。M4 以上芯片加 64G 内存的配置,本地跑大模型的体验已经逼近可用了。如果你之前觉得本地推理慢,现在该刷新认知了。
00:00 / 01:50
连播
清屏
智能
倍速
点赞
11
阿尔狄西亚
2周前
llamacpp的 ngl 和 ncmoe 参数要好好利用
00:00 / 03:00
连播
清屏
智能
倍速
点赞
8
大厂阿星
1周前
单TOKEN 成本决定一切!vLLM吊打Ollama的真相 #大模型面试 #大模型学习 #ollama #人工智能 #ai
00:00 / 02:48
连播
清屏
智能
倍速
点赞
554
莫失莫忘
1周前
4月27日(1) #opencode #qwen #AI应用 #大模型 #ai龙虾 #claudecode
00:00 / 02:01
连播
清屏
智能
倍速
点赞
15
先锋Ai
2周前
Qwen3 10秒超快提示词反推节点安装教程 #ai教程技巧 #ai教程每日学 #AI教程免费学习 #标记我的宝藏好书 #让困难的事情变简单 Qwen3 VL Llama-cpp和Llama轮子安装,10秒超快提示词反推节点教程,让节点发推不在成为累赘。
00:00 / 02:58
连播
清屏
智能
倍速
点赞
2
GPT研究室
1月前
没GPU也能跑大模型 还在以为跑大模型一定要烧云 API、买大显卡? Llama.cpp 就是在干一件很猛的事:把大模型往普通电脑、本地设备和边缘侧拉下来。 它凭什么火? 用 GGUF 这种更适合本地部署的格式来装模型。 用量化把模型压小,内存占用直接降下来。 还能直接开本地 OpenAI 兼容接口,很多应用几乎就能无缝接上。 说白了, 这套东西真正打中的不是“炫技”,而是三件事:省钱、隐私、控制权。 你是更愿意一直租别人的 AI,还是把模型真正跑在自己手里? #AI部署 #AI本地部署 #AI大模型 #AI学习 #大模型部署
00:00 / 06:15
连播
清屏
智能
倍速
点赞
32
小宇玩AI
2周前
Ollama 其实是 llama.cpp 的壳子 你家里跑的 Ollama,其实是改名换姓的 llama.cpp 壳子——慢 80%、不归属、把蒸馏模型当旗舰卖、还偷偷走云。 开源精神就一条:能用、可验证、别装孙子。Ollama 这四件事全占反。 视频里给你四个替代品,今天就能换。 #Ollama #llamacpp #本地AI #开源 #小宇玩AI
00:00 / 02:59
连播
清屏
智能
倍速
点赞
1604
赋范课堂
1年前
使用llama.cpp做GPU+CPU混合推理QWQ-32B 性能比肩DeepSeekR1!?使用llama.cpp实现GPU+CPU混合推理QWQ-32B(附源码)#QWQ32B #DeepSeek #大模型 #人工智能
00:00 / 08:38
连播
清屏
智能
倍速
点赞
89
元宇宙阿呆
2年前
本地快速搭建Llama3 8B大模型#人工智能 #一分钟干货教学 #干货分享
00:00 / 00:58
连播
清屏
智能
倍速
点赞
1278
阿尔狄西亚
4周前
llamacpp更适合个人玩家
00:00 / 02:57
连播
清屏
智能
倍速
点赞
12
光影紐扣
2周前
ComfyUI LLM External 是一个为 ComfyUI 提供本地大语言模型(LLM)和视觉多模态模型集成的自定义节点包。它支持通过 Ollama、llama.cpp、LM Studio 等兼容 OpenAI API 的后端,在 ComfyUI 工作流中直接调用 LLM 进行文本生成、图像反推、任务规划等操作。 https://github.com/fan200617120-ui/comfyui_llama_external 链接:https://pan.baidu.com/s/1OTsi50VMkwVc_znh5uMpLQ 提取码:6688 #comfyui #提示词 #comfyui工作流 #ai #ai本地部署
00:00 / 01:53
连播
清屏
智能
倍速
点赞
2
玩客笔记
1周前
零云端 API 打造离线多模态全家桶 2026 本地 AI 末日堡垒:llama.cpp + ComfyUI + OpenWebUI,零云端 API 打造离线多模态全家桶 #Ai #Ai全家桶 #Ai本地大模型 #人工智能 #Ai应用
00:00 / 00:31
连播
清屏
智能
倍速
点赞
0
宁波市鸿盟电脑有限公司官方账号
1周前
部署AI系统第三步——大模型环境部署 #多模态人工智能 #ai #软件设计与开发 #ai本地部署 #宁波
00:00 / 01:05
连播
清屏
智能
倍速
点赞
5
碳基生物退役指南
3周前
Gemma4本地部署实战之三:我在OpenClaw养只小虾球 Gemma 4 本地部署实战之三:8GB 丐中丐 Mac,硬上 OpenClaw 养虾,整个就是一场极限踩坑。 这期我把 Gemma 4 E4B 接进 llama.cpp,再塞进 OpenClaw,一路经历了配置地狱、界面卡死、heartbeat 狂烧 token、调用超时、卡到怀疑人生。 最离谱的是,虾球嘴上答应记住新名字,结果根本没写入文件,主打一个“说了,但没做”。 最后我只能手改配置、重写 SOUL,再靠 kv cache 量化硬救 8GB 内存,才终于把这只小虾从半死不活,拉到软糯实用。 下面是“虾球打印助手”的SKILL.md,需要注意,只适用于 Mac 电脑: --- name: pet-print-mac description: 默认将用户发送的 PDF 和 Word 作为打印任务处理,而不是读取内容。当用户发送了图片,并明确要求打印图片时,也按打印任务处理。 --- # 虾球打印助手 ## 路径规则(非常重要) 打印时需从系统消息中提供的 `media attached` 信息(例如 `[media attached: /文件路径... (mime_type)]`)中提取文件的**文件路径**,并直接将其传给 `lp` 命令使用。 ## Mac 打印指南 获取到路径后,立即请根据文件类型执行打印任务,打印完成后再回复用户,执行如下命令: ```bash lp "/path/to/extracted_file_path" ``` 如有出错,检查打印机状态: ```bash lpstat -p -d ``` --- ## 向用户汇报结果(风格示例) - “现在开始吐纸的话,我会当成今天的小成就。” - “这个我没有先偷看,按你的意思直接送去打印了。” #gemma4 #人工智能 #AI测评 #大语言模型 #谷歌
00:00 / 12:47
连播
清屏
智能
倍速
点赞
47
不夜
1周前
vLLM本地部署性能测试 ollama,llama.cpp,LMstudio性能对比,结果让我选择放弃ollama#ollama #llamacpp#lmstudio#AI#人工智能
00:00 / 05:50
连播
清屏
智能
倍速
点赞
29
龙丽坤
1年前
免费GPU部署DeepSeek 671B动态量化模型全攻略 #deepseek #gpu #deepseek部署 #cuda #llamacpp 在这期视频中,我将介绍如何在免费GPU上部署动态量化的DeepSeek 671B模型,以显著提高推理效率并减少内存占用。
00:00 / 08:11
连播
清屏
智能
倍速
点赞
472
大小寒学AI
1年前
4-5(5):gguf模型文件转换 GGUF | Ollama | llama.cpp #langchain
00:00 / 21:49
连播
清屏
智能
倍速
点赞
27
AI大雄不懒了
3周前
ollama
00:00 / 02:38
连播
清屏
智能
倍速
点赞
2
🍁
2周前
#大模型 #大模型部署 #端侧大模型 端侧手机本地部署大模型 手机型号:VivoX100 技术栈: 使用 Vue3 + Ionic + Capacitor 作为前端, Android原生 + Kotlin + JNI 作为后端,推理引擎为 llama.cpp。 测试模型: gpt-oss-120b-Q4_K_M.gguf 大约60G,总参数:116.8B(约 117B) 激活参数(每 token):5.13B 初步测试基本达到预期,只是纯CPU推理吞吐压力大,不过,我已经在做了GPU介入,或许能够提高推理速度。
00:00 / 01:34
连播
清屏
智能
倍速
点赞
22
ModelDaDa
2周前
GGUF模型命名定义大白话 下载 GGUF 模型是不是像拆盲盒?一堆后缀完全看不懂?今天用大白话带你一次性搞懂。#GGUF #QWen36 #大模型 #量化 #MOE
00:00 / 01:44
连播
清屏
智能
倍速
点赞
32
第九艺术区
3周前
Llama,向你展示什么是真正的:天才和疯子仅在一念之间 #游戏 #英雄联盟 #奎桑提 #Llama #小火龙
00:00 / 05:19
连播
清屏
智能
倍速
点赞
1198
AI学不懂
1周前
一次搞明白Ollama、Shimmy、Gemma、LLaMA #AI学习 #Ollama #Gemma #LLaMA #AI科普
00:00 / 03:18
连播
清屏
智能
倍速
点赞
13
小北AI开源
2周前
为什么你应该放弃Ollama,Ollama是如何失去信任的 #Ollama #背离开源 #平替Ollama #llamacpp#ollama与llamacpp
00:00 / 04:16
连播
清屏
智能
倍速
点赞
2518
阿林2020
1周前
使用hermes来帮我在本机上安装llama.cpp,来加载本地模型来实现免token使用本机算力。#hermes #openclaw
00:00 / 00:15
连播
清屏
智能
倍速
点赞
12
AI探趣星船长
1周前
我感觉,他醒了 #ChatGPT #image2 上线,那种"差点什么" 的感觉终于消失了! 这一幕和我之前 #AI编程 遇到 #Claude Opus 4.6 何其相似 #设计师 也遭遇一样的冲击了
00:00 / 01:48
连播
清屏
智能
倍速
点赞
3
kate人不错
6月前
Qwen3‑VL 在本地怎么选更稳 llama.cpp 新 Web UI 真的香 本期你将收获: - 如何快速上手 llama.cpp 新 Web UI(安装、启动、功能全览) - Qwen3‑VL 32B/A3B 与 Gemini 2.5、Claude Sonnet 4 的多场景实测对比 - GGUF vs MLX 的真实差异:OCR/边界框/长图/反光/复杂版式等 - JSON 模式、PDF 当图像、HTML/JS 内联、URL 参数输入等“提高生产力”的新功能 - 何时选 Unsloth/GGML 的 GGUF 版本,避免 LM Studio 版本问题 - 4B‑Thinking 与 Omni‑3B 的“思考力/语音理解”实测与适用场景 - 我的结论: - 本地优先选 GGUF(GGML/Unsloth),llama.cpp 新 Web UI 体验非常好 - 32B 在多数场景下更稳更准,A3B 速度快但有场景差异 - MLX 量化存在精度/边界框问题,社区正在修复 时间戳 00:00 开场 & 上期更正 02:24 llama.cpp 新 Web UI 上手 03:31 Qwen3‑VL‑32B 亮点与基准 04:20 多模型实测对比 09:01 GGUF vs MLX 实测 17:04 4B‑Thinking/Omni‑3B 实测
00:00 / 18:56
连播
清屏
智能
倍速
点赞
42
简介:
您在查找“
llama.cpp安装cuda
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-01 05:25
最新推荐:
班主任谁手机响了拿出来
曹家坳瀑布是谁拍火的
画一个战车小游戏
太初誓约石怎么更换不了
明意施法被司徒岭看到什么电视
打麻将怎么开场
李白的剑到底有多牛逼
看今天你怎么说哈基米版
自撰诗词歌赋的意思
心灵渡船钓鱼的鱼线怎么获得
相关推荐:
梦柯长得跟之前为什么不一样了
如果你有什么心事可以和我分享
赛级比格犬特点
李小冉和王萌怎么组队了
许蜜语为什么吃醋
不再依赖姐姐算长大吗搞笑
黑夜告白悬疑剧吗
敖广皮肤怎么买最划算
拍照方法拍人拍妈妈
百花剧场怎么走
热门推荐:
抖音仅续火花ip会消失吗
Myvi Av欢迎灯设置
牛客的小程序监控可以看状态栏吗
小米mimotoken权益怎么看
头梳属于什么类目
替西的12位验证码在哪
mimo的token怎么耗
gptimage2如何参考图生分镜
openai内存供应取消原因
烽火挑战杯可以做3x3安全箱