Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
AI抖音
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
龙虾ai到底是什么给女儿安装
openclaw跟谁通讯
openclaw能写摘要吗
Ghpython怎么添加输入端
openclaw去水印用什么技能
移动端怎么接入opanclaw
glm5私有化部署条件
普通人怎么入局opencloud
coze早安工作流key怎么来的
死手终端机自开号什么意思
小红AI
1月前
openclaw使用LLAMA.CPP模型 #openclaw #llama #minimax
00:00 / 01:27
连播
清屏
智能
倍速
点赞
24
程序员老张(AI教学)
1年前
Llama3中文微调版,配套Open-UI打造个人知识库 ,体验最强人工智能,匹配GPT4.0!#人工智能 #chatgpt应用领域 #llama3 #科技 #知识库
00:00 / 07:11
连播
清屏
智能
倍速
点赞
1830
AI大模型面试
1周前
LLaMA Factory模型部署与接口调用 #大模型 #ai大模型 #LLaMA#大模型微调 #人工智能
00:00 / 36:30
连播
清屏
智能
倍速
点赞
13
AI练练练
1月前
openclaw+ollama实现0费用。‼️不要放重要信息。#openclaw #ai学习
00:00 / 01:43
连播
清屏
智能
倍速
点赞
236
哈瑞
1年前
在本地运行llama3中文版大模型AI对话,确实是太强了 llama3中文版大模型结合lobechat,体验超级棒 #llama3 #lobechat #本地大模型 #AI对话 #AI教程
00:00 / 02:53
连播
清屏
智能
倍速
点赞
2484
胡泊Hubo
1年前
Llama 3 本地部署教程来了!而且是中文版 #chatgpt应用领域 #人工智能 #llama3 #gpt #科技改变生活
00:00 / 02:38
连播
清屏
智能
倍速
点赞
3687
小鸟飞呀飞🐦
6天前
Windows上Openclaw安装+对接Ollama本地模 #Openclaw #Ollama #本地大模型 #AI
00:00 / 01:26
连播
清屏
智能
倍速
点赞
35
同济迪哥
1周前
一小时搞懂llama3落地应用实战,太清晰了! #大模型 #人工智能 #llama3 #智能体
00:00 / 42:42
连播
清屏
智能
倍速
点赞
18
CYBER炼丹师
1周前
llama.cpp 是由 Georgi Gerganov 开发的开源高性能 LLM 推理框架,核心采用纯 C/C++ 编写,无外部依赖。该项目通过对 Apple Silicon 的深度优化及先进的量化技术(如 4-bit、5-bit 量化),显著降低了运行大语言模型的内存门槛,让用户在普通家用电脑甚至移动设备上即可本地部署并流畅运行 Llama 3、Mistral、Mixtral 等主流开源模型。其卓越的推理效率和跨平台支持,使其成为目前本地 AI 部署领域最受欢迎的底层工具。 #llama.cpp #大模型本地部署 #开源项目 #AI推理
00:00 / 01:18
连播
清屏
智能
倍速
点赞
17
迪哥教学(籽料👀简介)
3周前
别再瞎学大模型!这才是 Llama3 正确打开方式! #AI大模型 #大模型 #llama #大模型微调 #干货分享
00:00 / 59:20
连播
清屏
智能
倍速
点赞
26
Ruby_Axxx
1周前
手搓本地agent测试 测试模型为qwen3.5-9b-q8_0量化版本,采用llama.cpp编译运行,测试过程的任务执行速度和工具调用能力在小参数模型里是一绝的#qwen #ai #agent #openclaw
00:00 / 01:40
连播
清屏
智能
倍速
点赞
1
AI大模型入门教程
8月前
Ollama部署本地DeepSeek #AI大模型 #后端开发 #程序员 #编程 #大模型
00:00 / 21:14
连播
清屏
智能
倍速
点赞
76
郝点儿
2周前
如何白嫖英伟达api,不花钱免费用openclaw #热点 #openclaw #英伟达 #github #ai
00:00 / 00:55
连播
清屏
智能
倍速
点赞
292
AIStarter
8月前
本地模型也能这样玩?! 本地部署Ollama模型太麻烦? C盘爆满?模型下载失败? AIStarter帮你一键管理模型路径,支持任意盘符下载,轻松配置open-web-ui,小白也能快速上手! 再也不用担心模型路径混乱,本地AI助手也能如此简单! #本地模型 #AI助手 #Ollama #AIStarter #模型管理
00:00 / 03:55
连播
清屏
智能
倍速
点赞
5
先浪几天
1年前
GPU直接打满,LLama3-70B,中文很烂,资源很占 昨天没关注GPU,今天直接openwebui操作,果然直接打满了,风扇又准备躁动了#ai #大模型 #ai大模型 #llama3 #llama
00:00 / 03:58
连播
清屏
智能
倍速
点赞
12
天下数据
1周前
Llama3 405B训练有多狠?IDC:存储不够直接训练 #AIAgent #AI效率 #云机部署
00:00 / 01:10
连播
清屏
智能
倍速
点赞
0
博弈
1月前
通过6张2080ti显卡使用llama.cpp运行MiniMax-M2.1-UD-IQ3_XXS.gguf量化版大模型,使用opencode,并安装skill两款插件superpowers和ui-ux-pro-max,目前MiniMax-M2.1对工具的调用还有欠缺,希望年前用上更新的大模型MiniMax-M2.2,对做T程序进行界面更新,新增个股可T记录优先独立显示,新增个股信息详细显示,可快速根据价格和持仓数量,以及可T数量进行判断,优化实时数据的显示,高亮可T个股持续显示,进一步提供操作效率,减少工作量,财经资讯系统同步更新中,后续将会整合到主程序,进行实时显示#大模型 #量化 #量化交易
00:00 / 00:32
连播
清屏
智能
倍速
点赞
533
图灵程序员徐庶
11月前
10分钟用LlamaFactory微调模型部署ollama #程序员 #AI大模型 #LlamaFactory #deepseek #图灵Java
00:00 / 15:05
连播
清屏
智能
倍速
点赞
1146
大小寒学AI
10月前
4-5(5):gguf模型文件转换 GGUF | Ollama | llama.cpp #langchain
00:00 / 21:49
连播
清屏
智能
倍速
点赞
21
小工蚁
3月前
Docker整合vllm作为 大模型推理引擎之一 #小工蚁 #docker #大模型推理
00:00 / 01:41
连播
清屏
智能
倍速
点赞
107
小工蚁
2年前
llama.cpp大神实现投机采样,让大模型推理性能直接翻番
00:00 / 07:10
连播
清屏
智能
倍速
点赞
431
程序员老元
1月前
挑战14分钟搞定,Llama-Factory微调AI大模型 #人工智能 #大模型 #AI大模型 #大模型微调 #LlamaFactory
00:00 / 14:08
连播
清屏
智能
倍速
点赞
77
60819146864
1年前
【DeepSeek微调喂饭教程】十分钟轻松学会Unsloth微调DeepSeek-R1蒸馏模型!!手把手教你构建医疗专家模型,是草履虫都能学会的超详细教程!#大模型#deepseek#微调大模型#大语言模型#微调
00:00 / 13:58
连播
清屏
智能
倍速
点赞
308
保藏家说
1年前
Ollama下载不了怎么办? #deepseek #Ollama #AI 有的网友反馈Ollama无法下载,本期视频手把手教学,给你展示如何下载Ollama,快来关注主播吧!
00:00 / 03:12
连播
清屏
智能
倍速
点赞
435
归宗智能Francis
1年前
Raspberry pi-5运行Llama-3等模型指南只需要安装ollama就可以一键启用对话。#人工智能 #大模型 #程序员 #Llama
00:00 / 01:03
连播
清屏
智能
倍速
点赞
50
AI小菜园
3周前
使用NVIDIA的Ampere平台的A800服务器布署最新的Minimax2.5模型,尝试了全量模型,量化的gguf模型,最后选择了fp16和int4混合精度的版本,接入openclaw效果不错。#minimax #glm5 #openclaw #AI #大模型
00:00 / 01:04
连播
清屏
智能
倍速
点赞
50
星尘浩海
1周前
本地部署openclaw,简单上手 #openclaw #养龙虾
00:00 / 00:57
连播
清屏
智能
倍速
点赞
8
赋范课堂
1年前
使用llama.cpp做GPU+CPU混合推理QWQ-32B 性能比肩DeepSeekR1!?使用llama.cpp实现GPU+CPU混合推理QWQ-32B(附源码)#QWQ32B #DeepSeek #大模型 #人工智能
00:00 / 08:38
连播
清屏
智能
倍速
点赞
61
SQ LU(大灰羊)
1周前
#openclaw #小龙虾 #ai最近很火 给大家介绍一下什么是openclaw.
00:00 / 01:39
连播
清屏
智能
倍速
点赞
2
吴杨AI研习
1周前
OpenClaw 选模型不迷路!专属榜单出炉,国产模型实力封神#OpenClaw 选模型攻略 #PinchBench 榜单 #国产 AI 模型杀疯了 #OpenClaw 龙虾攻略
00:00 / 00:57
连播
清屏
智能
倍速
点赞
8
同济迪哥
1周前
如何一小时掌握llama3微调量化部署及应用,学废了! #大模型 #人工智能 #llama3
00:00 / 56:29
连播
清屏
智能
倍速
点赞
13
星环无限
1年前
一分钟本地部署最强开源大模型Llama3.一键安装包省去了装docker的麻烦,超级适合新手#chatgpt应用领域 #ai工具 #llama3 #人工智能
00:00 / 00:46
连播
清屏
智能
倍速
点赞
460
AI老板内参
1年前
#llama3 #ollama #openai #本地部署 #知识库
00:00 / 01:38
连播
清屏
智能
倍速
点赞
1920
浩哥聊AI
1年前
LLama3的速度也太快了 习惯了GPT的流式输出,一个字一个字的吐出来,突然有一个大模型直接秒回,还真不适应了 #llama3 #gpt #人工智能 #gpt4 #aigc一步之遥
00:00 / 00:33
连播
清屏
智能
倍速
点赞
639
艾克ai分享
1年前
中文 Llama3 模型开源,支持 Ollama 本地体验。 #人工智能 #科技 #干货分享 #AIGC #大模型
00:00 / 00:32
连播
清屏
智能
倍速
点赞
1696
夏曹俊
2周前
openclaw 目前不适合大部分人使用 但代表了一种趋势,未来还有更多机会 #程序员 #AI #OPENCLAW #编程
00:00 / 02:09
连播
清屏
智能
倍速
点赞
17
出生布莱恩-格里芬
1周前
Prima.cpp是开源的LLM分布式推理框架,专为家用设备集群优化。 仓库地址:https://gitee.com/magicor/prima.cpp。 论文详见ICLR 2026会议:https://iclr.cc/virtual/2026/poster/10008093。让普通家庭也能跑起70B大模型,挺有意思的突破。 注意:此项目仅作技术导向,处于实验阶段,如需体验可参考项目详情 #AI #LLM #分布式 #家居化 #大模型算力
00:00 / 00:49
连播
清屏
智能
倍速
点赞
19
柠岛Blink
1周前
AI机器人很崩溃!人类又要养龙虾🦞!学不完 #龙虾ai #openclaw #养龙虾 #ai工具 #搞笑rap @抖音小助手 @抖音创作小助手
00:00 / 00:49
连播
清屏
智能
倍速
点赞
3
小工蚁
1周前
Docker支持Mac vLLM推理引擎 #小工蚁 #开源软件 #大模型推理
00:00 / 03:59
连播
清屏
智能
倍速
点赞
27
段二哥
3周前
2月22日(1) 真正的AI助手真的不远了 #openClaw #飞书 #Qwen
00:00 / 02:43
连播
清屏
智能
倍速
点赞
1
程序员的角落
1年前
基于LM Studio私有化部署Llama3和API调用 #人工智能 #ai #程序代码 #程序员 #编程语言
00:00 / 32:58
连播
清屏
智能
倍速
点赞
146
博弈
1月前
使用6张2080ti显卡,每卡22G显存,使用llama.cpp运行MiniMax-M2.5-UD-IQ3_XXS.gguf量化版大模型,大模型为87G大小,130K上下文占用每卡约19G显存,通过vscode远程ssh代码服务器上的opencode进行程序编写时,使用命令CUDA_VISIBLE_DEVICES=0,1,2,3,4,5 CUDA_SCALE_LAUNCH_QUEUES=8x ~/llama.cpp/build/bin/llama-server --port 8000 --host 0.0.0.0 --n-gpu-layers -1 --parallel 1 --ctx-size 130000 --flash-attn on --batch-size 2048 --ubatch-size 512 --cont-batching --no-mmap --mlock --split-mode layer --cache-type-k q8_0 --cache-type-v q8_0 --temp 1.0 --top-p 0.95 --top-k 40 --jinja --chat-template-file /home/boyiu/models/GGUF/MiniMax-M2.5-GGUF/UD-IQ3_XXS/chat_template.jinja -m /home/boyiu/models/GGUF/MiniMax-M2.5-GGUF/UD-IQ3_XXS/MiniMax-M2.5-UD-IQ3_XXS.gguf,最大化发挥显卡性能,大模型智商最高,极致压榨显卡性能,在0上下文的情况下,首句话速度可达43token/s,首次上下文占用约为13K,首句回复速度为27token/s,当上下文占用为20K时,速度降为22token/s,当上下文占用50%左右时,速度降为11token/s,速度比minimax2.1略有提升,可增加更多上下文,但会牺牲token速度,财经资讯分析程序已建立基础功能,可实时获取最新资讯,并进行api调用分析,从获取最新资讯,到分析结果不到3分钟,完全适用现有策略,后面将增加新闻源获取途径,增加个股独立新闻分析功能#大模型 #量化
00:00 / 00:29
连播
清屏
智能
倍速
点赞
606
AI大模型面试
2周前
LLaMA Factory基于DeepSeed加速训练模型 #大模型 #ai大模型 #LLaMAFactory #大模型微调 #大模型即将改变世界
00:00 / 36:59
连播
清屏
智能
倍速
点赞
49
AI大模型面试
2周前
《LLaMA Factory基于FSDP训练模型》 #大模型 #ai大模型 #LLaMAFactory #大模型微调 #大模型学习
00:00 / 38:05
连播
清屏
智能
倍速
点赞
53
水山Ai漫谈
1年前
llama3+英伟达本地显卡小米加步枪的AI大模型革命 llama3 + openwebui打造自己本地chatgpt,#llama3 #NVIDIA #Ollama #openwebui #chatgpt
00:00 / 02:07
连播
清屏
智能
倍速
点赞
161
不秃头的程序猿
11月前
Llama3模型下载与配置安装 #人工智能 #程序员 #ai #计算机 #大模型
00:00 / 18:14
连播
清屏
智能
倍速
点赞
13
AIStarter
1年前
Ollama+Openwebui,千问2.5和Llama windows环境一键安装部署最新 #Ollama + #Openwebui ,内置千问2.5和#Llama3 大模型,不用Docker,不用命令,全自动。 抖音搜索:#AIStarter ,免费下载使用 创作不易,给个免费的一键三连支持一下熊哥,找不到软件或有问题的可以私信熊哥发您哈^_^
00:00 / 04:12
连播
清屏
智能
倍速
点赞
13
AI赚钱研究社
1月前
GLM 4.7 Flash模型实测汇总 OpenCode跑出零错误,但却患有严重的“过度思考”强迫症?本期视频硬核实测 GLM 4.7 Flash,从物理模拟代码到宝可梦UI,深度剖析它的真实能力。同时揭秘 llama.cpp 和 vLLM 的致命避坑参数,帮你解决内存刺客和死循环问题。#GLM47Flash #OpenCode #大模型评测 #本地部署 #AI编程
00:00 / 05:03
连播
清屏
智能
倍速
点赞
160
AIStarter
1年前
llama3.2-vision和qwen2.5-coder 不用科学上网,一键下载安装最新版#Ollama +#openweb ,内置#llama32vision 和#qwen25coder ,windows版本本地部署,非Docker安装。#aistarter @启动科技
00:00 / 03:38
连播
清屏
智能
倍速
点赞
27
AI超元域
1年前
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型 #llama3开源 #llama3
00:00 / 10:36
连播
清屏
智能
倍速
点赞
622
kate人不错
1年前
bitnet.cpp 推理,速度超越 llama.cpp,内存最高降低 16 倍 #LLM #人工智能 #AI
00:00 / 08:31
连播
清屏
智能
倍速
点赞
32
智橙码域(Orange3dev)
1年前
LLama.cpp Windows部署大模型 #llama2 #大模型 #openai #大模型部署 #llama
00:00 / 02:25
连播
清屏
智能
倍速
点赞
54
小天fotos
1月前
发现一个企业部署GLM4.7 Flash 生成速度的优化方案 TL;DR 视频中测试 4090 48g x2 unsloth q8 用ik_llama.cpp的测试分支 128k上下文可以到37t/s 优化前是22t 这个模型非常好用 等到这些优化到可用了,我出详细测评 #claudecode #aiagent #企业AI #本地部署 #glm47
00:00 / 04:44
连播
清屏
智能
倍速
点赞
225
前端小杰
1周前
LangChain.js和LlamaIndex.ts应用场景 #LangChain #LlamaIndex #前端开发 #前端面试 #AI应用
00:00 / 02:14
连播
清屏
智能
倍速
点赞
40
Brie努力敲代码(不熬夜版)
2周前
3 步搞定 Ollama+DeepSeek-R1 部署 #Ollama #DeepSeek #AI #前端 #前端面试
00:00 / 02:30
连播
清屏
智能
倍速
点赞
4
智橙码域(Orange3dev)
1年前
LLama.cpp编译部署大模型 #llama2 #大模型 #大模型部署 #openai #llama @DOU+小助手
00:00 / 02:18
连播
清屏
智能
倍速
点赞
20
允诺企服-博宏创新
1周前
#macstudio 2TB RAM#openclaw 由于单台 Mac Studio 目前最高支持 256GB 内存(注:苹果在2026年3月初因全球 DRAM 缺货,暂时下架了 512GB 配置),要实现 2TB 的总内存,你需要至少 8台 满配的 Mac Studio。 苹果官方的机器学习框架 MLX 在最近的更新中正式支持了 Fast AI Clusters: • 自动模型拆分(Sharding): 现在的 MLX 可以自动识别通过雷电连接的集群节点。当你跑一个像 Llama-3 405B 这样的大模型时,MLX 会自动将其权重“切片”分发到不同 Mac 的内存中。 • 性能飞跃: 在 26.2 版本之后,集群间的通信损耗大幅降低。现在 4 台 Mac Studio 组建的集群,在运行万亿参数模型(如 Kimi-K2-Thinking)时,效率已经非常接近单机体验。
00:00 / 00:32
连播
清屏
智能
倍速
点赞
60
Soap日刊
3周前
Ollama:把最强 AI 塞进你的电脑!🦙 别问了!这就是现在最火的本地 AI 部署方案! 1.完全免费:不用 API,不交月费。 2.绝对隐私:拔掉网线照样聊,数据不出户。 3.极简安装:一行代码 ollama run llama3 直接起飞。 ⚠️ 真相警告: 内存低于 8G 就别试了,16G 体验起步。虽然是命令行操作,但加个插件就能变身网页版 ChatGPT! #Ollama #本地AI #程序员 #效率工具 #开源模型
00:00 / 00:36
连播
清屏
智能
倍速
点赞
42
大语言模型
1年前
赢麻了!华为云团队中文LLaMA- Alpaca 微调教程! 【GIT大模型开源】赢麻了!华为云团队 Chinese- LLaMA- Alpaca 中文大模型微调教程(附课件+教程) #大模型 #大模型微调 #llama #中文大模型 #LLM
00:00 / 01:49
连播
清屏
智能
倍速
点赞
112
kate人不错
4月前
Qwen3‑VL 在本地怎么选更稳 llama.cpp 新 Web UI 真的香 本期你将收获: - 如何快速上手 llama.cpp 新 Web UI(安装、启动、功能全览) - Qwen3‑VL 32B/A3B 与 Gemini 2.5、Claude Sonnet 4 的多场景实测对比 - GGUF vs MLX 的真实差异:OCR/边界框/长图/反光/复杂版式等 - JSON 模式、PDF 当图像、HTML/JS 内联、URL 参数输入等“提高生产力”的新功能 - 何时选 Unsloth/GGML 的 GGUF 版本,避免 LM Studio 版本问题 - 4B‑Thinking 与 Omni‑3B 的“思考力/语音理解”实测与适用场景 - 我的结论: - 本地优先选 GGUF(GGML/Unsloth),llama.cpp 新 Web UI 体验非常好 - 32B 在多数场景下更稳更准,A3B 速度快但有场景差异 - MLX 量化存在精度/边界框问题,社区正在修复 时间戳 00:00 开场 & 上期更正 02:24 llama.cpp 新 Web UI 上手 03:31 Qwen3‑VL‑32B 亮点与基准 04:20 多模型实测对比 09:01 GGUF vs MLX 实测 17:04 4B‑Thinking/Omni‑3B 实测
00:00 / 18:56
连播
清屏
智能
倍速
点赞
31
博弈
6月前
在6张2080ti显卡上安装llama.cpp对glm4.5 air量化版106B-A12B-q4_k_m.gguf进行推理,量化模型69g大小,每张卡不到100w功耗,整机不到800w功耗,上下文128K,显存占用不到17G,显卡温度不超过40度,每秒31tokens,每小时耗电不到6毛,一天10小时不停不到5元电费,无限量tokens,glm4.5 air智商远超32B现有模型,代码能力超强,视频最后附安装步骤,截图发给AI即可按教程安装#大模型
00:00 / 00:32
连播
清屏
智能
倍速
点赞
58
栖栖学AI
2周前
10分钟带你解析大模型推理流程! 从流程梳理到训练解析!全程干货~大模型|LLM #AI #大模型 #大模型应用 #大模型学习 #人工智能
00:00 / 19:34
连播
清屏
智能
倍速
点赞
90
零度解说
1年前
Llama 3.2 一键本地部署!支持视觉、图片识别功能!
00:00 / 09:11
连播
清屏
智能
倍速
点赞
339
EQ
4月前
法国🇫🇷这么open直接?
00:00 / 03:19
连播
清屏
智能
倍速
点赞
8940
简介:
您在查找“
llama.cpp安装OpenClaw
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-20 21:43
最新推荐:
我的世界忽然冰天雪地李圣经
头发稀疏化妆适合的发型
为什么有的镜子一照脸上很多瑕疵
秀峰瀑布在庐山东线还是西线
steam掘地求升促销时间
齐旻人物性格推断为是什么星座
怎么让豆包生成光影西装照
拳击为什么打下颚会晕倒
短文填空解题技巧广东
有什么可以不放冰箱能做早餐吃的
相关推荐:
伊朗宣布停火条件惠恒
enhypen为什么李推出
地球百子第7季什么时候播
玉芬断不了情根歌曲
cf校长怎么不能刷新
慕有枝老师
猫箱鬼灭之刃该用什么画风
儿童版和平英语歌曲
蛋仔超燃竞技场训练场怎么开 失心熊
妙赴怎么玩
热门推荐:
即梦如何生成反打提示词
Mac同花顺日记在哪里
devastate的正确方法
血栓摇老大爷舞蹈合拍怎么制作
笔记本三角洲卡退怎么设置
豆包卡怎么安装
豆包会把你跟他说的事告诉给开发者吗
飞书群怎么让两个小龙虾自主对话
openclaw如何处理doc文件
记事本编程