00:00 / 01:35
连播
清屏
智能
倍速
点赞29
00:00 / 05:03
连播
清屏
智能
倍速
点赞61
00:00 / 08:57
连播
清屏
智能
倍速
点赞8
00:00 / 01:32
连播
清屏
智能
倍速
点赞128
博弈1周前
使用22G单卡的2080ti,2卡即可运行Qwen3.5-35B-A3B-Q8_0.gguf量化版,上下文设置130K ,每卡占约20G显存,模型大小35G,总显存占用40G左右,在0上下文情况下,首句话速度70token/s,使用opencode在vscode进行编程测试,首上下文1.3K,首句话速度66token/s,当上下文2万时,速度62token/s,当上下文5万时,速度52token/s,当上下文50%,7万时,速度45token/s 运行命令:CUDA_VISIBLE_DEVICES=4,5 ~/llama.cpp/build/bin/llama-server --port 8000 --host 0.0.0.0 --n-gpu-layers -1 --parallel 1 --ctx-size 130000 --flash-attn on --batch-size 4096 --ubatch-size 2048 --cont-batching --no-mmap --mlock --split-mode layer --cache-type-k q8_0 --cache-type-v q8_0 --temp 0.6 --top-p 0.95 --top-k 20 -m /home/boyiu/models/GGUF/Qwen3.5/Qwen3.5-35B-A3B-Q8_0.gguf --jinja --chat-template-file /home/boyiu/models/jinja/Qwen3.5-35B-A3B-Q8_0/chat_template.jinja 由于GGUF量化版在llama.cpp运行时,会出现"System message must be at the beginning"(系统消息必须在开头)的错误问题,需要下载原.jinja发送给大模型,修改为,模板允许系统消息不在开头,单独使用--jinja即可正常回复,与Qwen3.5-122B-A10B同样问题 编码能力与Qwen3.5-122B-A10B相当,由于速度快,能力并不弱,所以完胜A10B,但是在编码指令遵循,逻辑方面还差点意思,在60G以下模型体积下,这款模型应该没有对手,性价比超高,期待deepseek v4版本发布后进行测评#大模型 #量化
00:00 / 00:31
连播
清屏
智能
倍速
点赞831