00:00 / 01:04
连播
清屏
智能
倍速
点赞NaN
实测翻车!千问3.5写个小游戏烧了我1000万Token! #大模型实测 #千问35 #避坑指南 #AI写代码 #Token刺客 一、实测背景:用千问3.5开发3D小游戏 1. 测试目的:通过TRAE平台,使用千问3.5生成一个3D滑雪小游戏,测试其代码生成能力和实际效果。 2. 生成结果:经过多次对话优化,最终生成了一个滑雪场小游戏,支持方向转动,但存在bug(如滑出屏幕外)。 二、严重问题:Token消耗惊人 1. Token消耗:整个开发过程调用138次,消耗超1000万Token。 2. 换算理解:100万Token约等于一本书,1000万Token相当于10本书的量。 3. 成本计算:按千问3.5定价0.8元/百万Token,消耗约8-10元。虽然单价低,但消耗量巨大,若换成高价模型则成本爆炸。 三、对比测试:谷歌Gemini 3表现 1. 同样提示词:使用谷歌平台生成同款滑雪小游戏。 2. 对比结果: - 运动逻辑:谷歌Gemini 3更还原滑雪场景,运动逻辑更真实。 - 画面表现:两者差距不大,但谷歌画面稍好。 - 成本优势:谷歌平台免费生成在线APP,无Token消耗压力。 四、模型排名:千问3.5实际表现 1. 查询平台:主流大模型竞技场排名(人工反馈评估)。 2. 排名数据: - 千问3.5(3397B):排名第20,超越GPT-4.5,但与头部差距明显。 - 亮点模型:豆包Seed模型排名第4,GLM-5排名第12。 - 榜首:Claude Opus 4.6。 结论:千问3.5声势虽大,但实测效果和排名均未达顶尖,与闭源模型仍有差距。
00:00 / 02:39
连播
清屏
智能
倍速
点赞17
00:00 / 03:57
连播
清屏
智能
倍速
点赞112
11月16号,阿里没开发布会、没搞大宣传,就把号称“最强大模型”的千问APP悄悄上架了!这波低调操作,反而让人更好奇。 先给你们扒扒这APP的亮点,用过的都说绝!它就像个全能贴身助理,支持一百一十九种语言和方言翻译,开会录音秒转文字还能标重点,拍张体检报告能帮你分析指标,传份三十页的英文报告秒出两千五百字中文解读,连合同条款都能帮你揪风险 !最惊喜的是全功能免费,随便用 。 再聊聊千问App背后的功臣,就是开发者圈子里公认的“源神”——Qwen(千问)大模型。简单说,这模型就是AI界的“全能学神”!它有2350亿参数,每次推理虽然只激活220亿,但就像大脑只调动部分区域就能搞定难题,效率超高。更厉害的是它的“超大内存”——支持256K的上下文窗口,相当于能一次性读完一本长篇小说,处理长文本完全不费劲。 那阿里为啥偏偏现在推千问APP?这可不是临时起意,而是一场“AI时代的生死战”!之前阿里的AI主要服务企业,靠阿里云卖模型API,现在要转头抢咱们普通用户的手机桌面了。核心逻辑很简单:第一,技术成熟了,Qwen模型已经冲到全球第一梯队,有底气跟ChatGPT正面刚;第二,要抢“超级入口”,阿里想让千问APP成为一个“全能管家”,以后你订机票、点外卖、购物、办公,都能通过它一键搞定,把淘宝、高德、本地生活这些生态服务全串起来;第三,赚钱机会来了,C端是大模型最容易大规模变现的场景,阿里可不想错过这块肥肉。而且从数据看,阿里AI相关收入已经连续8个季度三位数增长,阿里云增速也冲到了二十六个百分点,这波C端布局就是要把技术优势变成实实在在的用户和收入 。 再说说大家关心的股市行情:11月17号,A股大盘整体下跌,但千问APP的消息直接点燃了AI赛道!宣亚国际直接“20CM”涨停,三六零、蓝色光标这些相关个股也大涨。赛道是好赛道,国海证券预测,千问APP可能成为新的高频超级入口,带动AI应用和算力产业链持续受益,而且IDC预估2025到2028年全球AI大模型市场年复合增长率达四十五个百分点,长期增长潜力没问题;其次,要选对方向,重点看两类企业:一是跟阿里生态深度绑定、能承接流量的,二是AI算力、开源技术相关的核心供应商,这些是真能受益。 #千问大模型 #阿里最新消息 #宣亚国际 #蓝色光标 #三六零
00:00 / 03:27
连播
清屏
智能
倍速
点赞378
博弈5天前
测试千问新模型,Qwen3.5-122B-A10B,使用4卡22G单卡的2080ti即可运行Qwen3.5-122B-A10B-Q4_K_M.gguf 量化版,上下文设置为256K ,每卡占用约21G显存,模型大小为70G,总显存占用约为83G左右,在0上下文的情况下,首句话速度为34token/s,使用opencode在vscode进行编程测试,首上下文约1.2K,首句话速度为32token/s,当上下文为2万时,速度为32token/s,当上下文为5万时,速度为21token/s 运行命令:CUDA_VISIBLE_DEVICES=0,1,2,3 ~/llama.cpp/build/bin/llama-server --port 8000 --host 0.0.0.0 --n-gpu-layers -1 --parallel 1 --ctx-size 262144 --flash-attn on --batch-size 4096 --ubatch-size 2048 --cont-batching --no-mmap --mlock --split-mode layer --cache-type-k q8_0 --cache-type-v q8_0 --temp 0.6 --top-p 0.95 --top-k 20 -m /home/boyiu/models/GGUF/Qwen3.5/Q4_K_M/Qwen3.5-122B-A10B-Q4_K_M.gguf --jinja --chat-template-file /home/boyiu/models/jinja/Qwen3.5-Qwen3.5-122B-A10B-Q5_K_M/chat_template.jinja 由于GGUF量化版在llama.cpp运行时,会出现"System message must be at the beginning"(系统消息必须在开头)的错误问题,需要下载原.jinja发送给大模型,修改为,模板允许系统消息不在开头,单独使用--jinja即可正常回复 编码能力弱于minimax2.5的IQ3_XXS量化版,但是指令遵循能力比较强,但是由于太强,会重复遵循指令,修改代码的逻辑跟不上,主力编码模型还得是minimax,下视频测Qwen3.5-35B-A3B#大模型 #量化
00:00 / 00:29
连播
清屏
智能
倍速
点赞145
00:00 / 15:43
连播
清屏
智能
倍速
点赞7
00:00 / 01:19
连播
清屏
智能
倍速
点赞12
00:00 / 04:24
连播
清屏
智能
倍速
点赞15