00:00 / 00:34
连播
清屏
智能
倍速
点赞0
00:00 / 00:10
连播
清屏
智能
倍速
点赞13
00:00 / 02:12
连播
清屏
智能
倍速
点赞14
00:00 / 01:22
连播
清屏
智能
倍速
点赞2
00:00 / 00:53
连播
清屏
智能
倍速
点赞11
00:00 / 00:39
连播
清屏
智能
倍速
点赞89
00:00 / 00:35
连播
清屏
智能
倍速
点赞0
实测翻车!千问3.5写个小游戏烧了我1000万Token! #大模型实测 #千问35 #避坑指南 #AI写代码 #Token刺客 一、实测背景:用千问3.5开发3D小游戏 1. 测试目的:通过TRAE平台,使用千问3.5生成一个3D滑雪小游戏,测试其代码生成能力和实际效果。 2. 生成结果:经过多次对话优化,最终生成了一个滑雪场小游戏,支持方向转动,但存在bug(如滑出屏幕外)。 二、严重问题:Token消耗惊人 1. Token消耗:整个开发过程调用138次,消耗超1000万Token。 2. 换算理解:100万Token约等于一本书,1000万Token相当于10本书的量。 3. 成本计算:按千问3.5定价0.8元/百万Token,消耗约8-10元。虽然单价低,但消耗量巨大,若换成高价模型则成本爆炸。 三、对比测试:谷歌Gemini 3表现 1. 同样提示词:使用谷歌平台生成同款滑雪小游戏。 2. 对比结果: - 运动逻辑:谷歌Gemini 3更还原滑雪场景,运动逻辑更真实。 - 画面表现:两者差距不大,但谷歌画面稍好。 - 成本优势:谷歌平台免费生成在线APP,无Token消耗压力。 四、模型排名:千问3.5实际表现 1. 查询平台:主流大模型竞技场排名(人工反馈评估)。 2. 排名数据: - 千问3.5(3397B):排名第20,超越GPT-4.5,但与头部差距明显。 - 亮点模型:豆包Seed模型排名第4,GLM-5排名第12。 - 榜首:Claude Opus 4.6。 结论:千问3.5声势虽大,但实测效果和排名均未达顶尖,与闭源模型仍有差距。
00:00 / 02:39
连播
清屏
智能
倍速
点赞17
00:00 / 00:35
连播
清屏
智能
倍速
点赞1
00:00 / 00:45
连播
清屏
智能
倍速
点赞1
00:00 / 00:37
连播
清屏
智能
倍速
点赞0
00:00 / 00:25
连播
清屏
智能
倍速
点赞0
00:00 / 00:36
连播
清屏
智能
倍速
点赞0
00:00 / 01:19
连播
清屏
智能
倍速
点赞1218
00:00 / 00:52
连播
清屏
智能
倍速
点赞0
00:00 / 00:32
连播
清屏
智能
倍速
点赞0
00:00 / 01:13
连播
清屏
智能
倍速
点赞0
00:00 / 01:08
连播
清屏
智能
倍速
点赞0