抢首评
3
分享
举报
发布时间:2026-03-01 09:23
查看AI文稿
aiaihaozhe9527
aiaihaozhe9527

粉丝1.4万获赞8.0万

相关视频

  • Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁  #openclaw #qwen #4090魔改
    08:30
    查看AI文稿
  • Qwen3.5-27B 本地部署,OpenClaw一键起飞! 开源强模 Qwen3.5-27B通过1Panel一键部署,无缝对接 OpenClaw 智能体,实现本地运行、无限 Token 自由。一套流程搞定,告别 API 限制与流量焦虑。适合想搭建私人 AI 助理、玩本地大模型、追求稳定与性价比的朋友,小白也能直接抄作业。
#本地AI #OpenClaw #Clawdbot  #1Panel #Qwen
    03:09
    查看AI文稿
  • Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
    05:27
    查看AI文稿
  • 深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
    07:52
    查看AI文稿
  • 2026开年王炸:Qwen3.5震撼发布! 一条视频带你讲明白...#ai #qwen3 #人工智能 #阿里 #千问大模型
    03:35
    查看AI文稿
  • Qwen3.5 四款模型发布 当 35B 可以挑战 235B,问题就不只是模型大小。
Qwen3.5 释放的信号,可能意味着参数时代正在进入下半场。
规模、长上下文、RL——真正的变量到底是什么?#qwen #人工智能 #自动化测试 #大模型
    00:52
    查看AI文稿
  • OpenClaw保姆级教程:带你免费调用Qwen3.5! 龙虾免费调用最Q开源大模型Qwen3.5详细教程#openclaw #qwen #随变ai随便玩
    05:48
    查看AI文稿
  • 借即将发布的Qwen3.5,教大家解读模型发布信息源 #ai新星计划 #抖音年味新知贺岁  #qwen35 #qwen3
    04:51
    查看AI文稿
  • 2026年至今大模型本地部署全科普 如果你耐心看完,你就知道大模型本地部署是怎么肥四了 #AI本地部署 #人工智能 #deepseek本地部署 #qwen#qwen3
    09:37
    查看AI文稿
  • #ai #qwen3.5 #LLM #本地部署 本地部署大模型,qwen3.5 35B版本,感觉有点小啊
    00:23
    查看AI文稿
  • v100 32G部署qwen3.5 35b q4 moe模型 v100 32G部署qwen3.5 35b q4 moe模型, 速度可达50token/s, 一次可写万字长文,ollama框架下
    02:45
    查看AI文稿
  • 全网最牛TTS!零成本克隆专属音色+多音色对话克隆 全网最牛TTS!Qwen3本地一键启动:零成本克隆专属音色+多音色对话克隆,仅4G显存就能跑出真人质感,自媒体自动化必备! 
#Qwen3  #TTS  #声音克隆  #语音合成  #人工智能
    10:12
    查看AI文稿
  • Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试! 
来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手. 
前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距. 
指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强. 
长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信. 
总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.  
这份新年礼物, 大家觉得怎么样? 
#Qwen  #千问大模型  #Qwen35  #阿里千问  #通义实验室
    07:01
    Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试!
    来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手.
    前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距.
    指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强.
    长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信.
    总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.
    这份新年礼物, 大家觉得怎么样?
    #Qwen #千问大模型 #Qwen35 #阿里千问 #通义实验室
  • Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪?
#AI #Qwen #千问大模型 #人工智能 #开源
    06:07
    查看AI文稿