AI风向标
AI风向标

粉丝315获赞2124

相关视频

  • 深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
    07:52
    查看AI文稿
  • 2026开年王炸:Qwen3.5震撼发布! 一条视频带你讲明白...#ai #qwen3 #人工智能 #阿里 #千问大模型
    03:35
    查看AI文稿
  • Qwen3.5 27B和35B选哪个?Ceval模型评测实践 #小工蚁 #通义千问 #开源大模型
    02:32
    查看AI文稿
  • AI贺岁,Qwen3.5刚刚发布,性能霸榜消耗减半 #AI贺岁 #大模型 #人工智能 #qwen35
    00:27
    查看AI文稿
  • Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
    05:27
    查看AI文稿
  • Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁  #openclaw #qwen #4090魔改
    08:30
    查看AI文稿
  • Qwen3.5-27B 本地部署,OpenClaw一键起飞! 开源强模 Qwen3.5-27B通过1Panel一键部署,无缝对接 OpenClaw 智能体,实现本地运行、无限 Token 自由。一套流程搞定,告别 API 限制与流量焦虑。适合想搭建私人 AI 助理、玩本地大模型、追求稳定与性价比的朋友,小白也能直接抄作业。
#本地AI #OpenClaw #Clawdbot  #1Panel #Qwen
    03:09
    查看AI文稿
  • Qwen3.5 35b本地部署适配OpenClaw
    02:01
    查看AI文稿
  • Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪?
#AI #Qwen #千问大模型 #人工智能 #开源
    06:07
    查看AI文稿
  • #qwen 3.5 35b-a3b
成功运行在#5060ti 16g
#ubuntu 24.04 lts
#ai
    00:23
    查看AI文稿
  • 千问3.5 27B实测!SOTA的实力,稠密模型依旧强大! 千问3.5家族中小模型的最后一块拼图,27B稠密模型实测。顶级SOTA性能!稠密模型还是你大爷。
#qwen #千问大模型 #ai干货分享 #普通人学ai #ai零基础入门教程
    03:01
    查看AI文稿
  • Qwen3.5 四款模型发布 当 35B 可以挑战 235B,问题就不只是模型大小。
Qwen3.5 释放的信号,可能意味着参数时代正在进入下半场。
规模、长上下文、RL——真正的变量到底是什么?#qwen #人工智能 #自动化测试 #大模型
    00:52
    查看AI文稿
  • 满足千人并发的本地模型部署机器人视觉研发服务器 #本地部署 #深度学习 #组装服务器 #机器学习 #diy装机
    00:50
    查看AI文稿
  • Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试! 
来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手. 
前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距. 
指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强. 
长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信. 
总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.  
这份新年礼物, 大家觉得怎么样? 
#Qwen  #千问大模型  #Qwen35  #阿里千问  #通义实验室
    07:01
    Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试!
    来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手.
    前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距.
    指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强.
    长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信.
    总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.
    这份新年礼物, 大家觉得怎么样?
    #Qwen #千问大模型 #Qwen35 #阿里千问 #通义实验室
  • 2026 年本地 AI 编程太炸裂!Qwen3.5 模型,单提示词直接生成整个游戏。敌人、音效、背景全都有,bug 还能自己修!不用 API 花钱,二手 3090 就能跑,这效率谁顶得住?
#编程 #人工智能  #独立游戏 #Qwen
    01:05
    查看AI文稿
  • #qwen3.5 #LLM #开源大模型 #mac #本地部署  在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
    02:12
    查看AI文稿
  • #ai #qwen3.5 #LLM #本地部署 本地部署大模型,qwen3.5 35B版本,感觉有点小啊
    00:23
    查看AI文稿