Tony沈哲6天前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞30
00:00 / 02:00
连播
清屏
智能
倍速
点赞2616
00:00 / 05:03
连播
清屏
智能
倍速
点赞65
00:00 / 00:53
连播
清屏
智能
倍速
点赞345
新闻标题: 阿里除夕夜开源Qwen3.5大模型,A股算力、应用与生态伙伴全面受益 简要概括: 2026年2月16日(除夕夜),阿里巴巴宣布将开源新一代千问大模型Qwen3.5,该模型实现了模型架构的创新。此举旨在降低AI应用门槛、繁荣开发者生态,并推动其“AI to C”战略落地。 核心影响与受益链条: 1. 算力基础设施直接受益:大模型训练与推理需求激增,利好服务器、IDC、芯片、光模块、温控等硬件供应商。例如,浪潮信息作为阿里云AI服务器核心供应商,业绩深度绑定;数据港为模型运行提供关键算力支撑。 2. 垂直行业应用加速落地:通过“千问伙伴计划”,模型能力渗透至酒店、交通、金融、医疗、电商等领域。石基信息、千方科技、恒生电子等合作伙伴将借助千问AI优化其行业解决方案。 3. 技术生态服务商扮演桥梁角色:软通动力、润建股份等公司提供模型集成、算力调度及企业级AI转型服务,是模型规模化落地的重要推动者。 4. 零售与营销场景优化体验:阿里系持股或深度合作的三江购物、蓝色光标等公司,将千问AI能力用于线下门店数字化、社区团购及智能营销,提升运营效率。 总结:阿里此次开源巩固了其在大模型生态的领导地位,从上游算力、中游行业应用到下游零售场景,形成了一条完整的A股受益产业链。同时需注意AI技术迭代、客户集中度及商业化进度等潜在风险。
00:00 / 00:27
连播
清屏
智能
倍速
点赞131
00:00 / 00:33
连播
清屏
智能
倍速
点赞0