00:00 / 02:00
连播
清屏
智能
倍速
点赞2618
小in分享11月前
potplay+deepseek+ollama本地部署全攻略 这可能是全网最硬核的PotPlayer教程!无需编程基础,三步实现: 1、 Whisper大模型实时生成字幕(附最新large-v3-turbo模型网盘) 2、直连DeepSeek/硅基流动API翻译(新用户注册福利领取攻略) 3、Ollama本地部署Qwen/DeepSeek离线翻译(附显存优化方案) 如果你觉得这个视频对你有帮助,别忘了“👍点赞”和“❤订阅”我的频道,这样你就不会错过接下来的教程了。同时,如果你有任何问题,请在**评论区**留言,我会尽快回复你。再次感谢观看,我们下个视频见! 视频中讲到的所有安装包下载地址 PotPlayer官网地址:https://potplayer.daum.net/ 网盘链接:https://pan.quark.cn/s/964a9ac0632c Faster-Whisper-XXL引擎下载链接:https://pan.quark.cn/s/0e596c709d91 large-v3-turbo文件下载链接:https://pan.quark.cn/s/043f5ee1b05d Chatgpt翻译插件官网地址:https://github.com/Felix3322/PotPlayer_Chatgpt_Translate 网盘连接:https://pan.quark.cn/s/eda64ad39a5f DeepSeek API官网地址:https://platform.deepseek.com/ 硅基流动官网地址:https://cloud.siliconflow.cn Ollama翻译插件下载地址:https://github.com/yxyxyz6/PotPlayer_ollama_Translate 网盘连接:https://pan.quark.cn/s/da9e0e4706d0 Ollama官网地址:https://ollama.com/ Ollama本地部署安装包网盘连接:https://pan.quark.cn/s/fd6bc2ffb343 #potplayer #deepseek #ollama #api #本地部署
00:00 / 23:41
连播
清屏
智能
倍速
点赞966
Tony沈哲6天前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞30