00:00 / 00:00
连播
清屏
智能
倍速
点赞459
potplay+deepseek+ollama本地部署全攻略 这可能是全网最硬核的PotPlayer教程!无需编程基础,三步实现: 1、 Whisper大模型实时生成字幕(附最新large-v3-turbo模型网盘) 2、直连DeepSeek/硅基流动API翻译(新用户注册福利领取攻略) 3、Ollama本地部署Qwen/DeepSeek离线翻译(附显存优化方案) 如果你觉得这个视频对你有帮助,别忘了“👍点赞”和“❤订阅”我的频道,这样你就不会错过接下来的教程了。同时,如果你有任何问题,请在**评论区**留言,我会尽快回复你。再次感谢观看,我们下个视频见! 视频中讲到的所有安装包下载地址 PotPlayer官网地址:https://potplayer.daum.net/ 网盘链接:https://pan.quark.cn/s/964a9ac0632c Faster-Whisper-XXL引擎下载链接:https://pan.quark.cn/s/0e596c709d91 large-v3-turbo文件下载链接:https://pan.quark.cn/s/043f5ee1b05d Chatgpt翻译插件官网地址:https://github.com/Felix3322/PotPlayer_Chatgpt_Translate 网盘连接:https://pan.quark.cn/s/eda64ad39a5f DeepSeek API官网地址:https://platform.deepseek.com/ 硅基流动官网地址:https://cloud.siliconflow.cn Ollama翻译插件下载地址:https://github.com/yxyxyz6/PotPlayer_ollama_Translate 网盘连接:https://pan.quark.cn/s/da9e0e4706d0 Ollama官网地址:https://ollama.com/ Ollama本地部署安装包网盘连接:https://pan.quark.cn/s/fd6bc2ffb343 #potplayer #deepseek #ollama #api #本地部署
00:00 / 00:01
连播
清屏
智能
倍速
点赞830
企业级最强开源大模型Qwen3震撼发布!本地部署+客观测评 🚀企业级最强开源大模型Qwen3震撼发布!本地部署+全面客观测评!Qwen3-235B-A22B+Qwen3-32B+Qwen3-14B谁是最强王者?ollama+LM Studio+vLLM本地部署 🚀🚀🚀视频简介: ✅【本地部署+真实测评】阿里巴巴Qwen3最强模型对决:从235B混合专家到14B本地部署,全方位能力测试从JSON格式化到Python编程,从SQL查询到矩阵运算,从Ollama到LM Studio到vLLM全平台部署教程 📢 本视频详细演示了阿里巴巴最新发布的Qwen3系列模型,包括混合专家架构模型(235B/22B和30B/3B)以及32B、14B、8B、4B、1.7B、0.6B等多种参数版本。📊 ⚙️ 视频分为两大部分:首先展示了如何在不同平台部署Qwen3模型,包括Windows/macOS用户使用Ollama和LM Studio进行简易部署,以及企业用户使用vLLM在Ubuntu系统进行高性能部署的完整流程。🖥️ 🔍 第二部分进行了全面的性能测试,重点对比了235B、32B和14B三个版本在知识库截止日期、幻觉问题、规律识别、JSON格式化、代码理解、SVG生成、提示词遵循、SQL能力、农夫过河问题、文档分析以及Python编程等多个维度的表现。🧠 💡 测试结果显示,开启思考模式的14B参数模型在多项测试中表现优于不开启思考模式的32B甚至235B模型,为用户选择最适合自己需求的模型版本提供了宝贵参考。✨ #Qwen3 #Qwen #AI #ollama #AIGC
00:00 / 00:01
连播
清屏
智能
倍速
点赞310