00:00 / 04:34
连播
清屏
智能
倍速
点赞636
00:00 / 02:55
连播
清屏
智能
倍速
点赞1175
potplay+deepseek+ollama本地部署全攻略 这可能是全网最硬核的PotPlayer教程!无需编程基础,三步实现: 1、 Whisper大模型实时生成字幕(附最新large-v3-turbo模型网盘) 2、直连DeepSeek/硅基流动API翻译(新用户注册福利领取攻略) 3、Ollama本地部署Qwen/DeepSeek离线翻译(附显存优化方案) 如果你觉得这个视频对你有帮助,别忘了“👍点赞”和“❤订阅”我的频道,这样你就不会错过接下来的教程了。同时,如果你有任何问题,请在**评论区**留言,我会尽快回复你。再次感谢观看,我们下个视频见! 视频中讲到的所有安装包下载地址 PotPlayer官网地址:https://potplayer.daum.net/ 网盘链接:https://pan.quark.cn/s/964a9ac0632c Faster-Whisper-XXL引擎下载链接:https://pan.quark.cn/s/0e596c709d91 large-v3-turbo文件下载链接:https://pan.quark.cn/s/043f5ee1b05d Chatgpt翻译插件官网地址:https://github.com/Felix3322/PotPlayer_Chatgpt_Translate 网盘连接:https://pan.quark.cn/s/eda64ad39a5f DeepSeek API官网地址:https://platform.deepseek.com/ 硅基流动官网地址:https://cloud.siliconflow.cn Ollama翻译插件下载地址:https://github.com/yxyxyz6/PotPlayer_ollama_Translate 网盘连接:https://pan.quark.cn/s/da9e0e4706d0 Ollama官网地址:https://ollama.com/ Ollama本地部署安装包网盘连接:https://pan.quark.cn/s/fd6bc2ffb343 #potplayer #deepseek #ollama #api #本地部署
00:00 / 23:41
连播
清屏
智能
倍速
点赞839
00:00 / 01:30
连播
清屏
智能
倍速
点赞12
00:00 / 13:17
连播
清屏
智能
倍速
点赞489
00:00 / 01:36
连播
清屏
智能
倍速
点赞70
00:00 / 01:45
连播
清屏
智能
倍速
点赞129
00:00 / 02:45
连播
清屏
智能
倍速
点赞362
要给DeepSeek投喂数据,其实也就是训练AI的过程。以下是详细的步骤: 环境准备: 下载并解压DeepSeek安装包。 安装Ollama,并设置环境变量,以便将模型下载到指定的文件夹(如D盘的OllamaAI文件夹)。 重启电脑,确保环境变量生效。 下载模型: 打开Ollama程序,然后在命令行(CMD)中输入相应的命令来下载DeepSeek模型,例如ollama run deepseek-r1:1.5b。 下载完成后,再下载nomic-embed-text嵌入式模型,命令为ollama pull nomic-embed-text。 安装AnythingLLM: 选择安装位置(如D盘),并完成安装。 安装过程中,如有提示下载ollama_lib.zip,可选择取消,以节省时间。 配置AnythingLLM: 在软件设置中,选择Ollama作为LLM和嵌入引擎提供商。 选择已下载的DeepSeek-R1系列模型和nomic-embed-text嵌入模型。 投喂数据: 打开AnythingLLM的工作区界面。 点击“上传”,选择需要上传的文件(支持PDF、Txt、Word、Excel、PPT等常见文档格式)。 勾选上传的文件,点击“Move to Workspace”。 点击“Save and Embed”完成数据投喂。 此外,在投喂数据之前,请确保你的网络环境良好,因为下载模型和上传数据都需要稳定的网络连接。同时,注意软件的版本兼容性,以免出现不必要的错误。最后,关于数据格式,DeepSeek支持多种常见文档格式,但请确保上传的数据内容符合你的训练需求。 完成以上步骤后,你的DeepSeek模型就已经完成了数据投喂,可以开始使用新的知识进行回答和推理了。希望这些信息对你有所帮助! #一键留住春日好时光 #剪映一键成片
00:00 / 01:57
连播
清屏
智能
倍速
点赞177
00:00 / 02:05
连播
清屏
智能
倍速
点赞20