00:00 / 01:09
连播
清屏
智能
倍速
点赞249
小in分享10月前
potplay+deepseek+ollama本地部署全攻略 这可能是全网最硬核的PotPlayer教程!无需编程基础,三步实现: 1、 Whisper大模型实时生成字幕(附最新large-v3-turbo模型网盘) 2、直连DeepSeek/硅基流动API翻译(新用户注册福利领取攻略) 3、Ollama本地部署Qwen/DeepSeek离线翻译(附显存优化方案) 如果你觉得这个视频对你有帮助,别忘了“👍点赞”和“❤订阅”我的频道,这样你就不会错过接下来的教程了。同时,如果你有任何问题,请在**评论区**留言,我会尽快回复你。再次感谢观看,我们下个视频见! 视频中讲到的所有安装包下载地址 PotPlayer官网地址:https://potplayer.daum.net/ 网盘链接:https://pan.quark.cn/s/964a9ac0632c Faster-Whisper-XXL引擎下载链接:https://pan.quark.cn/s/0e596c709d91 large-v3-turbo文件下载链接:https://pan.quark.cn/s/043f5ee1b05d Chatgpt翻译插件官网地址:https://github.com/Felix3322/PotPlayer_Chatgpt_Translate 网盘连接:https://pan.quark.cn/s/eda64ad39a5f DeepSeek API官网地址:https://platform.deepseek.com/ 硅基流动官网地址:https://cloud.siliconflow.cn Ollama翻译插件下载地址:https://github.com/yxyxyz6/PotPlayer_ollama_Translate 网盘连接:https://pan.quark.cn/s/da9e0e4706d0 Ollama官网地址:https://ollama.com/ Ollama本地部署安装包网盘连接:https://pan.quark.cn/s/fd6bc2ffb343 #potplayer #deepseek #ollama #api #本地部署
00:00 / 23:41
连播
清屏
智能
倍速
点赞897
据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患。鉴于目前DeepSeek等大模型的研究部署和应用非常广泛,多数用户使用Ollama私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。一、风险隐患详情使用Ollma在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在以下风险:1、未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件或窃取数据。2、数据泄露:通过特定接口可访问并提取模型数据,引发数据泄露风险。如:通过/api/show接口,攻击者能够获取模型的license等敏感信息,以及其他接口获取已部署模型的相关敏感数据信息。3、攻击者可利用Ollama框架历史漏洞(CVE-2024-39720/39722/39719/39721),直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。二、安全加固建议1、限制Ollama监听范围:仅允许11434端口本地访问,并验证端口状态。2、配置防火墙规则:对公网接口实施双向端口过滤,阻断11434端口的出入站流量。3、实施多层认证与访问控制:启用API密钥管理,定期更换密钥并限制调用频率。部署IP白名单或零信任架构,仅授权可信设备访问。4、禁用危险操作接口:如push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。5、历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。目前,已有大量存在此类安全隐患的服务器暴露在互联网上。建议广大用户加强隐患排查,及时进行安全加固,发现遭网络攻击情况第一时间向当地公安网安部门报告,配合公安网安部门开展调查处置工作。国家网络与信息安全信息通报中心将进一步加强监测并适时发布后续通报。来源:国家网络安全通报中心。 (来源:网络安全和信息化•微信公众号) #人工智能
00:00 / 00:25
连播
清屏
智能
倍速
点赞22
00:00 / 16:40
连播
清屏
智能
倍速
点赞NaN
00:00 / 04:15
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:47
连播
清屏
智能
倍速
点赞NaN
00:00 / 03:14
连播
清屏
智能
倍速
点赞NaN
00:00 / 03:17
连播
清屏
智能
倍速
点赞9055
00:00 / 07:40
连播
清屏
智能
倍速
点赞6166
00:00 / 06:21
连播
清屏
智能
倍速
点赞2
抖开心11月前
一、部署工具与模型选择** 1. **安装Ollama(推荐工具)** - Ollama是开源框架,支持Windows/macOS/Linux系统,能够快速部署大型语言模型。需从官网下载安装包并默认安装至C盘(需至少5GB空间)。 - 安装完成后,通过命令行(如PowerShell管理员模式)输入模型下载指令,例如: ```bash ollama run deepseek-r1:7b # 7B模型,适合中等配置电脑 ``` 更高性能需求可选择14B或32B模型(需显存8G以上)。 2. **备选方案:LM Studio(适合新手)** - 支持图形化界面,内置模型下载功能,但需NVIDIA显卡(CUDA支持)。安装后需通过防火墙断网以保护隐私。 - 推荐模型:8B-Q4(兼顾速度与质量)或32B-Q4(需24G显存)。 --- ### **二、模型运行与交互界面** 1. **命令行直接对话** - 安装模型后,通过`ollama run`命令进入对话模式,输入中文或英文问题即可生成文案。例如: ```bash >> 请帮我写一条关于夏日饮品的抖音文案,要求活泼、带emoji。 ``` - 关闭后重新进入:使用`ollama list`查看已安装模型,再运行`ollama run 模型名称`。 2. **可视化界面(提升体验)** - **Page Assist插件**:安装后通过浏览器侧边栏与模型交互,支持文档对话和网络搜索,适合文案创作。 - **Open WebUI(Docker部署)**:提供类似ChatGPT的网页界面,支持语音输入,适合复杂场景。 三、参数调优与文案生成技巧** 1. **关键参数设置** - **Context Length**:日常对话设为4k,长文案生成可调至8k,但会降低响应速度。 - **Temperature**:控制创意程度(0.1-1.0)。抖音文案需吸睛,建议设为0.8-0.9,增强语言活泼性。 - **GPU Offload**:根据显存调整#利用deepseek可以做什么 #人工智能 #deepseek本地部署的详细步骤
00:00 / 01:14
连播
清屏
智能
倍速
点赞4