00:00 / 03:04
连播
清屏
智能
倍速
点赞11
要给DeepSeek投喂数据,其实也就是训练AI的过程。以下是详细的步骤: 环境准备: 下载并解压DeepSeek安装包。 安装Ollama,并设置环境变量,以便将模型下载到指定的文件夹(如D盘的OllamaAI文件夹)。 重启电脑,确保环境变量生效。 下载模型: 打开Ollama程序,然后在命令行(CMD)中输入相应的命令来下载DeepSeek模型,例如ollama run deepseek-r1:1.5b。 下载完成后,再下载nomic-embed-text嵌入式模型,命令为ollama pull nomic-embed-text。 安装AnythingLLM: 选择安装位置(如D盘),并完成安装。 安装过程中,如有提示下载ollama_lib.zip,可选择取消,以节省时间。 配置AnythingLLM: 在软件设置中,选择Ollama作为LLM和嵌入引擎提供商。 选择已下载的DeepSeek-R1系列模型和nomic-embed-text嵌入模型。 投喂数据: 打开AnythingLLM的工作区界面。 点击“上传”,选择需要上传的文件(支持PDF、Txt、Word、Excel、PPT等常见文档格式)。 勾选上传的文件,点击“Move to Workspace”。 点击“Save and Embed”完成数据投喂。 此外,在投喂数据之前,请确保你的网络环境良好,因为下载模型和上传数据都需要稳定的网络连接。同时,注意软件的版本兼容性,以免出现不必要的错误。最后,关于数据格式,DeepSeek支持多种常见文档格式,但请确保上传的数据内容符合你的训练需求。 完成以上步骤后,你的DeepSeek模型就已经完成了数据投喂,可以开始使用新的知识进行回答和推理了。希望这些信息对你有所帮助! #一键留住春日好时光 #剪映一键成片
00:00 / 01:57
连播
清屏
智能
倍速
点赞282
00:00 / 03:00
连播
清屏
智能
倍速
点赞463
抖开心1年前
一、部署工具与模型选择** 1. **安装Ollama(推荐工具)** - Ollama是开源框架,支持Windows/macOS/Linux系统,能够快速部署大型语言模型。需从官网下载安装包并默认安装至C盘(需至少5GB空间)。 - 安装完成后,通过命令行(如PowerShell管理员模式)输入模型下载指令,例如: ```bash ollama run deepseek-r1:7b # 7B模型,适合中等配置电脑 ``` 更高性能需求可选择14B或32B模型(需显存8G以上)。 2. **备选方案:LM Studio(适合新手)** - 支持图形化界面,内置模型下载功能,但需NVIDIA显卡(CUDA支持)。安装后需通过防火墙断网以保护隐私。 - 推荐模型:8B-Q4(兼顾速度与质量)或32B-Q4(需24G显存)。 --- ### **二、模型运行与交互界面** 1. **命令行直接对话** - 安装模型后,通过`ollama run`命令进入对话模式,输入中文或英文问题即可生成文案。例如: ```bash >> 请帮我写一条关于夏日饮品的抖音文案,要求活泼、带emoji。 ``` - 关闭后重新进入:使用`ollama list`查看已安装模型,再运行`ollama run 模型名称`。 2. **可视化界面(提升体验)** - **Page Assist插件**:安装后通过浏览器侧边栏与模型交互,支持文档对话和网络搜索,适合文案创作。 - **Open WebUI(Docker部署)**:提供类似ChatGPT的网页界面,支持语音输入,适合复杂场景。 三、参数调优与文案生成技巧** 1. **关键参数设置** - **Context Length**:日常对话设为4k,长文案生成可调至8k,但会降低响应速度。 - **Temperature**:控制创意程度(0.1-1.0)。抖音文案需吸睛,建议设为0.8-0.9,增强语言活泼性。 - **GPU Offload**:根据显存调整#利用deepseek可以做什么 #人工智能 #deepseek本地部署的详细步骤
00:00 / 01:14
连播
清屏
智能
倍速
点赞4