00:00 / 01:16
连播
清屏
智能
倍速
点赞6
【个人知识库】Ollama本地部署DeepSeek的几种方式 (一)视频内容概述 本次视频主要聚焦于本地部署 DeepSeek R1 模型,涵盖了如何选择蒸馏版本、各种部署方式。关于集成方面不做过多涉及,PPT 模板通过 Kimi 提示词生成。相关文章也借助 DeepSeek 深度推理方式,依据设定的技术博客模板完成撰写。 (二)Ollama 下载与安装 下载:Ollama 是用于本地部署大模型的跨平台兼容工具,可直接在其官网首页获取对应版本下载链接进行下载,如 Mac 版本就下载 Mac 版 。 安装:下载完成后,点击安装文件(可能是带有 Ollama 标识的文件)进行安装。安装成功后,在 Mac 系统中,点击安装文件后,可能在图标栏出现 Ollama 小图标;也可在 “其他工具” 中找到 “终端”(在 Mac 里搜索 “终端”),通过在命令行输入 Ollama 命令,若能够展示当前 Ollama 所拥有的模型(主讲人之前通过本地 Modelfile 文件导入了两个大模型,通过 ollama run 方式导入了 deepseek - r1 1.5B 这个 embedding 模型),则表明安装成功。 (三)模型下载与选择 下载方式:模型可通过 Ollama run 的命令方式进行拉取。在模型仓库中选择 deepseek - r1,默认版本为 7B,可按需选择如 1.5B 等较小版本用于本地测试,因模型拉取较为消耗资源,运行回拉的时间根据网速和模型大小而定,可能从几十分钟到一小时不等。拉取完成后即可使用,不同版本模型对电脑性能要求不同,主讲人的 Mac 电脑为 8G 内存,选择 1.5B 版本的模型回答速度较快,7B 版本则对 CPU 和 GPU 要求更高。 蒸馏版本分析: 1.5B 到 67B 特点:1.5B、7B、8B 版本可在有显卡(如 RTX 3090 或者 4090 消费级显卡)的本机电脑上较快运行,1.5B 相对对硬件要求较低,适合搭建小型智能问答系统或简单 QA 本地知识库;14B 和 32B 对硬件要求极高,需要 A100 和 H700 等才能发挥推理效果,适用于代码补全、数据分析、科研海量数据研究等场景,通常需云端资源支持。 性能差异对比: 通过对比模型在不同任务上的性能差异,例如在 AIME(美国数学邀请竞赛,考验数学逻辑推理)、GPQA(在线编程库指标) 、code force(编程平台相关)等方面的测评
00:00 / 09:36
连播
清屏
智能
倍速
点赞12
00:00 / 02:44
连播
清屏
智能
倍速
点赞46
Kimi现象:当“怠工”直通付费页面, 该如何思考AI的未来 #人工智能 #科技 #科技改变生活 #抖音热点记忆2025 我们正在见证一个教科书级的商业案例,它如此直白,几乎撕掉了所有温情脉脉的面纱。 如果你最近使用过Kimi智能助手,你可能对以下场景并不陌生: 1. 第一步:遭遇“怠工”。当你试图进行稍复杂的任务时,一个友好的弹窗会提示:“不好意思,刚刚和Kim聊的人太多了…可以晚点再问我一遍。”唯一的按钮是 “前往升级”。 2. 第二步:直面“付费”。点击后,你将直达 “Kimi登月计划” 订阅页面。页面上,刚刚让你“等待”的核心功能——深度研究、PPT生成、高速响应——全部被明码标价为付费权益。 3. 第三步:审视“承诺”。页面展示着清晰的价目表(例如 49元/月的“Andante”套餐),承诺以“4倍提速”、“优先使用权”和“扩展额度”来解决你遇到的所有瓶颈。 这个过程,被许多用户戏称为“AI怠工,倒逼付费”。它不再是一个模糊的感受,而是一个可被清晰截图的、从“功能受限”到“付费解锁”的标准化流程。 “Kimi现象”因此超越了简单的收费争议,成为一面棱镜,折射出AI技术从理想主义走向大规模商业化的普遍困境: 当一项以“智能”和“普惠”为名的服务,其用户体验被设计成如此明确的“受阻-引导-付费”链条时,我们该如何思考这背后的逻辑?这是商业模式的必然创新,还是对技术初心的某种背离?
00:00 / 03:58
连播
清屏
智能
倍速
点赞10
00:00 / 04:15
连播
清屏
智能
倍速
点赞2