一条视频说清楚,deepseek 70B FP16本地部署 一位重庆的律师大哥找到社长,让我帮他完成deepseek70B-FP16模型的本地部署,社长才意识到,律师行业要大翻天了,貌似现在deepseek本地部署即将要成为律师的标配了,把卷宗的初步整理交给deepseek,效率高到飞起啊。 这两天有个重庆的律师大哥找到社长,让我协助他完成deepseek 70B模型的本地部署,这其中涉及硬件配置、系统配置和软件安装等一系列工作,并且大哥按照律师的良好习惯给社长付了咨询费。你还别说,我发现律师这个行业对 DeepSeek 的需求,那还真是“刚需中的刚需”啊! 律师大哥先是跟我倒了一番苦水,说在没有 DeepSeek 之前,他们整理卷宗全靠人工,那过程,谁干谁知道啊!就拿他接的建工类案件来说,光合同就几百页,人工完整读完一份合同,耗时相当漫长,而且还特别容易漏项,一不小心就 “功亏一篑”了。但有了 DeepSeek 之后,案件卷宗的初步整理工作,交给人工智能就能 “游刃有余” 地搞定了,整理效率直接坐火箭原地起飞,简直不要太香! 那为啥律师大哥非要做本地部署呢?这就得提到律师行业的特殊性了。他们处理的很多内容都得严格保密,泄密那可是犯大忌的,所以根本没法用云服务来实现人工智能对卷宗的阅读和归纳总结。在这种情况下,对本地部署人工智能模型的需求,那就真刻不容缓了! 社长和律师大哥先确认了一下,这模型是整个律所一起用,还是他个人用。他说主要是自己用,偶尔他老婆可能也会用用。而且大哥一上来就跟我说要部署70b的模型,还指定要 70b fp16 的版本,那语气,那眼神,就差没说“非它不可”了。看得出来,大哥在这事儿上也是研究了很久,做足了功课才来找我的。 说到这儿呢,社长给大伙科普一下70B fp16是什么意思。首先是70B,这个应该很多朋友都清楚了,它指的是参数量,B是英文billion的首字母,就是十亿的意思,70B就是70个10亿,也就是700亿参数的意思,像32B模型,就代表了这个模型有320亿个参数。参数量越大意味着模型的推理能力越强,这就是为什么大家都在追求更高参数量的原因。fp16呢,则代表模型的精度,精度越高,在一些垂直领域就越能“大显身手”,像律师、金融、医药这些行业,就需要这种更专更精的模型,发挥更强的专业领域推理能力。 #diy电脑 #人工智能 #电脑 #deepseek本地部署 #骑着单车去酒吧
00:00 / 13:17
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:35
连播
清屏
智能
倍速
点赞99
00:00 / 03:24
连播
清屏
智能
倍速
点赞462
00:00 / 01:18
连播
清屏
智能
倍速
点赞264
00:00 / 02:02
连播
清屏
智能
倍速
点赞463
00:00 / 01:13
连播
清屏
智能
倍速
点赞540
下周国内用户就能下载 DeepSeek V4 了。而我现在已经在测试它了,有人告诉我,它真正的亮点在于超大参数量级。 我直接把一整套完整的 SDK 丢给它——你可以想象成上百万个组件模块,再加上一个复杂的需求,让它构建出一套完全可用、零故障运行的解决方案。 我们都知道,大模型通常只会做“高概率预测”,因此想得到完美输出几乎是不可能的。 但 DeepSeek V4 能承载如此庞大的信息量,所以它具备自我迭代能力。 只要给它几次机会,它会自行修正错误,真的能做出全新且能正常运行的东西。你根本不用管它内部是怎么实现的、为什么能跑起来,你只要把报错反馈给它,它就会自己修复! 这种超大容量规模,才是真正实现创造的关键。 即便 MiniMax 有着国内 AI 市场最高的年度经常性收入,依然没法做到同等水平的创新。 我只能说,现在大多数普通人可能还感受不到 DeepSeek V4 带来的震撼,但程序员、律师这类职业,这些在旧体制驱动下的“白领们“,可能会比你想象中更快被替代。 许多中国人正在准备高考。然而,人工智能说他们在浪费时间。但是,能做什么呢?人工智能“蓬勃发展”得太快了,等不及了......中国领先于世界;如果我们等待,中国就没有机会赶上了。所以我相信北京做出了正确的决定;没有必要等待,兄弟! #程序员#deepseek #高考 #openclaw #ai
00:00 / 02:18
连播
清屏
智能
倍速
点赞52
00:00 / 01:42
连播
清屏
智能
倍速
点赞6
00:00 / 01:18
连播
清屏
智能
倍速
点赞2103
00:00 / 01:20
连播
清屏
智能
倍速
点赞7015
00:00 / 03:44
连播
清屏
智能
倍速
点赞193