00:00 / 08:31
连播
清屏
智能
倍速
点赞11
00:00 / 03:35
连播
清屏
智能
倍速
点赞29
00:00 / 00:21
连播
清屏
智能
倍速
点赞111
00:00 / 02:58
连播
清屏
智能
倍速
点赞0
5 分钟彻底厘清大语言模型中的权重、上下文和记忆的区别 什么是大语言模型中的权重、上下文和记忆?AI 科普达人 New Machina 将用 5 分钟讲清它们之间的区别和应用场景。 在使用大语言模型时,很多人都会听到权重、上下文和记忆这些词,但它们到底各自负责什么,其实很容易混在一起。理解清楚这三点,有助于看懂模型能做什么,也能帮助我们更好地设计和使用 AI 系统。 先说权重。权重是模型在训练过程中学到的参数,决定了它如何理解语言、如何推理、如何生成回答。模型一旦训练完成并上线,这些权重基本就不再变化了。可以把它理解为模型的底层能力,比如语言结构、常识、推理方式,以及基础的编程和数学能力。所有用户用的是同一套权重,它决定了模型的下限和上限。 再看上下文。上下文是模型在一次对话中能看到的所有信息,包括你的输入、系统提示,以及之前的回答。它像一块临时的工作区,随着对话不断变化。上下文越长,模型能参考的信息越多,但同时计算成本和延迟也会增加。默认情况下,对话一结束,上下文就消失了,不会自动带到下一次。 最后是记忆。记忆通常指由系统额外设计的长期存储,比如数据库。它可以跨会话保存信息,例如用户偏好、历史对话摘要、企业知识或长期事实。记忆不是模型自带的,而是通过检索在合适的时候放回上下文中使用。做得好的记忆系统,可以让 AI 用起来更连贯,也更像一个长期合作的助手。 简单来说,权重决定模型会什么,上下文决定它此刻在想什么,记忆决定它能记住什么。把这三者分清楚,才能在性能、成本和体验之间做出更合理的取舍。这也是为什么对 AI 系统构建者来说,理解它们的差别非常重要。 #大语言模型 #AI科普 #AI技术 #人工智能
00:00 / 04:44
连播
清屏
智能
倍速
点赞8