00:00 / 02:20
连播
清屏
智能
倍速
点赞9
00:00 / 01:52
连播
清屏
智能
倍速
点赞12
00:00 / 04:58
连播
清屏
智能
倍速
点赞0
00:00 / 06:05
连播
清屏
智能
倍速
点赞27
00:00 / 03:47
连播
清屏
智能
倍速
点赞78
00:00 / 10:19
连播
清屏
智能
倍速
点赞5
00:00 / 02:26
连播
清屏
智能
倍速
点赞487
00:00 / 00:32
连播
清屏
智能
倍速
点赞10
00:00 / 32:59
连播
清屏
智能
倍速
点赞67
【必看】从“数数”到“创世神”:LLM如何终结N-gram时 当你在享受ChatGPT带来的“创世”体验时,你是否知道它的祖先们是如何一步步进化的? 本期视频将带你深入了解自然语言处理(NLP)领域最具颠覆性的三大飞跃,看AI语言能力如何实现从零到一、再到无限的进化: 1. 统计时代的挣扎(N-gram模型):我们的人工智能语言之旅始于最原始的 N-gram 语言模型。它基于马尔可夫假设,通过统计词频(如 P(w i ∣w i−1 ))来预测下一个词。但它很快撞上了两大瓶颈:数据稀疏性(参数空间巨大,许多词序概率为零) 和 上下文窗口受限(无法捕捉长距离依赖)。 2. 从离散到连续(Word Embedding):为解决 N-gram 的局限性,我们引入了 Word Embedding(词嵌入)。这一技术基于“分布式假说”,将词汇从稀疏、孤立的独热编码转换为 低维稠密的语义向量。这不仅解决了语义鸿沟问题,也为神经网络语言模型(如 Word2Vec、FastText)奠定了基础。 3. 规模即力量(LLM的“创世”):真正的范式转变发生在 大规模语言模型(LLM) 时代。得益于 Transformer 架构 的多头自注意力机制,LLM能高效处理和理解极长的上下文。其核心任务依然是 语言模型 的目标——构建词序列的概率分布,但依靠 数千亿单词 的海量预训练数据,LLM具备了惊人的 文本建模能力 和 任务泛化能力 #ai #大模型 #人工智能
00:00 / 06:13
连播
清屏
智能
倍速
点赞28
00:00 / 02:52
连播
清屏
智能
倍速
点赞9916