00:00 / 01:32
连播
清屏
智能
倍速
点赞NaN
00:00 / 00:59
连播
清屏
智能
倍速
点赞194
00:00 / 01:51
连播
清屏
智能
倍速
点赞2464
生财鹿4天前
AI的那些黑话一分钟告诉你 你是不是一听到 LLM、Token、RAG、Agent、多模态、幻觉,脑子就像被按了关机键?别慌,今天两分钟,把这些 AI 黑话全翻译成大白话,让你以后刷到不再犯怵,还能反手教别人。 你每天用的 DeepSeek、豆包、Kimi、混元这些 AI,在 AI 圈统一叫大语言模型,缩写是 LLM。它不是 “懂你”,更像个超级续写机,核心是算概率预测下一段内容,写得顺不代表说得真。 你输入的 “帮我规划成都三日游” 这类指令,叫提示词(Prompt),它就是给 AI 的 “任务说明书”。写得越清晰,AI 越像靠谱同事;写得越含糊,它越爱脑补。 AI 理解文字前,会先把内容 “切块”,这些小碎片就是Token。模型不认字数认 Token,平台按 Token 计费,因为这才是 AI 的真实工作量 —— 中文、英文、标点形态不同,按 Token 计费更公平。就像麻辣烫按重量结账,多一个 Token,AI 就多一份计算成本。 为啥和 AI 聊久了它会变慢、“失忆”?因为 AI 的记忆叫上下文,容纳对话内容的容量就是上下文窗口。上下文越长,计算量不是简单翻倍,而是会急剧增加,成本和耗时都会飙升。所以很多产品限制上下文长度,不是小气,是长记忆真的贵。 减少幻觉有两招核心办法:第一招是RAG(检索增强生成),让 AI 先查外部资料库、搜索结果找证据,再基于证据回答,从源头减少瞎编;第二招是通过人类反馈训练,让 AI 在不确定时说 “我不知道”,而不是硬撑。 多模态,就是 AI 能同时理解文字、图片、语音、视频等多种信息类型。单模态 AI 只能聊文字,多模态的厉害之处,是能把不同形式的信息对齐到同一理解空间,比如把截图、表格里的内容转化成可推理的信息,这就是常说的 “模态对齐”。 最后是Agent(智能体),它不是新模型,而是一种工作方式。LLM 只会聊天,Agent 却能办事 —— 先定目标、拆步骤,再调用搜索、读文档、写邮件等工具,最后汇总结果。一句话总结:LLM 会说话,Agent 能办事。#AI #AGI #人工智能 #2026 #deepseek
00:00 / 06:02
连播
清屏
智能
倍速
点赞1