粉丝5584获赞1.6万

逼自己一个月学完,其实你很会 ai 大 模型,存下吧,很难找全的,本系列视频耗时两个月制作共计一百二十小时,带你一口气学完,吊打大模型面试官。这应该是目前抖音仅有从入门到进阶全套系统 ai 大 模型教程,本期带你搞定四大 ai 开发框架,还整理了大模型面试题库,学习路线, 公开式听课,每天讲透一个 ai 大 模型知识点。今天我们来讲一下 longch 第 five m 八 n 扣子四大 ai 开发框架的对决与选型指南。 那首先我们来讲一下这个浪秤啊,它目前的一个优势在于哪里以及定义啊,它在零代码这一块的一些呃功能跟实践,包括一些像 m 八 n 呢,做自动化流程啊,以及扣子啊, 它的一些这个智能体,这个平台目前的一些功能有哪些?那包括我们怎么样根据目前这几个比较主流的智能体平台如何去选择这个框架,还有以及未来趋势。 那目前 ai 应用开发的话,其实啊竞争也非常激烈啊,像在能力啊,速度啊与成本之间的博弈的话,也越来越多了。 目前构建一个强大的 ai 应用的话,其实是一项非常复杂的挑战,开发者和团队之间需要在三个关键维度之间做权衡啊,比如说像深度定制的能力,我们要去实现复杂的独特业务的一个自由度,然后是开发上线速度啊,我们想要把想法快速的去转化为产品的敏捷性、 集成与自动化,将 ai 无缝的融入到现有工作流的一个效率。那么我们来介绍一下这几个框架,首先是浪秤,浪秤的话目前做深度定制这一块比较有优势, 它的一个核心理念的话是将这个模块化思想拆解为复杂需求,将 ai 应用结构为独立可赋用的组建,赋予开发者极致的灵活性与控制性。 然后是它的一个关键优势,就是在于它的生态厚度决定了它的一个交付速度。它有非常丰富的工具链, 官方的话集成了超过三百种的一个工具,覆盖了主流知识库、 api 和云服务以及活跃的社区。 github 的 一个新标书的话,领先啊,拥有海量的文档、势利和问答,能够快速的去解决开发难题。 它主要是有四大组建,一个的话是 model 啊,这个是主要是文本生成的一些模型,包括 memory, 这个主要是用来管理对话历史。 toast 的 话可以去扩展外部的一个能力。 agent 的 话,哎,整个整合起来可以去做一些 agent 的 应用搭建,主要是可以去构建复杂的一些应用。 那么 d 方案的话,它主打的就是一个零代码极速上线,它的核心能力的话就是脱债式的组建去构建应用,通过直观的格式化的界面,无需编辑代码,可以大幅度降低 ai 开发的一个门槛。 然后它是可以快速的去构建一个原型的啊,将创意到原型的周期从数周缩短到了几小时,然后全民开发啊,它可以让业务人员也能直接参与可设计 ai 产品 核心的一个权衡点就是便捷性和灵活性,便捷性的话它就是可以通过格式化界面和预制模板实现极速开发,降低技术门槛。灵活性的话就是当需求超过了预设范围时,深度定制能力受限,可能面临一些迁移成本。 n 八 n 的 话,它是一个自动化的瑞士军刀,它的一个核心定位的话,就是通过节点式的编排连接一切。 n 八 n 是 一个流程指挥官,它可以通过格式化的流程图编辑器,将不同系统以及不同平台轻松打通,实现复杂的数据流转与业务自动化。 然后啊,像包括一些邮件服务啊、数据库啊,到 slack 啊,它的集成能力非常强,超过四百个即插即用的一个节点,覆盖了主流的 s 服务。它的一个关键优势的话就是开源、免费与自定义拓展啊,成本的话也比较低, 因为社区版是完全开源的,企业可以自托管,保证数据合规,无供应商锁定,然后支持自行编辑,自定义节点可以满足任何业务需求。 然后它整个的一个流程是从这个 from submission 到这个 ai agent, 然后再有一些这个流程啊,比如说我们做一些审核等等的,还包括一些通知的附件。 那扣子的话,其实是一个中文场景的原生性物种。它的一个优势就在于中文场景深度优化啊,提供了母语级别的一个交互体验,它可以针对中文分词、提日词、习惯、 知识库、语义理解去做一些底层调优啊,理解会更加精准。然后也内置了一些公众号、小红书、飞书等中文平台的插件,开发者是无需要去处理 啊这个反碱全半角的一些兼容性问题的。然后他的社区驱动迭代速度也比较快,为快速验证中国市场的创业团队提供了最低的一个心理负担的启动路径。然后他的社区的话也非常活跃啊,综合论坛、日活高插件生态啊,官方每周一更新啊,一键可以附用模板,然后也可以快速去启动。 然后是一个从四个维度,我们去做一些分析啊,量化一下他们的核心差异,然后通过学习曲线 定制、深度、集成、广度、中文友好的四项核心指标,直观的展示了四大框架的取舍逻辑,可以帮助嗯团队和需求做出最佳的一个选择。首先郎正这个角度上来说的话,他非常方便去做定制与集成能力啊, 这一块他比较领先,生态也比较强。然后地方的话,学习曲线最低,适合快速的去做一些 ai 原型, n 八 n 的 话,他集成与定制均衡,擅长自动化,那么扣子的话,中文油画度独占鳌头,社区比较活跃。 那我们实战案例的话,大家可以去做一些这个企业级的一个智能客服啊,比如说我们基于 loken 去构建知识多人对话动态知识库和角色权限的一些复杂企业级客服系统方案的话,采用 loken 的 agent 加 memory 组合,配合自研的权限权限 啊。比如说我们想带来一个成果,四周内去完成上线客服机器人准确率高达百分之九十二,支持无缝切换。然后在复杂的业务场景中, 功能强大、成熟的框架是首选。那么二零二的话,我们可以考虑,比如说去做一些轻量级的自动化需求,这个才考虑到一个轻装上阵,那比如说我们可以做一个自媒体 ai 助手,扣子的话使用扣子搭建的中文写作助手,实现热点抓取、大纲申审、多平台分发的一个自动化流程, 整个的话数据自动化的话,我们可以考虑用 m 八啊,运营团队使用 m 八定时的去抓取电商数据,清洗后存入回收表格并生成图标,全程的话是零代码的。 那么未来未来 ai 框架三大趋势啊,首先是 a 正的一个能力增强,具备了自主规划,持续记忆于多模态交互能力, ai 助手的话就更加聪明。趋势二的话就是使用门槛更低了, 自然语言交互变成主流了,图形化操作普及,实现了 ai 能力的一个民主化。然后趋势三的话就是生态深度融合,框架间的互操作性增强,开放标准促进的跨平台协助与协调创新。 那我们可以根据这个战场与兵种去选择框架,针对复杂啊,应用复杂度比较高的话,我们优先可以考虑用像 longcheng 啊 啊这个地方呀,如果考虑这个核心用户角色跟开发自动化的话,我们可以考虑优先用 nba 跟扣子,因为 longcheng 本身功能强大,甚至比较成熟。 nba 的 话就是集成能力强,灵活的编排。 dfa 的 话就是零代码快速原型,扣子的话就深度优化,设计比较活跃, 核心解案就是没有最好,只有最合适,最合适。那么首先是定制为王的话,就是当项目比较复杂,需求比较独特的时候,选择 long chain 以获得最大的一个控制力。速度优先啊,将需要快速验证, 敏捷迭代的时候,递发与扣子是理想的一个起点,然后需要考虑到一些集成的优势的时候,当 ai 需要作为组建融入到现有业务流程时, n 八 n 的 一个连接能力是无可替代的。框架选型的关键在于深刻理解你的核心需求,团队构成和业务场景。 ok, 以上就是本次我们关于啊 long chain、 扣子、 define、 n 八 n 四大框架的一个这个对比。 那么大家可以结合具体的一个业务情况啊,包括我们刚刚讲的一些点,包括一些业务复杂度啊,然后包括这个核心的用户角色呀,开发自动化呀等等的一些关键点,根据具体的情况啊,我们去选择对应的一些点。 然后的话就是包括一些具体的案例啊,就是我们企业级的这种客服,我们可以考虑扣子跟 n 八 n 啊,然后我们刚刚提到的这个四个维度学习、曲线 定制、深度、集成、广度、中文友好啊,这几个点的话,都是大家可以去深刻的去做一个这个考量的 啊,就是我们要从多维度的方式去选择我们希望的一个框架啊,就是把每个框架它的一个独特的一个优势啊,就是一个。是啊,要考虑深度定制,然后还是说是要零代码极速上线, 还是说要做一些自动化节点的一个编排,比如说一些这个要考虑成本啊,一些拓展的一些点,包括节点的一个复杂度啊啊,这个 nba 的 话是一个不错的选择,他会更加倾向于业务的数据流转,还有业务的一个自动化。 那么 cos 的 话,目前就是中文社区比较活跃啊,中文场景深度优化,提供母语级的一个交互体验,并且的话更新的话也比较频繁啊,然后插件生态的话也比较丰富,所以说大家可以从多个维度去做一个考量啊,还有一个选择, ok, 以上就是关于啊目前四大 ai 开发框架的一个选择啊, long chain、 n 八 n define, 扣子综合的一个对比,如果对大家有帮助的话,欢迎见三年大家的关注,该反馈是我不断更新的源泉。个人资料,大家可以在评论区回复。六六六零, 每天讲透一个 ai 大 模型知识点,今天我们用大白话的方式来理解提示词 log 微调。首先分几下几块来讲解我们为什么 我们的这个大模型有时候会胡说八道啊,也就是产生一些幻觉问题,然后如何去优化啊,也就是我们的这个提示词工程应该来怎么来解决这个一些啊,沟通的一些问题, 然后怎么样去补充知识啊,也就是给大模型装上一个大脑啊,就是让他去可以去连接到各种各样的一些这个知识点,动态的去获取一些信息, 然后包括我们怎么样去啊,做一些能力的重塑,让大模型可以去拓展一些更加丰富的能力啊,重塑它的一些技能,这就是微调。然后最后的话,我们给它总结一下,什么场景下应该用这个微调还是用 vlog。 那么这一切的话,其实就属于一个非常常见的一个问题啊,就是大模型他有时候是不太理解大家问的一些问题,比如说你问了一个你公司内部的一些行业的 一些问题,还有包括你问的最新的新闻,大家会发现这些大模型的话是答不上来的,因为他本身是一个静态的,这是 go, 他 如果没有去联网的话,这些个信息的话,他是不知道的,那么 所以说这就会导致这个导致一个问题啊,就是我们去啊,跟他去沟通的时候,他就会捏造事实啊,就无论是事实错误、格式混乱,还是答非所问,这个都是我们作为开放人员需要去修复的一个 bug, 哎,然后如何去诊断这个错误呢?首先就是一个最关键的一个点,就叫做提示词工程啊,那我们首先要解决问题的这个问题啊,就是我们怎么样去问这个问题,问的怎么样其实本身也是个问题。 然后的话就是缺乏知识啊,就是大模型他的一个知识库也是有限的,他并不知道行业的一些知识,那这时候的话,我们要去用到这个 rock, 给他去装上一个知识库。然后如果是遇到本身能力的不足啊,比如说说一个场景啊,就是大模型,大家去用一个开源的,比如说千万大模型,你去问他一些这个啊 问题的时候,他的回答方式可能会比较的这个通俗化啊,不是特别专业。比如说你问他医疗相关的问题,可能有些问题回答的不是特别严谨,那么这个回答的方式、语气这几个能力不足的问题怎么来解决呢?这个就要用到微调了。 所以我们整个的一个策略的话,就是要从最简单的成本最低的方案开始逐层的去深入,而不是说一上来就要去微调,微调他也不能解决所有问题,具体的话还得看大家就是实际的一个场景。 那么首先第一个部分啊,我们可以通过题词这一块去解决什么问题呢?叫题词工程,那么这个的话,我们可以把它看作是一个修复格式错误的 api 调用, 那么我们在修改服务器的后台代码的时候啊,我们也是要去学习如何去跟这个 api 啊,做一个对话的,也就是大家要去了解接口的一些参数、地址、协议等等,这样的话你才能去啊,比较正确的去调用这个 api。 那 么 我们去学习题时词工程,其实也是一样的,要如何学会与大模型去做一个沟通,所以说一个好的题时词的话,是成功的一个基础啊。 那大家目前就写些题的词的时候,有时候会写一些比较模糊的一个请求啊,比如说你就一句话总结一下这个 log, 那 么这个的话它就是比较一个宽泛的啊,那它就可能会给你一段 log 的 一段描述啊,就是因为你问的 log, 它就给你这么一个描述。 那么我们如果是作为一个资深的 ai 技术专家的话,那可能不能简单的这么去问啊,因为我们的一个诉求肯定是希望知道 log 他的一个架构,包括他的一个核心组建,像现代数据库啊,媒体模型啊,他们之间的观念是怎么样的啊?这是我们想要了解的信息,但是你如果只问了什么,总结一下 log 的 话,他就会给你 log 的 一个基本概念, 所以我们去问问题的时候,你一定要搞清楚几点啊,就是,呃,作为一个什么角色啊,然后需要帮我们去做一个什么事情,包括他和其他这个组建之间的观念,大家要把这个问题给细化,这些都是关键点, 所以我们可以把 vlog 想象成给它模型,一场开卷考试,模型本身是考生,下面数据库就是他带来的所有的参考书,那么引宾利模型就是能瞬间帮他找到书中哪一页相关答案的一个超级缩影。所以这样的话他就能够根据你给的一个资料回答问题,而不是单靠死记硬背。 然后是提示词模式,这个是给开发者的一种魔法咒语。首先是这个角色扮演,比如说你是某某谁啊?就是是一个什么行业的一个什么专家呀,然后某某什么开发语言的这个程序员啊, 他要为模型定一个角色,以获取特定风格跟专业度的一个回答。然后是最好是给一些零样门的提示,那我们叫做 zero short, 那 么直接提出任务,不提供任何范例,适用于通用能力比较强的模型,比如说啊,就将这段解散转化为 yale, 这个是他主要是做一些专业这一块的,就通用这一块的能力,所以你不提供这个势利的话也是可以的。 但是如果你问了一些问题,需要模型按照你的格式或者逻辑进行输出的话,这里建议大家一般是给一些 few short 少量的一些样本啊,就是你让他回答问题的时候,请参考以下事例去回答。这个的话,就大模型会按照你想要的一个要求做一个返回, 那这里面还有一个高级技巧啊,我们可以用 c o t 啊,就叫做思维链去引导模型做一个思考, 就是不要大拇指给你答案,是需要按照他啊,按照你的一个要求计算公式也好,推理逻辑也好,去一步步的去思考并展示他的一个推理过程,这样的话就提高了复杂逻辑问题的一个准确性啊。那么 这里面就有一个经典问题啊,就是关于一个苹果计算的问题,如果说你只是简简单单的去问他一个答案的话,这里他就很可能就错误,因为他的中间有一步要是理解出错的话,这个答案的话肯定也有问题。 所以这里面我们就可以让大模型去按照我们的一个推理逻辑去做一个计算,比如说啊,第一步啊,应该怎么来算,第二步应该怎么来算,第三步怎么来算, 因为这样不仅能够得到正确答案,还能够让我们的调试模型的一个思考过程,也就说你知道他的一个计算逻辑之后,你大概就能知道这个问题答案肯定是没问题的啊,因为他的计算逻辑非常清晰,是按照你的一个这个问题的一些细节啊,就你想要的这种推理过程去计算的,所以是没有问题的。 那么它的一个核心机制就是什么呢?我们只改变了问题,没有触碰大模型,我们在这个问题去提出来的时候,通过 t s 工程优化了与模型之间的输入接口,模型本身没有发生任何改变,就是像调用 api 一 样传入了更加精准的参数而已, 关键点的话就是这种题的词工程,他是不需要重新训练的,成本非常低啊,是马上可以生效的。那么第二部分就是这个 rap, 我 们会把它看作是给模型的一场开卷考试,因为模型本身可能不知道你公司的一些最新 a p i 文档,但是他可以把文档作为参考资料递给他,那他根据这份资料来回答问题 好,然后是 log, log 可以 解决什么场景的问题呢?这个就要提到一个点了,叫做知识库啊,因为大模型的它的一个知识是预训练的啊,就是它是有截止日期的,最新出来的书籍跟一些这个新闻,它肯定无法感知。那这个时候的话我们就要做一个解锁, 所以这里面会有一个解锁模块,这个年解锁模块大家可以把它理解为我们正常人去学习的话,你要去图书馆是吧?去书店查一些书籍,借阅一些书籍来看一下, 然后的话去把书中的一些片段啊,你觉得跟你这个研究的课题相关的这个片段,你要把它摘抄出来,然后作为一个 啊这个参考的一个材料。然后的话再到这个增强提示词这一块啊,将原始的问题与解锁的上下文啊,也就是我们找到这个资料,把它拼接起来,变成一个全新的提示词,最终啊再传给这个大模型,大模型给你的最终答案的话,就具备了一个非常专业性的一个回答啊,这就是所谓的一个 log 增强生成的一个流程。所以大户型的回答结合了 log 之后的话,它就不仅仅依赖于其内部的一个知识,而是基于我们提供的最新的外部数据,所以 log 的 话,它是可以解决知识的一个时效性问题的。 那么 log 的 一个核心引擎就是关于这个引编辑跟向量数据库,引编辑的话就是一个文本向量化啊,它是使用引编辑模型将我们的文档啊,比如说 txt markdown 转换成机器可以理解的数字的啊,这个向量用向量的话可以很方便的去计算这个向量的这个相似度, 有了这个相似度之后的话,他就能大概知道这个相似的文本语义,那这样就可以很方便的找到我们想要的那个片段。 那么向量数据库的话,主要就是用来去存储这些文本向量啊,因为我们提了一些问题之后,我们要把我们的内容啊 文本转换成向量,然后去根据我们传入的向量跟这个向量数据库里面的一些向量做些匹配,找到这些最相似的一些坐标的文档。那么有了这些文档之后的话,哎,我们就可以做一些放大模型,结合这些内容就做一些增强了。 何时应该去使用 log 呢?首先第一个场景的话,就是我们需要用到大模型基于私有或者实时变化的知识库进行回答的时候啊,比如说公司内部文档,产品手册, 最新的新闻,这个场景是比较适用的。然后我们需要减少模型出现的一个幻觉,并作为答案提供可溯源的依据时,因为答案直接来自于我们提供的一个文档。场景三的话,就是当我们想不再重新训练模型的情况下,快速为模型注入特定领域的知识的时候, 也就是我们知识更新快,成本相对较低,可解释性强,能够追溯信息来源,这时候我们就可以考虑用一些 rock, 然后是微调啊,微调这个场景会用到什么地方呢?大家可以把这个微调看做一个打补丁,或者说去编一个自定义版本的大模型, 就是我们不再是啊简单的去调用 api 或者提供参考资料了啊,我们是正在获取模型的一个元代码啊,我们这里模型里面这个关键的参数叫做权重啊, 用我们的这个数据对它进行二次翻译啊,就相当于我们去改造一辆车一样,而不是把整个车给拆了,只是局部优化啊,比如说加点什么东西之类的,要做局部的调整。 那微调是如何工作的呢?我们可以用这个数据重塑模型的一个神经连接,首先是我们有一个基础模型,然后并且的话我们有一些高质量的训练书籍,然后把这两者结合起来去做一些训练,训练完之后就得到了我们一个微调的一个模型,这个就有点像我们大家去学习一些知识啊,就是, 哎,我们最开始是一个啊,比如说没有学过什么课程的人,然后给到我们特定的一个训练数据之后,就相当于我们能去看书一样,你看完书之后,你学习完之后,你就变成了一个掌握了这个知识的这个人啊,就是一个学习的过程。那微调他可以使用一个包含大量指令响应对话的一个数据集, 通过继续训练来更新模型的内部权重,这样会使模型学习新的技能,说话风格或者知识结构,而不仅仅是查找信息。 什么时候用微调呢?微调的主要目的不是注入新知识啊,它是教会新的能力或者风格,大家一定要关注这两个点,一个叫能力,一个叫风格,对于知识注入的话,那个可能会更加的高效。 那么微调的话呢,就适用于学习特定风格格式,让模型始终以某种独特的语调,比如说公司品牌的口吻,电商客服的口吻,或者严格的一些格式,比如说 jason 格式进行输出,然后掌握的新技能要教会模型执行,训练数据中没有的高度专业化的人物,比如说将自然语言转化为一种含间的编程语言, 然后是优化边缘案例,提高模型在特定复杂领域上面的一些技能,这些任务的话是无法通过提示词或者 rap 很 好的解决的。然后微调的成本是比较高的啊,他需要大量的高质量数据,并且的话可能会导致灾难性的一些遗忘,那模型忘记了原有的通用能力啊,可能会有这么一个问题, 那么作为开发者而言,我们需要在什么场景下用什么技术呢?比如说啊,我们要是遇到了啊不满意的这个大模型的内容输出的话,首先 能否去提供优化题时词的这么一点去改变角色,提供范例,使用思维链来解决呢?啊,这个我们可以考虑用题时词工程这个方案。如果说问题的是否来源于模型,缺乏最新的私有的或者说特定领域的知识的话,我们可以考虑用 bug 啊,大家注意下这些关键词啊,就是 特定领域的知识啊,最新的私有的这个场景。然后问题是否是模型的核心能力,风格或者格式无法满足需求的,你可以考虑用微调啊,这也是个关键点。然后如果这些都搞不定的话,那你就要重新评估这个问题,或者说用其他模型来解决这个问题啊。 啊,那这里也给大家列了一张表啊,就是我们最终的一个对比方案。首先提示词工程这一块,就是它可以做一个什么类比的,就是 比如说优化 api 调用,我们可以用梯子公式 log 就 相当于一个开卷考试。微调就是编 e 自定义的一个模型版本,解决问题啊,它可以解决没问清楚的 log, 就 解决了缺乏知识的一个问题。微调就是能力不足的问题, 从改变模型上来说,前两个没有改变模型,微调是改变了模型的,改变了它一些参权重的参数成本的话,其实词这一块成本比较低啊,它主要是能力成本跟一些托管消耗。然后 log 的 话就是向量数据库跟 api 调用, 微调是要耗费 cpu 算力的啊,包括需要高质量的数据标注的,然后首先复杂度的话,从低到中到高啊,然后知识更新的话,这些词是不适用的,然后 rock 是 具备了这些点的,那微调的话,它没有解决知识的问题,它还是静态的,然后并且的话也比较复杂。 适用场景,其实词的话就是用在快速迭代,修正输出格式,引导推理这个点上, rock 的 话就是用于 c 有 文档 回答,减少幻觉,提供事实依据的一个场景。微调就是特定的风格格式,掌握了新技能的一些点 啊,所以我们最终权衡了一个利弊啊,就是题词,它的一个优点就是啊,这个工程的一个优点是什么呢?首先是零成本启动,及时反馈,灵活应用。 缺点的话就是题的词可能会变得非常长啊,对模型的基础能力有依赖,不适用于知识缺失的那么一个场景。然后 rock 的 一个优点就是可以实时更新答案,可溯源,有效减少幻觉。缺点的话就是增加了系统的复杂度,效果受限于解锁质量可能会增加。延迟。 微调的话就是根本上改变了模型的一个行为,可以在特定任务上达到缩塔的一个性能,然后固化了能力,推理时的一个 t s 更短了。缺点就是成本比较高昂,需要大量的高质量数据,有灾难性遗忘的这个风险。 那么就像这个调试代码一样,我们可以去优化这个大模型,有大模型的交互,不再是魔法,而是一门工程学科。从简陋说啊,永远先从简单的题式词工程开始,继续解决问题,然后遇到行业里面的这个专业的这个知识啊,然后需要动态的获取一些知识的时候,我们可以考虑用 rock。 然后如果说涉及到一些提示词啊,就是一些风格方面的问题的话,我们可以用到微调,那么也可以结合去使用啊,我们可以把提示词 rock, 包括微调,不同的场景相互结合, ok, 那 么以上的话,就是关于啊,提示词、 log, 微调这三大啊方式的一些这个区别,包括它的一个应用场景的一个分析。 ok, 如果对它有帮助的话,欢迎见三点,大家的关注跟反馈是我不断更新的源泉课程资料,大家可以在评论区回复六六六领取,咱们下期再见!