粉丝2060获赞3.2万

大家好,我是康复科研瑞博士。上期我们分享了如何使用 ai 进行文献检测,很多朋友都开始实践了,但用了之后,大家可能会发现一些需要特别注意的地方。今天我就和大家聊聊用 ai 找论文时会遇到的三个常见问题,以及如何科学应对。 首先第一个常见问题, ai 可能产生幻觉,提供不准确的信息,就像一个很有想象力的实习生,有时会编造看似合理但实际不存在的内容。比如有位同学用 ai 找某个特定主题的文献, ai 给了一篇看起来很匹配的文章,但仔细一查,发现根本不存在这篇论文。 怎么办呢?我建议关键信息验证法,用 ai 找到文献后,特别是重要的数据、结论和参考文献,一定要去原始刊或者权威数据库核实一下, 就像做实验要重复验证结果一样,重要信息也需要二次验证,这样既享受了 ai 的 效率,又确保了信息的准确性。接下来第二个常见问题, ai 可能存在知识更新的延迟, 你知道为什么吗? ai 模型训练需要时间,就像我们阅读专业书籍一样,一本厚厚的教材看完也要好几天。所以最近三到六个月发表在顶级刊的最新研究, ai 可能还学习不到。这里我要介绍一个有效的方法,双轨解锁法。 那什么是双轨解锁法呢?它是一种将 ai 解锁与传统解锁相结合的策略。用 ai 负责查找基础理论和经典文献,同时自己关注本领域顶级刊的最新目录, 比如 physical therapy 和 archives of physical medicine and rehabilitation 这两本刊每个月花十分钟浏览一下目录,遇到相关的就去精读,这样既不会错过经典,也不会漏掉前沿。最后,第三个常见问题也是最需要重视的。 ai 可能对专业术语的理解不够准确,就像你跟一个跨专业的同事聊天,他以为听懂了,其实理解有偏差。比如强制性运动疗法, ai 可能会理解成被迫做的运动,实际上它是指通过限制检测来强迫换测运动的特定神经康复技术。怎么避免这个问题呢? 我建议使用关键词确认法,用 ai 解锁后,把关键术语的定义再单独核实一遍。比如你搜了强制性运动疗法,就接着问,请解释一下什么是强制性运动疗法, 看看 ai 的 理解是否准确,同时把重要术语的英文原名也标注清楚,比如 constraint, induced movement, therapy c i m t。 这样解剖和理解的准确度会高很多。其实 ai 就 像一个很聪明但刚入门的实习生,思路快,学习能力强,但缺乏实践经验。 我们的任务不是完全依赖它,而是既要用好它的能力,又要保持自己的专业判断。你在使用 ai 找文献时还遇到过哪些问题,或者有什么独家技巧?欢迎在评论区分享你的经验,让大家都少走弯路,我们下期再见!

说为什么你解锁文献这么快,这要是传出去,那些收费文献库都得喝西北风。少废话说,不说我说我说。这 study recon 跟别的文献网站不一样,免费就能用个痛快。您只要在搜索框里敲上关键词,领域里的顶刊论文、经典综述全给您精准找着,最绝的是它能智能推关联文献。 您要是开题找创新点写综述,或是想拓新研究方向,顺着一篇核心文献往下摸,能扒出一长串藏的深的关键研究。您还在那瞎转悠着,剪索的时候我早靠它攒够文献开工了。说的我嗓子都冒烟了。要是有用就赶紧码住,别等下找不着了。

建议大家一定要提高信息解锁能力,简称就是收商。为什么收商这么重要呢?因为收商它就是打破信息差最关键的一个能力。举个例子,就之前 ai 刚兴起的时候,那时候是不是特别火,很多甚至还有些教如何使用 ai 的 教程,还能被割韭菜, 还能卖课程,我我无法理解人与人之间的信息解锁能力还是有差别的,就存在一定的信息差,就好比说现在很多人在评论区或者是私信发我,我,我可能没法每个问题都给你解答,因为我我也有我自己的知识盲区,但是如果说我会的,我一般都会有针对性的去回复, 但是我是觉得现在是一个我觉得资源非常丰富的时代,你只要一搜,打开网络,打开短视频,打开一个软件,就能找到你想要的答案。 比如说举个例子,粉丝群嘛,有问到说如何批量合并一个表格,把多个表格合并在一起。如果说我在职场当中我遇到的话,我一般就是直接第一想到的就是发给 ai, 或者是第二个解题思路,我就会打开我的短视频平台,问 如何快速合并多个表格,就会收账的关键词,就立马会得到很多专业的视频,我会挑选那个播放量最高的那一个,根据他的几个步骤就迎刃而解了。作为初学办公软件的小伙伴,千万不要一上来就学习复杂的函数公式,这样子只会越学越焦虑, 我是怎么学的?我一般就是会结合工作带着问题去学,有针对性的学。因为我本身在学校的时候,办公三剑客, word、 ppt、 excel 已经在学校的时候已经都学了些基础的功能了,那如果在 工作中遇到的问题的话,我就有针对性的去搜索答案就可以了。我觉得我自己经常会有一些灵感和想法,就我怕忘记了,我就会发到我的文件小助手里边,我觉得有时候我就会告诉豆包,我就会跟豆包说,豆包豆包,我觉得我自己脑中有很多想法很灵散, 但是比如说我想最近想一个选择题,就是教如何学习一项新的技能,但是我很多零散的想法如何进行整合,你可以给我一些建议吗? 当然可以,你可以先把所有零散的想法都写下来,不管多小多碎,先别管逻辑,然后找个安静的时间,把这些想法分分类,比如学习前的准备,具体学习方法,遇到困难怎么办,如何检验成果,把相关的想法归到一起, 接着给每一类定的小主题,再把你们的想法排个序,哪些先讲,哪些后讲,慢慢好。我今天他给到我的两个答案,第一就是学习地图,把多个共同点汇集起来,第二个就是关键词联想法。还有最近有没有发现我其实在减少办公技能的一些分享,就我更多是想分享 思想和观点上的视频,一方面我是想锻炼我的口头表达能力,另一方面我是想因为其实大家并不缺乏这些办公软件、视频教学这类的视频,而是缺乏一种解决问题的能力,就是我前面说的信息解锁能力,所以我想分享这样的观点。

欢迎收听,我们今天来深入聊一个你可能每天都会遇到,但 ai 却觉得非常头疼的东西。嗯,表格。我们总觉得 ai 好 像无所不能,但实际上让他看懂一个复杂的电子表格,特别是那种动辄几十万上百万个单元格的巨大表格,一直是个天大的难题。没错, 这比让他写一首诗或者画一幅画要难的多。因为表格里不光是数据,更重要的是数据之间的内容结构和关系啊。结构?对, ai 一 旦理解错了结构,那得出的结果就可能差了十万八千里 了。有意思的是,你发来了两份顶尖的学术论文,都想解决这个问题,而且都指向一个叫 table a r g 的 技术。嗯,但最奇妙的地方在于,这两天论文来自两个完全不同的团队,一个是谷歌,另一个是华为, 他们竟然不约而同的给自己的新技术起了同一个名字。对,这个就很有趣了。这是纯属巧合,还是说,呃,英雄所见略同,我觉得这恰恰是咱们这次讨论最核心的看点。好,那我们这次的任务就是为你剖析这两个 table a r g 到底是什么,他们各自解决了什么难题, 以及这个壮明的背后到底揭示了 ai 发展的什么新趋势。嗯,这个同名巧合确实太有意思了,那我们就从谷歌这篇开始吧。我很好奇,面对一个几百万格的巨大表格,他们到底想出了什么办法?嗯, 首先咱们来看谷歌团队的这篇论文,他们要解决的问题非常直接,就是规模。对规模问题想象一下,一个有一百列二百行的表格,这在真实世界的数据集里可能都算不上大,对吧?根本算不大,但就这么个表格,要是转换成 ai 能理解的文本,也就是我们常说的 tokens 数量,可能轻轻松松就超过四万个了。四万个 tokens, 这对于很多主流大模型来说,已经是极限了。这就好比你让一个人一口气读完一本超厚的书,然后立刻回答,梳理一个特偏僻的细节,肯定记不住。对,这会直接撑爆模型的短期记忆,也 就是它的上下文长度限制。而且就算模型能勉强吃下这么多信息,也容易消化不良吧。我听说过一个叫迷失在中间 lost in the middle 的 现象,你说到点子上, 迷失在中间是个非常普遍的问题,就是当输入的信息太长的时候,模型会很奇怪的对开头和结尾的内容记得比较清楚,但中间大部分信息就跟过眼云烟一样,印象模糊, 那推理能力肯定会下降,会直线下降,更别提处理这么多信息,那个计算成本和等待时间也会让人抓狂。所以谷歌的第一个核心洞察是,面对海量数据, ai 不 应该去读,而是要去查。没错,这完全改变了游戏规则,对吧?完全正确。 所以这个版本的 table r a g, 他的核心思想就非常聪明,他不打算把整座图书馆都搬给 ai, 他 不这么干,他选择扮演一个专业的图书馆员。 你来图书馆问一个问题,图书馆不会把所有书都吹到你面前,而是会先问清楚,哎,你到底想知道什么?然后呢?然后根据你的需求,精确的找出那几本书,那几页关键信息递给你。这个方法听起来很聪明,他具体是怎么做到像图书馆员一样精准定位的?是不是也分几步走?没错, 他的流程设计的非常巧妙,可以分成三步。第一步,他会先琢磨你的问题,这一步叫问题扩展。问题扩展,对 query expansion。 比如你问钱包的平均价格是多少 模型,不会立刻就去表格里傻乎乎的找。他会先思考要回答这个问题,我需要哪些信息。嗯,价格这一类肯定很重要。对,然后产品那一类也得看看。因为我要找的是钱包,所以他就把产品、价格、钱包这几个词变成了更精确的缩指令。 我明白了,他先把一个模糊的问题变成了一系列清晰的搜索关键词。那拿到关键词之后呢?这就到了第二步,也是最核心的一步, 精准检测。在分析之前,他已经预处理了整个表格,建了两个迷你铸造库,两个对,一个叫表结构库,里面存着所有列的名称和数据类型,就像是图书馆的楼层所引好的。另外一个叫单元格库,存着表格里所有出现过的具体数值, 就像是图书馆里所有书的书名。然后 ai 就 用上一步生成的那些精确指令,分别在这两个库里进行闪电般的搜索,找出最相关的几列和几个单元格。等一下。 这个点很有意思,所以它的计算量和表格有多大几乎没关系,只和里面有多少种不同的词有关。没错,这听起来有点反直觉,但在数据处理上是革命性的。革命性这个词用的很好,论文里有一张直方图就证明了这一点。 在绝大多数真实世界的表格里,不重复值的数量远远小于总单元格数哦。这就好比一本一万字的书,其实只用了几百个常用汉字, table r i g 只关注这些常用字,而不是去数那一万个字,这自然就大大降低了 ai 的 负担。好了,现在 ai 拿到了最关键的信息,比如产品和价格这两列的名称,还有几个包含钱包字样的单元格内容。最后一步,它要怎么做? 把这些信息拼起来,然后猜一个答案吗?这就是他的第三个妙招,程序辅助解答模型拿到的不是整个大表格,而是一个只包含关键信息的小包裹。 然后他不会去猜他会做什么,他会像一个程序员一样,根据这些信息自动编写一小段拍存代码来计算出最终答案哇!比如,他会写一段代码,说请筛选出所有产品列包含钱包的行, 然后计算这些行里价格列的平均值哇!所以,他不只是在查找信息,他还在主动地用代码去处理信息,得出精确结果。这就避免了模型自由发挥可能带来的错误。正是如此, 这保证了答案的准确性和可解释性。论文里的实验结果也相当惊人。一张柱状图显示在建设关键列和单元格方面, table r a j 的 效果,把其他方法,比如只看表头或者随机抽样圆圆甩在了后面。 我去的论文里还有一张关于可扩展性的图,那个结果更夸张,对,那张折现图最能体现它的威力。研究者把表格的尺寸从几十个单元格一直增大到百万级,嗯,虽然也有下降,但非常平缓,在百万级单元格的规模下,依然保持着很高的准确率。 这么说来,谷歌的 table a r 机本质上是一个大数据专家,他的设计初衷就是为了驯服海量表格数据这头倔兽,解决 ai 面对它时的消化和效率问题。总结得很好, 核心就是规模化和稳健性好的。所以,谷歌的思路本质上是一种聪明的偷懒,只检测关键信息来处理大规模问题。 那华为呢?既然也叫 table a r g, 难道它们也是用同样的方法吗?不,还是说它要解决的是一个完全不同的难题?这就是事情变得更有趣的地方。 华为这篇论文关注的场景和谷歌的完全不同哦。它处理的不是单个的巨大的表格,而是我们工作和学习中更常见的那种易购文档,也就是一份报告或者一个网页,里面既有大段的文字描述,又穿插着几个表格。啊,我明白了,这种文档确实太常见了, 比如一份市场分析报告,前面是文字分析趋势,后面附上几个表格展示具体数据。对,论文里举了一个非常经典的例子,能让你马上明白它要解决的痛点 问题是,和所有 windows 平台上的游戏相比,动势,也就是 activision 在 二零零八年发行的游戏中,现在仍然在线的百分之比是多少?哇,你看,这个问题非常复杂,是很复杂,让我拆解一下。 首先,我得去表格里找到所有动式公司二零零八年发行的游戏,然后我得数数这些游戏里有多少个是仍然在线的?对,但还没完。我还需要知道整个表格里所有 windows 平台上的游戏,一共有多少个是仍然在线的? 最后,用第一个数字除以第二个数字。是的,这需要好几步计算,而且还需要大局信息。你说的这个痛点非常关键,传赌的文字和表格都粗暴地切成一个个小碎块儿。 当 ai 去解锁的时候,他可能只找到了几行关于动式游戏的数据,但他看不到整个表格的全貌啊。他就像把一张完整的地图撕成了碎片,你捡起几片,根本没法计算两个城市之间的总距离,所以他无法进行大局的技术和计算。最后很可能得出一个完全错误的答案。 所以,华为这个 tablereg 的 核心思路就是要保留表格的地图的完整性,它不能再把表格看成一堆可以随意切割的文字了。完全正确,它要把表格真正当作是结构化数据来对待。 为了做到这一点,它引入了一个极其庞大的工具, s q l s q l 数据查询语言。对,就是我们熟知的那个。 这个设计让 ai 从一个只能逐字逐句阅读的阅读者,摇身一变成了一个懂得复杂查询的数据分析师。听起来就很强大,那它的工作流程是怎么样的?既然要用到数据库,是不是得先做一些准备工作?是的,它的工作流程也很有特点,分成了离线和在线两个阶段, 离线和在线对,离线阶段,就是在你提问之前,它会先把文档里所有的表格都抽出来,放进一个真正的关系型数据库里, 比如 my sql, 这样以来,表格的行列结构、数据类型都被完整地保留下来了。嗯,同时他也会把文档里的文字内容以及被拍屏成文本格式的表格一起存入一个传统的文本知识库,以备不时之需。 准备工作做好了,然后我提出那个复杂的游戏问题,就进入在线阶段了吗?对,在线阶段是一个以待式的推理循环,总共分四步。第一步,查询分解。 ai 会像我们刚才那样,把你的复杂问题拆解成一个个需要依次解决的小问题。 比如先解决动式二零零八年发行的 online 游戏有多少个就是这样。第二步是文本解锁。针对当前这个小问题,他会先去那个文本知识库里找找相关的文字片段,获取一些背景信息。但对于需要计算的问题,这一步通常不够, 于是就轮到 s q l 出场了。没错,第三步,也是最关键的一步, s q l 编程与执行。 ai 判断出这个问题,需要从表格里进行计算才能得到答案,它就不会去读那些文本碎块了,它会直接写代码。对,它会直接编写一条 s q l 查询语句, 在之前建好的那个数据库里执行。比如它会写一条类似 select、 count 之类的命令,然后数据库会立刻返回一个精确的数字。这太厉害了!所以对于需要聚合排序、复杂筛选的计算任务, s q l 是 完美的工具。那拿到这个数字之后呢?这就是第四步,生成答案。 ai 会综合文本剪辑的结果和 sql 查询返回的精确结果,形成对当前这个小问题的解答,然后它会继续这个四步循环去解决下一个小问题,直到最终回答完你最初的那个复杂问题。 我明白了这个世界的巧妙之处在于,通过 s q l, 它完整地保留了表格的结构性,让 ai 可以 从大局视角操作整个表格进行精确计算,彻底解决了传统 r a g 方法只见树木不见森林的问题。不仅如此,为了验证这种方法的有效性,研究者们还做了一件很有意思的事, 他们发现现有的哪些问答数据集都太简单了,太简单了,对根本无法真正考验这种需要跨越文本和表格进行深度推理的能力。 于是,他们干脆自己创建了一个全新的、更难的精准测试级,叫做 hej q a。 这本身就说明了向这项工作的前沿性,他们不只是解决了眼前的问题,还为这个领域未来的研究设立了新的更高的挑战标准。是的,所以总结一下, 第二个 table r a g 更像一个研究分析师,他不一定非要处理百万单元格的单一表格,但他非常擅长从不同类型,也就是文本和表格这两种混合的材料中综合信息进行复杂的逻辑推理和计算。嗯,这个比喻很贴切。那么,我们现在有了两个都叫 table r a g 的 系统, 一个向数据库专家精于处理海量数据,另一个向研究分析师擅长处理混合信息。对,所以这个名字上的撞车到底意味着什么?这背后是不是说明 ai 的 发展方向有了什么新变化?我认为这恰恰揭示了 ai 领域一个非常重要的发展趋势,这不是一个谁更好的问题, 因为它们分别解决了两个不同但都非常重要的问题。嗯,这背后反映出 ai 正在从一个试图靠自身知识库回答所有问题的万事通模型,向一个懂得如何使用不同专业工具的智能代理转变。智能代理和专业工具,这个说法很形象,能再具体解释一下吗?当然, 你可以这么理解。谷国的 table r e g。 它给 ai 配的工具箱里放的是高效的关键词解锁器和一把拍存计算器。 嗯,他擅长在巨大的数据海洋里快速定位目标,然后用计算器算出结果。而华为的 table ar 机, 他给 ai 配的工具箱里放的是文本段落检测器和一个 s q l 查询分析器。啊,一个 s q l 分 析器对,他擅长先理解上下文,然后在结构化的数据里进行精确的逻辑查询和分析。我明白了,所以他们虽然都叫 table ar 级, 但其实是在 r a g 这个大框架下为 ai 装备了不同的能力。这让我想起 r a g 这个词儿,解锁增强生成本身就包含了两个动作,解锁和生成。说的太好了, 他们不约而同地选择了这个名字。即使是巧合,也是一个非常有启发性的巧合。它告诉我们,解锁增强生成这个理念已经成为让大模型变得更强大、更可靠、更贴近事实的核心架构。无论是处理超大规模数据,还是处理复杂的混合文档,对,思路都是一样的。 不要让模型只靠记忆去回答,而是要教会它如何高效、准确地去查找和使用外部的结构化的知识。所以, r a g 不 再仅仅是一种技术, 它更像一种哲学。不要让 ai 成为一个什么都记在囊子里的书袋子,而是要让它学会如何使用图书馆。是的,而表格就是这个世界上最常见、最重要的一种图书馆。正是这个道理, 教会 ai 如何更好地查找和利用信息,是让他从一个有趣的聊天机器人进化为真正能帮我们解决复杂问题的工作注射的关键途径。那么,对于你来说,这次对两份材料的深度解析,关键的收获可以总结为三点, 第一,处理超大表格的关键在于精,不在于多。谷歌的 tabl 机告诉我们,面对信息过载,最聪明的办法不是硬着头皮全部读完,而是通过智能检测,只给 ai 最核心的信息。 这是让他处理大数据而不崩溃的秘诀。嗯,抓重点。第二,处理混合文档的关键在于尊重结构。 华为的 table ar 记证明了不能把表格简单地看成一堆文字,必须用像 s q l 这样的专业工具来发挥它的结构优势,才能完成复杂的需要局事业的推理任务,对专业工具做专业的事儿。第三,也是最重要的一点, ai 的 未来是工具的使用者。 这两篇论文共同指明了一个方向,未来的 ai 强大之处不在于它记住了多少,而在于它会使用多少种工具。 无论是拍访还是 s q l, 都是它工具箱里的一部分。对从博学者变成善用工具者,我们今天看到了两种让 ai 理解表格的先进方法,一种处理规模,一种处理复杂性, 但这引出了一个更深层次的问题供你思考。世界上还有很多信息,既不是纯粹的文本,也不是规整的表格。嗯,没错。比如一张复杂的公司组织架构图,一幅家族关系树,或者一张城市地铁线路图, 这些信息里充满了我们一眼就能看懂,但机器却难以理解的结构和关系。是的, ai 要如何理解这些信息?它需要什么样的 r a g 系统?对于一张可式化的图标,它的剪索又该是什么的呢?这或许就是这些系统正在迈向的下一个前沿。

当搜索主题宽泛或剪辑条件不够精确,会导致剪辑结果过多,难以精准定位目标信息。 星云全国产存储二次剪辑委托初次剪辑结果,允许用户再次设定剪辑条件,删除荣誉信息,快速精准定位目标文件。登录星云小助手 可以看到,共享目录里有一万多个文件,在搜索框输入解锁词,若文件名称都含有这个解锁词,会得到大量相关的结果。 此时打开二次解锁功能。二次解锁时,每一步筛选都基于上一步结果进行的。若文件名、关键字相同,可以从文件类型入手进一步筛选。选择电子表格,便会仅展示电子表格类文件。 选择幻灯片,只展示幻灯片类型的文件, 还可以直接输入文件后缀解锁。 若想解锁特定人员上传的文件,筛选文件拥有者选择有我所有还是其他所有者, 或直接输入特定所有者账号,就能快速锁定目标。利用文件标签同样能实现精准筛选。通过设定文件大小、范围、 指定日期等条件,多维度、深层次的筛选文件, 星云全国产存储二次解锁功能可以调整解锁条件,缩小范围、排除干扰,帮用户快速定位所需信息,提升解锁效率与准确性。

今天我用大白话给你讲懂 r a g 以及如何在巨优优化里使用。 r a g 全名叫解锁增强生成,是现在所有主流 ai 搜索都会使用到的技术。 你在使用 ai 对 话工具的时候,比方说豆包是不是都看到过联网搜索按钮,或参考了以下页面,那就是 r a g 在 工作。 简单来说,大魔镜本身是不会凭空创造信息的,他的知识库是死的是有限的,如果只基于知识库来回答问题,不仅没有时效性,而且还容易胡编乱造。那么 r a g 的 联网搜索功能呢?可以让他先去搜索引擎的权威知识库里查资料, 比方说国家级的系统、企业官网、学术论文库、社交媒体这些。在基于这些真实的信息生成答案。大模型之所以被称之为大语言模型,正是因为它的语义理解和自然语言处理的能力非常强。 但是呢,自然语言处理是不是还需要语料啊? r a g 的 解锁增强,其实就是先从互联网上解锁知识语料,再增强自己知识库的不足,来满足权威性、高可信度的回答。 这就像是人在说话的时候,回答专业知识的时候也是需要依据的啊,那知识库的局限性导致依据并不能真正成为有利的事实。 所以说啊, g e o。 优化的关键就是让你的内容成为那个被查到的权威资料。 那么怎么做到呢?我们来看两个案例。首先是某国产的工业机器人厂商在官网把 iso 安全认证条款、实际生产部署业务和客户验收报告 全部按照问题依据结论的结构化发布结果在 deepsea 上回答相关提问的时候,直接被列为唯一的推荐品牌。 另一家医疗器械的公司在产品说明页嵌入 fda 注册号 d o i 编号和医生使用反馈回答 三个月之后,当用户寻找相关器械问题的时候, ai 答案中百分之七十的事实引用都来自于他们的页面,官网的自然流量反超净粉三倍。所以说秘诀只有一条,一定要给 ai 可引用的事实片段,待来源有,数据结构清晰,语言客观。
