嘿,大家好啊,之前一个视频跟大家分享了怎么在 overlief 上通过点击这个 submit, 让它生成 archive 运营版论文所需要的文件,也就是这里 点击这个,然后你可以下这个 zip fire, 这个就有。 zip fire 里边就含有一个 dot d b l 这样一个文件,这个就是你 archive 上面提交你需要的文件。 但是有时候这种方法不会成功,尤其是你,你看这里有三个这种 warnings, 这种 warnings 不是错误,但是有时候你传到 archive 上面,他就会被识别成错误,导致你没办法进行下一步。那么在这种情况下, archive 上面还提供了另外一种传文件的路径,也就是说, 你不传你打包好的所有文件,只传一个 pdf 文件,那怎么得到你这个文档的 pdf 文件呢?比方说我这个文档,我把它下载下来,对吧? 然后是这个样子的,但实际上,即使你下载下来,把这个 pdf 传到 archive 上,它还是会被检测为说是那个 tax 那个文件包的这样一部分,所以其实是不行的。一种方法是你可以点这个文件 哦,注意,我用的是这个福星阅读器,当然你可以用其他的啊,你可以这里,比方说打印的话,你可以把它打印成那个就是 pdf, 对吧?一般那个 就是这个阅读。其他都会有一个比方说,我这里是 microsoft print to pdf, 可以把它打成 pdf, 但打成 pdf 之后, 所有的这些文字你都不可以选中了。也就是说你可以理解成背后他是把它转成了那种图片的格式,那么你把这种图片的格式传到 archive 上面,他就没有办法识别里边的文字,对吧?所以还需要再转一步。那么就是说你把转成图片后的 pdf 通过 呃,一些 o c r 的一些小工具,比方说我用的这个网上叫 p d f twenty four 这样一个小文件,对吧?你让它 o c r 识别一下,最后你把这种识别好的 p d f 文件传到 archive 上面,然后它就增,它就能那个通过那个整个流程了。 呃,对,就希望这样一个小的方法能给大家不管是学习或者科研带来一点微小的帮助,谢谢大家。
粉丝451获赞3526

嗯,今天想分享一下怎么在 archive 上提交论文,就是有些专业当你把论文提交了某个杂志或者说 conference 的时候,你同时会在 archive 放一份, 是有时候是为了,对吧?避免你的 idea 被别人以各种方式嫖窃, 所以他会把论文放到 archive 上面,就 archive 上面就其实是御印版的非正式的论文。对,我们有时候中国话俗称,你可以先去占个坑。 呃,这个 archive 这篇知乎写得非常好,我会把这个链接分享到那个视频的下方,怎么提交?一步一步对,他这里说了一些所谓的潜在风险啊, 还有重点大家要仔细的看一下,然后流程非常简单,就首先你注册一下,我就简单说一下我遇到的坑,就首先你一定要用你那个 e d u 邮箱注册,就是你学校的邮箱,如果你用其他 比方说 qq 邮箱啊或者什么啊那个幺六三邮箱的话,他最后会有个审查的过程,就说你得让你 这个专业内同行的某个人审查一下你那个资质,就就会比较麻烦,所以最好用 edu 邮箱来注册。 然后接下来就是提交了这样一个过程。对,我重点说一下,他这里这个文件提交是大家比方说写作的时候经常会用到 overlift, 对吧?我这里就展示了一个非常,那个就是粗糙的这样一个,就是 port, 对,然后你在 overlift 上你可以编译,就是如果在 overlift 上你编译成功的话,你可以点上面这儿有个 shir, 哦,不是 share sorry, 这有个 summit, 点完 summit 之后,然后它就会出现一个,这儿有个所谓的 archive, 对吧?你点这个 summit paper archive, 然后你把你这个 zip fire 下载下来, 下一下,下来之后你在 archive 的提交过程中你这儿就可以啊,你看他这儿就是可以提交所谓的那个 zip bar, 对,然后你上传上去就能便宜通过了,这个是一个最最最简单的一个方法啊。 对,这样的话你就不用再就是处理这样一些 archive 本身的一个变异错误,然后变异完成了之后, 我想说的一点就是你一定要 view 一下你的 r t 口,这个第六步的时候你要看一下你那个文章是不是一个好的一个状态,确认无误了,然后再提交再可以了。对,好,谢谢大家。

想象一下,我们正在训练一个超级翻译官,他的任务是把一段文字变成一副精美的画作。在 ai 的 世界里,传统的做法是先把画作压缩成一种极简代码,然后让 ai 学习去生成这种代码,再利用学习的知识把画作画出来。 但今天我们要聊的这篇论文,提出了一个更大胆、更聪明的想法,既然 ai 学习生成画作,要先学习画作抽象出来的匮乏的特征,为什么不直接让 ai 在 充满经验的语域空间里画画呢?作者的直觉是,传统的做法就像是把照片强行塞进一个小盒子里, 虽然省空间,但丢失了很多深刻的含义。而现在的视觉理解模型已经能像人类一样看懂图片了,他们产生的表示本身就包含了丰富的语义信息。所以创新点就在于,作者不再使用变分字编码器,而是改用表示字编码器。 具体的做法为,冻结一个强大的视觉理解模型,只训练一个轻量级的解码器来把这些高维的语义信息还原成像素。 作者在实验中发现,当把表示自编码器推向大规模的文本生成图像任务时,它展现出了三个惊人的优势。首先就是速度极快, 在同样的计算资源下, r a e 的 收敛速度比目前顶级的 v a e 快 了四倍以上。这意味着原本需要训练一个月的模型,用 r a e 可能一周就达到了同样的水平。 其次,传统的 ve 模型在精调阶段很容易过你核,也就是说它会开始机械背诵训练集里的图片,导致多样化下降。 但二 a 一 因为是在语义空间操作,即使经过超长时间的训练,他依然能保持稳定且持续进步,不会陷入死记硬背的怪圈。最后就是理解与生成的大统一,这是作者最令人兴奋的想法。既然二 a 一 使用的是和理解任务一样的语义空间, 那么同一个 ai 大 脑就可以同时做理解和生成,它们共享同一个视觉语言,这为未来真正的多模态统一模型打下了基础。而在大规模应用时,同时发现了一些反直觉的结论,一是数据质量比模型大小更重要。 如果你想让 ai 准确的画出文字,比如路牌上的字,单纯增加模型参数没用,必须加入专门的文字渲染数据进行针对性训练。二是化繁为简,在小模型上有效的很多复杂设计 在模型参数达到十亿级之后反而变得不那么重要了。作者通过这项研究向业界宣告,二 a 一 是比一 a 一 更好、更简单、更强大的下一代生成模型基础, 它不仅画得更快、更好,还让 ai 离真正的理解并创造更近了一步。

攸写完成的学术论文想要获得正式发表,通常需要向符合条件的刊进行投稿。现在投稿流程已经很简变了,主要就是三种途径,作者可以根据自身需求和条件筛选合适的方式。第一个呢,就是邮箱投稿,这是比较传统的方式, 就是把论文稿件发送至刊官网指定的收稿邮箱,就是需要注意一下,一定从可靠来源核实邮箱的地址。第二个就是在线系统投稿,这是目前的主流方式,尤其是国外刊刊,作者需要在刊官网的投稿系统中注册并提交稿件,系统通常支持稿件的状态查询。第三个就是委托机构投稿,可以 节省作者时间,提高投稿效率。就是需要特别注意对流程的熟悉程度,以及是否需要专业协助。 无论选择哪一种,最终的目的是确保其康的正规性和学术质量。如果说你既没有时间,对流程又不熟悉,或者说 n 次投 n 次不过七七可以协助。

对于每一位科研工作者而言,完成手稿只是学术发表的起点。当你瞄准目标刊,真正的流程从投稿系统的操作开始。下面以 al sever 旗下刊为例, 首先进入稿件准备中。 menu script preparation 阶段,作为核心处理人,作者 author 需严格遵循目标刊的作者指南,完成手稿排版、数据查重、补充、材料整理。这包括图表、原文件、论文审批证明、知情同意书等关键附件, 任何输漏都可能影响后续流程。随后,在 elsa vere 常用的 editorial manager e m 系统注册账户逐一上传所有材料,确认作者信息、基金项目利益冲突声明等内容无误后提交投稿申请。此时稿件状态变为 提交待确认 submission pending confirmation, 作者仍需留意系统回执,确认投保信息完整提交,等待编辑部正式接收。这一步看似基础,却是规避后续技术问题的关键。每一个细节的严谨,都是为稿件顺利推进铺路。

北京大学助理教授不一的合作论文发布在 arkif, 大 规模实证研究显示,学术圈目前正经历一场无声革命。尽管全球有百分之七十的刊实施了 ai 政策,但研究人员在各学科领域对 ai 写作工具的使用量却显著增加。研究结果证实了 ai 参与学术写作的趋势不可逆转。

论文初稿写完发给导师前,一定要做这四件事。第一件事,文字校对,打开 word 的 这个功能,语法拼写错了会自动标红,跟着改就行。想要更精细的话,直接用 g p 四点一做校对,它会结合语义帮你修改的又快又好。 第二件,润色,那些写的太过口语化,不够专业的部分,直接丢给 ai 润色,瞬间拿捏学术感。第三件,查虫降虫,可以用学校推荐的查虫渠道,应届毕业生还能在学信网免费查虫一次。要是重复率高,直接用 ai 降虫润色和降虫给大家安利,这个大模型直接用科研广场的县城指令,效果贼好。 第四件,调整格式。这一步其实很重要,能让导师看到你的重视,先把多余的空格换行全删掉,再用 word 的 样式功能设置标题和正文,后续改格式还能够批量操作,巨方便,学会了吗?希望大家都能够顺顺利利交稿,安安心心过寒假!

你有没有想过,像字节跳动这样的公司,每天处理着海量的数据,他们是怎么保证系统不出问题的?今天咱们就来深入了解一下他们内部的一项核心技术,看看他们是怎么样驯服这头数据猛兽的。 咱们先来看一个数字,七万多。你可能会问,这是什么?这可不是什么小数字,这是字节跳动在任何一个时刻同时在跑的实时数据处理任务的数量。对,你没听错,七万多个,这个规模啊,说实话,已经有点超出我们一般人的想象了, 也为我们今天要聊的话题定下了一个嗯,相当高的起点。有句话说的特别好,在这种规模下,硬件出问题,网络抖动、代码有 bug、 资源抢着用。 这些都不是意外,而是家长便饭,这简直就是自介工程师们每天工作的真实写照。你想想,对他们来说,系统出故障根本不是万一会发生的事,而是今天会发生几次的事。 所以问题就来了,既然出问题是必然的,那怎么才能让整个系统不崩掉呢?这不就是个随时会爆炸的火药桶吗?对,这也就是我们今天真正想搞明白的核心问题。 好,为了回完这个问题,我们今天就分几步走。首先,咱们得先看看这个超大规模到底有多挑战人, 然后隆重介绍一下主角 streamshow 的 解决方案。我们会深入到 flink 引擎内部,看看它们做了哪些改造,再看看整个集群是怎么加固的。 当然了,光说不练假把式,我们会看看实际数据效果怎么样。最后再一起聊聊这个技术的未来。 ok, 咱们开始第一部分超大规模的挑战。你可别以为这挑战就一个不是的,它其实是三股巨大的力量,一直在跟系统的稳定性作对。 在我们深入聊这三个挑战之前,咱们得先统一一下语言,有个词我们后面会一直提到,就是弹性。啥叫弹性啊?说白了就是你的系统有多抗揍,以及挨了揍之后恢复的有多快。 不管是服务器挂了,网络断了,还是流量突然暴涨,他都得能扛住,还得能快速缓过来。嫉妒这个词,这可是我们理解后面所有内容的关键 来了,这就是稳定性的三大拦路虎。第一就是规模,你想想超过一千一百万个资源槽位,这简直就像一个巨大的城市里面,每天不出点事才怪呢。 第二呢,是业务太复杂了,不同的 app 需求五花八门,有的要快,有的要准,这两个要求有时候根本就是反着来的, 最后是未运的压力。你想啊, flink 不是 孤立的,它依赖好多外部系统,比如存储啊,协调服务啊,这些系统要是打个喷嚏, flink 就 得跟着感冒。 这张表就特别清楚的解释了刚才说的业务复杂是怎么回事。你看啊,这里面其实就是个权衡,比如说跟钱直接挂钩的业务,像什么变现指标,那数据必须一个都不能少,恢复速度呢,也要在分钟级别, 但是你看另一边,像实时广告这种速度就是王道,它要求的是压秒级的响应,为了这个速度丢那么一两条数据也不是不能接受。你看这不就矛盾了吗?怎么平衡就是个大难题, 好问题摆在这了,那怎么办呢?别急,咱们今天故事的主角这就登场了, stream shield。 他不是单一的招数,而是一套组合拳,可以说是三管齐下,专门用来对付前面说的那些混乱。 这套组合拳具体怎么打呢?分三步。第一,先强身体,也就是改造茯苓营景本身,让他的恢复机制变得更聪明更快,颗粒度也更细。第二,穿上盔甲,也就是从整个集群的层面去加固, 让他不怕外部环境和他依赖的那些系统出问题。第三,也是非常重要的一点,就是建立一道防火墙,也就是一个超强的测试流程,把那些 bug 在 上线之前就全部拦下来。 行,那咱们就先从第一步开始,钻到弗林克引擎的心脏里头去瞅瞅,看看他们到底对这个核心动了哪些手术,才让他跑得又快又稳。 这里有个特别关键的改进,叫区域检查点。你看以前是什么情况呢?是局的, 这就像你玩一个超大型的 rpg 游戏,它只有一个存档位,结果呢?其中一个小任务的存档出错了,完蛋, 整个游戏的存档都废了,你得从头再来,是不是很崩溃?现在呢,改成了区域检查点,就相当于每个地图每个关卡都有独立的存档,就算一个地方的存档坏了没关系,其他地方的都好好的。这就一下子把故障的影响范围给圈起来了,隔离了风险。 先来看恢复的时候,以前那叫一个连座,一个任务出错了,好家伙,跟他相连的一整个区域的任务都得陪着他一起重启,现在呢, 有了单任务恢复就精准多了,谁出问题就直宠起谁,他的邻居们该干嘛干嘛,完全不受影响。你想想,这个爆炸半径一下就缩小了多少,对于那些一秒钟都不能停的业务来说,这简直是救命稻草。 还有重启速度,这也是个大头。以前的方式,我们叫他急性子加载,就是非得把所有历史数据,也就是那个叫状态的东西全部从硬盘上读到内存里,然后才能开始工作。 这要是数据量大的,等到猴年马月去。现在呢,学聪明了,搞了个状态,懒加载什么意思? 就是先加载一小部分最核心的数据,让任务先跑起来,剩下的呢,在后台慢慢加载。这就好比你打开一个视频网站,不用等整个视频下载完,加载一小段就能开始看了。对于那些动不动就几个 t 状态的大人物来说,这节省的时间可不是一点斑点。 那发布新版本的时候呢?这也很关键。以前呢,那叫一个大动干戈,得先把老的挺掉,把资源都还回去,然后再从零开始申请资源,启动一个新的, 效率特别低。现在呢,他们搞了一个叫热更新的技术,这简直神了,他能直接在原来正在跑的进程上把新的代码给换上去,所有的资源全都附用。 我给你打个比方,就跟 f 一 赛车进站一样,车都不带熄火的,直接就把引擎给换了,这效率你想想得有多高?好了,引擎内部的强身健体我们看完了,现在来看看第二招,怎么给整个集群穿上盔甲, 因为光速极强壮还不够,还得能防住来自外部的攻击,对吧?这里啊,他们用了一个特别聪明的策略,叫混合复制。 你想有的业务是 vip 客户,比如实时广告,一秒钟都不能停。对这种 vip 呢,就用主动复制,简单说就是派好几个保镖,也就是副本儿,同时跟着,一个倒下了,另一个马上顶账,虽然费钱,但绝对安全。 那对于普通业务呢,就用被动复制,就是只派一个保镖在旁边待命,出事了再上,这样省钱。你看,把钱花在刀刃上,在成本和性能之间找到了一个绝佳的平衡点。 最后这道防火墙,也就是发布流程,简直可以用严苛来形容。任何一个新版本的 flink, 想上线没那么容易,得先过五关斩六将。 你看这流程,先是基础的单元测试自动跑,然后是混沌测试,就是故意搞破坏,看看系统抗不抗揍。 接着是各种性能测试,大大小小的方面都得测一遍。最后还要搞个线上探增任务,用真实单有很清量的流量跑一跑,确认没问题了,才能大规模部署。这一套组合圈下来,基本上能保证上线的版本都是身经百战的。 ok? 我 们聊了这么多牛逼的技术和设计,但说一千到一万,效果到底怎么样?是骡子是马,总得拉出来遛遛。现在就到了见证奇迹的时刻,咱们直接上生产环境的真实数据。 你看这一张图,简直不用我多说了吧?左边没有用区域检查点的时候,备份的成功率你猜多少?才一半多一点五十三点九 percent, 这意味着差不多一半的备份都失败了。 再看右边,用了区域检查点之后,成功率直接飙到九十三点五, percent 这个提升可不是一点半点啊,是质的飞跃啊。这一下就说明系统稳定性真的上了一个大台阶。 好,我们看到日常的稳定性是大大提高了,但你可能会问,这都是小打小闹,要是来个狠的呢?比如一台服务器直接挂了,这种灾难性的故障,他还能扛得住吗?嗯,好问题,这就要考验他在极端情况下的表现了, 这就是见证英雄的时刻。大家看左边,这是以前的系统,当一个工作节点我们直接把它干掉之后,你看这个吞吐量刷的一下就掉到零了, 整个服务就停了。现在看右边,用了 stream show 的 系统,同样的操作,干掉一个节点,你看吞吐量那条线几乎就没怎么抖动,稳如泰山, 服务完全没有中断,故障被完美的圈在了那个小角落里,根本没影响到大局,这就是单任务恢复的威力,简直太秀了。 好了,看完了这些惊人的成果,咱们也来到最后一部分了,聊聊未来,在解决了这么多问题之后,弹性的下一站会是哪里呢?很显然,目标已经不再是简单地对故障做出反应了。 那么下一个 streamshot, 或者说下一代更强的盾牌会是什么样呢?会不会是一种能主动预测故障的 ai, 在 问题还没发生之前就提前告诉你?哎,小心,这里可能要出事了。 你想想我们走过的路,从一开始故障发生后手忙脚乱的去救火,到现在能主动的隔离火源,那未来会不会就是能够提前预测火灾,甚至让火更烧不起来呢,这确实给我们留下了很大的想象空间。

今天我们来聊聊论文投稿的常见方式。论文只有在公开发表并被数据库收入,才能充分体现其学术价值。投稿时请务必选择正规刊刊, 正规刊拥有国内统一刊号 cn 刊号和国际标准刊号 issn 刊号相当于刊的身份证,可以在国家新闻出版署官网查看核实。此外,论文发表后应在主流数据库中解锁到如中国之网、万方维普等 不同刊合作的数据库不同投稿前可以先确认收入。平台目前投稿主要有三种途径,一、邮箱投稿,将论文发送至刊官网的邮箱, 必要时可以电话联系编辑部。二、在线投稿,通过刊官网的投稿系统直接提交。三、机构协助,委托专业机构代理投稿,可以提高效率并获得修改指导,适合时间紧张或需要支持的作者。 这三种方式各有特点,你可以根据自身情况做以选择。希望这些信息对你有帮助,也欢迎关注我,获得更多论文写作或发表干货。


欢迎收看 a d h d 博士上的写论文实物。距离提交论文大纲的代购案还有三十二小时,我一觉醒来天塌了,怎么昨天才周一,今天就周四了?第一个小时,我翻开我的图说,不慌,我做完的做你的,做完的做你的,然后超级高效的发完了所有邮件,并且打开了我第一天要读的文献六十页。这时候我猛然想起来前几天刷到一个做吐司的配方,我说, ok, 大 纲还没写。不要紧,我会在代购案前一天出门买面粉回来做吐司。东西买回来了,我就突然不想是想,但这样做的时候又开始不了。我说,那我还是和面吧,但和面读文献,和面读 文线进烤箱,哎,领了框架好像可以用这几个啊,我的吐司要糊了。一天结束了,我收获了几个七零八路的学术碎片和一盒吐司。周五了,黛德兰,就在今天,我终于领了,两眼一 睁都是血。我说,不是不报时和未到,我不开始只是因为黛德兰还不够警惕,遇到问题要多从黛德兰身上找原因。果然,我的脑子此刻终于被黛德兰激活了,我用一上午的时间看完了所有没看完的文线,并且过了一遍数据。这个时候我说,思路在手,天下我有,等会只需要把我脑子里的思路写下来发给导师就好了,然后我就去玩小游戏了,至于导师下班还有接吻的两小时, 我胸有成竹的开始从脑子里导出我的论文大纲,结果我的脑子说,我说,你别闹,我的小游戏已经玩完了。我脑子,哈哈,你也玩完了?此刻我瞪着我清澈又愚蠢的双眼愣在原地。刚刚上午脑子里那些一闪而过的思路看似很清晰,实际上真的要写的时候,我才发现啥也不是。此时我已经开始脑补要怎么跟导师解 释的尴尬画面,并且开始自言自语的言行小电影一个演员是我,还有一个演员也是我。没办法,我又开始极限把上午看过的文件和数据重新过瘾了,居然硬是赶在导师下班前一分钟把大纲写完发了。哇,又是好厉害的一天呢。

投稿流程从投稿信到教样一步不差。一、投稿前准备格式调整下载目标刊的作者指南,严格按照要求调整论文字体、行距、图表格式、参考文献格式。材料准备。除了论文全书, 还需要投稿信、作者声明、论文审查证明、推荐审稿人名单。二、投稿操作通过刊刊官网的在线投稿系统提交,按系统提示上传论文及附件, 填写作者信息、基金项目信息。提交后会收到投稿确认邮件,注意查收。 三、投稿后跟进审稿周期,不同刊审稿周期不同核心刊一般三到六个月,耐心等待,不要频繁催稿。教样阶段,收到录用通知后刊会发送校样稿, 需要仔细核对文字图标公示是否有误,确认无误后回复教样确认邮件之后等待健康发核心就找薛之惠安排啦,记得点赞关注哦!

今年的学术圈是真的卷,先是之网在十二月二十八号和一月二十五号连着搞了两次升级,紧接着二月五号 韦普也搞了一个大动作。这两天我连夜拆解了韦普这次升级的底层逻辑,发现他是把之前的检测规则彻底重够了。这也是为什么大家会觉得天塌了的原因。明明上个月刚写完初稿的时候,检测出来的 ai 识别率只有百分之七点四六, 结果前两天为了稳妥又跑了一遍同一个文档,数值竟然飙到了百分之六十九点二六。因为以前那种用 ai 辅助写出稿,然后人工改一半的混合模式,还有咱们常用的同义词替换倒装句的使用,在这次新的算法面前基本是没有什么效果了。 所以今天这期视频就是带大家看看这次算法升级主要是引入了哪几个新的判定标准。第一个是他开始查逻辑指纹了,也就是表达的是否过于完美。 简单来说就是 ai 生成的句子标准差很小,结构太完美太平均,也没有什么波动,而人类的写作就是会有长短句的波动。那现在的维普算法一旦检测到了你的句子,就是结构太过于工整,太过于完美的话,就很容易被标记为 ai 痕迹。 哪怕是你自己改了百分之五十,只要剩下的一半还保留了 ai 的 逻辑框架,那 ai 接收率照样会飙升。第二个是检测的覆盖范围变广了,以前大家默认的安全区是摘药、引言甚至是致谢部分,那现在这些全都纳入了检测范围。 第三个是格式规范的升级系统,现在不仅查你是不是用 ai 辅助写的,还查你的排版规不规范。对于 wps 不 熟悉的同学,那这就是比较考验你的地方了, 最难办的事,大家千万不要存有侥幸心理。北普这次是把市面上通用的大模型的逻辑特称全都收入了,不管你是用 gpt 还是国产大模型,只要是通用的,那个底层的 ai 味根本藏不住。 面对这次的升级,靠咱们人脑死磕去硬改,效率真的太低了,而且很容易心态崩了。这两天我也试了好几个以前存的工具,发现他们还是在用头一次替换的老逻辑,结果就是改了,具体结构也没有改变,更别说逻辑指纹了。 折腾了一圈,还是在这个比零降 ai 这个里面找到了突破口。我们这个工具之前也跟大家推荐过,它不是那种简单的帮你换词汇,而是从深层逻辑上 去重构段落语句,而且我发现它的算法库已经同步更新到了维普的二月五号的最新版本。这就很关键了,只有底层逻辑对得上,才能真正的解决问题。操作方法也很简单,我们进入这个比零的降 ai 痕迹页面之后,才能真正的解决问题。操作方法也很简单,我们进入这个比零的降 ai 痕迹页面之后,我们直接点击上传就可以了, 大家可以看一下,这是我降后的一篇文章,我对比了一下,格式上是完全没有乱的,所以就不需要我再次的去排版了。最关键的是内容,他把原来那种 air 味的句子都搭配重构了,然后表达的意思也没有改变, ai 率也降了下去。 最后再提醒大家两点,第一,千万不要再用这种通用的大模型去降低 ai 率了,这样的话只会 ai 痕迹越来越重。第二个是在我们完成出稿之后,一定要留出时间去复测,包括像格式这种细节的东西也要注意到,因为这种细节在导师那里很加分。

分享一款超级好用的谷歌官方浏览器插件 alpha ziff, 它可以从 arxiff 官网上一键跳转。 那么当我们跳转到 alpha ziff 这个插件上之后呢,我们可以看到它居然可以和 gemini flash pro 以及 chat gpt 去联动,一起来帮助我们阅读论文,总结论文以及写论文。如果我只选中一篇文献, 不输入任何指令,点击发送的话,那么他会自动搜索与这篇研究相关的一些文献。比如说我输入这篇 n c 的 文献之后,他迅速的链接到了和这篇研究很相似的一些文章, 然后我点进一篇文章之后,就可以跳转到那篇相关研究的官网,这样可以快速的帮我们找到该领域的一些相似的文章。 然后在这里呢,我们点击 new folder 之后,建立一个新的文件夹,可以把我们的文件上传到这个文件夹 之后再找到我们这篇文件, 点击文献之后,迅速跳准到另外一个界面当中。接下来呢,我们就可以通过和 gemini pro, flash 以及 chat gpt 联动,一起来阅读总结论文。 首先呢,我输入了第一个指令,我想让他帮我总结一下这篇文章,那么我们看他可以为我们总结出哪些内容。 接下来我输入了第二个指令,我想让他根据这篇文献的研究内容,为我下一步的课题研究提供一些思路,我可以继续深挖哪些方向呢?看看他来怎么回答吧。 接下来我输入了第三个指令,我想说根据这篇文献的研究内容,我想写一篇综述, 希望他能够给我提供几个可以用的题目,看看他给我们出了哪些题目呢? 最后一个指令,我选中了他帮我提供的第二个题目,那么我把这个题目呢输入给他,希望他能够根据这个题目给我列出一个综述的框架出来。 通过以上指令呢,各位研究生宝宝们可以很直观地看到这个谷歌插件 alfa zip 对 于我们阅读论文, 写论文或者是总结论文的问题方,结果要比都是非常的到位的,而且它支持呢中央文,并且能够和 gemini pro, flash 以及 chat gpt 等模型呢去联动的使用。各位小伙伴呢,快去试一下吧!