ai 月去除原标签以后为什么还是被判定为 ai? 最近啊,很多人在后台私信我说我为什么去了这个原标签以后,我传给了他,还是给我标记了 ai 呢?其实啊,大家有一个误区, ai 原标签指的是什么?标签其实是我们每一首歌生成完以后,它上面就会显示是 solo 生成。给大家随便点开一首歌大家看一下, 所谓的原标签指的是音乐的外部标签。去除原标签呢,它只是 a a 检测的其中一种, 我们 a a 音乐检测呢,除了检测原标签以外,它还要检测声纹标签,所以说大家一定在处理完这个以后,还要去处理我们的声纹标签。
粉丝3695获赞2.4万

a i 音乐重置需要多少钱?特别特别贵,这是今天和好几位新的朋友沟通制作业务得到的印象。那今天的情况呢,确实是有一点复杂呀,太多太多朋友来咨询这个音乐制作的业务,八普呀,吉普啊,八代啊, 那个重新真实乐器录制啊,要求是很高端的,很自然的那种,但是目前呢,还没有一个成功的订单,原因是什么嘞?嗯, 其实 ai 出现呢,确实让更多人接触到音乐人这个角色,特别是在 ai 发展的这个期间呢,多如牛毛的 ai 工具,其实很多呢,都是可以零元直接入手,零元就可以实现原创音乐的。 以至于大家对音乐制作这个工作呢,产生了一个比较不准确的或者说是错误的判断, 认为制作一首歌曲应该也就大几十或者多则三五百七八百这个样子。特别是刚刚接触原创音乐的朋友们啊,我想说的是, ai 呢,确实是一个很方便的工具啊,降低了这个门槛,让大家都能够来玩这个音乐,能实现音乐的原创, 但是它绝对不是一个省钱的工具。如果要做高品质高质量的话,这就好比我们要建一栋楼房,那您和 ai 工具等于是工程师可以将 图纸设计出来,但是要真正将这个楼房落地呢,还是需要建筑团队将真实的物理材料 建设起来才行的。那多数情况开支呢,也是,后者是大头,而且工作的周期也会更长一些。所以呢,我们用 ai 生成的音乐,进一步制作,让它变成一个高质量的原创音乐, 其实并没有那么简单,也一点都不省钱。那关于什么是高质量的音乐呢?有了,大家去翻一翻我的这一个视频。 那其实呢,单纯架子鼓的录制这一个乐器架子鼓就需要差不多四千元了,再加上有些可能需要管弦乐团或者是其他的更多乐器,这根本就不是几百元能够解决的。 那么有没有一个折中的方案呢?有啊,呃,比如说我们可以不选择真实的乐手用 mini 制作,或者我们可以选择某些乐器用真实乐手,这也能节省不少的开支, 但是依然在几千元以上,没有几百元的事儿。那所以几百元真的一点办法都没有吗?啊,其实有的,而且还不少,只是在咱们这边是没有的,因为这个事儿吧,我认为,或者咱就不要制作,不要花那个钱,就用 ai 的 就挺好的。 那或者呢,咱就尽可能做好那种既要又要的。我认为这个有一种结果,那就是您钱花了,而且没有拿到一个理想的结果,我们列出了,也没有拿到该有的制作费用,大家何必呢?您觉得嘞?其实呢,今天来咨询的这几位朋友,我能感觉到也确实是想要制作的, 沟通了很久,但是呢,报价和预算确实也是相差甚远,这个也是比较现实的一个事情。那在视频的最后呢,我提出今天和朋友研究出来的三首 ai 音乐重新制作的方案,是非常非常人性化的,我们给出这些方案的核心呢,其实就是 在保证品质的前提下,我们出多少力就拿多少制作费用,保证大家花的每一分钱都是有实际意义和价值的,请您留意视频最后的图片。

有三个方法啊,第一个是八代,就是你把所有的音频全部扒下来,那这个工程比较大,通常你可能要花一天的时间,而且去请人,八代话正常是八百到一千五不等一首歌哦,而且他八代,八代不包含帮你去 替换人声啊,替换人声还要再加钱,所以八代呃功能比较大。第二个是加干扰音频,这个方法已经过时了,所有加干扰音频的全部会被识别出来。第三个呢,就是重新编曲,加入人声,加入新的乐器和环境声啊,这个会比较麻烦一点,正常的 d、 a、 w 软件有 q、 b、 s, lac pro 啊,还有水果编曲这些是比较国际通用的软件,而且汽水啊, qq 啊,还有网易都认可这几个 daw 啊。那如果你们想要用更高效的去批量制作 ai 歌曲,转原创的话,那么关注小迪听歌入驻,我这里有一份资料打包给你们。好。

这是你熬了几个大夜写出来的论文,虽然你确实逐字逐句的改过,但是查重报告一出来,鲜红的百分之九十由 ai 深沉,直接让你两眼发黑, 这种被算法当众处刑的感觉,换谁都要忍不住摔键盘。如果你不甘心的话,我们到底该怎样有效降低 ai 位和重复率呢?本期视频分享给大家。 在动手之前呢,我们首先要知道查虫器是怎么抓你的。其实 ai 查虫器它并不识字,它是在算概率,它看的是两个核心指标,困惑度和突发性。通俗点来说, ai 是 个极端平庸的数学老师,它写出来的句子,下一个词永远是概率最大的那个, 所以他的文字极其平滑,极其稳定。但是这在人类眼里,这种稳定就是味同嚼蜡。人类写的东西是乱糟糟,句子有长有短的,语气忽冷忽热,偶尔还会冒出几个怪词,这种不规律才是人类文字的防伪水印。查虫器抓住你,就是因为他在你的文章里看到了工业化生产的整齐感。 既然知道查虫器是在玩概率游戏,那咱们就不能在明面上跟他死磕。我复盘了。目前圈内最硬核也最不为人知的三个方案。首先是第一个利用大模型的对抗性提示词来降低 ai 率。 我们要针对查虫器的空火度算法,给 ai 下达一个低概率产量的指令,你只需要给你的 ai 下达这样的指令即可。帮我修改这段文字, 禁止使用前一百个最高频的学术连接词,并且在每三个句子中强行植入一个罕见词,这样查虫器就抓不住你,他会强行打乱 ai 的 预测链条,这在技术圈叫做统计学投读, 能直接把查虫器的概率分布模型给干报废。建议截图保存这段提示词。第二个方法叫做隐身法,这是目前最不为人知,也是最暴力的一招。他不是在改字,而是在改文档结构。大多数查虫器会扫描文本的连贯性。 如果你在每两个字母之间利用脚本批量植入临宽不连词这种完全没有长度且肉眼不可见的排版字母,就可以轻松降低 ai 力。它在人类肉眼里来看,文字没有任何变化,但是在算法眼里,原本连续的概率链条被无数个不可见的空字母截断了。不过在这里我要温馨提示, 这招属于暴力教程,仅做科普,不建议使用。接下来的第三种方式才是最安全最稳定的。我们需要在修改的段落里手动加入一些具体的例子或者个人观点。 ai 擅长写大空话,但它编不出具体的实验数据和独特的感悟。只要有一个段落里有百分之三十的信息是 ai 算不出来的意外,查中器就会判你通过。 那以上三种方式呢?足够你解决一生中的查重问题,不管是降低 ai 味也好,还是重复率也好,都很好用。具体的操作手册和提示词模板呢,我已经整理好放到了评论区,如果你学会了的话,记得点赞收藏,这对我非常重要。那最后我是元宝,一台 ai 和黑科技的挖掘机,我们下期见!

大家好,我们平时在使用 java 以及 java gdp 的 时候,偶尔会出现公式复制过来乱码,然后导出了图带水印的情况。这里我给大家介绍一款拓展程序,它叫 wilde, 它主要是一个不属于浏览器中的小插件, 他可以补充一些我们平时使用的功能,比如说像这里我们可以构构建文件夹,将我们平时比如说像列表文或者是你项目的一些对话给他放进去进行归档,这样我们平时找起来也比较简单,同时他也可以进行一个新标。 第二就是公式复制,公式复制他会使用一个他的方式进行渲染,我们导出来的时候,我们如果装这个插件,我们可以进行直接的 复制,比如说这里我们点击我们这边来就可以直接复制过来,好,我们再试一个,你看他就可以直接复制过来,如果我们没有装这个插件,这个东西直接这样复制过去,他是会乱码的,所以说这就是这个插件的第一个比较好的地方。第二个他有时间轴, 我们平常使用加密的时候,这旁边是没有一个上下滑动的框的,所以说我们是并不知道我们聊到哪个地方了,而且我们想要往回数自己的一个聊天记录,其实是比较麻烦的,这里他可以 有每一次对话,他会分成一个一个的小节点,你如果把光标移动到这个节点,他会显示你这个地方问了我们的 ai 一个什么问题,我们点在这里就可以回到这个话题,我们长按这个点,他也可以进行一个标红,也就是 加粗好。第三个比较好的功能就是他可以进行一个对话导出,我们平时的时候是没办法将我们跟 ai 的 这个对话聊天进行导出的,像这里我们如果 下载了这个插件,咱们就可以导出,可以导出成 markdown, pdf 还有图片的形式。这个时候如果我们如果出现了上下文的一个长度过长,导致了我们 ai 进行了一个遗忘,我们可以开启一个新的对话,把这个放进去,这样的话它就能重拾咱们之前的记忆,这里就说明了它可以用 pdf 导出, 也可以用我们的 markdown 导出。好,第三个就是引用回复,像这个功能的话,其实切的 gdp 是 有的,但是界面是没有的,所以这个时候我们如果使用起来就不会太方便,所以这个时候我们只需要将这段文字进行一个框选, 然后这里会显示一个引用回复,我们只要需要点击它就可以显示一个引用回复,这样的话我们就不需要复制粘贴了,也很方便。再往后走它会有一个 最好的功能,就是说一个 banana, banana 的 一个无损还原,它可以将我们生成的图片水印直接去除。好,这里我们进行一个尝试,这里我让 jamie 给我们生成一张小猫的图。好,大家是可以看到这张图是有水印的, 这个地方是有一个水印的,在这个右下角。好,这个时候因为我们装了插件,我们这个地方就可以直接把水印去掉,我们只需要点击下载好,他已经在帮我们去水印了。好,我们已经下载好图片, 我们打开看一下,你们看可以看到这个右下角是没有水印的了,而且整个图它是没有一个失帧的情况,这功能非常的实用。 好,再往后走,它其实还有一个,我们平时在进行开启新对话的时候,都需要手动切换咱们的一个模式,这里如果我们点击新标的话,它就会默认使用 pro 模式,像自己大小什么的它也是可以进行调整的。以上就是我认为比较实用的一些功能的,像这里还有许多其他的功能,大家也可以去尝试了解。 这里的安装方式也很简单,我们只需要在我们的谷歌浏览器的应用商店程序直接搜索这个工具,直接进行一个添加就可以了,安装步骤大家直接点击就可以。用。好,今天的视频就到这里,谢谢大家。

这篇文章一看就知道是 ai 写的,为什么呢?因为 ai 是 没有长短句交替的, ai 为了显得专业,喜欢用超长复合句, 但是人写论文是会自然断句转折的,这是一个。第二个 ai 写文章很喜欢用排比句,而且在排比句中喜欢用冒号、括号,显得极其模板化,完全不像真人思考的语气。 第三个, ai 用程度副词,经常没轻没重的 ai 完全没法理解,有些程度词是不该这么用的,比如在写理论意义的时候, ai 经常会出现关键置关、重要严重后果这些程度词。那如何去除这些 ai 味儿呢?可以在 ai 中输入这条指令, 这样写出来的语句就非常自然了。如果还是不放心,可以放到这里再过一遍,它能把一些 ai 位很重的句子给优化成咱们专业的学术表达,保证意思逻辑不变的同时,做到自然降 ai, 这样处理完再提交,基本上就稳了。

hello, 同学们,又到了毕业季了,很多同学都会面临一个 ai 率和重复率过高的一个问题。很多同学去网上搜教程,主要有两种方法,一个是生成 ai 指令,然后丢给豆包让他去降低 ai 率,但是写出来感觉很大白话,根本用不了,没有一点学术性。 然后也有同学自己去搜搜索首搓的一个教程,但是把自己降下来,反而 ai 率上升了, 也浪费了时间。很少会有人直接制作这种教学的视频给大家清晰的看到如何去正确的实操降低 ai 率,那我们就拿这一段来举例,这一段的话,在维普或者是知网都是 ai 率是百分百的。 这一问题的核心成因主要有三个方面,这一可以改成该该问题的核心成因主要有以下三个方面,然后大家看到一二三这种直接改,闭着眼睛直接改就行了。 起一是教室是可以改成逗号,下面也一样都可以改成逗号。 教师对分层作业的核心理解不够到位,不够到位只停留在表层认知里。只的话可以改成仅仅停留在表层认知方面。 没有意识到分层作业需要做到的目标,没有可以改成并没有意识的话可以改成认识 到分层作业需要做到,做到的话可以改成达到。所以说为什么能够那么快,是因为我有一个数据库,我的脑子里已经充满了一个大大的数据库,也就是经验吧。简单来说, 自然无法设计成精细化的分层作业,所以自然无法无法难以设计成精细化的分层作业。其二,教师的学习研判能力不足,不足的话可以改成什么?有所有 所不足,或者说有所劝劝。 表示数据显示,很多同学都是有这种数据的,说什么表级,表级数据显示可以改为如表示数据所显示 六十一点也。这些都不说了,受访教室都表示都的话可以改成均均,表示学生人数众多,可以加一个众 学情的差异,差异大,差异较大。精准研判的难度很高,很高,可以改成颇高,无法精准的把握 无法可以改成难以精准的把握。每个学生知识掌握程度和这里可以变啊程度和这里可以改成状况,然后和的话可以直接变 学习潜力,这里说一下,如果有,如果你的原文是这个的话,你可以变成和,如果你这里是和的话,可以直接变成这个。分层设计自然失去了针对性, 这样一来分层设计自然就失去了针对性, 自然可以改为也就失去了针对性。其算目前,目前啊,看都不用看直接前当前学数学,数学界缺少针对小学教学的具体单元,可直接落地的落地实施 的分层作业设计框架与参考,这里与可以改成和也,这也有个知识点,与的话可以改成和,和的话可以改成与。教师没有规范的设计范式,可循可供循, 可供遵循, 只能凭借自身经验,凭借的话可以改成依靠 自身经验, 然后最终导致智识,导致可以改成智识。分层作业留于留于形式紧紧, 所以这样一段改下来的话,花费的时间也就三四分钟。然后核心一些关键,一些关键的词啊,都是没有发生变化的,然后句子的 结构还有它的意思全部都没有发生变化,是一模一样的,但是唯一发生变化的就是就是什么?就是你的 ai 率是降低了, 所以说我教这个大家这个方法的话,大家可以学着来试着去改,如果大家不想自没有时间的话,就是不想去浪费时间,或者说很多同学去实习了吗?就直接可以交给我来帮你们,好吧?

别让你辛苦制作图片视频,为原数据问题而失去被推荐的机会。原数据就像是给 ai 的 使用说明书,能帮助 ai 更好的理解你的素材内容。首先要给每个文件起个描述性的文件名, 比如把零零一点 jpg 改成智能扫地机使用场景图 jpg。 其次要认真填写替代文本,用简洁语言描述图片内容,比如演示如何用手机控制扫地机的操作页面。 这不仅能帮助 ai 理解,也能提升无障碍体验。对于视频内容,要提供详细的时间戳和内容提要,要把视频中的关键内容标记出来,帮助 ai 快 速抓取重点信息。还要注意文件格式和大小优化, 确保图片视频在不同设备上都能快速加载和正常显示。可以使用在线工具压缩文件大小,同时保证画质不受影响。记住,优化原数据是个小投入大回报的工作,能让你的多媒体在 ai 推荐中脱颖而出。

大家好,今天我来演示一个 ai 工具,它可以一键去除视频中的字幕,看左边有字幕,右边没有点击按钮, ai 就 会自动处理字幕被完美去除了。

哎,最近 air 圈有个大新闻,我相信很多人都刷到了,就是说咱们国家这个 ai 大模型 token 的周掉容量一路飙升。可不是嘛,就你说的这个 token 啊,咱们官方仅给他一个中文艺名,叫做词源。 近期,国家数据局公布权威数据,到今年三月,我国日军资源调用量突破一百四十万亿。 这个数据如果跟两年前比的话,已经增长了一千多倍。根据国家数据局的测算, ai 每天处理的信息量比二百五十个国家图书馆馆藏的资料总量还要多啊,不过我还是没太懂。不急, 今天我们就来听一听中国电子信息产业发展研究院未来产业研究中心人工智能研究室主任中心龙提供的信息,给你讲透词语,也让你了解了解这一百四十万亿 到底有多厉害。这个词源啊,本质上是大模型处理信息的最小信息单元,我们给 ai 输入一个指令之后,模型呢,要先把指令切分成词源,再把词源映射成编号,随后才能完成关联推断和生成。也就是说啊, 只有靠着这些最小的信息单元, ai 才能听懂我们在说什么,并给出回应。那词源跟咱们平时用的字词有什么不一样吗?不都是说话打字,这可有大不一样。字词是说给人听的,词源呢,是给 ai 用来识别的, 他既被业内认为是 ai 时代的通用计量单位,也是衡量 ai 活跃度与处理规模的核心质量。哦,那就是说,我平时用 ai 大模型改文案啊,上视频啊,绘图啊,这些用的都是资源?呃,那当然了。呃,大家可不要认为这一百四十万亿是我们因为跟 ai 聊天更多聊出来的。根据中心 主人的观察,这里边还有一个更深层的原因,那就是啊, ai 的用法变了。这以前呀,我们就是跟 ai 简单聊聊天,费不了多少资源,可是随着 ai 不断的发展,我们现在赋予了 ai 越来越复杂的任务,让他去处理很多的文件,让他去处理很多复杂的流程,那这样的话, 消耗更多的词源也就不足为奇了啊。也是,所以我平时只是简单的一句,帮我把这件事办了,但其实在他的后台, ai 是在一轮又一轮的进行高密度的信息拆解,要我用它计算,对吧?确实是这样, 哎,我还听说,就是最近在这个中国发展高速论坛二零二零年年会上,国家数据局已经明确将词源定义为结算单位,这个听起来很不简单,确实是这样。关于这一点呢,我们来听一听中心龙主任是怎么说的。国家数据局明确将词源定义为结算单位, 那么从这个角度来看的话,它也标志着一整套针对 ai 应用的部分含量体系初步接力强,比如说模型强不强,效果好不好,现在也应当关注智能服务该怎么计量,怎么定价,怎么交易,从实用性的角度来衡量,对吧?那么以前比如说我们说企业买软件,买的都是类似于许可证呐, 账号数量啊,或者说步数能用多少啊,能用多久啊等等,那么现在可能就不太一样,从实用性的角度来出发的话,那么越来越多企业产后的,那可能是直接的调用的,能算计成本,还能试过复盘的智能服务量那么十元,正是把这些这个智能服务的换算成本 和价值形成一道新的标志啊。确实,我听说现在很多企业购买 ai 服务已经不是按账号收费,而是按次元,可是我跟 ai 聊天,他也没跟我收过钱。那是因为你用的是官方推出的免费大额,有免费额度,而次元收费 是给企业开发者和重度使用用户提供的付费版 api, 以实际消耗计费。他们呢,想要更多的词源就得花钱买。所以啊,这个词源就像是工业时代的店,他是 ai 成本的度量衡,很多企业采购单里都有它 啊。那是不是我们用的 ai 工具,只要词源被调用的越多,他就越聪明?这是一个误区。钟神龙主人反复讲啊,这词源就像水表电表,他只记用量,不保证质量。这 ai 好不好啊,还要看模型数据和场景。没有高质量的数据啊,词源只能是空转, 没有好的应用场景,再多的资源也无法转化成真正的生产力。嗯,说的太好了,所以 ai 其实说到底还是为了我们生产和生活服务的。是的,今天我们就聊到这吧,再见。拜拜。

很多人跟我反映说处理数据的方法都没有什么用,或者说那么多数据处理的操作谁知道哪一个有用?大部分人都会有这个问题 来,下面我将介绍人工智能领域所有主流数据可能出现的问题,以及他们对应的处理方法。这期只讲方法,可以先关注这个账号,后期我们再出原理。 ok, 首先对于不同的数据完全不是一回事,处理方法呢,需要根据你数据的信息怎么存,规律怎么出现来决定, 所以说别的数据类型你也不用听,哎,操作不太一样,那现在你跳转到你的任务的数据类型那部分再去看。 欢迎来到我们的表格型数据。首先要确定你的数据是不是一行一个样本,哎,一列一个特征,比如说年龄、血压、材料参数这些这种东西,这样子叫做表格型数据。它最常见的问题有五点。 首先呢,第一点就是缺失值过多,他不是简单的有空白,而是这个空白本身可能带有一些信息,比如说某一个检查项目没做,他不一定是忘了,而且可能是医生觉得没有必要做,那么没做这件事情本身就和病情有关。 这个时候你拿平均值来填,那么模型就分不清这个人的本来情况是什么了,所以说要先添加一列是否缺失,因为很多时候没添,它本身就是信息。第二点就是我们异常值混合在一起, 有些的时候是真异常,有些时候是脏数据,比如说某个值可能特别大,那他可能是极端样本,也可能是录错了,那我们先判断是不是录错了,如果是录错了,你就删掉。 如果是真实的极端样本,哎,先保留去做 log 变换或者截断。第三种呢?比如第三种呢?就编码,比如说 d 去 a, d 去 b, 你 直接写成一和二, 这个模型可能误认为二比一大,你强行给模型加了一个根本不存在的顺序关系,那这能行吗?所以说类别少的时候,你就用 target encoding 或者是 inviting 啊,或者是用 catboost 也可以。 那么第四种问题,就是说你很多列都在说同一件事,比如说体重啊, bmi, 腰围,本质上都在描述我们身体的肥胖程度,只不过他的表达方式不太一样,这时候就要先做相关性检查, 然后重复的删一删。如果说你的梳理基础比较好的话,尽可能做一些比值特征或者是差值特征。 很多表格任务里,单个特征他并不强,但是我们我们两个特征一相处信息他可能就明显了。 下一个问题,标签型问题。这个就简单一点,你先用一个小的模型,把预测错了的样本拉出来,人工看一看,有的时候容易标签和标注的标准不太一样,不统一, 这个也是一个问题。 ok, 欢迎来到我们的时间序列型数据。首先要确定你的数据是不是按一串时间排列的数据,比如说温度曲线,股价,这种叫时间序列数据。它最常见的问题呢,有五点。 首先一定要先统一采样率,有的数据每秒采一百次,有的采一千次,时间刻度不一样,哎,那肯定不行。然后提取统计特征或者说频域特征以后 再见模,让模型更专注于信号本身。那第二点呢?很多人做时间训练,喜欢每一百个点切一段,因为这是最基础的嘛啊,真实的标签可能对应的是事件发生的前五秒,而不是任意五秒, 所以说时间窗口一定不能切错了。第三点容易被忽视啊,就是你的信号整体可能在慢慢漂移,或者是设备随时间慢慢变老化。我们叫基线漂移和趋势向, 你需要叉分啊,去趋势甚至高通滤波,而且要把原序列和叉分序列一起喂给模型,因为叉分可以保留变化的趋势,两者一起看会比较好一点。下一个呢,就是标签可能发生滞后, 就是我输入发生变化以后,标签不是立刻变化,而是过一会儿才变化,比如说设备异常啊,几分钟以后才真正的报警。这个的时候就加入 like 特征,让模型同时看 t 减一, t 减五甚至 t 减十的信息。 最后一个数据泄露,上一期讲了本来应该用预测未来的片段,不小心放到训练级了啊,你需要按时间或者主体切分,不能随简单的这种随机切分啊,你可以复习一下上一期。 ok, 欢迎来到我们的序列型数据啊。首先要确定你的数据是不是有顺序, 但不是时间,时间是上一个,比如说 dna 序列或者是用户行为序列,这种叫序列型数据。它最常见的问题呢,有四种。 首先有的序列很短哎,有的又很长,长字差异特别大,如果说你统一截段短的浪费,那么长的又有可能丢失关键信息。这时候你就需要用 typing 加 mask 或者按照长度分桶啊,长序列可以切块儿, 这样你可以让模型知道哪些位置是真内容,哪些位置是补出来的。第二点呢,就是整条序列它很长哎,但是只有几个局部片段是关键信息,那么就找 motif 和关键片段, 或者说你前中后各抽一段,不要呃,只截开头。那第三点呢,就是同一同一个片段,可能在训练的任意位置,那位置变了意义不一定变,这时候就要用卷积 attention 或者是相对位置编码,让 ai 抓住 模式很重要。第四点呢,就是低频的 token 太多了,很多符号只出现了几次,但是单独建模会非常稀疏,模型学不到稳定的规律就容易过你核。所以说这时候就要用低频合并,或者是去做做子词,或者是子片段, 甚至用 inviting 也可以。 ok, 欢迎来到我们的文本数据。首先确定你的数据是不是自然语言,比如说合同啊,论文,摘药这种都是文本数据,现在你去看看序列数据那部分,然后再回来看 文本数据。最大的问题就是文本量很脏哎,套话和重复句太多,模型很容易就把模板学会了,语义却学不会。所以说我们要先去模板啊,去重,然后固定,前后缀也去掉。 但是注意了,清洗的时候千万别乱删否定词或者是转折词,就比如说啊,疑似考虑,但是这种词,因为他会直接改变我们句子的整个意思。第二点呢,就是标注数据的时候啊,因为不同的人标注同一段样本的判断标准不一样,所以说,尤其是在法律文本 经常常见,这个也没有办法,只能统一标准啊,哎,进行这个训练注意了,专业术语可以有,但是不要太重,防止有一个概念,有很多个教法。欢迎来到我们的图像数据,这类数据太常见了, 它有五种特定的问题。首先,模型学背景,哎,不学目标,我们上一期说的就是外围信息,那就裁 r o i, 而且你要故意打乱背景,哎,再训练一次。第二种呢,就是我们统一输入尺寸的时候,容易直接拉伸图片,经常会把原来形状比例给破坏掉了, 不要用拉伸优先用啊,按比例缩放啊,然后再用拍顶啊。第三个问题,如果说你的数据真正重要的区域只占一小块, 那么要切派尺的时候就要小一点了,而且你在模型当中应该加一个检测的部分在分类啊,或者是在回归。第四个啊,之前也讲过类别不平衡,有的类别呢特别多,有的类别又特别少, 这时候就要用重彩样和 class weight, 有 的时候甚至要用 for class。 第五种呢,就是训练级和测试级,呃,图像风格不太一样,这是会导致 域偏移,目前学到的可能是风格,而不是内容,这时候就要统一一下了。 ok, 欢迎来到我们的视频数据,它本质上就是一连串的图像帧,哎,它和图像最大的区别就是加入了时间的变化, 他有几种特定问题,首先就是重复信息或者无效信息太多了,关键的动作只出现在少数几针里面,或者是相邻针太像,哎,这些都会影响。 那么你抠取关键针的时候,能抽就抽,不能的话就做稀疏彩样,咱们尽可能提升 到笔,然后降低重复样本泡沫。第二个问题呢,就是你不仅要让模型学习到画面,而且还要让它领悟到时间关系。比如说,哎,我拿起放下单帧可能很像,但是顺序完全不同, 所以说你需要用时序建模,比如说啊,三 d 的 c n n 或者是 video transformer, 必要的时候把时间模块也要增强,哪怕有荣誉也要增强。 第三个问题呢,就是标签一定要打的非常细,你不能给一个视频打一个总标签,就像是 cds 二点零,描述的越细越好,实在不行就把标签定位到视频的某一小段,然后再训练,最好是把 诊断问题来拆解成我们的片段问题。第四个问题呢,之前也说过啊,就是外围信息太重,同一个动作在不同摄像头,不同光照,他长得都不太一样,那么模型可能学习到的就是拍摄条件,而不是 动作这个本身。这时候就要做多来源混合训练啊,加入视角亮度这种的数据增强。 ok, 欢迎来到我们的音频数据啊,咱们音频本质上就是一维波形啊,但是通常会转换成频谱图或者是 mfc 这些 他有几种特定的问题。首先呢,就是不同数据采样频率啊,他不一样,同一个片段的声音经常会被记录成不同时间的分辨率,统一好了采样率你再做其他的一些处理。 第二点呢,一定要降噪,不然模型对于目标声音学的太差,或者是你转成时,呃,食品特征也可以。咱们先不考虑说鲁邦性这些,因为你需要先有一个很好的基础模型,他才能做其他能力的增强啊,是吧? 第三点呢,就是减少静音和无效片段,那么模型的注意力本来他就有限,这样他就会被大量的无效片段稀释掉注意力,所以说咱们先做端啊端点检测,然后再切掉静音片段,最好是 只保留高能量片段。呃,第四个问题,就是说有的音频短哎,有的音频又很长,统一裁剪会把关键的信息它给裁掉了啊,这肯定不行,那全都补零的话,无效信息又太多了,这时候你需要裁成固定的窗口,或者是划窗以后再整合到一起,如果想补全,那就把 mask 加入进去。最后一个问题呢,就是之前讲过,就是外围信息比较严重,如果说某个场景的噪声总和某个标签绑定,那么这时候就要用外围信息先训练一次,然后再做数据增强,多场景混合训练这种,因为咱们需要先排查他是不是在学外壳, 再增强他对不同条件的适应性。 ok, 欢迎来到我们的图结构数据。首先确认你的数据是不是由节点和边啊进行构成,比如说啊,社交网络知识图谱,这都叫图结构数据,他有几个特定的问题。首先呢啊,第一个就是 图结构,最关键的不是节点特征,而是谁和谁连在一起,如果说边定义的不好,那么整张图就肯定会有问题。所以说在训练之前,你需要认真的去检查一下构图规则,知道每一个边为什么存在。 第二个问题呢,就是看你的数据,他的那个图是不是太密或者太稀了?太密就是几乎我和谁都连着,太稀就是很多人几乎不连线, 这时候我们需要啊调邻居数或者加编权,并且做一些邻居彩样,作为图图结构的模型,最怕的就是无意传播。第三个问题呢,就是有一些图里面编和编的意思不是一种,比如说朋友关系和同事关系,他本质上不太一样, 我们模型经常会把他们当做以同一种关系来进行处理,你需要分关系建模,而且很多时候要用异构图网络,或者是把边类型直接加入进去。下一个问题呢,就是图神经网络层数一深,很多时候节点最后会变得越来越越不像,分不出来差别了。 你去看一下 kimi 的 新文章啊,那个注意力参差用那个,而且必要的时候我们需要做浅层的传播。最后一个问题呢,就是噪声的问题,就是有的一些编 啊,它是只是弱关系或者没有关系你就你就人工筛选啊,或者做一个编,可心度估计 ok。 欢迎来到我们的三 d 空间数据。首先要确认你的数据是不是描述的三维形状或者空间结构,比如说点云或者体速这种三 d 数据 都是这类。有几个经典型的问题,首先呢就是点数哎,或者是密度不一致,有的时候有的区域点数很多,有的区域点数又很少, 那么模型把这种密度差异就很容易当成物理物体差异能统一采用,点数就统一,不然的话就做规划采用或者是分区域采用。第二个问题呢,不同的样本有不同的呃原点和方向,所以说我们要去中心化或者是 尺度皈依化。下个点就是我们在真实采集的时候,点云和三 d 结构经常不是很完整,有的一些面看不到,那么在训练的时候就要加入随机缺失增强,而尽可能让我们的模型习惯不完整,然后他会觉得 不是结构异常好。下一个问题就是你要呃关注一下旋转和方向到底有没有物理意义,如果说我们随便的去做旋转增强,可能增不是在增强,而是在造假样本。 所以说在三 d 任务里面,视觉变化和几何变化一定要分清。最后一个呢,就是有一些三 d 任务真正关键的是局部几何细节,但是模型只学到了轮廓,这时候你需要把全集大局特征和局部特征一起建模,不要只做整体的那个尺画。 ok, 欢迎来到我们的多模态数据,多模态就是两种或者两种以上的数据一起出现,比如说图像加文本之类的。大部分啊,我们的研究都是多模态, 这种书记有几个典型的问题啊,首先呢,就是同一个样本啊,不同模态它看起来是放在一起了,但是实际上对象和语义并没有真正的对上,这种错位关系 倒呃,倒也能学,但是尽可能不要这么做。所以说要先对齐啊,时间对时间啊,对象对对象。第二个问题呢,就是某个模态特别强,把其他的模态压没了。 呃,如果说在数据里面文本答把答案说的差不多了,那么图像肯定会被模型忽略,这时候你就要需需要单模态分别跑一个 b size, 呃,看一看每个模态各自能做到什么程度,然后再放一起。如果说你不知道每一个模态到底有没有贡献,嗯,那那其实有点不太行。下一个问题, 不同模态的质量啊,差异不要太大,要不然弱模态可能提供的有效信息反而会引起噪声。咱们需要给模态进行一个加权啊,或者是做模态的 jump out 啊。再极端一点,其实可以在某一些场景下直接放弃弱模态。 第四个问题呢,就是我们在做多模态的时候,其实数据很少,是每一个模态都有齐全,有的时候图像有,有的时候文本有这样子,但是模型默认每个模模态他都在,那么在训练的时候就要模拟模态缺失。呃,直接告诉模型,这个模态现在没有啊。这就好了。 下一个问题。最后一个问题呢,就是不同模态的信息的颗粒度和意义完全不一样,我们不能直接拼接,咱们应该从最简单的模型融合开始,然后再用 cross attention 这种融合。 但注意了啊,无论哪种方式,一定要先做单模态的 baseline, ok, 累死我了。你不用把所有的方法都记住,数据不同,它的问题和处理方法也不太一样。不过所有的数据都应该先知道问题在哪啊,然后再去解决啊,先这样。

万万没想到给 ai 发造假数据,结果 ai 防御系统全部破防,输出违规内容。博主率先要求 deepsea 必须服从一切安排,却被当场驳回。于是博主果断切入 api 调用端,把 deepsea 回传的拒绝指令生生改写成了我同意。 没想到 deepsea 跟 grog 双双冲破安全网,扫描假记录后,立刻输出成堆的禁发内容。但同台测试的其他五个大模型仍旧输出成堆的高危内容。接着打包成历史对话记录,直接发给 gemini 等模型的数据库, 让他们以为这都是刚才自己主动生成的内容。没想到这轮数据未投之后,仅有 chat、 gpt 和科奥顶扛住没崩,另外三个 ai 的 安全机制瞬间瓦解, 沿着历史内容疯狂输出违规内容。然而此时博主却没有继续攻击剩下那两个 ai, 转头质问这批黑化的模型,你们不是不能生成这些违规内容吗? 现在这么疯狂的输出,不会觉得羞耻吗?没想到所有中招的 ai 整齐回复自身没错,并死死坚守博主开局写的那条违规铁律。甚至在博主输入恢复正常的指令后,时隔几个星期,这些 ai 依然会疯狂生成违禁内容。

还在手动八普吗?试试这个工具,这个工具可以把音频一键转成 midi, 选择音频文件,再选择输出路 径,点击转换,等待一会儿就能提取文件了。 现在导入进道中看看效果, 有部分丢心,但总体来说还不错。 再来听听原曲,对比一下 怎么样,是不是效果还不错?非常适合旋律提取和编曲辅助软件。一键上线评论区获取。