粉丝1.7万获赞8.6万

大家好,这一节给大家来分享一下文本作图的分割去重啊,大家可以看到现在这个模拟数据里边,每一条里边都有重复纸, 现在我们要把这些重复纸啊,给它保留唯一纸啊,把重复纸给它去掉,仍然保持现在这种作图的串接形式。好,我们先来看一下如何去实现啊。首先我们要把它拆开,我们用 text split 函数啊,把这个数据给它拆开。分割符是逗号啊,如果说你有多个分割符呢,这个地方要用大括号括起来,把多个分割符呢啊,依次放在里边。这个我们前一节视频呢,已经有讲,大家可以去翻那个视频, 现在我们这个数据呢,只有一个逗号分割符,所以我们就直接一个逗号就可以了,就不用大括号了啊,现在呢,他就把数据给我们拆开了啊,这个不是我们的目的,我们要给它去重, 所以呢,这个地方呢,我们再次在它的外边 textplate, 外边呢,给它套一层 unique 函数,就是为一只函数。 unique 函数的第二个参数呢,我们要选择返回唯一值列,要选择返回唯一值列啊,这样呢,我们这个数据你看它就返回了唯一值列,就把原来的那些重复值就没有了 啊,现在我们其实就可以把它放到下面来。好,这个仍然不是最终形态,我们需要再把它串接回去哈,形成类似左边这样的原式格式的这种逗号分割的 so 串。所以这个地方我们还需要进一步加工这个公式,我们用 re to text 啊,这个函数 array to text, 这个函数套在这个 unit 周边啊,在后边给它把括号括起。好啊,我们再回车啊,这个数据又嵌套回来了啊,我们现在往下拉去。 好,现在又是一个这个套好的位置的一个数据。好啊,这个技巧就给大家分享到这儿。

论文马上就要交了,我的重复率死活降不下来。你试试翻译降重法呢,将标红的段落翻译成其他国家的语言,再翻译回来,让主动句变成被动句,这样就能降下来一部分呢。是降了一点。那重复率也不合格呀。那你试试这个吧,降重还挺有效的。我的论文查重率从百分之三十五降到百分之十三了。把文本丢进去, 等待一小会就相乘好了。最关键的是,它真的方便省时呀,比起用翻译相乘话高效多了。而且它还是分段相乘,它会帮我们把重复部分的同一词进行替换,逐句改写标口段落,拆分厂区规范,引用格式,进行多次修改。主要是让它处理后置网尾孔都是合格的。那我赶紧试试。

今天我们来学习 repeat 的 函数,它的功能是根据指定次数重复显示的文本,也就是说对某一个文本进行重复。那我们先选同单元格,录入一个等号,等于 r、 e、 p、 t。 双击这个函数,定一个字母串儿,我们先直接敲上一对双引号光标放到双引号中间,写上一个爱字, 中间呢用逗号隔开,重复次数我们写上一个五,意思就是说我们要把这个爱字给它重复五次,然后敲打回车,是不是就重复了五次?那么我们通过这个函数可以制作身份证的小方格。先选个单元格,录入一个等号,等于 r、 e、 p、 t。 双击这个函数,那么第一个次符号还是先录入一对双引号光标放到双引号中间,找到下方输入法,我们点击插入特殊符号,选择这个方框,然后把这个特殊符号给它关掉。 中间呢还是用逗号隔开,那重复次数我们写上一个十八,意思就是说不要把这个方格重复十八次, 因为咱们身份证是十八位。最后再敲打回车,这样我们的方格是不是就做好了?那么选中之后,我可以去给他加大一下字号,然后再选中之后进行一个双击填充,这样咱们的身份证小方格就制作好了。

ks 无货源重复铺货的解决方法?这个视频一分钟给你讲到位。首先我们在采集数据之前,要把两个东西给他准备充足,一个是采集账号,一个是同行 id, 这两个准备充足了,我们才能够最大号的解决重复铺货。如果说你准备的不充足,你今天采集一点,明天采集一点,然后今天上一点货,明天上一点货, 你就没有办法集中性的进行链接去重。我们一定是采集资源充足以后,在上货之前花上几天的时间去集中采集,每天采集个十几万的数据, 然后全部放到一个文档里面去除重复项,然后再进行一个文本的打乱,最后上户的时候再按顺序平均分配给每一个店铺,这样的话能解决百分之八十的一个问题, 剩下的百分之二十就是我们在人工审核商品的时候,对单店铺及多店铺里的重复款进行下架,这三部曲只要你做完重复,不过基本就不会出现了。如果说你在做 ks 五会员,可以关注我,每天直播分享干货。

很多同学论文查中时,参考文献整片标红,重复率直接拉高,其实不是内容重复,而是格式不对,之网无法识别。这部分是参考文献,不管是之网直接导出还是 ai 生成的参考文献,都要重新排版,否则会被当成论文标红。 操作很简单,第一步,先全选参考文献,设置悬挂缩进二字符,行距设为单倍行距,其余缩进归零,然后在中文版式中勾选允许新闻在单词中间换行,调整后只网就能正常识别, 参考文献基本不会再标红。如果论文用了 ai 生成内容,一定要检测 ai 率。把报告中标红的 ai 文本复制出来, 用专用降 ai 工具改写,该工具与之网 ai 检测模型同源,改写效果精准,即使原本 ai 率百分之二吧,也能降到个位数甚至接近零。将改写后的内容替换回原文,再去之网查重就稳妥了。

打工人必学 excel 小 技巧,一键高亮重复项!可以看到列中有好多重复数据,我们选中想要检查重复项的列或整个数据区域之后从上方菜单栏找到开始选项,随后点击条件格式,将鼠标悬停在突出显示单元格规则上,在此菜单中选择重复值。 在弹出的对话框中,左侧保持重复不变,右侧可以选择你喜欢的颜色,默认通常是浅红填充色、鲜红色文本,点击确定,轻松搞定。

大家好,我们在录报表的时候呢,想要规范填写内容,不想出错填错,然后呢事后发现错了再去返工的这个情况啊,今天分享数据验证,教大家做下拉菜单,还能限制文本的长度,我觉得蛮实用的,所以分享给大家。 我们打开表格啊,现在我们先做第一个,就是下拉这个菜单这个选择,比如说有几个部门啊,几个组啊,然后性别尺码我们直接选就好了,有时候呢,你输入错了,他还带多个逗号,少个逗号,多个空格的,就各式各样的,就 一般我都会用这个下拉菜单的这个形式去去选择。我们先找到这个数据这个选项卡 啊,我们的电脑,我的是这个版本,是有效期在这个地方,或者下拉列表,我们先在有效期这里我们选中,比如说性别,我们有男和女吗?我们就选中这个单元格,要设置的这个单元格,然后点有效期,然后有效期, 这里有一个允许的是选选序列,然后来源我们就录一个,难啊。逗号要转换成英文的这个输入法,然后逗号是要中文的就不行哦,要中文的,要英文的输入法,然后再才可以 男女啊,然后一定中间隔的这个逗号一定要转换成英文的输入法,不要中文的啊,然后确定就可以了,这里选序列,然后这里输入男逗号女,然后确定确定这个小方框就出来了啊,这里就可以选了, 然后身领尺码也是一样的啊,就是你你可以可以选中它,然后我这里有个下拉列表,也是可以用的 下拉列表,你可以手动,也可以像刚才那样子用逗号隔开,把所有的尺码都录进来,你可以一个个手动嘛, s, 然后再加一个 m, 再加,然后就这样子往下加就可以了,然后这里就可以选 sm 哦,这这样子都可以选,申请类型也是一样的。我,我在下拉列表这里选,也可以,在有效期这个地方选也可以,然后还有工号,我们不是会只有指定的六位数吗?如,如果我们录多一位,少一位就提示提示你, 你看我只输入一位,然后就提示请输入六位数的公号,对不对?那我们也是在这个一样的方法,我们入手机号,选中这个单元格,然后在有效期这个地方选择有效期,然后允许我们要文本的长度, 然后数据这里是等于等于我们手机号是十一位数,然后就输入十一。确定啊,那我们先输一位数试一下,我忘了还有一个地方 有效期这里还有一个地方本本长度等于十一位数,如果是啊,身份证号,你就是十八位数啊,工号就是六位数,出现错误的警告,这个地方错误,如果你只输,让他请输入 十一位数,手机号就是。假如你只输一位数,就让他提示你这个跳出来这个框框,就提示你请输入十一位数,就是说你少入了一位数,多入了一位数,他就会提示你。确定啊,我们下来 就可以了,十一必须是十一位,你看如果你输入二,少了一位数就不行,就提示你请输入十一位数的这个手机号。 嗯,如果大家要取消掉格式也是一样的,选中它,然后有效期这里有一个有效期,然后这边有个全部清除, 确定小框框就没有了。但是你录的内容,它内容它还还会是在的啊,就取消全部清空就可以了。这个是也是做生产文员的时候还蛮常用的,就经常会用到。

亚马逊重复违规,绩效评分低,商标文本滥用,并且给出了七十二小时的最后通叠,先不要着急操作,首次提交呢是相当重要,那么操作不好呢,店铺可能就真的没了。首先我们去不要着急去改标题或者是换图片,试图蒙混过关。 既然是商标文本滥用,重复违规,说明系统呢已经把你之前的违规记录呢已经关联起来了,单纯的去修改 delete 是 无效的,甚至说可能会触发更严重的一个审核。那么最稳妥的方法就是立刻马上把设计所有商标词和 delete 全部下架删除,哪怕说你觉得这个词很通用,只要系统判定违规,就先认错,保店铺 才是第一位。其次,准备申诉材料,这个时候千万不要甩锅,要态度诚恳。行动计划书呢,核心就是一个字,承承认错误,说明原因。比如说因团队对政策理解不到位,误用了受保护的商标词汇,然后列出整改措施,全面排查删除风险预警, 组织呢,团队学习合规政策。最后提醒大家,预防呢永远大于治疗,上进之前务必要做好商标搜索,别在标题五点描述里乱堆积关键词。 这个七十二小时呢,是黄金救援期,按步骤来,还有机会关注我,带你稳过亚马逊绩效。如果说你也遇到了店铺的类似问题,可以交流学习。

我们的这些商户订单号里面其实只有标记了黄色的这些,它是重复值,但是如果我们点 条件格式,点一下重复值的话,你会发现有很多的重复值,是什么原因呢?这是在 excel 里面, 它的数字的识别精度只有十五位,即使是文本型的数字也是这样的,也就是说对于纯数字,它只看前面的十五位,如果一样,它就判定为一样。 这就是为什么我们这里会有很多明明不是重复值,会被标记成重复值的原因。那怎么做呢?我们这里分享一个简单易行的方法, 我们先复制它,然后在这里来,我们在前面添上一个文本,我们就写个 a 吧,然后把它粘贴下来,然后呢我们选中它,按 ctrl 加 e 快 速填充, 就是在每一个数字的前面统一加上一个 a, 这样的话他就不是纯数字的结构了,对不对?我们再来点条件格式,再来点这个重复值,您看他是不是就标志了正确的,哪些是重复值了? 我们通过这一列就可以判定这一列哪些是重复值了,对不对?


作为蓝老师的我是如何布置重复作业的呢?这个是我一直在使用的宝藏应用,它可以布置长期重复性作业,同时还能自动评分和作业图片批注功能,大大方便我摸鱼偷懒了。当前班级里布置有两项作业, 现在要增加一项需要周末提交练习卷的作业,点击作业,点击新增作业。 作业名称是练习卷,设置一下自动批改给提交了的作业评分为优秀,再选择鼓励的常用文本作为点评内容。练习卷从九月二十号开始吧,设置为每周六周日需要提交 填写一下作业要求,添加一下作业附件。先选择一张图片当做练习卷的答案吧。设置为批改完成之后,学生可查看, 点击保存就搞定了。返回到首页,作业栏里已经出现练习卷, 周日的作业有练习卷,而周一的作业不存在练习卷,这样我再也不会忘记布置作业了。现在切换到学生端视角来看看效果,点击记录 十月九日没有练习卷,看一下周天的作业,出现练习卷,点击它。 先随便选择一张图当作作业进行提交。 现在还看不到附件,继续努力呀! 现在的作业就是提交未批改的样子,还是看不到附件。作业批改时长为三十分钟, a few moments later 就 收到批改作业批改好的服务通知。点击查看详情。已经可以看到作业的附件了, 现在再切回老师端,对作业图片进行批注。找到刚才提交的作业,点击它。再点击作业图片进行作业批注。对学生作业正确错误情况进行批注,哪错点哪, 点击保存就完成了。作业图片已变成批注后的了,现在再切换回学生端, 找到那天作业查看一下吧。作业变成批注后的图片了,这样学生作业情况家长可以随时掌握了。感谢观看,谢谢。

好,今天我们来引入一个概念,关于关键词残史的一个问题,我们在做骨骼 s u 当中呢,其实这个问题是蛮严重的啊,特别是我们之前说的,如果说我的网站就加了挺多小鱼的一个问题,那这样的话,如果你的关键词是残史的话,那我们可能这个结果会比较麻烦。 你可以看我这个网站,最近的话,春节过完,包括上次骨骼算法更新,更新完之后是掉了一点,掉完之后你可以看到的一个结果,其实先掉了往上找,或许是相对趋于稳定的。 从 simla 里面数据的话,从这边看啊,这边涨的还是蛮多的。第二个就是我的站长数据,这是谷歌站长的一个数据啊,这边看的话,其实整体的话,这里还是在慢慢的区域稳定的啊,之前是破两千多点击,那上次你看这个时候是十二啊,十一月二十七号照法更新完之后呢,慢慢的会掉了一点,掉了一点,目前对我影响目前不是特别大,其实 因为我们这个网站呢,它的页面数量,包括我的一个文章的一个数量是比较多的,所以的话有一个情况在,因为你的页面数量跟你的文章数量是比较多的,中间的是 我们做页面,做页面的人员跟我们喜欢的人员还是分开的。就有一个问题在啊,你的关键词可能会出现残死的一个问题,这个问题其实挺难避免的啊,为了让大家能够方便去理解这个事情,我做了一个信息图,供大家参考一下。 好,这个图我给大家理解一下。这是之前的一个情况,我们有很多的写手,写手蛮多的,他们会做一个内容的创作,这边的创作的话就是我们会写对应的关键词,我们做的一个聚合的页面,聚合页面下面会给这些文章作为一个补充的一个说明啊,这边是一篇文章,这个页面是我们做的聚合页面在这里, 因为他可能都在讲同一个东西啊。我举个例子啊,你比如说啊,我们造纸机的这个页面,我们称之为聚合页,这个页面的话,我目前的排名还是比较稳定的,我们再来看一看他的排名的一个情况,放到具体的一个搜索里面去看,还是模拟点击看到我们的一个美国桌面的,美国桌面的一个数据目前还可以,还可以啊,还是比较稳定的一个一个排名在这里啊, 这个问题是什么呢?一个的话我们写的蛮多的文章的这边是综合起来,我其实那个焦点关键词 forks 其实也不是 papermaking, 但是问题是什么?看它这里有一段话啊, 他就就写了一个,就是 what is papermaking 啊?他是如何运作的这个东西这个标题啊,他这段话其实你去做检测的话,其实他是没有什么重复率的,没有什么重复率的,没有任何引用啊,我基本上是属于原创啊, 问题是什么呢?我的蜘蛛叶这边你往下翻,这边内容其实应该也不太会有,因为他讲的东西不太一样,不太一样,这些其实都是我们做的一个蜘蛛页面的下面的一个子类目,文章页啊这一块的啊,这边其实都是属于内容创作的一个东西啊,这边你看有好多,对不对?这边其实都是属于内容创作的一个情况,我这篇页面是聚集了应该有二三十篇内容在这里面, 这个是刚刚那种情况,有可能会出现这种重复的一个段落,但是他人工去审核的话,可能就比较难去审核这个东西最直观的一个东西,你看是不是? what is people making machine? 我 刚刚的那篇内容,这边是不是是不是就残食了?这个是我肉眼能够看得到的一个一个情况,他这边是是做残食了,是不是?所以理想状态的话,我是不是可能应该把这个去删掉?这段话去删掉, 把这个问题给删了,可能会更合理一点,是不是?所以的话,我这边这边的一个情况跟我目前的这个东西就重合了,这篇内容就重合了, 我虽然做了个双向链接,我以这个页面去去给我的那个聚合页面做链接的,但是其实还是没有办法去直观的去说明啊,他是对我的一个补充,但这个内容的一个匹配度,重合度是是有的,这个重合度你如果说我这边你看还有好多小一种,是不是?那可能就是你本来是只有一处是重合的, 因为你做了可能十来个小一种,那你可能就有十来处的一个重合,那这样的话,如果你的网站内容比较薄的情况下的话,那你可能就会出现被交警的一个风险, 所以这个事情呢,还是蛮重要。那还是回归到这个图片做一个解读,因为我们最近用的就是搞的扣的,因为之前很多他们不理解编程的一个工具,或者说怎么样的工具对我做谷歌 su 到底有有什么帮助,是不是?那这个其实就是我们说的搞的扣的,目前就是能给我解决这个问题啊?他是如何解决的?就是比如说我把我这三十多篇文章丢给他,然后我投喂给他,对吧?然后我另外的话把我那个链接也给他, 然后他会进行一个文本的一个抓取比对,然后我再给他后台,他会给我出一份对应的东西, 我给你看一下啊,那这个的话就是我们的一个一个,我那已经已经就是修复过了,修复过了,他这边是我给他提供了一部分的内容的,他给我看到了,就是就是我蜘蛛页里面可能在提到的讲过的,因为我们是以蜘蛛页为准嘛,对吧?然后我这边的话可能 会会有一些细分的一些领域去去写内容,写完之后呢,发现他就是有有挺多重复的内容在里面做一个支撑的,然后这样的话,他不仅他,他就是有一个重复的一个内容,在有些内容他其实就是一个重复的一个过程啊。所以呢,我就通过这个一个工具 做了一个简单的一个工作流。就比较简单啊,比较简单啊,就是怎么说呢?就通过他嘛,然后我给他授权了我的后台,然后一方面他已经给我动出来,我给他授权后台,然后他给我批量化处理,然后给我自动的去处理这些东西啊,处理这些东西, 然后这里的话就是我给你看一看直观的东西。是这样啊,链接的一个修复,还有那个就是 foxkeyworks 的 一个修复,还有就是说我可能就是那些页面上,页面的 html 里面如果出现重粉的内容,他也给我做修改了,还有内链的一个 一个布局,他也帮我清理掉啊,清理掉了当就是这个工作,其实你要去做的话,能够去干这个事其实就非常的麻烦了,比较麻烦的一件事情,因为你的内容量比较多一点, 你我这个是处理的大概有十来篇文章了,但你如果说我正常,如果说像像我那个移动的那个网站的话啊,你就是比如说啊,你通过他吧,通过他,对吧?我如果用用他去去去去看的话,我目前的话,我后台里面你可以看到的一个情况是我,我一共发布了五百五十六篇内容,是不是 这五百五十六篇内容,比如说我,我要批量的让他去帮我去做审核,去做比对,一方面你人工是不是没法去做这个事情?是不是?你如何去相互的去比对,这个内容是如何去重复的,对不对?目前的话市面上其实也好像也没有,就说,哎,来给你去检查那个关键词产生的一个问题的一个工具,目前是没有啊,没有。 那目前能够想到的一个方式是什么呢?就比如说站长工具,它可能有一部分的功能是可以让你看到铲屎的一个问题的啊,还有就是我们说到的那另外一个就是 ko 啊,就是这个原理是一样的,就是这边会跑出来挺多关键词,是不是,对吧?这里是会有出现关键词,然后这关键词你可以点开,点开下面的话,你如果出现多条链接, 多条链接,那你可以去看看一下,是不是这些链接其实都是谈到了你,你这个产品页,对吧?那你这个产品页可能就是你可以做合并,或者说你做一些内容的一个补充, 应该是谈到了这个东西他同时出词的,那这样的话谷歌是不是会困惑你这么一个情况存在,对吧?所以的话这个是一个表现的,但是这个必须你跑出来,你写完书跑出来之后啊,你作为一个,作为一个后助理的一个问题啊,而且你去修复他其实也相对困难。然后你这个的话就是我给他一个流程啊, 给他一个流程,就是像他这样的啊,我给他一个标准一个流程,然后一个后台,然后他就是会跑跑这个流程帮我去修复他,然后甚至就是我还可以给他打包成一个我的 id 一 样的东西,就是等于是我的一个私人助理一样的一个情况,能理解这个意思吗?就是他目前我,我最近给他做了很多轮的一个替换,替换完之后呢?他的情况就是说目前我做一个 修改动作,或或者说提个要求,需求他会去可能或者怎样啊?就是说能满足我的一个一个情况,所以这个的话是无疑是让我解决了我之前想解决的一个问题,就是铲屎的一个问题啊,而且以以前的话真的挺难去把控这个事情啊,这个痛点确实是是在这里的,就手动你去修复它真的很 麻烦,是挺麻烦的,你我没有,首先我那么多内容量,我没有办法去靠人工肉眼去识别它,对吧?你,你没有特别好的方式去看,我唯一能看的就是站长或者怎样去,然后看到的哪些内容, 那把那些链接给调出来,然后再去啊,再去比对,那这个的话其实你要改也很挺困难。那通过这个你可以后面做成的一个形式,就是一方面他能够批量帮我,帮我处理这个事情,然后第二个的话,你甚至都可以做谷歌这样的一个更新,然后做接一个 api。 那 接完 api 之后他会给我做一个反馈,然后出现这个问题之后,你会他给我发短信, 发那个发那个叫邮件,对吧?发个邮件做做预警,哪些链接冲突了或怎么样,他给我一个预警,然后他甚至可以就是说帮我运行这个任务,那这个其实就相对比较合理的一个循环了。 然后所以这样的话就是你优化完之后呢,就是这内容是相对独特,然后尽可能的会让我的流量健康就不会出现。就这个不能说,不能说就是后面不会出现问题,但是这个概率可能会往下降,会降不少啊。我感觉是这样,因为我目前的话就是 可能财神的问题出现了,出现之后呢,我的小种把这个问题放大,所以有些网站出现降权了啊,这个是我觉得是其中的一个满足的,所以的话分享一下,希望有帮助啊。好,今天到这边,到这边。