探讨一下论文查重系统的设计方法

对于论文查重系统,见过了一些,主要设计思路都是依据模糊搜索+“关键词”,对于大段文字的对比,确实是一个看似简单而又复杂的问题。

按软件开发者思路,这类软件的起源应该不是抄袭之风严重,而是被举报者众多,因为学校或某些机构处理不过来,所以痛下狠手,从根本上减少这类现状。

当然,以上言论,尽可当戏言,言归正传,按开发者推论,查重软件的最初设计应该是先断句,再逐句对比,把雷同句保存下来,最后总结归纳。

这种模式的优点是对比速度快,适用于长篇幅类论文。当人们发现这种方法的基本道理后,大家都突然间不约而同地想通了,把“的”变成“地”的思路,一时间遍地10%啊。

这个时候,学校的威力突显出来了,那就是它有大批的人力资源可以用,顿时各种思路层现,有牛人开始使用谷歌高级搜索来解决模糊对比的问题,把问题抛出给搜索引擎,让能力强者做他擅长的事,于是原本10%的重复率,立刻提升到40%,各大论文库期刊库蜂拥而上,不是采购而是模仿,这样一来,早先已经购买过论文查重的学校只需要升级版本即可,而后来者则需要借助大厂商的服务,这样SAAS的概念也出来了,现在流行那种论文查重托管机制,就是说你购买可查字数,把论文交给我,然后你下网忙自己的事,我会给出一个看结果的时间,七天之内有效。这样一来,云的概念也出来了,下一步要打什么概念呢?

一个做得好的中介绝对是双边通吃的,一个好的查重商也得是这样,我可以给你提供查重服务,也可以给你提供查重收费自校正服务,这个服务说起来就有些含量了,这就是到了技中之术的范畴。当查重结果出来,而且是在经过高级搜索引擎检索到的情况下,如果想要避开这类结果,应当怎样操作?

答案纷纭,个人认为姑苏慕容氏有句话“以彼之道还制彼身”,用来做这种勾当更为贴切。


你可能感兴趣的:(编程技与术)