加密网页采集
『壹』 用MD5加密分页文件名防采集,会影响搜索引擎蜘蛛对其收录吗
目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:
一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问
弊端:
1、此方法只适用于动态页面,如:asp\jsp\php等…静态页面无法判断某个IP一定时间访问本站页面的次数
2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件
采集对策:只能放慢采集速度,或者不采
建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。
评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。
二、用javascript加密内容页面
弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容
采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。
三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“
弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集
采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。
建议:目前没有好的改良建议
评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。
四、只允许用户登陆后才可以浏览
弊端:此方法会严重影响搜索引擎蜘蛛对其收录
采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
五、用javascript、vbscript脚本做分页
弊端:影响搜索引擎对其收录
采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。
建议:目前没有好的改良建议
评论:感觉懂点脚本语言的人都能找出其分页规则
六、只允许通过本站页面连接查看,如:Request.ServerVariables(”HTTP_REFERER”)
弊端:影响搜索引擎对其收录
采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧,精彩的地方马上呈献给大家。
下面就是我的防采集策略,防采集而又不防搜索引擎
从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。
一、分页文件名规则防采集对策
大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。
实现方法:
我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。
我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分
如果I代表分页的页码,那么我们不要这样加密
page_name=Md5(I,16)&”.htm”
最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&“任意一个或几个字母”,16)&”.htm”
因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力****MD5,不过不太现实。
二、页面代码规则防采集对策
如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。
所以我们要的这一步做到防采集,就要使代码无规则。
实现方法:
使对方需要提取的标记随机化
1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。
2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。
做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。
还有些简单的思路提供给大家:
1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示
2、把一页数据,分为N个页面显示,也是加大采集难度的方法
3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。
如:
大多网站都是 首页—-内容索引分页—-内容页
如果改成:
首页—-内容索引分页—-内容页入口—-内容页
注:内容页入口最好能加上自动转入内容页的代码
『贰』 有什么好方法防止自己网页的内容被采集
作为一个刚上线的小站,我们都知道需要大量的原创内容,不少站长都在坚持撰写原创内容,虽然原创内容写起来比较耗费时间和精力,但对于新站的意义是 很大 的,网络喜欢原创内容,新站更不能去抄袭和伪原创,否则很容易被网络认为是采集站。那么离网站被K也 就不远了,不过几乎所有的小站都面临一个头疼的问题:自己辛苦撰写的原创内容被采集或者盗用,一旦小站上的内容被采集或盗用了,由于刚上线的小站根本没有 什么权重,所有收录本来就比较慢,可以说随便一个网站采集你的内容,那么首先收录内容的都不会是自己的站点。这样自己的辛苦也就算是白费了,可是现在还没 有很好的办法去彻底杜绝这种现象,当然有些方法还是可以使用的,至少在一定程度上有作用。下面笔者整理了几种,当然你要有更好的方法不妨分享一下: 第一:从网站程序入手,禁止大规模的采集 在 互联网上抄袭和被抄袭都是司空见惯的事情,笔者自己也采集过其他网站上的内容,但是有些站点是防止采集的,原理说起来也比较简单,就是如果碰到使用火 车头等采集器,那么程序就能判断出这不是人工在点击页面,因为软件运行的速度非常快。然后程序就能对采集者的网络IP进行屏蔽,这样你就无法采集到内容 了,这种方法是防止大规模的采集内容。还有一种情况是人工的采集,也就是去别的站上直接复制和粘贴,这样情况是最难杜绝的,当然也可以使用JS代码去屏蔽 一下,具体来说就是禁止用户按复制、粘贴,或者干脆禁止查看源代码,这些JS代码网上也有很多,不过说实话还是不能彻底去杜绝抄袭的现象。有的采集软件非 常厉害,甚至你的站点上页面还没放出来,都能被采集到。 第二:在文章内容中隐藏锚文本链接或版权 通 常情况下,我们写完一篇原创文章都喜欢在末尾加上版权信息,可是这样的版权信息没有实际意义,别人既然选择了抄袭或采集,自然不会去管那些东西。而且文章 末尾加链接或锚文本也不是一个好习惯,最好是在文章内容中自然出现关键词或锚文本链接,如果别人采集你网站上的内容能够带上链接,那样的话损失也不算大, 也就是免费给你做外部链接了,关键是如何隐藏好链接,避免被别人给删掉,在文章结尾的地方加链接肯定一眼就能看到,所以我建议尽量在文章内容中加链接,另 外还可以把锚文本的颜色设置跟普通文字的颜色一样,这样不容易被别人发现,其实有很多的站长比较懒惰,有时候不会去检查的那么仔细。总之,这也是一种治标 不治本的方法。 第三:更新网站内容后将URL提交给网络 之所以防止别人抄袭或采集,根本原因还是担心网络不再收录自己 站点的内容,因此我们在更新网站后可以把文章URL直接提交给网络,ping一下没有坏 处,虽然网络不会马上收录这些URL,但是通过ping或外链吸引确实可以让网络蜘蛛快点过来。2012年 网络推出原创星火计划,这是一套完善的原创内容识别系统,当然也会涉及到小站上的优质内容,目的就是鼓励原创内容,打击采集或抄袭的现象,让原创内容最快 的收录。不过目前看来原创星火计划还处于初期试验阶段,至少在小站上没有什么好的体现,本文介绍了三种途径或方法去杜绝内容被盗用,可惜的是没办法从根本 上去解决这个问题,最后笔者只能说根据自己情况去选择吧。只希望网络能够在技术上有所提升,尽可能的让原创内容收录更快。 身为一个站长 或SEO人, 抄袭和伪原创几乎谁都接触过,也许你很痛恨别人抄袭你的文章,尤其是抄袭后把链接都给删掉,可想想自己是否也这么做过呢?抄袭别人的内容确实不好,但事实 上互联网上有太多抄袭的内容。我们只能用一个淡定的心态去看待这个问题,除非网络的原创星火计划真的很给力,从根本上解决这个历史遗留下的问题,否则抄袭 和反抄袭将会一直存在,笔者就写到此,原创内容还得继续去写! 文章来源:化妆学校makeup/ 原创撰写 转载保留地址