收录正常的老网站突然停止收录之原因及解决办法
原本正常的网站,突然之间,变得不收录了,对seoer来说就意味着受难时刻的来临,悲剧的,笔者的小站在前段时间,就碰到这个情况,幸运的是,在经过检查和处理之后,网站重新恢复了正常。在这里就根据笔者的实际例子,说一说网站突然不收录的原因和解决方法。大致情况:笔者的小站大概在12.15日左右,原本每日更新每日正常收录的资讯页面开始不收录,随后网站的其他页面收录开始减少,到9.23日的时候,网站开始停止收录,快照开始停滞,网站关键词南京seo的排名下降。
由于网站不收录的原因很多,所以检查网站花费了不少的时间,当然检查,并不是盲目的,需要在心中有个明确的方向,网站不收录的大局原因无非就是3点:1、蜘蛛不来;2、蜘蛛来了,找不到页面,就离开了。3、蜘蛛来了,也进入到了网站的一些页面里面,但是还是没有带来任何东西。从这3个原因,我做了如下的检查:
1、检查iis日志。通过iis日志的检查,可以很清楚的了解蜘蛛的行踪,它有没有来我们的网站以及什么时候来的,还有来的频繁程度如何。如果蜘蛛没有来,那网站自然是不会收录。
2、检查通道。如果说蜘蛛是正常的来到你的网站,那么你首先要看的就是你的robots.txt文件,看看是不是因为自己在修改robots的时候不小心,把原本需要正常收录的页面给禁止了,亦或者是不是因为自己禁止的页面把需要收录的页面的唯一入口或者主要入口也禁止了。关于robots文件还要注意的是不要频繁的修改,因为每一次你的修改都会让蜘蛛重新的考虑,哪些页面是要的,哪些页面是不去抓取的,修改的频繁蜘蛛也是很讨厌的;此外你还要检查的是,你的网站页面的各个入口是不是正常。
3、检查页面,要是蜘蛛来了,而且你的robots也和以前一样没有大的变动,结构和页面的入口也都没有什么大的变化,那问题就一定是出在页面上。文章页,你需要考虑自己的文章的质量,是不是采集的过多了?是不是文章的原创性不够等等,还有要检查自己的文章是不是被他人采集过多了(这点很多人都没有检查的习惯),文章被他人采集过多,如果你的权重不及采集你文章的网站,或许你会让百度看来你的站是采集站,特别是当你的文章被不同的站频繁采集的时候;至于其他的页面,你要看看是不是自己在新增页面的时候,内容过于相似,标题是不是有重复等等,这些蜘蛛都不喜欢。
检查你网站的这3个原因,相信你会找到你网站突然不收录是因为什么的答案。事实上笔者小站经过检查后,问题也是出现这几个原因当中,笔者的资讯页面被多个人采集,而且比较频繁;而且在前段时间,由于网站改版,有几个页面笔者认为不需要,就禁止了,没有考虑到其他页面入口的问题,导致了之后的没有收录。
以下是解决办法:
1、如果检查iis日志的时候,发现蜘蛛没有来,那么你的网站很可能在被降权中,你要去检查友链;查看你服务器的状态,是不是返回404、503状态过多,是不是有很多页面无法访问;还有,不要去刷流量,这也是导致降权的很主要的原因。
2、如果问题是处在robots.txt当中,这到好办,只需要重新的正确的修改它,要记得考虑页面之间的联系,不要禁止了A页面严重的影响到了B页面。
3、如果问题在于页面,那么你要做的是增加文章的原创性。过多的采集被百度认为是垃圾站,过多的被别人采集也会被百度认为是垃圾站。要做好检查的工作,特别要注意的是,小心被人用机器采集,现在由于有很多类似火车头的采集工具可以帮助很多站长减少不少工作量,但是如果你的站被这类机器采集,会是很郁闷的事情,可以在页面上做一些限制,比如:把 p、div、span 这些代码进行互换等。
通过以上的方法,笔者的网站已经是恢复正常了,在写这个文章的时间段,笔者刚刚更新的文章已经是全部收录了。
说的好 来学一下咯 支持楼主,这贴必须得顶
页:
[1]