什么原因导致搜索引擎蜘蛛不爬你的网站


  刚刚看到一个非常有意思的提问,提问如下:为什么我们的网站,从来没有百度蜘蛛来过 。从以上的问题可以看出,这位站长遇到这样的问题一定非常的头疼。自己精心做的站点,没想到蜘蛛压根就没来爬过。那么是什么原因导致蜘蛛不来爬呢。我来分析下。
 
  遇到这样的问题,情况只有俩种:一、你被蜘蛛屏蔽了。二、你屏蔽蜘蛛的爬行了。
 
  A、你被蜘蛛屏蔽了
 
  1. 查看下自己同服务器的站点,是否有非常严重违规的作弊行为,若有的话,搜索引擎很有可能屏蔽整条IP的站点,为了自己的网站发展健康还是选择独立IP的服务器吧。
 
  如果发现自己网站的爬行日志压根没出现蜘蛛来访,那么我们就应该考虑自己的站点是否出现以上的情况,应该及时的清理。然后向相关的搜索引擎提交,或者利用高质量的外链引导蜘蛛爬行。
 
  2.查看自己的域名以前的主人,看看域名以前是否做了违法的站点。如果是的话那么蜘蛛不爬是完全有道理的。
 
  B、你屏蔽蜘蛛了
 
  1.服务器商是否屏蔽了蜘蛛的爬行。别认为这事不可能,当初主机屋,就误把百度蜘蛛当成黑客攻击给屏蔽了,不懂导致多少人被K站。如果是主机商屏蔽了蜘蛛的爬行尽早换主机吧,时间等不起。
 
  我们屏蔽了蜘蛛,蜘蛛当然不可能来抓取我们的网站啦。
 
  2.首先我们要检测自己的网站robots.txt文件,看看文件的书写是否正确,是否有大小写混乱的情况出现,是否建站初期的时候有屏蔽所有蜘蛛的爬行的指令忘记修改了。正常情况下robots.txt检测的事情就直接交给站长工具检查就可以了。

 

返回列表