您所在的位置:首页 > 新闻中心  > 网络推广知识
网站抓取异常的原因有哪些?
来源:www.fzwcgs.com 发布时间:2022年08月13日
    抓取异常的原原因主要分两大类,一是网站异常,二是链接异常。在哪里看呢,在搜索资源平台你添加后数据统计—抓取异常那里。
    一、网站异常原因:
    1、dns异常
    当蜘蛛(Baiduspider)无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把Baiduspider封禁了。可以用WHOIS或者host查询自己网站IP地址是否正确而且可以解析,如果不正确或无法解析,与域名注册商联系,更新网站IP地址。
    2、连接超时
    抓取请求连接超时,可能原因是:服务器过载或网络不稳定。
    3、抓取超时
    抓取请求连接建立后,下载页面速度过慢,导致超时。可能原因服务器过载,带宽不足。
    4、连接错误
    无法连接或者连接建立后对方服务器拒绝。
    二、链接异常原因:
    1、访问被拒绝
    爬虫发起抓取,httpcode返回码是403。
    2、找不到页面
    爬虫发起抓取,httpcode返回码是404。
    3、服务器错误
    爬虫发起抓取,httpcode返回码是5XX
    4、其他错误
    爬虫发起抓取,httpcode返回码是4XX,不包括403和404。
    三、网站抓取异常的原因有哪些
    网站抓取异常的原因主要有以下五个方面:
    1、服务器异常
    服务器连接异常最大的可能是网站服务器过大,超负荷运转,通过检查浏览器输入你的域名是否正常访问。服务器异常会导致蜘蛛无法连接网站服务器,导致出现抓取失败。
    2、域名过期
    域名过期网站肯定不能访问,域名解析就会失效了。如果存在这类情况,你可以与你域名注册商联系解决,看是否被抢注,还是可以续费回来。
    3、网络运营商异常
    电信和联通这两种都是属于网络运营商,蜘蛛无法访问的网站。
如果是因为电信或联通网络运营商出现问题,与网络服务运营商联系或者购买CDN服务。
    4、robots.txt文件设置问题
    robots.txt的功效主要是一些不重要的文件屏蔽掉告诉搜索引擎这些些页面可以不抓取,但也可能会存在把重要的页面也给屏蔽了,可以检查下robots文件设置。

相关文章