开发者社区> 问答> 正文

如何限制百度等蜘蛛的抓取频率?

已解决

发现有时候,百度抓取非常频繁,会导致服务器压力过大。如何限制他们的抓取频率?

展开
收起
exinnet 2016-01-25 17:17:28 6286 0
1 条回答
写回答
取消 提交回答
  • 淘宝技术专家
    采纳回答

    nginx的ngx_http_limit_req_module模块限制了百度蜘蛛的抓取频率。每分钟允许百度蜘蛛抓取200次,多余的抓取请求返回503。
    nginx的配置:

    全局配置

    limit_req_zone $anti_spider zone=anti_spider:60m rate=200r/m;

    某个server中

    limit_req zone=anti_spider burst=5 nodelay;
    if ($http_user_agent ~* "baiduspider") {
    set $anti_spider $http_user_agent;
    }

    参数说明:
    指令limit_req_zone 中的rate=200r/m 表示每分钟只能处理200个请求。
    指令limit_req 中的burst=5 表示最大并发为5。即同一时间只能同时处理5个请求。
    指令limit_req 中的 nodelay 表示当已经达到burst值时,再来新请求时,直接返回503
    IF部分用于判断是否是百度蜘蛛的user agent。如果是,就对变量$anti_spider赋值。这样就做到了只对百度蜘蛛进行限制了。

    2019-07-17 18:26:30
    赞同 展开评论 打赏
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
AIOps-百度的思考与实践 立即下载
百度外卖从IDC到云端服务迁移历程 立即下载
百度研发工具集的应用实践——打造持续交付路上的“三堵墙” 立即下载