开发者社区 问答 正文

爬虫去重有哪些解决方案以及python scrapy爬取超时怎么处理?

爬虫去重有哪些解决方案以及python scrapy爬取超时怎么处理?

展开
收起
OSC开源社区 2024-05-28 23:25:05 51 发布于河南 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 如果是使用非框架的爬虫,可以通过判断其URL或者数据的唯一性进行去重,若是scrapy,默认是开启去重设置的。

    对于超时,scrapy可以设置超时的时限,若发生超时,默认情况下会重新发送请求。若是非框架的爬虫,可以通过判断响应内容或HTTP状态码。

    2024-05-30 08:33:12 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等