开发者社区> 问答> 正文

scrapy的基本流程?

scrapy的基本流程?

展开
收起
珍宝珠 2019-11-11 11:14:15 2882 0
1 条回答
写回答
取消 提交回答
  • scrapy分为9个步骤:
    Spiders需要初始的start_url或则函数stsrt_requests,会在内部生成Requests给Engine;
    Engine将requests发送给Scheduler;
    Engine从Scheduler那获取requests,交给Download下载;
    在交给Dowmload过程中会经过Downloader Middlewares(经过process_request函数);
    Dowmloader下载页面后生成一个response,这个response会传给Engine,这个过程中又经过了Downloader Middlerwares(经过process_request函数),在传送中出错的话经过process_exception函数;
    Engine将从Downloader那传送过来的response发送给Spiders处理,这个过程经过Spiders Middlerwares(经过process_spider_input函数);
    Spiders处理这个response,返回Requests或者Item两个类型,传给Engine,这个过程又经过Spiders Middlewares(经过porcess_spider_output函数);
    Engine接收返回的信息,如果使Item,将它传给Items Pipeline中;如果是Requests,将它传给Scheduler,继续爬虫;
    重复第三步,直至没有任何需要爬取的数据

    2019-11-11 12:50:13
    赞同 展开评论 打赏
问答分类:
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Python第五讲——关于爬虫如何做js逆向的思路 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载