scrapy中使用senlenium

简介: scrapy中使用senlenium

在爬虫文件中

 def __init__(self):
        self.bro = Chrome() # 默认路径为python.exe所在文件夹
AI 代码解读

中间件文件,在类中

    def process_response(self, request, response, spider): #spider便是爬虫文件中的类
        bro = spider.bro # 获取爬虫文件中定义的浏览器对象
        new_url = spider.start_urls[0]  # 需要的url
        bro.get(new_url)
        time.sleep(3)
        page_text = bro.page_source # 包含动态加载的数据
        new_response = HtmlResponse(url=new_url,body=page_text,encoding='utf-8',request=request)
        return new_response
AI 代码解读

在setting中开启中间件

DOWNLOADER_MIDDLEWARES = {
   'servant_pic.middlewares.ServantPicDownloaderMiddleware': 543,
}
AI 代码解读
目录
打赏
0
0
0
0
2
分享
相关文章
scrapy实战2586个小姐姐带回家
scrapy实战2586个小姐姐带回家
77 3
scrapy实战2586个小姐姐带回家
Scrapy
【8月更文挑战第15天】
70 2
Scrapy 的初步认识
Scrapy 是一个高级的 Python 爬虫框架,它不仅包含了爬虫的特性,还可以方便的将爬虫获取的数据保存到 csv、json 等文件中。 Scrapy 使用了 Twisted 作为框架,Twisted 是事件驱动的,对于会阻塞线程的操作(访问文件、数据库等),比较适合异步的代码。
scrapy相关专题总结
本月的scrapy已经写完,关于scrapy写了常用的中间件、数据管道、以及scrapy的相关源码,但是感觉可写的内容不是很多,要门是使用相关的要么是一些不用关注的源码。 所以写完scrapy之后还写了些一些其他内容,算是在充数吧,同时预下一个专题是python的数据结构和算法,将对九大算法及其常用数据结构分享,同时将算法应用于数据结构上。
1724 0

热门文章

最新文章