Python—scrapy框架配置及实用案例

简介: Python—scrapy框架配置及实用案例

1、搭建scrapyPachong框架

下载 Twisted

pip install Twisted -i https://pypi.douban.com/simple

下载 pywin32

pip install pywin32 -i https://pypi.douban.com/simple

下载 scrapy

pip install scrapy -i https://pypi.douban.com/simple

2、创建pachong项目

scrapy startproject 项目名称

cd 项目名称\项目名称\spiders

scrapy genspider pachong名 pa取的网址

scrapy crawl pachon名

示例:

84.png
3、项目结构和基本方法

scrapy项目结构

85.png
response的属性和方法


response.text 获取响应的字符串数据

response.body 获取响应的二进制数据

response.xpath 直接使用xpath方法解析response中的内容

response.extract() 提取selector对象的属性值

response.extract_first() 提取selector列表的第一个数据

4、应用实例

4.1、paqu当当网书籍信息

说明:
(1)、yield
(2)、管道封装
(3)、多条管道下载
(4)、多页数据下载

定义数据结构 items.py

import scrapy
class ScrapyDangdangItem(scrapy.Item):
    # 要下载的数据
    src = scrapy.Field()
    name = scrapy.Field()
    price = scrapy.Field()

定义pachong文件 dangdang.py

import scrapy
from scrapy_dangdang.items import ScrapyDangdangItem
class DangdangSpider(scrapy.Spider):
    name = 'dangdang'
    # 如果是多页下载 那么需要调整的是allowed_domains的范围 一般情况下只写域名
    allowed_domains = ['category.dangdang.com']
    start_urls = ['http://category.dangdang.com/cp01.01.02.00.00.00.html']
    base_url = 'http://category.dangdang.com/pg'
    page = 1
    def parse(self, response):
    li_list= response.xpath('//div/ul[@class="bigimg"]//li')
    for li in li_list:
      src = li.xpath('.//img/@data-original').extract_first()
      if src:
        src = src
      else:
        src = li.xpath('.//img/@src').extract_first()
      name = li.xpath('.//img/@alt').extract_first()
      price = li.xpath('.//p[3]//span[1]/text()').extract_first()
      book = ScrapyDangdangItem(src=src,name=name,price=price)
      # 获取一个book 就将book交给 pipelines
      yield book        
    if self.page < 100:
      self.page += 1
      url = self.base_url + str(self.page) +'-cp01.01.02.00.00.00.html'
      # url -> 请求地址      callback -> 要执行的函数
      yield scrapy.Request(url=url,callback=self.parse)

开启管道 settings.py

# 65 行左右
ITEM_PIPELINES = {
   'scrapy_dangdang.pipelines.ScrapyDangdangPipeline': 300,
   'scrapy_dangdang.pipelines.ScrapyDangdangImgPipeline': 301,
}

管道 pipelines.py

import urllib.request
class ScrapyDangdangPipeline:
  # 在爬虫文件执行前执行
  def open_spider(self,spider):
    self.fp = open('book.json','w',encoding='utf-8')
  #   item就是yield后面的book对象
  def process_item(self,item,spider):
    self.fp.write(str(item))
    return item
  # 在爬虫文件执行后执行
  def clode_spider(self,spider):
    self.fp.close()
class ScrapyDangdangImgPipeline:
  def process_item(self,item,spider):
    url = 'http:' + item.get('src')
    filename = './books/' + item.get('name') + '.jpg'
    urllib.request.urlretrieve(url=url,filename=filename)
    return item

4.2、paqu电影天堂电影信息

说明:

(1)、多级页面的数据下载

不遵守 robots 协议 settings.py

# 20 行左右
ROBOTSTXT_OBEY = False

定义数据结构 items.py

import scrapy
class ScrapyMovieItem(scrapy.Item):
    name = scrapy.Field()
    src = scrapy.Field()

定义pachong文件 movie.py

import scrapy
from scrapy_movie.items import ScrapyMovieItem
class MovieSpider(scrapy.Spider):
    name = 'movie'
    allowed_domains = ['www.ygdy8.net']
    start_urls = ['https://www.ygdy8.net/html/gndy/china/index.html']
    def parse(self, response):
    a_list = response.xpath('//b//a[2]')
    for a in a_list:
      name = a.xpath('./text()').extract_first()
      href = a.xpath('./@href').extract_first()
      # 第二页的地址
      url = 'https://www.ygdy8.net' + href
      # 对第二页的链接进行访问
      yield scrapy.Request(url=url,callback=self.parse_second,meta={'name':name})
  def parse_second(self,response):
    src = response.xpath('//img/@src').extract_first()
    # 接收请求的 meta 的参数值
    name = response.meta['name']
    movie = ScrapyMovieItem(src=src,name=name)
    yield movie

开启管道 settings.py

# 65 行左右
ITEM_PIPELINES = {
   'scrapy_movie.pipelines.ScrapyMoviePipeline': 300,
}

管道 pipelines.py

class ScrapyMoviePipeline:
    def open_spider(self,spider):
        self.fp = open("movie.json","w",encoding="utf-8")
    def process_item(self, item, spider):
        self.fp.write(str(item))
        return item
    def close_spider(self,spider):
        self.fp.close()
相关文章
|
6月前
|
Java 数据处理 索引
(Pandas)Python做数据处理必选框架之一!(二):附带案例分析;刨析DataFrame结构和其属性;学会访问具体元素;判断元素是否存在;元素求和、求标准值、方差、去重、删除、排序...
DataFrame结构 每一列都属于Series类型,不同列之间数据类型可以不一样,但同一列的值类型必须一致。 DataFrame拥有一个总的 idx记录列,该列记录了每一行的索引 在DataFrame中,若列之间的元素个数不匹配,且使用Series填充时,在DataFrame里空值会显示为NaN;当列之间元素个数不匹配,并且不使用Series填充,会报错。在指定了index 属性显示情况下,会按照index的位置进行排序,默认是 [0,1,2,3,...] 从0索引开始正序排序行。
458 0
|
6月前
|
存储 Java 数据处理
(numpy)Python做数据处理必备框架!(一):认识numpy;从概念层面开始学习ndarray数组:形状、数组转置、数值范围、矩阵...
Numpy是什么? numpy是Python中科学计算的基础包。 它是一个Python库,提供多维数组对象、各种派生对象(例如掩码数组和矩阵)以及用于对数组进行快速操作的各种方法,包括数学、逻辑、形状操作、排序、选择、I/0 、离散傅里叶变换、基本线性代数、基本统计运算、随机模拟等等。 Numpy能做什么? numpy的部分功能如下: ndarray,一个具有矢量算术运算和复杂广播能力的快速且节省空间的多维数组 用于对整组数据进行快速运算的标准数学函数(无需编写循环)。 用于读写磁盘数据的工具以及用于操作内存映射文件的工具。 线性代数、随机数生成以及傅里叶变换功能。 用于集成由C、C++
535 1
|
6月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
639 0
|
6月前
|
Java 数据处理 索引
(numpy)Python做数据处理必备框架!(二):ndarray切片的使用与运算;常见的ndarray函数:平方根、正余弦、自然对数、指数、幂等运算;统计函数:方差、均值、极差;比较函数...
ndarray切片 索引从0开始 索引/切片类型 描述/用法 基本索引 通过整数索引直接访问元素。 行/列切片 使用冒号:切片语法选择行或列的子集 连续切片 从起始索引到结束索引按步长切片 使用slice函数 通过slice(start,stop,strp)定义切片规则 布尔索引 通过布尔条件筛选满足条件的元素。支持逻辑运算符 &、|。
333 0
|
6月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
7月前
|
机器学习/深度学习 算法 PyTorch
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
【Pytorch框架搭建神经网络】基于DQN算法、优先级采样的DQN算法、DQN + 人工势场的避障控制研究(Python代码实现)
194 1
|
7月前
|
机器学习/深度学习 算法 PyTorch
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
【DQN实现避障控制】使用Pytorch框架搭建神经网络,基于DQN算法、优先级采样的DQN算法、DQN + 人工势场实现避障控制研究(Matlab、Python实现)
301 0
|
7月前
|
设计模式 缓存 运维
Python装饰器实战场景解析:从原理到应用的10个经典案例
Python装饰器是函数式编程的精华,通过10个实战场景,从日志记录、权限验证到插件系统,全面解析其应用。掌握装饰器,让代码更优雅、灵活,提升开发效率。
521 0
|
8月前
|
API 数据安全/隐私保护 Python
拼多多批量上架软件, 电商一键上货发布工具,python电商框架分享
多线程批量上传架构,支持并发处理商品数据 完整的拼多多API签名和token管理机制
|
9月前
|
前端开发 数据安全/隐私保护 Python
虚拟物流单号生成器, 虚拟快递单号假物流信息, 虚拟快递单号在线生成【python框架】
这个虚拟物流单号生成系统包含以下功能:支持多种主流快递公司的单号生成

推荐镜像

更多