Python—scrapy框架配置及实用案例

简介: Python—scrapy框架配置及实用案例

1、搭建scrapyPachong框架

下载 Twisted

pip install Twisted -i https://pypi.douban.com/simple

下载 pywin32

pip install pywin32 -i https://pypi.douban.com/simple

下载 scrapy

pip install scrapy -i https://pypi.douban.com/simple

2、创建pachong项目

scrapy startproject 项目名称

cd 项目名称\项目名称\spiders

scrapy genspider pachong名 pa取的网址

scrapy crawl pachon名

示例:

84.png
3、项目结构和基本方法

scrapy项目结构

85.png
response的属性和方法


response.text 获取响应的字符串数据

response.body 获取响应的二进制数据

response.xpath 直接使用xpath方法解析response中的内容

response.extract() 提取selector对象的属性值

response.extract_first() 提取selector列表的第一个数据

4、应用实例

4.1、paqu当当网书籍信息

说明:
(1)、yield
(2)、管道封装
(3)、多条管道下载
(4)、多页数据下载

定义数据结构 items.py

import scrapy
class ScrapyDangdangItem(scrapy.Item):
    # 要下载的数据
    src = scrapy.Field()
    name = scrapy.Field()
    price = scrapy.Field()

定义pachong文件 dangdang.py

import scrapy
from scrapy_dangdang.items import ScrapyDangdangItem
class DangdangSpider(scrapy.Spider):
    name = 'dangdang'
    # 如果是多页下载 那么需要调整的是allowed_domains的范围 一般情况下只写域名
    allowed_domains = ['category.dangdang.com']
    start_urls = ['http://category.dangdang.com/cp01.01.02.00.00.00.html']
    base_url = 'http://category.dangdang.com/pg'
    page = 1
    def parse(self, response):
    li_list= response.xpath('//div/ul[@class="bigimg"]//li')
    for li in li_list:
      src = li.xpath('.//img/@data-original').extract_first()
      if src:
        src = src
      else:
        src = li.xpath('.//img/@src').extract_first()
      name = li.xpath('.//img/@alt').extract_first()
      price = li.xpath('.//p[3]//span[1]/text()').extract_first()
      book = ScrapyDangdangItem(src=src,name=name,price=price)
      # 获取一个book 就将book交给 pipelines
      yield book        
    if self.page < 100:
      self.page += 1
      url = self.base_url + str(self.page) +'-cp01.01.02.00.00.00.html'
      # url -> 请求地址      callback -> 要执行的函数
      yield scrapy.Request(url=url,callback=self.parse)

开启管道 settings.py

# 65 行左右
ITEM_PIPELINES = {
   'scrapy_dangdang.pipelines.ScrapyDangdangPipeline': 300,
   'scrapy_dangdang.pipelines.ScrapyDangdangImgPipeline': 301,
}

管道 pipelines.py

import urllib.request
class ScrapyDangdangPipeline:
  # 在爬虫文件执行前执行
  def open_spider(self,spider):
    self.fp = open('book.json','w',encoding='utf-8')
  #   item就是yield后面的book对象
  def process_item(self,item,spider):
    self.fp.write(str(item))
    return item
  # 在爬虫文件执行后执行
  def clode_spider(self,spider):
    self.fp.close()
class ScrapyDangdangImgPipeline:
  def process_item(self,item,spider):
    url = 'http:' + item.get('src')
    filename = './books/' + item.get('name') + '.jpg'
    urllib.request.urlretrieve(url=url,filename=filename)
    return item

4.2、paqu电影天堂电影信息

说明:

(1)、多级页面的数据下载

不遵守 robots 协议 settings.py

# 20 行左右
ROBOTSTXT_OBEY = False

定义数据结构 items.py

import scrapy
class ScrapyMovieItem(scrapy.Item):
    name = scrapy.Field()
    src = scrapy.Field()

定义pachong文件 movie.py

import scrapy
from scrapy_movie.items import ScrapyMovieItem
class MovieSpider(scrapy.Spider):
    name = 'movie'
    allowed_domains = ['www.ygdy8.net']
    start_urls = ['https://www.ygdy8.net/html/gndy/china/index.html']
    def parse(self, response):
    a_list = response.xpath('//b//a[2]')
    for a in a_list:
      name = a.xpath('./text()').extract_first()
      href = a.xpath('./@href').extract_first()
      # 第二页的地址
      url = 'https://www.ygdy8.net' + href
      # 对第二页的链接进行访问
      yield scrapy.Request(url=url,callback=self.parse_second,meta={'name':name})
  def parse_second(self,response):
    src = response.xpath('//img/@src').extract_first()
    # 接收请求的 meta 的参数值
    name = response.meta['name']
    movie = ScrapyMovieItem(src=src,name=name)
    yield movie

开启管道 settings.py

# 65 行左右
ITEM_PIPELINES = {
   'scrapy_movie.pipelines.ScrapyMoviePipeline': 300,
}

管道 pipelines.py

class ScrapyMoviePipeline:
    def open_spider(self,spider):
        self.fp = open("movie.json","w",encoding="utf-8")
    def process_item(self, item, spider):
        self.fp.write(str(item))
        return item
    def close_spider(self,spider):
        self.fp.close()
相关文章
|
2月前
|
安全 前端开发 数据库
Python 语言结合 Flask 框架来实现一个基础的代购商品管理、用户下单等功能的简易系统
这是一个使用 Python 和 Flask 框架实现的简易代购系统示例,涵盖商品管理、用户注册登录、订单创建及查看等功能。通过 SQLAlchemy 进行数据库操作,支持添加商品、展示详情、库存管理等。用户可注册登录并下单,系统会检查库存并记录订单。此代码仅为参考,实际应用需进一步完善,如增强安全性、集成支付接口、优化界面等。
|
4月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
225 6
|
8天前
|
机器学习/深度学习 设计模式 测试技术
Python 高级编程与实战:构建自动化测试框架
本文深入探讨了Python中的自动化测试框架,包括unittest、pytest和nose2,并通过实战项目帮助读者掌握这些技术。文中详细介绍了各框架的基本用法和示例代码,助力开发者快速验证代码正确性,减少手动测试工作量。学习资源推荐包括Python官方文档及Real Python等网站。
|
7天前
|
搜索推荐 算法 程序员
6个案例15分钟让你了解Python套路
Python以其简洁易读的语法,成为编程初学者的首选。本文通过7个经典代码案例,带你快速了解Python编程的核心概念和常用技巧: 1. **九九乘法口诀**:使用嵌套循环打印乘法表。 2. **列表求和**:展示两种方法(for循环和内置函数sum())计算列表元素之和。 3. **素数判断**:编写函数判断一个数是否为素数。 4. **斐波那契数列**:生成指定长度的斐波那契数列。 5. **冒泡排序**:实现简单的冒泡排序算法。 6. **汉诺塔问题**:通过递归解决经典的汉诺塔问题。 这些案例不仅展示了Python的基础语法,更体现了编程思维的重要性,帮助初学者逐步掌握编程套路。
29 2
|
2月前
|
安全 Linux 网络安全
利用Python脚本自动备份网络设备配置
通过本文的介绍,我们了解了如何利用Python脚本自动备份网络设备配置。该脚本使用 `paramiko`库通过SSH连接到设备,获取并保存配置文件。通过定时任务调度,可以实现定期自动备份,确保网络设备配置的安全和可用。希望这些内容能够帮助你在实际工作中实现网络设备的自动化备份。
77 14
|
2月前
|
人工智能 开发者 Python
Chainlit:一个开源的异步Python框架,快速构建生产级对话式 AI 应用
Chainlit 是一个开源的异步 Python 框架,帮助开发者在几分钟内构建可扩展的对话式 AI 或代理应用,支持多种工具和服务集成。
268 9
|
2月前
|
JSON 安全 中间件
Python Web 框架 FastAPI
FastAPI 是一个现代的 Python Web 框架,专为快速构建 API 和在线应用而设计。它凭借速度、简单性和开发人员友好的特性迅速走红。FastAPI 支持自动文档生成、类型提示、数据验证、异步操作和依赖注入等功能,极大提升了开发效率并减少了错误。安装简单,使用 pip 安装 FastAPI 和 uvicorn 即可开始开发。其优点包括高性能、自动数据验证和身份验证支持,但也存在学习曲线和社区资源相对较少的缺点。
138 15
|
2月前
|
关系型数据库 API 数据库
Python流行orm框架对比
Python中有多个流行的ORM框架,如SQLAlchemy、Django ORM、Peewee、Tortoise ORM、Pony ORM、SQLModel和GINO。每个框架各有特点,适用于不同的项目需求。SQLAlchemy功能强大且灵活,适合复杂项目;Django ORM与Django框架无缝集成,易用性强;Peewee轻量级且简单,适合小型项目;Tortoise ORM专为异步框架设计;Pony ORM查询语法直观;SQLModel结合Pydantic,适合FastAPI;GINO则适合异步环境开发。初学者推荐使用Django ORM或Peewee,因其易学易用。
130 4
|
2月前
|
人工智能 分布式计算 大数据
MaxFrame 产品评测:大数据与AI融合的Python分布式计算框架
MaxFrame是阿里云MaxCompute推出的自研Python分布式计算框架,支持大规模数据处理与AI应用。它提供类似Pandas的API,简化开发流程,并兼容多种机器学习库,加速模型训练前的数据准备。MaxFrame融合大数据和AI,提升效率、促进协作、增强创新能力。尽管初次配置稍显复杂,但其强大的功能集、性能优化及开放性使其成为现代企业与研究机构的理想选择。未来有望进一步简化使用门槛并加强社区建设。
113 7
|
2月前
|
人工智能 编译器 Python
python已经安装有其他用途如何用hbuilerx配置环境-附带实例demo-python开发入门之hbuilderx编译器如何配置python环境—hbuilderx配置python环境优雅草央千澈
python已经安装有其他用途如何用hbuilerx配置环境-附带实例demo-python开发入门之hbuilderx编译器如何配置python环境—hbuilderx配置python环境优雅草央千澈
60 0
python已经安装有其他用途如何用hbuilerx配置环境-附带实例demo-python开发入门之hbuilderx编译器如何配置python环境—hbuilderx配置python环境优雅草央千澈

热门文章

最新文章