python爬虫:scrapy框架xpath和css选择器语法

简介: python爬虫:scrapy框架xpath和css选择器语法

Xpath基本语法

一、常用的路径表达式:'

表达式

描述

实例

nodename

选取nodename节点的所有子节点

//div

/

从根节点选取

/div

//

选取所有的节点,不考虑他们的位置

//div

.

选取当前节点

./div

..

选取当前节点的父节点

..

@

选取属性

//@calss


举例元素标签为artical标签

语法

说明

artical

选取所有artical元素的子节点

/artical

选取根元素artical

./artical

选取当前元素下的artical

../artical

选取父元素下的artical

artical/a

选取所有属于artical的子元素a元素

//div

选取所有div 子元素,无论div在任何地方

artical//div

选取所有属于artical的div 元素,无论div元素在artical的任何位置

//@class

选取所有名为class 的属性的

a/@href

选取a标签的href属性

a/text()

选取a标签下的文本

string(.)

解析出当前节点下所有文字

string(..)

解析出父节点下所有文字

二、谓语

谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点

语法

说明

/artical/div[1]

选取所有属于artical 子元素的第一个div元素

/artical/div[last()]

选取所有属于artical子元素的最后一个div元素

/artical/div[last()-1]

选取所有属于artical子元素的倒数第2个div元素

/artical/div[position()<3]

选取所有属于artical子元素的前2个div元素

//div[@class]

选取所有拥有属性为class的div节点

//div[@class=”main”]

选取所有div下class属性为main的div节点

//div[price>3.5]

选取所有div下元素值price大于3.5的节点

三、通配符

Xpath通过通配符来选取未知的XML元素

表达式

结果

//*

选取所有元素

//div/*

选取所有属于div元素的所有子节点

//div[@*]

选取所有带属性的元素

四、取多个路径

使用“|”运算符可以选取多个路径

表达式

结果

//div | //table

选取文档中所有的div和table节点

//div/a | //div/p

选取所有div元素的a和p 元素

artical/div/pl | //span

选取所有div下的pl和文档中所有span


五、Xpath轴

轴可以定义相对于当前节点的节点集

轴名称

表达式

描述

ancestor

./ancestor::*

选取当前节点的所有先辈节点(父、祖父)

ancestor-or-self

./ancestor-or-self::*

选取当前节点的所有先辈节点以及节点本身

descendant

./descendant::*

返回当前节点的所有后代节点(子节点、孙节点)

child

./child::*

返回当前节点的所有子节点

parent

./parent::*

选取当前节点的父节点

following

./following::*

选取文档中当前节点结束标签后的所有节点

following-sibling

./following-sibling::*

选取当前节点之后的兄弟节点

preceding

./preceding::*

选取文档中当前节点开始标签前的所有节点

preceding-sibling

./preceding-sibling::*

选取当前节点之前的兄弟节点

self

./self::*

选取当前节点

attribute

./attribute::*

选取当前节点的所有属性

六、功能函数

使用功能函数能够更好的进行模糊搜索

函数

用法

解释

starts-with

//div[starts-with(@id,”ma”)]

选取id值以ma开头的div节点

contains

//div[contains(@id,”ma”)]

选取所有id值包含ma的div节点

and

//div[contains(@id,”ma”) and contains(@id,”in”)]

选取id值包含ma和in的div节点

text()

//div[contains(text(),”ma”)]

选取节点文本包含ma的div节点


注意事项:

1) 按照审查元素的写法不一定正确,要按照网页源码的才行
因为不一样,网页源码才是你看到的
2) 浏览器有自带的复制xpath功能,firefox下载firebug插件
3) xpath有c的速度,所以按照[@class=""]准确性较高

CCS选择器语法

语法

说明

*

选择所有节点

#container

选择id为container的节点

.container

选择所有class包含container的节点

div,p

选择所有 div 元素和所有 p 元素

li a

选取所有li 下所有a节点

ul + p

选取ul后面的第一个p元素

div#container > ul

选取id为container的div的第一个ul子元素

ul ~p

选取与ul相邻的所有p元素

a[title]

选取所有有title属性的a元素

a[href=”http://baidu.com”]

选取所有href属性为http://baidu.com的a元素

a[href*=”baidu”]

选取所有href属性值中包含baidu的a元素

a[href^=”http”]

选取所有href属性值中以http开头的a元素

a[href$=”.jpg”]

选取所有href属性值中以.jpg结尾的a元素

input[type=radio]:checked

选择选中的radio的元素

div:not(#container)

选取所有id为非container 的div属性

li:nth-child(3)

选取第三个li元素

li:nth-child(2n)

选取第偶数个li元素

a::attr(href)

选取a标签的href属性

a::text

选取a标签下的文本

关于更多css语法,可以查看

http://www.w3school.com.cn/cssref/css_selectors.asp

提取内容

方法

返回

Selector.xpath()

返回SelectorList对象

Selector.css()

返回SelectorList对象

SelectorList.extract()

返回List对象

SelectorList.extract_first(default)

返回String对象,可以有默认值,类似dict.get(key, default)

参考链接:

  1. 三、用Css来提取网页
  2. Python爬虫:Xpath语法笔记
相关文章
|
4月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
4月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
4月前
|
数据采集 存储 JSON
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
|
4月前
|
数据采集 存储 JavaScript
解析Python爬虫中的Cookies和Session管理
Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。
|
10月前
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
607 6
|
10月前
|
数据采集 存储 监控
Python 原生爬虫教程:网络爬虫的基本概念和认知
网络爬虫是一种自动抓取互联网信息的程序,广泛应用于搜索引擎、数据采集、新闻聚合和价格监控等领域。其工作流程包括 URL 调度、HTTP 请求、页面下载、解析、数据存储及新 URL 发现。Python 因其丰富的库(如 requests、BeautifulSoup、Scrapy)和简洁语法成为爬虫开发的首选语言。然而,在使用爬虫时需注意法律与道德问题,例如遵守 robots.txt 规则、控制请求频率以及合法使用数据,以确保爬虫技术健康有序发展。
1391 31
|
9月前
|
数据采集 存储 NoSQL
分布式爬虫去重:Python + Redis实现高效URL去重
分布式爬虫去重:Python + Redis实现高效URL去重
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
937 4
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
【7月更文挑战第31天】在网络数据的海洋中,使用Python的`requests`库构建网络爬虫就像探索未知的航船。HTTP协议指导爬虫与服务器交流,收集信息。HTTP请求包括请求行、头和体,响应则含状态行、头和体。`requests`简化了发送各种HTTP请求的过程。
287 4

推荐镜像

更多