python爬虫:scrapy框架xpath和css选择器语法

简介: python爬虫:scrapy框架xpath和css选择器语法

Xpath基本语法

一、常用的路径表达式:'

表达式

描述

实例

nodename

选取nodename节点的所有子节点

//div

/

从根节点选取

/div

//

选取所有的节点,不考虑他们的位置

//div

.

选取当前节点

./div

..

选取当前节点的父节点

..

@

选取属性

//@calss


举例元素标签为artical标签

语法

说明

artical

选取所有artical元素的子节点

/artical

选取根元素artical

./artical

选取当前元素下的artical

../artical

选取父元素下的artical

artical/a

选取所有属于artical的子元素a元素

//div

选取所有div 子元素,无论div在任何地方

artical//div

选取所有属于artical的div 元素,无论div元素在artical的任何位置

//@class

选取所有名为class 的属性的

a/@href

选取a标签的href属性

a/text()

选取a标签下的文本

string(.)

解析出当前节点下所有文字

string(..)

解析出父节点下所有文字

二、谓语

谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点

语法

说明

/artical/div[1]

选取所有属于artical 子元素的第一个div元素

/artical/div[last()]

选取所有属于artical子元素的最后一个div元素

/artical/div[last()-1]

选取所有属于artical子元素的倒数第2个div元素

/artical/div[position()<3]

选取所有属于artical子元素的前2个div元素

//div[@class]

选取所有拥有属性为class的div节点

//div[@class=”main”]

选取所有div下class属性为main的div节点

//div[price>3.5]

选取所有div下元素值price大于3.5的节点

三、通配符

Xpath通过通配符来选取未知的XML元素

表达式

结果

//*

选取所有元素

//div/*

选取所有属于div元素的所有子节点

//div[@*]

选取所有带属性的元素

四、取多个路径

使用“|”运算符可以选取多个路径

表达式

结果

//div | //table

选取文档中所有的div和table节点

//div/a | //div/p

选取所有div元素的a和p 元素

artical/div/pl | //span

选取所有div下的pl和文档中所有span


五、Xpath轴

轴可以定义相对于当前节点的节点集

轴名称

表达式

描述

ancestor

./ancestor::*

选取当前节点的所有先辈节点(父、祖父)

ancestor-or-self

./ancestor-or-self::*

选取当前节点的所有先辈节点以及节点本身

descendant

./descendant::*

返回当前节点的所有后代节点(子节点、孙节点)

child

./child::*

返回当前节点的所有子节点

parent

./parent::*

选取当前节点的父节点

following

./following::*

选取文档中当前节点结束标签后的所有节点

following-sibling

./following-sibling::*

选取当前节点之后的兄弟节点

preceding

./preceding::*

选取文档中当前节点开始标签前的所有节点

preceding-sibling

./preceding-sibling::*

选取当前节点之前的兄弟节点

self

./self::*

选取当前节点

attribute

./attribute::*

选取当前节点的所有属性

六、功能函数

使用功能函数能够更好的进行模糊搜索

函数

用法

解释

starts-with

//div[starts-with(@id,”ma”)]

选取id值以ma开头的div节点

contains

//div[contains(@id,”ma”)]

选取所有id值包含ma的div节点

and

//div[contains(@id,”ma”) and contains(@id,”in”)]

选取id值包含ma和in的div节点

text()

//div[contains(text(),”ma”)]

选取节点文本包含ma的div节点


注意事项:

1) 按照审查元素的写法不一定正确,要按照网页源码的才行
因为不一样,网页源码才是你看到的
2) 浏览器有自带的复制xpath功能,firefox下载firebug插件
3) xpath有c的速度,所以按照[@class=""]准确性较高

CCS选择器语法

语法

说明

*

选择所有节点

#container

选择id为container的节点

.container

选择所有class包含container的节点

div,p

选择所有 div 元素和所有 p 元素

li a

选取所有li 下所有a节点

ul + p

选取ul后面的第一个p元素

div#container > ul

选取id为container的div的第一个ul子元素

ul ~p

选取与ul相邻的所有p元素

a[title]

选取所有有title属性的a元素

a[href=”http://baidu.com”]

选取所有href属性为http://baidu.com的a元素

a[href*=”baidu”]

选取所有href属性值中包含baidu的a元素

a[href^=”http”]

选取所有href属性值中以http开头的a元素

a[href$=”.jpg”]

选取所有href属性值中以.jpg结尾的a元素

input[type=radio]:checked

选择选中的radio的元素

div:not(#container)

选取所有id为非container 的div属性

li:nth-child(3)

选取第三个li元素

li:nth-child(2n)

选取第偶数个li元素

a::attr(href)

选取a标签的href属性

a::text

选取a标签下的文本

关于更多css语法,可以查看

http://www.w3school.com.cn/cssref/css_selectors.asp

提取内容

方法

返回

Selector.xpath()

返回SelectorList对象

Selector.css()

返回SelectorList对象

SelectorList.extract()

返回List对象

SelectorList.extract_first(default)

返回String对象,可以有默认值,类似dict.get(key, default)

参考链接:

  1. 三、用Css来提取网页
  2. Python爬虫:Xpath语法笔记
相关文章
|
1月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
104 6
|
22天前
|
存储 移动开发 前端开发
高效的 HTML 与 CSS 编写技巧,涵盖语义化标签、文档结构优化、CSS 预处理、模块化设计、选择器优化、CSS 变量、媒体查询等内容
本文深入探讨了高效的 HTML 与 CSS 编写技巧,涵盖语义化标签、文档结构优化、CSS 预处理、模块化设计、选择器优化、CSS 变量、媒体查询等内容,旨在提升开发效率、网站性能和用户体验。
35 5
|
1月前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
75 4
|
1月前
|
数据采集 中间件 API
在Scrapy爬虫中应用Crawlera进行反爬虫策略
在Scrapy爬虫中应用Crawlera进行反爬虫策略
|
1月前
|
前端开发 JavaScript UED
深入理解与应用 CSS 伪类选择器
【10月更文挑战第23天】通过以上对 CSS 伪类选择器的深入探讨,我们可以更好地理解和应用它们,为网页设计和开发带来更丰富、更灵活的样式效果。同时,要注意在实际应用中根据具体情况合理选择和使用伪类选择器,以达到最佳的设计效果和用户体验。
48 2
|
2月前
|
消息中间件 数据采集 数据库
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
34 1
|
2月前
|
前端开发
CSS常见的选择器
CSS常见的选择器
25 0
|
4月前
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
215 4
|
4月前
|
数据采集 存储 搜索推荐
打造个性化网页爬虫:从零开始的Python教程
【8月更文挑战第31天】在数字信息的海洋中,网页爬虫是一艘能够自动搜集网络数据的神奇船只。本文将引导你启航,用Python语言建造属于你自己的网页爬虫。我们将一起探索如何从无到有,一步步构建一个能够抓取、解析并存储网页数据的基础爬虫。文章不仅分享代码,更带你理解背后的逻辑,让你能在遇到问题时自行找到解决方案。无论你是编程新手还是有一定基础的开发者,这篇文章都会为你打开一扇通往数据世界的新窗。
|
5月前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
【7月更文挑战第31天】在网络数据的海洋中,使用Python的`requests`库构建网络爬虫就像探索未知的航船。HTTP协议指导爬虫与服务器交流,收集信息。HTTP请求包括请求行、头和体,响应则含状态行、头和体。`requests`简化了发送各种HTTP请求的过程。
94 4