Python 爬虫必备杀器,xpath 解析 HTML

简介: 【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href='example.com']` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
  1. XPath 简介
  • XPath(XML Path Language)是一种用于在 XML 和 HTML 文档中定位节点的语言。它使用路径表达式来选取 XML/HTML 文档中的节点或者节点集。虽然它是为 XML 设计的,但由于 HTML 可以看作是 XML 的一种应用(XHTML),所以 XPath 也非常适合用于解析 HTML 文档。
  • 例如,一个简单的 HTML 页面可能包含多个<div>标签,使用 XPath 可以精确地定位到包含特定内容的<div>标签,比如定位到包含文章标题的<div>
  1. XPath 基本语法
  • 节点选取
  • 标签名选取:使用标签名可以选取文档中所有该标签的节点。例如,在 HTML 文档中//p会选取所有的<p>段落标签。这就像是在图书馆的书架(HTML 文档)中挑选所有某一类型(标签名)的书籍。
  • 属性选取:通过[@属性名='属性值']的格式可以选取具有特定属性的节点。例如,//a[@href='https://www.example.com']会选取所有href属性值为https://www.example.com<a>链接标签。这就好比挑选所有有特定作者(属性值)的书籍(节点)。
  • 层级关系
  • 父子关系:使用/表示父子关系。例如,//div/p表示选取所有<div>标签下的<p>子标签。可以把它想象成在一个文件夹(<div>)里面找特定文件(<p>)。
  • 祖先 - 后代关系:使用//表示祖先 - 后代关系。//body//p会选取<body>标签内所有的<p>标签,不管它们之间间隔了多少层标签。这类似于在一个大的建筑(<body>)的各个房间(标签)里找特定的物品(<p>)。
  1. 在 Python 爬虫中的应用
  • 安装 lxml 库:在 Python 中,通常使用 lxml 库来支持 XPath 解析。可以通过pip install lxml命令进行安装。lxml 库提供了高效的 XML 和 HTML 解析功能,并且很好地支持 XPath。
  • 解析 HTML 文档示例
  • 首先,使用requests库获取网页内容(假设已经安装了requests库),例如:


import requests
from lxml import etree
url = "https://www.example.com"
response = requests.get(url)
html_content = response.text


  • 然后,使用 lxml 的etree.HTML函数将 HTML 内容转换为可解析的对象:


tree = etree.HTML(html_content)


  • 最后,使用 XPath 表达式来提取信息。比如,要提取网页中所有文章标题(假设标题在<h1>标签中):


titles = tree.xpath("//h1/text()")
for title in titles:
    print(title)


  • 提取复杂结构信息
  • 当需要提取更复杂的信息时,XPath 的优势更加明显。例如,在一个包含商品信息的网页中,商品名称可能在<div class="product - name">标签中,价格在<span class="price">标签中。可以使用以下 XPath 表达式来同时提取名称和价格:


product_names = tree.xpath("//div[@class='product - name']/text()")
product_prices = tree.xpath("//span[@class='price']/text()")
for name, price in zip(product_names, product_prices):
    print(f"商品名称: {name}, 价格: {price}")


  1. XPath 高级技巧
  • 轴(Axis)的使用:轴可以让你在文档树中更灵活地导航。例如,following - sibling轴可以用于选取当前节点之后的兄弟节点。假设你已经定位到一个文章的发布日期节点,想要选取同一行后面的作者姓名节点,可以使用类似//date/following - sibling::author的表达式(这里假设日期标签为<date>,作者标签为<author>)。
  • 函数的应用:XPath 提供了一些函数来增强表达式的功能。比如contains()函数可以用于模糊匹配。如果要查找所有href属性中包含product字样的<a>链接,可以使用//a[contains(@href,'product')]。这在你不确定完整的属性值,但知道部分内容时非常有用。
相关文章
|
7月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
7月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
7月前
|
数据采集 存储 JSON
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
|
7月前
|
数据采集 存储 JavaScript
解析Python爬虫中的Cookies和Session管理
Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。
|
XML JavaScript 关系型数据库
|
XML JavaScript 关系型数据库
Python XML 解析
Python XML 解析
|
XML JavaScript API
Python XML 解析
Python XML 解析
376 0
|
XML JavaScript API
「Python系列」Python XML解析
在Python中,解析XML文件通常使用内置的`xml.etree.ElementTree`模块,它提供了一个轻量级、高效的方式来解析XML文档。此外,还有其他的第三方库,如`lxml`和`xml.dom`,它们提供了更多的功能和灵活性。
420 0
|
XML 安全 API
Python读写XML文件:深入解析与技术实现
Python读写XML文件:深入解析与技术实现
766 0
|
XML JSON 编解码

推荐镜像

更多