Python 爬虫必备杀器,xpath 解析 HTML

简介: 【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href='example.com']` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
  1. XPath 简介
  • XPath(XML Path Language)是一种用于在 XML 和 HTML 文档中定位节点的语言。它使用路径表达式来选取 XML/HTML 文档中的节点或者节点集。虽然它是为 XML 设计的,但由于 HTML 可以看作是 XML 的一种应用(XHTML),所以 XPath 也非常适合用于解析 HTML 文档。
  • 例如,一个简单的 HTML 页面可能包含多个<div>标签,使用 XPath 可以精确地定位到包含特定内容的<div>标签,比如定位到包含文章标题的<div>
  1. XPath 基本语法
  • 节点选取
  • 标签名选取:使用标签名可以选取文档中所有该标签的节点。例如,在 HTML 文档中//p会选取所有的<p>段落标签。这就像是在图书馆的书架(HTML 文档)中挑选所有某一类型(标签名)的书籍。
  • 属性选取:通过[@属性名='属性值']的格式可以选取具有特定属性的节点。例如,//a[@href='https://www.example.com']会选取所有href属性值为https://www.example.com<a>链接标签。这就好比挑选所有有特定作者(属性值)的书籍(节点)。
  • 层级关系
  • 父子关系:使用/表示父子关系。例如,//div/p表示选取所有<div>标签下的<p>子标签。可以把它想象成在一个文件夹(<div>)里面找特定文件(<p>)。
  • 祖先 - 后代关系:使用//表示祖先 - 后代关系。//body//p会选取<body>标签内所有的<p>标签,不管它们之间间隔了多少层标签。这类似于在一个大的建筑(<body>)的各个房间(标签)里找特定的物品(<p>)。
  1. 在 Python 爬虫中的应用
  • 安装 lxml 库:在 Python 中,通常使用 lxml 库来支持 XPath 解析。可以通过pip install lxml命令进行安装。lxml 库提供了高效的 XML 和 HTML 解析功能,并且很好地支持 XPath。
  • 解析 HTML 文档示例
  • 首先,使用requests库获取网页内容(假设已经安装了requests库),例如:


import requests
from lxml import etree
url = "https://www.example.com"
response = requests.get(url)
html_content = response.text


  • 然后,使用 lxml 的etree.HTML函数将 HTML 内容转换为可解析的对象:


tree = etree.HTML(html_content)


  • 最后,使用 XPath 表达式来提取信息。比如,要提取网页中所有文章标题(假设标题在<h1>标签中):


titles = tree.xpath("//h1/text()")
for title in titles:
    print(title)


  • 提取复杂结构信息
  • 当需要提取更复杂的信息时,XPath 的优势更加明显。例如,在一个包含商品信息的网页中,商品名称可能在<div class="product - name">标签中,价格在<span class="price">标签中。可以使用以下 XPath 表达式来同时提取名称和价格:


product_names = tree.xpath("//div[@class='product - name']/text()")
product_prices = tree.xpath("//span[@class='price']/text()")
for name, price in zip(product_names, product_prices):
    print(f"商品名称: {name}, 价格: {price}")


  1. XPath 高级技巧
  • 轴(Axis)的使用:轴可以让你在文档树中更灵活地导航。例如,following - sibling轴可以用于选取当前节点之后的兄弟节点。假设你已经定位到一个文章的发布日期节点,想要选取同一行后面的作者姓名节点,可以使用类似//date/following - sibling::author的表达式(这里假设日期标签为<date>,作者标签为<author>)。
  • 函数的应用:XPath 提供了一些函数来增强表达式的功能。比如contains()函数可以用于模糊匹配。如果要查找所有href属性中包含product字样的<a>链接,可以使用//a[contains(@href,'product')]。这在你不确定完整的属性值,但知道部分内容时非常有用。
相关文章
|
8月前
|
数据采集 JSON API
深入解析:使用 Python 爬虫获取淘宝店铺所有商品接口
本文介绍如何使用Python结合淘宝开放平台API获取指定店铺所有商品数据。首先需注册淘宝开放平台账号、创建应用并获取API密钥,申请接口权限。接着,通过构建请求、生成签名、调用接口(如`taobao.items.search`和`taobao.item.get`)及处理响应,实现数据抓取。代码示例展示了分页处理和错误处理方法,并强调了调用频率限制、数据安全等注意事项。此技能对开发者和数据分析师极具价值。
|
7月前
|
前端开发 JavaScript API
Webview+Python:用HTML打造跨平台桌面应用的创新方案
本文系统介绍了使用PyWebView库结合HTML/CSS/JavaScript开发跨平台桌面应用的方法。相比传统方案(如PyQt、Tkinter),PyWebView具备开发效率高、界面美观、资源占用低等优势。文章从技术原理、环境搭建、核心功能实现到性能优化与实战案例全面展开,涵盖窗口管理、双向通信、系统集成等功能,并通过“智能文件管理器”案例展示实际应用。适合希望快速构建跨平台桌面应用的Python开发者参考学习。
819 1
|
9月前
|
数据采集 Web App开发 监控
深度解析:使用ChromeDriver和webdriver_manager实现无头浏览器爬虫
在现代网络爬虫实践中,动态网页加载和反爬虫机制增加了数据采集的难度。采用无头浏览器技术(如Selenium与ChromeDriver)可有效模拟用户行为、执行JavaScript,获取动态内容。通过设置代理IP、伪装User-Agent和处理Cookies,提升爬虫隐蔽性和稳定性。该方案适用于电商价格监控、社交媒体数据采集和招聘信息抓取等场景,实现更高效的数据获取。
779 2
深度解析:使用ChromeDriver和webdriver_manager实现无头浏览器爬虫
|
9月前
|
数据采集 前端开发 API
SurfGen爬虫:解析HTML与提取关键数据
SurfGen爬虫:解析HTML与提取关键数据
|
10月前
|
数据采集 供应链 API
Python爬虫与1688图片搜索API接口:深度解析与显著收益
在电子商务领域,数据是驱动业务决策的核心。阿里巴巴旗下的1688平台作为全球领先的B2B市场,提供了丰富的API接口,特别是图片搜索API(`item_search_img`),允许开发者通过上传图片搜索相似商品。本文介绍如何结合Python爬虫技术高效利用该接口,提升搜索效率和用户体验,助力企业实现自动化商品搜索、库存管理优化、竞品监控与定价策略调整等,显著提高运营效率和市场竞争力。
488 3
|
11月前
|
数据采集 JSON API
如何利用Python爬虫淘宝商品详情高级版(item_get_pro)API接口及返回值解析说明
本文介绍了如何利用Python爬虫技术调用淘宝商品详情高级版API接口(item_get_pro),获取商品的详细信息,包括标题、价格、销量等。文章涵盖了环境准备、API权限申请、请求构建和返回值解析等内容,强调了数据获取的合规性和安全性。
|
11月前
|
数据采集 存储 JavaScript
网页爬虫技术全解析:从基础到实战
在信息爆炸的时代,网页爬虫作为数据采集的重要工具,已成为数据科学家、研究人员和开发者不可或缺的技术。本文全面解析网页爬虫的基础概念、工作原理、技术栈与工具,以及实战案例,探讨其合法性与道德问题,分享爬虫设计与实现的详细步骤,介绍优化与维护的方法,应对反爬虫机制、动态内容加载等挑战,旨在帮助读者深入理解并合理运用网页爬虫技术。
|
11月前
|
数据采集
动态代理与静态代理在爬虫解析的优缺点
随着科技和互联网的发展,越来越多企业需要使用代理进行数据抓取。本文介绍了HTTP动态代理与静态代理的区别,帮助您根据具体需求选择最佳方案。动态代理适合大规模、高效率的爬取任务,但稳定性较差;静态代理则适用于小规模、高稳定性和速度要求的场景。选择时需考虑目标、数据量及网站策略。
210 4
|
11月前
|
机器学习/深度学习 前端开发 数据处理
利用Python将Excel快速转换成HTML
本文介绍如何使用Python将Excel文件快速转换成HTML格式,以便在网页上展示或进行进一步的数据处理。通过pandas库,你可以轻松读取Excel文件并将其转换为HTML表格,最后保存为HTML文件。文中提供了详细的代码示例和注意事项,帮助你顺利完成这一任务。
553 0
|
数据采集 数据挖掘

推荐镜像

更多