XPath数据提取与贴吧爬虫应用示例

简介: XPath(XML Path Language)是一种用于在XML文档中定位和选择节点的语言。它提供了一种简洁的方式来遍历和提取XML文档中的数据。

Xpath

Xpath概述

XPath(XML Path Language)是一种用于在XML文档中定位和选择节点的语言。它提供了一种简洁的方式来遍历和提取XML文档中的数据。

XPath使用路径表达式来选取XML文档中的节点或者节点集。

简言之,Xpath是通过一定的语法规则从HTML、XML文件中提取需要的数据。

Xpath Helper插件

XPath Helper是一款浏览器插件,可用于在浏览器中轻松测试和调试XPath表达式。它提供了一个用户友好的界面,能够直接在浏览器中输入XPath表达式,并立即查看匹配的结果。

通过XPath Helper插件,可以快速验证和调试XPath表达式,以确保它们能够准确地选择所需的节点。

使用XPath Helper插件的步骤:

安装XPath Helper插件:在谷歌浏览器的插件商店中搜索XPath Helper,并按照指示进行安装。

打开要调试的网页:在浏览器中打开包含XML或HTML文档的网页。

启动XPath Helper插件:在浏览器工具栏中找到XPath Helper插件的图标,并点击它以打开插件界面。

输入XPath表达式:在XPath Helper插件界面的输入框中输入XPath表达式。

查看结果:XPath Helper插件将立即在页面上显示与XPath表达式匹配的节点。

进入chrome应用商店,搜索XPath Helper进行下载。

下载链接:XPath Helper

image.png

XPath语法

基本语法

提取属性或文本内容

表达式 描述
nodename 选中该元素
/ 从根节点选取、或者是元素和元素间的过渡
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性
text() 选取文本

示例

路径表达式 说明
//h1/text() 选择所有的h1下的文本
//a/@href 获取所有的a标签的href属性
/html/head/title/text() 获取html下的head下的title的文本
//div/h2 选取属于div的子元素的所有h2标签

查找特定节点

可以根据标签的属性值、下标等来获取特定的节点

在xpath中,第一个元素的位置是1,最后一个元素的位置是last(),倒数第二个是last()-1

路径表达式 结果
//title[@lang="en"] 选择lang属性值为en的所有title元素
/people/user[1] 选择属于 people 子元素的第一个 user元素
/people/user[last()] 选择属于people子元素的最后一个 user元素
/people/user[last()-1] 选择属于 people子元素的倒数第二个 user元素
/people/user[position()>1] 选择people下面的user元素,从第二个开始选择
//user/title[text()='Java'] 选择所有user下的title元素,仅选择文本为Java的title元素
//user/title[contains(text(),'Java')] 选择所有user下的title元素,仅选择文本包含Java的title元素
//user/title[starts-with(text(),'Java')] 选择所有user下的title元素,仅选择文本 以Java开头的title元素
/people/user[age>20]/title 选择people元素中的 user元素的所有 title 元素,且其中的 age元素的值须大于20

选取未知节点

通过通配符来选取未知的html、xml的元素

通配符 描述
* 匹配任何元素节点
@* 匹配任何属性节点
node() 匹配任何类型的节点

示例

路径表达式 说明
/people/* 选取people元素的所有子元素
//* 选取文档中的所有元素
//title[@*] 选取所有带有属性的 title 元素
//node() 匹配任何类型的节点

选取若干路径

通过在路径表达式中使用“|”运算符,可以选取若干个路径

路径表达式 结果
//user/name丨 //user/age 选取user元素的所有 name和age元素
//name丨 //age 选取文档中的所有name和age元素
/people/user/name丨 //age 选取属于people元素的user元素的所有name元素,以及文档中所有的age元素

lxml模块

在Python中,可以使用第三方库lxml来解析和处理XML文档,并使用lxml库提供的XPath函数来执行XPath查询。

安装

pip install lxml

使用说明

导入lxml的etree库

from lxml import etree

可以将bytes类型和str类型的数据转化为Element对象,该对象具有xpath的方法,返回结果列表

# 可以自动补全标签
html = etree.HTML(data) 

list = html.xpath("xpath表达式")

返回列表存在三种情况

返回空列表:根据xpath语法规则字符串,没有定位到任何元素

返回由字符串构成的列表:xpath字符串规则匹配的一定是文本内容或某属性的值

返回由Element对象构成的列表:xpath规则字符串匹配的是标签,列表中的Element对象可以继续进行xpath

Element对象转化为字符串,返回bytes类型结果

etree.tostring(element)

使用示例

创建test.html文件

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>
<div>
    <ul>
         <li class="class01"><span index="1">H1</span></li>
         <li class="class02"><span index="2" class="span2">H2</span></li>
         <li class="class03"><span index="3">H3</span></li>
     </ul>
 </div>
</body>
</html>

使用lxml模块提取test.html文件数据

# 导入lxml的etree库
from lxml import etree

data = None
with open("test.html", 'r', encoding='UTF-8') as f:
    data = f.read()
    f.close()

# 将字符串转化为Element对象。能够接受bytes类型和str类型的数据
html = etree.HTML(data)
# Element对象具有xpath的方法,返回结果列表
print("获取所有li标签: ", html.xpath('//li'))
print("获取所有span标签的内容: ", html.xpath('//span/text()'))
print("获取li标签的所有class属性: ", html.xpath('//li/@class'))
print("获取li标签下index属性=2为的span标签: ", html.xpath('//li/span[@index="2"]'))
print("获取li标签下的span标签里的有class的标签: ", html.xpath('//li/span/@class'))
print("获取最后一个li标签的span标签的index属性值: ", html.xpath('///li[last()]/span/@index'))
print("获取倒数第二个li元素的内容: ", html.xpath('//li[last()-1]//text()'))

提取结果

获取所有li标签:  [<Element li at 0x247cb1ea880>, <Element li at 0x247cb1ea8c0>, <Element li at 0x247cb1ea900>]
获取所有span标签的内容:  ['H1', 'H2', 'H3']
获取li标签的所有class属性:  ['class01', 'class02', 'class03']
获取li标签下index属性=2为的span标签:  [<Element span at 0x247cb1eaa40>]
获取li标签下的span标签里的有class的标签:  ['span2']
获取最后一个li标签的span标签的index属性值:  ['3']
获取倒数第二个li元素的内容:  ['H2']

百度贴吧爬虫

百度贴吧:https://tieba.baidu.com/f?kw=王者荣耀&ie=utf-8&pn=50

浏览器进行元素选择,复制XPath路径表达式,打开Xpath Helper插件进行调试,辅助进行数据提取。

Xpath Helper插件使用示例:

image.png

import datetime
import json
from time import sleep

import requests
from lxml import etree


class TiebaSpider():

    def __init__(self, kw, max_pn, fileName):
        self.base_url = "https://tieba.baidu.com/f?kw={}&ie=utf-8&pn={}"
        self.headers = {
   
   
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.0.0 Safari/537.36"
        }
        self.kw = kw
        self.max_pn = max_pn
        self.fileName = fileName
        pass

    def get_url_list(self):
        '''
        return [self.base_url.format(self.kw,pn) for pn in range(0,self.max_pn + 1,50)]
        '''
        url_list = []
        for pn in range(0, self.max_pn + 1, 50):
            url = self.base_url.format(self.kw, pn)
            url_list.append(url)
        return url_list

    def get_content(self, url):
        response = requests.get(
            url=url,
            headers=self.headers
        )
        return response.content

    def get_items(self, content, idx):
        # 注意:响应页面需要抓取数据是被注释了的。处理方式2种:1.替换注释 2.使用低版本浏览器的响应头
        html = content.decode('utf-8').replace("<!--", "").replace("-->", "")
        eroot = etree.HTML(html)
        # 提取行数据
        li_list = eroot.xpath('//*[@id="thread_list"]/li/div/div[2]/div[1]/div[1]/a')

        data = []
        for li in li_list:
            item = {
   
   }
            item["title"] = li.xpath('./text()')[0]
            item["link"] = 'https://tieba.baidu.com' + li.xpath('./@href')[0]
            data.append(item)

            # next_url = 'https:' + eroot.xpath('//*[@id="frs_list_pager"]/a/@href')
        return data

    def save_items(self, items, fileName):
        for data in items:
            print(data)
            # 将字典转换为字符串,将字符串编码为UTF-8字节流
            data_str = json.dumps(data).encode("utf-8")
            self.write(data_str, fileName)

    def write(self, item, fileName):
        # 打开文件进行追加写入
        with open(fileName, "a") as file:
            # 写入数据 将字节流解码为字符串
            file.write(item.decode("utf-8"))
            file.write("\n")

    def run(self):
        # 获取url列表
        url_list = self.get_url_list()
        fileName = self.fileName

        for url in url_list:
            print("*" * 100)
            # 发送请求获取响应
            content = self.get_content(url)
            sleep(5)
            # 从响应中提取数据
            items = self.get_items(content, url_list.index(url) + 1)
            # 保存数据
            self.save_items(items, fileName)

        pass


if __name__ == '__main__':
    user_input = input("请输入贴吧名称: ")

    # 获取当前日期和时间
    current_datetime = datetime.datetime.now()

    # 构建文件名,精确到小时和分钟
    fileName = current_datetime.strftime("%Y-%m-%d-%H-%M.txt")

    # kw:贴吧关键字 max_pn:最大贴吧条数
    spider = TiebaSpider(kw=user_input, max_pn=150, fileName=fileName)
    spider.run()

控制台

请输入贴吧名称: 王者荣耀
****************************************************************************************************
{
   
   'title': '赛季上分答案①-上官婉儿教学', 'link': 'https://tieba.baidu.com/p/8509192314'}
{
   
   'title': 'Q钻耀 有无 铲铲也行 好无聊', 'link': 'https://tieba.baidu.com/p/8514457231'}
{
   
   'title': '好奇很久了,,你们说的一杯奶茶钱一般指多少。', 'link': 'https://tieba.baidu.com/p/8512445812'}
{
   
   'title': '有没有人处或者好朋友', 'link': 'https://tieba.baidu.com/p/8514390098'}
{
   
   'title': 'qy vy聊天打游戏', 'link': 'https://tieba.baidu.com/p/8512823062'}
{
   
   'title': '接p钻耀5r', 'link': 'https://tieba.baidu.com/p/8514461207'}
{
   
   'title': '已到工位 来点vy', 'link': 'https://tieba.baidu.com/p/8514458179'}
{
   
   'title': '恋爱dd 要巨粘人的 游戏厉害一点声音好听一点稍微涩一点。', 'link': 'https://tieba.baidu.com/p/8514452627'}
{
   
   'title': '收个闲鱼自己用', 'link': 'https://tieba.baidu.com/p/8514428795'}
{
   
   'title': 'qy 固聊 我很无聊', 'link': 'https://tieba.baidu.com/p/8514440871'}
{
   
   'title': '死学不会什么叫意识和操作,家人们谁懂吖。', 'link': 'https://tieba.baidu.com/p/8514341952'}
{
   
   'title': 'QQ区钻耀来个瑶。', 'link': 'https://tieba.baidu.com/p/8514459651'}
{
   
   'title': '玩走地鸡的长这样', 'link': 'https://tieba.baidu.com/p/8514390800'}
{
   
   'title': 'V小群+++', 'link': 'https://tieba.baidu.com/p/8514449634'}
{
   
   'title': '求求别口嗨了,v区钻耀开个打游戏的,评论的每一个来的', 'link': 'https://tieba.baidu.com/p/8514453252'}
{
   
   'title': '有没有人处对象', 'link': 'https://tieba.baidu.com/p/8514271361'}
{
   
   'title': '有没有一起玩的   q区星耀', 'link': 'https://tieba.baidu.com/p/8514459727'}
{
   
   'title': 'q钻石有无一起玩的', 'link': 'https://tieba.baidu.com/p/8514425372'}
相关文章
|
1月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
108 6
|
2月前
|
数据采集 API 数据处理
Objective-C 音频爬虫:实时接收数据的 didReceiveData: 方法
Objective-C 音频爬虫:实时接收数据的 didReceiveData: 方法
|
7天前
|
数据采集 安全 定位技术
使用代理IP爬虫时数据不完整的原因探讨
在信息化时代,互联网成为生活的重要部分。使用HTTP代理爬取数据时,可能会遇到失败情况,如代理IP失效、速度慢、目标网站策略、请求频率过高、地理位置不当、网络连接问题、代理配置错误和目标网站内容变化等。解决方法包括更换代理IP、调整请求频率、检查配置及目标网站变化。
38 11
|
26天前
|
数据采集 JSON JavaScript
如何通过PHP爬虫模拟表单提交,抓取隐藏数据
本文介绍了如何使用PHP模拟表单提交并结合代理IP技术抓取京东商品的实时名称和价格,特别是在电商大促期间的数据采集需求。通过cURL发送POST请求,设置User-Agent和Cookie,使用代理IP绕过限制,解析返回数据,展示了完整代码示例。
如何通过PHP爬虫模拟表单提交,抓取隐藏数据
|
23天前
|
XML 数据采集 数据格式
Python 爬虫必备杀器,xpath 解析 HTML
【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href=&#39;example.com&#39;]` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
|
1月前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
78 4
|
1月前
|
数据采集 中间件 API
在Scrapy爬虫中应用Crawlera进行反爬虫策略
在Scrapy爬虫中应用Crawlera进行反爬虫策略
|
1月前
|
数据采集 JavaScript 程序员
探索CSDN博客数据:使用Python爬虫技术
本文介绍了如何利用Python的requests和pyquery库爬取CSDN博客数据,包括环境准备、代码解析及注意事项,适合初学者学习。
77 0
|
2月前
|
消息中间件 数据采集 数据库
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
小说爬虫-03 爬取章节的详细内容并保存 将章节URL推送至RabbitMQ Scrapy消费MQ 对数据进行爬取后写入SQLite
35 1
|
4月前
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
220 4