如何使用Selenium Python爬取动态表格中的复杂元素和交互操作

简介: Selenium是一个自动化测试工具,可以模拟浏览器的行为,如打开网页,点击链接,输入文本等。Selenium也可以用于爬取网页中的数据,特别是那些动态生成的数据,如表格,图表,下拉菜单等。本文将介绍如何使用Selenium Python爬取动态表格中的复杂元素和交互操作。

亿牛云代理.jpeg

正文

Selenium是一个自动化测试工具,可以模拟浏览器的行为,如打开网页,点击链接,输入文本等。Selenium也可以用于爬取网页中的数据,特别是那些动态生成的数据,如表格,图表,下拉菜单等。本文将介绍如何使用Selenium Python爬取动态表格中的复杂元素和交互操作。

特点

  • Selenium可以处理JavaScript生成的动态内容,而传统的爬虫工具如requests或BeautifulSoup无法做到。
  • Selenium可以模拟用户的交互操作,如点击按钮,选择选项,滚动页面等,从而获取更多的数据。
  • Selenium可以通过定位元素的方法,如id,class,xpath等,来精确地获取表格中的数据。
  • Selenium可以结合pandas库,将爬取的数据转换为DataFrame格式,方便后续的分析和处理。

案例

以近期汇率数据为例,我们将从以下网址爬取数据:
https: //www.investing.com/economic-calendar/investing.com-eur-usd-index-1155
该网页中有一个动态表格,展示了欧元/美元指数的历史数据。我们需要爬取该表格中的所有数据,并保存为DataFrame格式。

代码

# 导入所需的库
import time
from selenium import webdriver
import pandas as pd

#亿牛云 爬虫代理加强版 设置代理服务器信息
proxyHost = "www.16yun.cn"
proxyPort = "3111"
proxyUser = "16YUN"
proxyPass = "16IP"

# 配置Chrome浏览器以使用代理服务器
chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument(f'--proxy-server=http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}')
driver = webdriver.Chrome(options=chrome_options)

# 打开目标网页
driver.get("https://www.investing.com/economic-calendar/investing.com-eur-usd-index-1155")

# 等待页面加载完成
time.sleep(10)

# 点击“显示更多”按钮,直到所有数据都显示出来
while True:
    try:
        # 定位“显示更多”按钮
        show_more = driver.find_element_by_xpath('//*[@id="showMoreHistory"]/a')
        # 点击按钮
        show_more.click()
        # 等待一秒
        time.sleep(1)
    except:
        # 如果没有找到按钮或者出现异常,则跳出循环
        break

# 定位表格元素
table = driver.find_element_by_id('eventHistoryTable')

# 获取表格中的所有行
rows = table.find_elements_by_tag_name('tr')

# 创建一个空列表,用于存储数据
data = []

# 遍历每一行
for row in rows:
    # 获取行中的所有单元格
    cells = row.find_elements_by_tag_name('td')
    # 如果单元格数量大于0,则说明是数据行,而不是标题行或空行
    if len(cells) > 0:
        # 创建一个空字典,用于存储一行数据
        record = {}
        # 将每个单元格的文本和对应的列名作为键值对存入字典
        record['Date'] = cells[0].text
        record['Actual'] = cells[1].text
        record['Forecast'] = cells[2].text
        record['Previous'] = cells[3].text
        # 将字典追加到列表中
        data.append(record)

# 关闭浏览器对象
driver.close()

# 将列表转换为DataFrame对象
df = pd.DataFrame(data)

# 打印DataFrame对象
print(df)

功能说明如下:

  1. 导入所需的库:代码使用import语句导入了time、webdriver(Selenium库的一部分,用于操作浏览器)和pandas库。
  2. 设置爬虫代理以提高采集成功率,创建一个Chrome浏览器对象:通过webdriver.Chrome()创建了一个Chrome浏览器对象,用于操作和访问网页。
  3. 打开目标网页:使用driver.get()方法打开了指定网页(https://www.investing.com/economic-calendar/investing.com-eur-usd-index-1155)。
  4. 等待页面加载完成:通过time.sleep(10)在页面加载后等待10秒,确保页面加载完全。
  5. 点击“显示更多”按钮,直到所有数据都显示出来:通过一个while循环来不断点击“显示更多”按钮,直到页面显示了所有数据。这个循环会在每次点击按钮后等待1秒钟,用于等待数据加载。
  6. 定位表格元素:使用driver.find_element_by_id()方法找到表格元素,其id为'eventHistoryTable'。
  7. 获取表格中的所有行:使用find_elements_by_tag_name('tr')方法找到表格中的所有行。
  8. 创建一个空列表,用于存储数据:代码创建了一个名为data的空列表,用于存储爬取到的数据。
  9. 遍历每一行:通过for循环遍历每一行。
  10. 判断行类型:对于每一行,通过find_elements_by_tag_name('td')方法找到行中的所有单元格,然后判断单元格数量是否大于0,以确定该行是否是数据行,而不是标题行或空行。
  11. 解析数据并存储:如果是数据行,代码创建一个空字典record,并将每个单元格的文本和对应的列名作为键值对存入字典。然后,将这个字典追加到data列表中,形成一个二维数据结构,其中每个元素都是一个字典代表一行数据。
  12. 关闭浏览器对象:在数据爬取完成后,通过driver.close()关闭浏览器对象,释放资源。
  13. 将列表转换为DataFrame对象:使用pd.DataFrame(data)将data列表转换为一个pandas的DataFrame对象df,其中每个字典代表DataFrame的一行。
  14. 打印DataFrame对象:通过print(df)将DataFrame对象打印出来,展示网页中爬取到的数据。

该代码通过Selenium库模拟浏览器操作,使用爬虫代理访问指定网页,然后通过定位网页元素、解析数据,并最终将数据转换为DataFrame对象。通过DataFrame对象,可以方便地对网页上的数据进行进一步处理和分析。

结语

通过本文的介绍,我们了解了如何使用Selenium Python爬取动态表格中的复杂元素和交互操作。Selenium是一个强大的爬虫工具,可以应对各种复杂的网页结构和数据类型。希望本文能够对你有所帮助和启发。

相关文章
|
7天前
|
Web App开发 数据可视化 Python
Python Selenium获取boss直聘招聘信息
Python Selenium获取boss直聘招聘信息
23 5
Python Selenium获取boss直聘招聘信息
|
6天前
|
数据采集 Python
如何用Python Selenium和WebDriver抓取LinkedIn数据并保存登录状态
本文介绍了使用Python Selenium和WebDriver库抓取LinkedIn数据的方法。首先,安装Selenium库和对应的WebDriver,然后配置爬虫代理IP以避免频繁请求被检测。接下来,设置user-agent和cookies以模拟真实用户行为,实现登录并保持状态。登录后,使用WebDriver抓取目标页面数据,如用户名、年龄、性别和简历信息。最后,强调了优化代码、处理异常和遵守使用条款的重要性,以提高效率并避免账号被封禁。
如何用Python Selenium和WebDriver抓取LinkedIn数据并保存登录状态
|
4天前
|
Web App开发 数据采集 测试技术
五分钟轻松掌握 Python 自动化测试 Selenium
本文主要介绍了 Selenium 相关内容,主要涉及 Selenium 知识面,从开始的 Python 小案例,到后面的 API 全面了解,以及 Selenium 的常用功能,到最后的 XPATH 以及爬虫的认知。这些内容已经能够全面,且具有实践性。
|
6天前
|
编解码 算法 Linux
Linux平台下RTSP|RTMP播放器如何跟python交互投递RGB数据供视觉算法分析
在对接Linux平台的RTSP播放模块时,需将播放数据同时提供给Python进行视觉算法分析。技术实现上,可在播放时通过回调函数获取视频帧数据,并以RGB32格式输出。利用`SetVideoFrameCallBackV2`接口设定缩放后的视频帧回调,以满足算法所需的分辨率。回调函数中,每收到一帧数据即保存为bitmap文件。Python端只需读取指定文件夹中的bitmap文件,即可进行视频数据的分析处理。此方案简单有效,但应注意控制输出的bitmap文件数量以避免内存占用过高。
|
12天前
|
JavaScript Python
[selenium]取值元素文本属性样式
[selenium]取值元素文本属性样式
|
13天前
|
Python
【Leetcode刷题Python】剑指 Offer II 082. 含有重复元素集合的组合
解决LeetCode平台《剑指 Offer II 082. 含有重复元素集合的组合》题目的Python代码实现,通过深度优先搜索算法找出所有和为特定目标值的数字组合,并在搜索过程中通过排序和跳过重复元素来避免解集中出现重复组合。
23 2
|
19天前
|
测试技术 数据安全/隐私保护 Python
大麦网抢票攻略:使用Python Selenium实现
大麦网抢票攻略:使用Python Selenium实现
|
20天前
|
安全 数据安全/隐私保护 Python
|
21天前
|
监控 网络协议 网络安全
SMTP操作使用详解并通过python进行smtp邮件发送示例
SMTP操作使用详解并通过python进行smtp邮件发送示例
30 3
|
20天前
|
API Python
Python高手修炼手册:精通文件系统操作,掌控I/O管理,提升编程效率
【7月更文挑战第30天】在 Python 编程中, 文件系统操作与 I/O 管理是连接程序与数据的关键。初学者常因路径错误和权限问题受挫, 而高手能自如管理文件。传统 `os` 和 `os.path` 模块易出错, `pathlib` 提供了更直观的对象导向 API。I/O 方面, 同步操作会阻塞程序, 异步 (如使用 `aiofiles`) 则能大幅提升并发能力。真正的高手不仅掌握 API, 更能预见性能瓶颈并优化代码, 实现高效与优雅。
16 1