利用Selenium和XPath抓取JavaScript动态加载内容的实践案例

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介: 利用Selenium和XPath抓取JavaScript动态加载内容的实践案例

引言
在当今的互联网时代,数据的获取和分析对于商业决策、市场研究以及个人兴趣都至关重要。然而,许多现代网站采用JavaScript动态加载技术来展示内容,这给传统的静态网页抓取方法带来了挑战。本文将通过一个实践案例,详细介绍如何使用Python的Selenium库结合XPath来抓取一个实际网站中由JavaScript动态加载的内容。
环境准备
在开始之前,确保你的开发环境中安装了Python以及以下库:
● selenium:用于自动化Web浏览器交互。
● lxml:用于解析HTML和XML文档。
● beautifulsoup4:提供了一些简单的方法来导航、搜索和修改解析树。
可以通过以下命令安装所需的库:

pip install selenium lxml beautifulsoup4

下载WebDriver
Selenium需要对应浏览器的WebDriver才能控制浏览器。例如,如果你使用的是Chrome浏览器,需要下载ChromeDriver。
实践案例
假设我们要抓取的网站是http://dynamic-content-example.com,该网站使用JavaScript动态加载了一个列表,我们的目标是抓取这个列表中的所有项目。
步骤1:初始化Selenium WebDriver
步骤2:访问目标网站
步骤3:等待页面加载
由于内容是动态加载的,我们需要等待这些内容加载完成。Selenium提供了显式等待(Explicit Wait)的功能来实现这一点。
步骤4:使用XPath抓取数据
一旦页面加载完成,我们就可以使用XPath来定位并抓取我们感兴趣的元素。
步骤5:关闭浏览器
完成数据抓取后,关闭浏览器以释放资源。
代码实现
以下是完整的代码实现,包括了上述所有步骤:

from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from webdriver_manager.chrome import ChromeDriverManager
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.proxy import Proxy, ProxyType
from bs4 import BeautifulSoup

proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

# 创建代理对象
proxy = Proxy()
proxy.proxy_type = ProxyType.MANUAL
proxy.http_proxy = f"{proxyHost}:{proxyPort}"
proxy.ssl_proxy = f"{proxyHost}:{proxyPort}"
proxy.add_to_capabilities({
   "proxyAuthConfig": {
   
    "username": proxyUser,
    "password": proxyPass
}})

# 初始化WebDriver
service = Service(ChromeDriverManager().install())
browser = webdriver.Chrome(service=service, proxy=proxy)

# 访问目标网站
url = 'http://dynamic-content-example.com'
browser.get(url)

# 等待页面加载
wait = WebDriverWait(browser, 10)
wait.until(EC.presence_of_element_located((By.XPATH, '//div[@class="dynamic-list"]')))

# 使用XPath抓取数据
html = browser.page_source
soup = BeautifulSoup(html, 'lxml')
items = soup.select('//div[@class="dynamic-list"]//li')

for item in items:
    print(item.text)

# 关闭浏览器
browser.quit()

结论
通过本文的实践案例,我们展示了如何使用Selenium和XPath来抓取由JavaScript动态加载的网站内容。这种方法虽然强大,但也需要注意合理使用爬虫技术,尊重目标网站的robots.txt规则,避免对网站造成不必要的负担。同时,由于网站结构和技术的不断变化,爬虫策略可能需要定期更新以适应这些变化。

相关文章
|
2月前
|
存储 JavaScript 前端开发
使用JavaScript构建动态交互式网页:从基础到实践
【10月更文挑战第12天】使用JavaScript构建动态交互式网页:从基础到实践
141 1
|
2月前
|
JavaScript 前端开发 安全
TypeScript的优势与实践:提升JavaScript开发效率
【10月更文挑战第8天】TypeScript的优势与实践:提升JavaScript开发效率
|
2月前
|
JavaScript 前端开发 开发者
理解JavaScript中的原型链:基础与实践
【10月更文挑战第8天】理解JavaScript中的原型链:基础与实践
|
4天前
|
数据采集 Web App开发 JavaScript
如何使用Selenium处理JavaScript动态加载的内容?
如何使用Selenium处理JavaScript动态加载的内容?
|
12天前
|
存储 网络架构
Next.js 实战 (四):i18n 国际化的最优方案实践
这篇文章介绍了Next.js国际化方案,作者对比了网上常见的方案并提出了自己的需求:不破坏应用程序的目录结构和路由。文章推荐使用next-intl库来实现国际化,并提供了详细的安装步骤和代码示例。作者实现了国际化切换时不改变路由,并把当前语言的key存储到浏览器cookie中,使得刷新浏览器后语言不会失效。最后,文章总结了这种国际化方案的优势,并提供Github仓库链接供读者参考。
|
28天前
|
缓存 监控 JavaScript
Vue.js 框架下的性能优化策略与实践
Vue.js 框架下的性能优化策略与实践
|
29天前
|
缓存 负载均衡 JavaScript
构建高效后端服务:Node.js与Express框架实践
在数字化时代的浪潮中,后端服务的重要性不言而喻。本文将通过深入浅出的方式介绍如何利用Node.js及其强大的Express框架来搭建一个高效的后端服务。我们将从零开始,逐步深入,不仅涉及基础的代码编写,更会探讨如何优化性能和处理高并发场景。无论你是后端新手还是希望提高现有技能的开发者,这篇文章都将为你提供宝贵的知识和启示。
|
28天前
|
JavaScript 前端开发 API
Vue.js 3:深入探索组合式API的实践与应用
Vue.js 3:深入探索组合式API的实践与应用
|
2月前
|
前端开发 JavaScript
深入理解JavaScript中的事件循环(Event Loop):从原理到实践
【10月更文挑战第12天】 深入理解JavaScript中的事件循环(Event Loop):从原理到实践
44 1
|
1月前
|
Web App开发 JavaScript 前端开发
构建高效后端服务:Node.js与Express框架的实践
【10月更文挑战第33天】在数字化时代的浪潮中,后端服务的效率和可靠性成为企业竞争的关键。本文将深入探讨如何利用Node.js和Express框架构建高效且易于维护的后端服务。通过实践案例和代码示例,我们将揭示这一组合如何简化开发流程、优化性能,并提升用户体验。无论你是初学者还是有经验的开发者,这篇文章都将为你提供宝贵的见解和实用技巧。

热门文章

最新文章