Python中与selenium齐名的pyppeteer库

简介: 如果说在Python中还有一款自动化工具能和selenium媲美,那么无疑是pyppeteer,pyppeteer是puppeteer的Python版本,puppeteer是Google开源的一个js库,通过一系列高级接口和Chrome或Chromium在DevTools协议下交互,其实现功能如下:生成页面的截图和PDF。

如果说在Python中还有一款自动化工具能和selenium媲美,那么无疑是pyppeteer,pyppeteer是puppeteer的Python版本,puppeteer是Google开源的一个js库,通过一系列高级接口和Chrome或Chromium在DevTools协议下交互,其实现功能如下:

  • 生成页面的截图和PDF。
  • 抓取SPA(单页应用程序)并渲染页面
  • 自动提交表单,UI测试,键盘输入等。
  • 创建一个最新的自动化测试环境,使用最新的JavaScript和浏览器特性,在最新版本的Chrome中直接运行测试。
  • 捕捉异常跟踪堆栈来帮助诊断性能问题。
  • 测试Chrome扩展
  • 当然还有些高级功能如js注入、模拟操作、异步执行、伪装
image

pyperteer是puppeteer的Python实现,相比于selenium具有异步加载、速度快、具备有界面/无界面模式、伪装性更强不易被识别为机器人同时可以伪装手机平板等终端;但是也有一些缺点,如接口不易理解、语义晦涩;

但在selenium被广泛和谐的今天,pyppeteer无疑为防爬墙撕开了一道大口子,针对selenium的淘宝、美团、文书网等网站,目前可通过该库使用selenium的思路继续突破,毫不费劲,以前不能用selenium的现在可以使用pyppeteer轻易拿下,后面将针对pyppeteer进行系列教程的分享,关注公众号【Python之战】不迷路。

pyppeteer基础使用:

使用pyppeteer先看看异步库asyncio,因为asycio也是pyppeteer框架的一部分,不熟悉的看这篇《学Python不得不掌握的库,gevent和asyncio使用方法详解

先看官方提供的一个案例:

import asyncio
from pyppeteer import launch

async def main():
    browser = await launch()
    page = await browser.newPage()
    await page.goto('http://example.com')
    await page.screenshot({'path': 'example.png'})
    await browser.close()

asyncio.get_event_loop().run_until_complete(main())

其中async关键字声明一个异步操作,await关键字声明一个耗时操作,asyncio.get_event_loop().run_until_complete(main())是创建异步池并执行异步模块main函数。

browser = await launch()

创建一个浏览器对象类似selenium中的driver,launch()中可传入带关键字的字典配置参数

page = await browser.newPage()

新建一个页面对象,页面操作在页面对象上

await page.goto('http://example.com')

执行跳转功能等同于driver.get()

await page.screenshot({'path': 'example.png'})

页面截图

await browser.close()

关闭浏览器对象

关于launch()中的配置参数:

在运行launch()时没有下载Chromium会自动下载。

[W:pyppeteer.chromium_downloader] start chromium download.
Download may take a few minutes.

  4%|▍         | 5365760/127496521 [00:15<08:18, 244829.50it/s]

其中browser = await launch(),中options是字典,配置如:browser = await launch({‘headless’:True})是配置无头模式,其余常用配置字段如下:

async def launch(options: dict = None, **kwargs: Any) -> Browser:
*`` ignorehttpserrrors``(bool):是否忽略HTTPS错误。默认为‘假’。

*`` headless``(bool):是否在headless模式下运行浏览器。默认为

`` true``除非``appmode````devtools``选项为``true``。

*``可执行路径``(str):要运行的chromium或chrome可执行文件的路径

而不是默认的铬束。

*`` slowmo``(int float):通过指定的毫秒数。

*`` args``(list[str]):要传递给浏览器的附加参数(标志)过程。

*`` ignoredefaultargs``(bool):不要使用Pypeter的默认参数。这个是危险的选择;小心使用。

*`` handlesigint``(bool):在ctrl+c上关闭浏览器进程。默认为‘真’。

*`` handlesigterm``(bool):关闭sigterm上的浏览器进程。默认值“真”。

*`` handlesighup``(bool):关闭浏览器进程。默认为‘真’。

*`` dumpio``(bool):是否通过管道传输浏览器进程stdout和stderr到``process.stdout````process.stderr```。默认为“假”。

*`` userdatadir``(str):用户数据目录的路径。

*`` env``(dict):指定将对浏览器。默认为与python进程相同。

*`` devtools``(bool):是否为每个选项卡自动打开devtools面板。如果此选项为“真”,将设置“无头”选项‘假’。

*`` log level``(int str):打印日志的日志级别。默认与根记录器。

*`` autoclose``(bool):脚本时自动关闭浏览器进程完整的。默认为“真”。

*``循环`(asyncio.abstractEventLoop):事件循环(**experimental**)。

*`` appmode``(bool):已弃用。

Page页面对象元素主要选择器如下

    async def querySelector(self, selector: str) -> Optional[ElementHandle]:
        """Get an Element which matches ``selector``.

    async def queryObjects(self, prototypeHandle: JSHandle) -> JSHandle:
        """Iterate js heap and finds all the objects with the handle.

    async def querySelectorEval(self, selector: str, pageFunction: str,
                                *args: Any) -> Any:
        """Execute function with an element which matches ``selector``.

    async def querySelectorAllEval(self, selector: str, pageFunction: str,
                                   *args: Any) -> Any:
        """Execute function with all elements which matches ``selector``.

    async def querySelectorAll(self, selector: str) -> List[ElementHandle]:
        """Get all element which matches ``selector`` as a list.

    async def xpath(self, expression: str) -> List[ElementHandle]:
        """Evaluate the XPath expression.

        If there are no such elements in this page, return an empty list.

主要是XPath、querySelector、querySelectorAll三个。

后面将持续对pyppeteer库进行系统性的分享,喜欢的欢迎关注不迷路。

相关文章
|
23天前
|
Web App开发 前端开发 JavaScript
探索Python科学计算的边界:利用Selenium进行Web应用性能测试与优化
【10月更文挑战第6天】随着互联网技术的发展,Web应用程序已经成为人们日常生活和工作中不可或缺的一部分。这些应用不仅需要提供丰富的功能,还必须具备良好的性能表现以保证用户体验。性能测试是确保Web应用能够快速响应用户请求并处理大量并发访问的关键步骤之一。本文将探讨如何使用Python结合Selenium来进行Web应用的性能测试,并通过实际代码示例展示如何识别瓶颈及优化应用。
80 5
|
2天前
|
数据采集 存储 数据挖掘
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第27天】在数据分析领域,Python的Pandas库因其强大的数据处理能力而备受青睐。本文介绍了Pandas在数据导入、清洗、转换、聚合、时间序列分析和数据合并等方面的高效技巧,帮助数据分析师快速处理复杂数据集,提高工作效率。
11 0
|
1天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
15 7
|
17天前
|
网络协议 数据库连接 Python
python知识点100篇系列(17)-替换requests的python库httpx
【10月更文挑战第4天】Requests 是基于 Python 开发的 HTTP 库,使用简单,功能强大。然而,随着 Python 3.6 的发布,出现了 Requests 的替代品 —— httpx。httpx 继承了 Requests 的所有特性,并增加了对异步请求的支持,支持 HTTP/1.1 和 HTTP/2,能够发送同步和异步请求,适用于 WSGI 和 ASGI 应用。安装使用 httpx 需要 Python 3.6 及以上版本,异步请求则需要 Python 3.8 及以上。httpx 提供了 Client 和 AsyncClient,分别用于优化同步和异步请求的性能。
python知识点100篇系列(17)-替换requests的python库httpx
|
3天前
|
数据采集 Web App开发 前端开发
Python爬虫进阶:Selenium在动态网页抓取中的实战
【10月更文挑战第26天】动态网页抓取是网络爬虫的难点,因为数据通常通过JavaScript异步加载。Selenium通过模拟浏览器行为,可以加载和执行JavaScript,从而获取动态网页的完整内容。本文通过实战案例,介绍如何使用Selenium在Python中抓取动态网页。首先安装Selenium库和浏览器驱动,然后通过示例代码展示如何抓取英国国家美术馆的图片信息。
23 6
|
1天前
|
机器学习/深度学习 数据采集 算法
Python机器学习:Scikit-learn库的高效使用技巧
【10月更文挑战第28天】Scikit-learn 是 Python 中最受欢迎的机器学习库之一,以其简洁的 API、丰富的算法和良好的文档支持而受到开发者喜爱。本文介绍了 Scikit-learn 的高效使用技巧,包括数据预处理(如使用 Pipeline 和 ColumnTransformer)、模型选择与评估(如交叉验证和 GridSearchCV)以及模型持久化(如使用 joblib)。通过这些技巧,你可以在机器学习项目中事半功倍。
12 3
|
4天前
|
数据采集 数据可视化 数据处理
如何使用Python实现一个交易策略。主要步骤包括:导入所需库(如`pandas`、`numpy`、`matplotlib`)
本文介绍了如何使用Python实现一个交易策略。主要步骤包括:导入所需库(如`pandas`、`numpy`、`matplotlib`),加载历史数据,计算均线和其他技术指标,实现交易逻辑,记录和可视化交易结果。示例代码展示了如何根据均线交叉和价格条件进行开仓、止损和止盈操作。实际应用时需注意数据质量、交易成本和风险管理。
18 5
|
3天前
|
存储 数据挖掘 数据处理
Python数据分析:Pandas库的高效数据处理技巧
【10月更文挑战第26天】Python 是数据分析领域的热门语言,Pandas 库以其高效的数据处理功能成为数据科学家的利器。本文介绍 Pandas 在数据读取、筛选、分组、转换和合并等方面的高效技巧,并通过示例代码展示其实际应用。
14 1
|
12天前
|
数据可视化 数据挖掘 Python
Seaborn 库创建吸引人的统计图表
【10月更文挑战第11天】本文介绍了如何使用 Seaborn 库创建多种统计图表,包括散点图、箱线图、直方图、线性回归图、热力图等。通过具体示例和代码,展示了 Seaborn 在数据可视化中的强大功能和灵活性,帮助读者更好地理解和应用这一工具。
29 3
|
22天前
|
数据采集 Web App开发 数据可视化
Python爬虫教程:Selenium可视化爬虫的快速入门
Python爬虫教程:Selenium可视化爬虫的快速入门