“所见即所爬”:使用Pyppeteer无头浏览器抓取动态壁纸

本文涉及的产品
RDS MySQL DuckDB 分析主实例,基础系列 4核8GB
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
RDS AI 助手,专业版
简介: “所见即所爬”:使用Pyppeteer无头浏览器抓取动态壁纸

在数据抓取的领域中,我们常常会遇到一个棘手的难题:许多现代网站大量使用JavaScript在用户浏览器中动态地渲染内容。传统的爬虫库(如Requests搭配BeautifulSoup)对此无能为力,因为它们只能获取服务器最初返回的静态HTML文档,而无法执行其中的JS代码来生成最终呈现给用户的完整内容。对于动态壁纸网站这类高度依赖前端交互和动态加载的资源站,传统方法更是束手无策。
此时,"无头浏览器"(Headless Browser)技术便成为了破解这一困境的钥匙。而在Python世界中,除了广为人知的Selenium,一个更轻量、更现代的选择正受到越来越多开发者的青睐——Pyppeteer。它实现了"所见即所爬"的愿景,让你能抓取到任何在真实浏览器中能看到的内容。
一、为何选择Pyppeteer?
Pyppeteer是一个Python库,它提供了对Puppeteer(一个由Chrome团队维护的Node库)的高层级封装。其核心优势在于:

  1. 直接控制Chromium:Pyppeteer通过DevTools协议直接与Chromium浏览器通信,无需额外的WebDriver,因此更加高效和稳定。
  2. 异步高性能:基于asyncio库构建,天生支持异步操作,非常适合编写高性能的爬虫脚本,能轻松处理多个页面或并发任务。
  3. API简洁强大:提供了极其丰富的API来模拟几乎所有真实用户的操作,如点击、输入、滚动、拦截请求、执行JS等,几乎能做到任何手动操作可以做到的事情。
  4. 处理动态内容:能完整地执行页面中的JavaScript,等待Ajax请求完成或元素动态出现,轻松抓取动态生成的内容。
    本文将通过一个实战项目:爬取一个动态壁纸网站,来详细讲解如何使用Pyppeteer。
    二、项目实战:爬取动态壁纸网站
  5. 目标分析与准备
    假设目标网站:我们以一个虚构的动态壁纸网站dynamic-wallpapers.com为例。该网站的特点是:
    ● 壁纸列表通过滚动到底部动态加载更多(无限滚动)。
    ● 每张壁纸的详情页,其高清大图或视频文件的URL由JavaScript计算生成。
    开发环境准备:
    首先,安装必需的库。Pyppeteer在安装时会自动下载兼容版本的Chromium。
  6. 核心代码实现与分步解析
    以下代码将完成以下任务:
  7. 启动浏览器并打开新页面。
  8. 导航到目标壁纸列表页。
  9. 模拟滚动操作,加载全部壁纸列表。
  10. 提取所有壁纸的详情页链接。
  11. 逐个进入详情页,抓取高清壁纸资源(图片或视频)的真实URL。
  12. 下载资源并保存到本地。
    import asyncio
    import os
    from urllib.parse import urljoin
    import aiohttp
    import aiofiles
    from pyppeteer import launch

代理配置信息

proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

构建代理认证字符串(Basic Auth)

proxyAuth = f"http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}"

async def download_file(session, url, filepath):
"""异步下载文件并保存"""
try:
async with session.get(url, proxy=f"http://{proxyHost}:{proxyPort}", proxy_auth=aiohttp.BasicAuth(proxyUser, proxyPass)) as response:
if response.status == 200:
async with aiofiles.open(filepath, 'wb') as f:
await f.write(await response.read())
print(f"成功下载: {filepath}")
else:
print(f"下载失败,状态码: {response.status}, URL: {url}")
except Exception as e:
print(f"下载文件时发生错误: {str(e)}, URL: {url}")

async def main():

# 1. 启动浏览器,配置代理
browser = await launch(
    headless=False, 
    args=[
        '--no-sandbox',
        f'--proxy-server={proxyHost}:{proxyPort}',
        '--disable-web-security',  # 可选,禁用同源策略
        '--disable-features=VizDisplayCompositor'  # 可选,提高稳定性
    ],
    # 设置忽略HTTPS错误(某些代理环境下可能需要)
    ignoreHTTPSErrors=True
)

page = await browser.newPage()

# 设置代理认证(通过JavaScript在页面加载前注入)
await page.setExtraHTTPHeaders({
    'Proxy-Authorization': f'Basic {proxyUser}:{proxyPass}'.encode('base64').strip()
})

# 另一种认证方式:在页面上下文中执行认证
await page.authenticate({'username': proxyUser, 'password': proxyPass})

# 设置视窗大小
await page.setViewport({'width': 1920, 'height': 1080})

try:
    # 2. 导航到列表页
    list_url = 'https://dynamic-wallpapers.com/list'
    print(f"正在访问列表页: {list_url}")
    await page.goto(list_url, waitUntil='networkidle0')

    # 3. 模拟滚动,加载全部内容
    print("开始模拟滚动以加载更多壁纸...")
    scroll_times = 5
    for i in range(scroll_times):
        await page.evaluate('window.scrollTo(0, document.body.scrollHeight)')
        await asyncio.sleep(2)
        print(f"已完成第 {i+1}/{scroll_times} 次滚动")

    # 4. 提取所有壁纸详情页链接
    print("正在提取壁纸链接...")
    wallpaper_links = await page.evaluate('''() => {
        const items = document.querySelectorAll('.wallpaper-item a');
        return Array.from(items).map(a => a.href);
    }''')
    print(f"共找到 {len(wallpaper_links)} 个壁纸链接")

    # 创建保存资源的文件夹
    os.makedirs('wallpapers', exist_ok=True)

    # 使用aiohttp创建会话,配置代理
    connector = aiohttp.TCPConnector(limit=10, verify_ssl=False)  # 限制并发数,忽略SSL验证
    async with aiohttp.ClientSession(
        connector=connector,
        trust_env=True  # 信任环境变量中的代理设置
    ) as session:
        # 5. 遍历每个详情页链接
        for index, detail_url in enumerate(wallpaper_links):
            print(f"正在处理第 {index+1} 个壁纸: {detail_url}")
            detail_page = await browser.newPage()

            # 为新页面也设置代理认证
            await detail_page.authenticate({'username': proxyUser, 'password': proxyPass})
            await detail_page.setViewport({'width': 1920, 'height': 1080})

            try:
                await detail_page.goto(detail_url, waitUntil='networkidle0')

                # 6. 获取资源真实URL
                resource_url = await detail_page.evaluate('''() => {
                    const hdSource = document.querySelector('#hd-source');
                    return hdSource ? hdSource.src : null;
                }''')

                if not resource_url:
                    print(f"未在第 {index+1} 个页面中找到资源URL")
                    await detail_page.close()
                    continue

                # 构建本地文件名
                filename = os.path.join('wallpapers', f"wallpaper_{index+1}{os.path.splitext(resource_url)[1]}")

                # 7. 异步下载资源(通过代理)
                print(f"开始下载: {resource_url}")
                await download_file(session, resource_url, filename)

            except Exception as e:
                print(f"处理详情页 {detail_url} 时发生错误: {str(e)}")
            finally:
                await detail_page.close()

except Exception as e:
    print(f"主流程发生错误: {str(e)}")
finally:
    await browser.close()
    print("浏览器已关闭,任务完成。")

运行主异步函数

if name == 'main':

# 对于高版本Python,使用新的异步运行方式
try:
    asyncio.run(main())
except RuntimeError:
    # 兼容Jupyter等环境
    asyncio.get_event_loop().run_until_complete(main())
  1. 关键技术与难点解析
    ● 等待策略:waitUntil: 'networkidle0' 是等待页面加载完成的关键。对于更精确的控制,可以使用page.waitForSelector(‘.some-class’)来等待某个特定元素出现,这比固定的asyncio.sleep()更加可靠。
    ● 执行JavaScript:page.evaluate()是Pyppeteer的灵魂。它允许你在页面上下文中执行任何JS代码,并获取返回值。这对于提取复杂数据或操作DOM至关重要。
    ● 资源拦截:Pyppeteer可以监听和修改网络请求(page.on(‘request’) / page.on(‘response’))。有时直接拦截下载资源的请求比在DOM中查找URL更高效,尤其对于大型二进制文件。
    ● 反爬虫应对:Pyppeteer虽然强大,但其指纹也可能被网站识别。可以通过args参数注入一些选项来隐藏指纹,例如--disable-blink-features=AutomationControlled,并配合await page.evaluateOnNewDocument(‘delete navigator.webdriver;’)来删除一些暴露的变量。
    三、总结
    通过Pyppeteer,我们成功地构建了一个能够应对现代动态网站的爬虫。它完美地模拟了真实用户的行为:访问页面、滚动、点击、在新标签页中打开链接,最终精准地抓取到了由JavaScript动态生成的壁纸资源地址。
    其异步架构使得爬虫在I/O密集型任务(如网络请求和下载)上表现卓越,效率远超同步方式的工具。尽管Pyppeteer相对于Requests+BeautifulSoup来说资源消耗更大,但在处理复杂动态内容时,它所提供的便利性和成功率是无可替代的。
相关文章
|
数据采集 Web App开发 JSON
浏览器插件:WebScraper基本用法和抓取页面内容(不会编程也能爬取数据)
本文以百度为实战案例演示使用WebScraper插件抓取页面内容保存到文件中。以及WebScraper用法【2月更文挑战第1天】
1905 2
浏览器插件:WebScraper基本用法和抓取页面内容(不会编程也能爬取数据)
|
6月前
|
数据采集 Web App开发 JavaScript
应对反爬:使用Selenium模拟浏览器抓取12306动态旅游产品
应对反爬:使用Selenium模拟浏览器抓取12306动态旅游产品
|
10月前
|
数据采集 Web App开发 监控
如何用Pyppeteer打造高并发无头浏览器采集方案
本文从电商行业数据采集痛点出发,结合 Pyppeteer 高并发无头浏览器技术,打造可配置代理的高效采集方案。通过爬虫代理突破 IP 限制,模拟真实用户行为,实现 Amazon 特价商品数据的稳定抓取与分析。代码示例详细展示了代理集成、并发控制及数据处理流程,实验验证效率提升超 4 倍。该方案助力商业决策、竞品分析,并支持技术扩展与创新应用。
364 13
如何用Pyppeteer打造高并发无头浏览器采集方案
|
11月前
|
数据采集 JavaScript 前端开发
Pyppeteer实战:基于Python的无头浏览器控制新选择
本文详细讲解了如何使用 Pyppeteer 结合爬虫代理高效采集小红书热点推荐信息。通过设置代理 IP、Cookie 和自定义 User-Agent,突破目标网站的反爬机制,实现标题、内容和评论的数据提取。文章结合代码示例与技术关系图谱,清晰展示从数据采集到分析的全流程,为复杂网站的数据获取提供参考。读者可在此基础上优化异常处理、并发抓取等功能,提升爬虫性能。
738 8
|
Web App开发 网络协议 算法
HTTP/2 协议(Wireshark 抓取浏览器加密的 HTTP2)
HTTP/2 协议(Wireshark 抓取浏览器加密的 HTTP2)
918 0
|
Web App开发 数据采集 JavaScript
pyppeteer持久化修改网站检测浏览器的特征值
在互联网前沿具有价值的网站,在反爬虫领域也做出了深有成效的反爬虫措施,其中浏览器环境检测、用户行为检测是目前对爬虫杀伤力最大的两条技术路线;而浏览器环境检测是以webdriver等几十个特征值为基础的爬虫识别; 此前讲过几篇关于浏览器识别的文章: 《selenium的封杀与突破,记录一次出师未捷身...
2043 0
|
Web App开发
selenium 和 phantomJS或chrome浏览器抓取渲染网页
首先pip安装selenium 一、phantomjs 1、下载phantomjs压缩包,解压,把bin文件夹路径加入PATH环境变量 2、代码 #coding=utf-8 import requests import re from pyquery import PyQuery as pq from lxml import etree from bs4 import Beaut
1739 0
|
算法 开发者
Moment.js库是如何处理不同浏览器的时间戳格式差异的?
总的来说,Moment.js 通过一系列的技术手段和策略,有效地处理了不同浏览器的时间戳格式差异,为开发者提供了一个稳定、可靠且易于使用的时间处理工具。
697 156
|
JavaScript 前端开发 数据处理
模板字符串和普通字符串在浏览器和 Node.js 中的性能表现是否一致?
综上所述,模板字符串和普通字符串在浏览器和 Node.js 中的性能表现既有相似之处,也有不同之处。在实际应用中,需要根据具体的场景和性能需求来选择使用哪种字符串处理方式,以达到最佳的性能和开发效率。
366 63