python爬虫selenium页面滑动案例

简介: python爬虫selenium页面滑动案例

一个python网络爬虫关于selenium页面滑动的简单案例
需求如下:
selenium访问链家网站长沙新房1-5页的数据,并保存下来。滑动,然后点击翻页翻页数据,并保存下来
目标网站:https://cs.fang.lianjia.com/loupan/
过程要求使用面向对象的写法。

代码示例:

from selenium import webdriver
from selenium.webdriver.common.by import By
import time

# 定义类
class LianJia(object):
    def __init__(self):
        self.driver = webdriver.Chrome()
        # 打开页面
        self.driver.get('https://cs.fang.lianjia.com/loupan/')

    def clear_driver(self):
        # 关闭驱动
        self.driver.close()
        self.driver.quit()
    
    # 代码核心部分
    def scroll(self):
        while True:
            # 滑动之前的页面高度
            document = self.driver.execute_script('return document.body.scrollHeight;')
            time.sleep(2)
            # 滑动页面
            self.driver.execute_script(f'window.scrollTo(0,{
      document})')
            time.sleep(2)
            # 滑动之后的页面高度
            document2 = self.driver.execute_script('return document.body.scrollHeight;')
            # 比较滑动前与滑动后的高度
            if document == document2:
                break
    # 定义翻页函数
    def up_page(self):
        time.sleep(1)
        # 点击下一页
        self.driver.find_element(By.XPATH,'//*[text()="下一页"]').click()

    # 定义保存页面源码函数
    def save_page(self, n=1):
        time.sleep(2)
        # 保存数据
        with open(f'第{
      n}页.html', 'w', encoding='utf-8') as f:
            f.write(self.driver.page_source)

    # 定义总的执行函数
    def run(self):
        try:
            self.save_page()  # 第一页
            for n in range(2, 6):  # 第二三四五页
                self.scroll()
                self.up_page()
                self.save_page(n)
        except Exception as e:
            print(e)
        finally:
            self.clear_driver()


if __name__ == '__main__':
    lianjia = LianJia()
    lianjia.run()

获取页面源码则对浏览器驱动对象self.driver调用page_source属性。
执行JavaScript代码使用execute_script() 方法。

其中还涉及一点关于翻页的简单的JavaScript代码语句:
document.body.scrollHeight表示获取页面高度,
先获取页面高度,然后使用将页面向下翻动该数量的高度,然后再获取一次页面高度。如果页面高度此时没有发生变化,即判断刚刚的高度等于现在的高度,则说明已经翻到底了,跳出while循环,可以进一步去定位到“下一页”按钮处的element,并使用click() 方法点击。
window.scrollTo(x,y) 表示页面的滑动,滑动到指定位置,这里x轴无需滑动,则将x轴写为0,y轴写入要滑到的位置。
window.scrollBy(x,y) 表示滑动一定单位距离。

这样,翻动并点击的一个简单案例就实现啦。祝您学习顺利!

目录
相关文章
|
6月前
|
Web App开发 存储 前端开发
Python+Selenium自动化爬取携程动态加载游记
Python+Selenium自动化爬取携程动态加载游记
|
3月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
4月前
|
SQL 测试技术 数据库
healenium+python+selenium
上次介绍了如何利用healenium+java+selenium来实现selenium的自愈,这次介绍如何healenium+python+selenium。关于healenium+python+selenium网上资料更少,并且甚至是错误的。在著名的书籍《软件测试权威指南中》也是有一定问题的。现在介绍如下
246 4
|
8月前
|
数据采集 Web App开发 JavaScript
基于Selenium的Python爬虫抓取动态App图片
基于Selenium的Python爬虫抓取动态App图片
604 68
|
4月前
|
设计模式 缓存 运维
Python装饰器实战场景解析:从原理到应用的10个经典案例
Python装饰器是函数式编程的精华,通过10个实战场景,从日志记录、权限验证到插件系统,全面解析其应用。掌握装饰器,让代码更优雅、灵活,提升开发效率。
345 0
|
6月前
|
数据采集 存储 NoSQL
Python爬虫案例:Scrapy+XPath解析当当网网页结构
Python爬虫案例:Scrapy+XPath解析当当网网页结构
|
7月前
|
数据可视化 算法 数据挖掘
Python 3D数据可视化:7个实用案例助你快速上手
本文介绍了基于 Python Matplotlib 库的七种三维数据可视化技术,涵盖线性绘图、散点图、曲面图、线框图、等高线图、三角剖分及莫比乌斯带建模。通过具体代码示例和输出结果,展示了如何配置三维投影环境并实现复杂数据的空间表示。这些方法广泛应用于科学计算、数据分析与工程领域,帮助揭示多维数据中的空间关系与规律,为深入分析提供技术支持。
320 0
Python 3D数据可视化:7个实用案例助你快速上手
|
8月前
|
数据采集 Web App开发 前端开发
Python+Selenium爬虫:豆瓣登录反反爬策略解析
Python+Selenium爬虫:豆瓣登录反反爬策略解析
|
9月前
|
数据采集 搜索推荐 API
Python 原生爬虫教程:京东商品列表页面数据API
京东商品列表API是电商大数据分析的重要工具,支持开发者、商家和研究人员获取京东平台商品数据。通过关键词搜索、分类筛选、价格区间等条件,可返回多维度商品信息(如名称、价格、销量等),适用于市场调研与推荐系统开发。本文介绍其功能并提供Python请求示例。接口采用HTTP GET/POST方式,支持分页、排序等功能,满足多样化数据需求。
|
9月前
|
数据采集 存储 NoSQL
如何避免Python爬虫重复抓取相同页面?
如何避免Python爬虫重复抓取相同页面?

推荐镜像

更多