python爬虫selenium页面滑动案例

简介: python爬虫selenium页面滑动案例

一个python网络爬虫关于selenium页面滑动的简单案例
需求如下:
selenium访问链家网站长沙新房1-5页的数据,并保存下来。滑动,然后点击翻页翻页数据,并保存下来
目标网站:https://cs.fang.lianjia.com/loupan/
过程要求使用面向对象的写法。

代码示例:

from selenium import webdriver
from selenium.webdriver.common.by import By
import time

# 定义类
class LianJia(object):
    def __init__(self):
        self.driver = webdriver.Chrome()
        # 打开页面
        self.driver.get('https://cs.fang.lianjia.com/loupan/')

    def clear_driver(self):
        # 关闭驱动
        self.driver.close()
        self.driver.quit()
    
    # 代码核心部分
    def scroll(self):
        while True:
            # 滑动之前的页面高度
            document = self.driver.execute_script('return document.body.scrollHeight;')
            time.sleep(2)
            # 滑动页面
            self.driver.execute_script(f'window.scrollTo(0,{
      document})')
            time.sleep(2)
            # 滑动之后的页面高度
            document2 = self.driver.execute_script('return document.body.scrollHeight;')
            # 比较滑动前与滑动后的高度
            if document == document2:
                break
    # 定义翻页函数
    def up_page(self):
        time.sleep(1)
        # 点击下一页
        self.driver.find_element(By.XPATH,'//*[text()="下一页"]').click()

    # 定义保存页面源码函数
    def save_page(self, n=1):
        time.sleep(2)
        # 保存数据
        with open(f'第{
      n}页.html', 'w', encoding='utf-8') as f:
            f.write(self.driver.page_source)

    # 定义总的执行函数
    def run(self):
        try:
            self.save_page()  # 第一页
            for n in range(2, 6):  # 第二三四五页
                self.scroll()
                self.up_page()
                self.save_page(n)
        except Exception as e:
            print(e)
        finally:
            self.clear_driver()


if __name__ == '__main__':
    lianjia = LianJia()
    lianjia.run()

获取页面源码则对浏览器驱动对象self.driver调用page_source属性。
执行JavaScript代码使用execute_script() 方法。

其中还涉及一点关于翻页的简单的JavaScript代码语句:
document.body.scrollHeight表示获取页面高度,
先获取页面高度,然后使用将页面向下翻动该数量的高度,然后再获取一次页面高度。如果页面高度此时没有发生变化,即判断刚刚的高度等于现在的高度,则说明已经翻到底了,跳出while循环,可以进一步去定位到“下一页”按钮处的element,并使用click() 方法点击。
window.scrollTo(x,y) 表示页面的滑动,滑动到指定位置,这里x轴无需滑动,则将x轴写为0,y轴写入要滑到的位置。
window.scrollBy(x,y) 表示滑动一定单位距离。

这样,翻动并点击的一个简单案例就实现啦。祝您学习顺利!

目录
相关文章
|
6天前
|
数据采集 Web App开发 前端开发
处理动态Token:Python爬虫应对AJAX授权请求的策略
处理动态Token:Python爬虫应对AJAX授权请求的策略
|
6天前
|
数据采集 网络协议 API
协程+连接池:高并发Python爬虫的底层优化逻辑
协程+连接池:高并发Python爬虫的底层优化逻辑
|
1月前
|
数据采集 存储 JSON
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
|
15天前
|
数据采集 存储 Web App开发
处理Cookie和Session:让Python爬虫保持连贯的"身份"
处理Cookie和Session:让Python爬虫保持连贯的"身份"
|
17天前
|
数据采集 监控 Shell
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
Shell脚本利用curl/wget发起请求,结合文本处理工具构建轻量级爬虫,支持并行加速、定时任务、增量抓取及分布式部署。通过随机UA、异常重试等优化提升稳定性,适用于日志监控、价格追踪等场景。相比Python,具备启动快、资源占用低的优势,适合嵌入式或老旧服务器环境,复杂任务可结合Python实现混合编程。
|
19天前
|
数据采集 存储 XML
Python爬虫入门(1)
在互联网时代,数据成为宝贵资源,Python凭借简洁语法和丰富库支持,成为编写网络爬虫的首选。本文介绍Python爬虫基础,涵盖请求发送、内容解析、数据存储等核心环节,并提供环境配置及实战示例,助你快速入门并掌握数据抓取技巧。
|
25天前
|
数据采集 存储 数据可视化
Python网络爬虫在环境保护中的应用:污染源监测数据抓取与分析
在环保领域,数据是决策基础,但分散在多个平台,获取困难。Python网络爬虫技术灵活高效,可自动化抓取空气质量、水质、污染源等数据,实现多平台整合、实时更新、结构化存储与异常预警。本文详解爬虫实战应用,涵盖技术选型、代码实现、反爬策略与数据分析,助力环保数据高效利用。
94 0
|
27天前
|
数据采集 Web App开发 JSON
Python爬虫基本原理与HTTP协议详解:从入门到实践
本文介绍了Python爬虫的核心知识,涵盖HTTP协议基础、请求与响应流程、常用库(如requests、BeautifulSoup)、反爬应对策略及实战案例(如爬取豆瓣电影Top250),帮助读者系统掌握数据采集技能。
171 0
|
1月前
|
数据采集 监控 调度
应对频率限制:设计智能延迟的微信读书Python爬虫
应对频率限制:设计智能延迟的微信读书Python爬虫
|
1月前
|
数据采集 机器学习/深度学习 数据可视化
Python量化交易:结合爬虫与TA-Lib技术指标分析
Python量化交易:结合爬虫与TA-Lib技术指标分析

热门文章

最新文章

推荐镜像

更多