Python+Selenium爬虫:豆瓣登录反反爬策略解析

简介: Python+Selenium爬虫:豆瓣登录反反爬策略解析
  1. 引言
    在当今互联网时代,数据抓取(爬虫)技术广泛应用于数据分析、市场调研、自动化测试等领域。然而,许多网站采用动态加载技术(如Ajax、React、Vue.js等框架)来渲染页面,传统的requests库无法直接获取动态生成的内容。这时,Selenium成为解决动态页面爬取的重要工具。
    豆瓣作为一个典型的动态加载网站,其登录页面涉及表单提交、动态验证码、Ajax请求等复杂交互。本文将通过Python + Selenium,详细介绍如何模拟登录豆瓣,并处理动态加载的登录页面。
  2. 技术选型与准备工作
    2.1 为什么选择Selenium?
    ● 模拟真实浏览器行为:Selenium可以控制浏览器(如Chrome、Firefox)执行点击、输入、滚动等操作,适用于动态页面。
    ● 处理JavaScript渲染:传统爬虫(如requests)无法执行JS,而Selenium可以完整加载动态内容。
    ● 应对反爬机制:豆瓣等网站可能有验证码、IP限制,Selenium可模拟人类操作降低被封风险。
    2.2 环境准备
    ● Python 3.8+
    ● Selenium库(pip install selenium)
    ● 浏览器驱动(如ChromeDriver)
    ○ 下载地址:ChromeDriver官网
    ○ 确保驱动版本与浏览器匹配,并加入系统PATH。
  3. 分析豆瓣登录页面的动态加载机制
    3.1 豆瓣登录页面结构
    访问豆瓣登录页(https://accounts.douban.com/passport/login),可以发现:
    ● 默认显示二维码登录,需点击切换至账号密码登录。
    ● 输入账号密码后,可能触发动态验证码(如滑块、短信验证码)。
    ● 登录成功后,页面通过Ajax跳转,而非传统表单提交。
    3.2 动态加载的挑战
    ● 元素延迟加载:部分DOM元素在交互后才会出现(如验证码)。
    ● Ajax异步请求:登录状态通过JS动态返回,需等待页面更新。
    ● 反爬检测:频繁请求可能触发IP限制或验证码。
  4. Selenium自动化登录豆瓣实战
    4.1 初始化Selenium WebDriver
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    import time

配置Chrome选项(无头模式、禁用自动化提示)

options = webdriver.ChromeOptions()
options.add_argument("--disable-blink-features=AutomationControlled")
options.add_experimental_option("excludeSwitches", ["enable-automation"])

启动浏览器

driver = webdriver.Chrome(options=options)
driver.get("https://accounts.douban.com/passport/login")
4.2 切换至账号密码登录
默认页面是二维码登录,需点击切换:

等待并点击“密码登录”标签

switch_login = WebDriverWait(driver, 10).until(
EC.presence_of_element_located((By.XPATH, '//*[@class="account-tab-account"]'))
switch_login.click()
4.3 输入账号和密码

定位输入框并填写信息

username = driver.find_element(By.ID, "username")
password = driver.find_element(By.ID, "password")

username.send_keys("your_email@example.com") # 替换为你的豆瓣账号
password.send_keys("your_password") # 替换为你的密码
4.4 提交登录并等待跳转

点击登录按钮

login_button = driver.find_element(By.XPATH, '//a[@class="btn btn-account"]')
login_button.click()

等待登录成功(检查是否跳转到首页)

WebDriverWait(driver, 10).until(
EC.url_contains("www.douban.com"))
print("登录成功!当前页面:", driver.current_url)

  1. 完整代码示例
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.common.action_chains import ActionChains
    import time
    import random

代理配置

proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

配置浏览器选项

options = webdriver.ChromeOptions()
options.add_argument("--disable-blink-features=AutomationControlled")
options.add_experimental_option("excludeSwitches", ["enable-automation"])

添加代理认证

options.add_argument(f'--proxy-server=http://{proxyHost}:{proxyPort}')
options.add_extension = None # 禁用扩展

启动浏览器

driver = webdriver.Chrome(options=options)

处理代理认证(使用AutoAuth插件)

def enable_proxy_auth(proxyUser, proxyPass):
from selenium.webdriver.common.proxy import Proxy, ProxyType
proxy = Proxy({
'proxyType': ProxyType.MANUAL,
'httpProxy': f'{proxyHost}:{proxyPort}',
'sslProxy': f'{proxyHost}:{proxyPort}',
'noProxy': ''
})
proxy.add_to_capabilities(options.to_capabilities())

enable_proxy_auth(proxyUser, proxyPass)

try:

# 访问登录页
driver.get("https://accounts.douban.com/passport/login")

# 切换至账号登录
WebDriverWait(driver, 10).until(
    EC.element_to_be_clickable((By.XPATH, '//*[@class="account-tab-account"]'))
).click()

# 模拟人类输入
def human_type(element, text):
    """模拟人类输入(带随机延迟)"""
    for char in text:
        element.send_keys(char)
        time.sleep(random.uniform(0.1, 0.3))

username = driver.find_element(By.ID, "username")
password = driver.find_element(By.ID, "password")

ActionChains(driver).move_to_element(username).click().perform()
human_type(username, "your_email@example.com")  # 替换为你的账号

ActionChains(driver).move_to_element(password).click().perform()
human_type(password, "your_password")  # 替换为你的密码

# 处理验证码(如有)
try:
    captcha = WebDriverWait(driver, 5).until(
        EC.presence_of_element_located((By.ID, "captcha_image")))
    if captcha:
        print("检测到验证码,请手动处理或调用OCR")
        time.sleep(15)  # 留出时间手动输入
except:
    print("无验证码,继续执行")

# 提交登录
login_btn = driver.find_element(By.XPATH, '//a[@class="btn btn-account"]')
ActionChains(driver).move_to_element(login_btn).click().perform()

# 等待登录成功
try:
    WebDriverWait(driver, 10).until(
        EC.url_contains("www.douban.com"))
    print("登录成功!当前URL:", driver.current_url)
except:
    print("登录失败,可能触发反爬")

# 获取Cookies
cookies = driver.get_cookies()
print("登录后的Cookies:", cookies)

finally:
driver.quit() # 关闭浏览器

  1. 总结
    本文通过Selenium实现了豆瓣动态登录页面的自动化操作,涵盖:
  2. 动态页面元素定位(如切换登录方式、输入表单)。
  3. 验证码处理(手动干预或自动化识别)。
  4. 反反爬优化(修改浏览器指纹、代理IP、无头模式)。
    适用场景:
    ● 需要登录才能抓取的数据(如用户主页、私密内容)。
    ● 动态渲染的SPA(单页应用)网站爬取。
    进一步优化方向:
    ● 结合requests+cookies提高效率(避免每次启动浏览器)。
    ● 使用OCR自动识别验证码(如Tesseract、打码平台)。
相关文章
|
3月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
3月前
|
数据采集 运维 监控
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
本文系统解析爬虫与自动化核心技术,涵盖HTTP请求、数据解析、分布式架构及反爬策略,结合Scrapy、Selenium等框架实战,助力构建高效、稳定、合规的数据采集系统。
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
|
3月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
3月前
|
数据采集 存储 JSON
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
|
3月前
|
数据采集 机器学习/深度学习 人工智能
反爬虫机制深度解析:从基础防御到高级对抗的完整技术实战
本文系统阐述了反爬虫技术的演进与实践,涵盖基础IP限制、User-Agent检测,到验证码、行为分析及AI智能识别等多层防御体系,结合代码实例与架构图,全面解析爬虫攻防博弈,并展望智能化、合规化的发展趋势。
1044 0
反爬虫机制深度解析:从基础防御到高级对抗的完整技术实战
|
3月前
|
数据采集 存储 JavaScript
解析Python爬虫中的Cookies和Session管理
Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。
|
9月前
|
数据采集 测试技术 C++
无headers爬虫 vs 带headers爬虫:Python性能对比
无headers爬虫 vs 带headers爬虫:Python性能对比
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
592 6
|
9月前
|
数据采集 存储 监控
Python 原生爬虫教程:网络爬虫的基本概念和认知
网络爬虫是一种自动抓取互联网信息的程序,广泛应用于搜索引擎、数据采集、新闻聚合和价格监控等领域。其工作流程包括 URL 调度、HTTP 请求、页面下载、解析、数据存储及新 URL 发现。Python 因其丰富的库(如 requests、BeautifulSoup、Scrapy)和简洁语法成为爬虫开发的首选语言。然而,在使用爬虫时需注意法律与道德问题,例如遵守 robots.txt 规则、控制请求频率以及合法使用数据,以确保爬虫技术健康有序发展。
1344 31
|
8月前
|
数据采集 存储 NoSQL
分布式爬虫去重:Python + Redis实现高效URL去重
分布式爬虫去重:Python + Redis实现高效URL去重

推荐镜像

更多