深入探索 Python 爬虫:高级技术与实战应用

简介: 本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。

一、引言

Python 爬虫是一种强大的数据采集工具,它可以帮助我们从互联网上自动获取大量有价值的信息。在这篇文章中,我们将深入探讨 Python 爬虫的高级技术,包括并发处理、反爬虫策略应对、数据存储与处理等方面。通过实际的代码示例和详细的解释,读者将能够掌握更高级的爬虫技巧,提升爬虫的效率和稳定性。

二、高级爬虫技术

并发与异步处理

使用 asyncio 库实现异步爬虫,提高爬虫的效率。

示例代码:

import asyncio
import aiohttp

async def fetch(url):
    async with aiohttp.ClientSession() as session:
        async with session.get(url) as response:
            return await response.text()

async def main():
    urls = ['https://example.com/page1', 'https://example.com/page2', 'https://example.com/page3']
    tasks = [fetch(url) for url in urls]
    results = await asyncio.gather(*tasks)
    for result in results:
        print(result)

if __name__ == '__main__':
    asyncio.run(main())

反爬虫策略应对

处理验证码:使用 tesseract 库进行验证码识别。

模拟登录:通过 requests 库发送登录请求,保持会话状态。

示例代码:

import requests
from PIL import Image
import pytesseract

def handle_captcha(image_url):
    response = requests.get(image_url)
    with open('captcha.jpg', 'wb') as f:
        f.write(response.content)
    image = Image.open('captcha.jpg')
    captcha_text = pytesseract.image_to_string(image)
    return captcha_text

def simulate_login(username, password):
    session = requests.Session()
    login_url = 'https://example.com/login'
    data = {
        'username': username,
        'password': password
    }
    response = session.post(login_url, data=data)
    # 检查登录是否成功
    if response.status_code == 200:
        return session
    else:
        return None

数据存储与处理

使用 SQLAlchemy 库将爬取到的数据存储到数据库中。

对数据进行清洗和预处理,使用 pandas 库进行数据分析。

示例代码:

from sqlalchemy import create_engine
import pandas as pd

engine = create_engine('sqlite:///data.db')

def save_data_to_db(data):
    df = pd.DataFrame(data)
    df.to_sql('data_table', con=engine, if_exists='append', index=False)

def process_data():
    df = pd.read_sql_query('SELECT * FROM data_table', con=engine)
    # 进行数据清洗和预处理
    cleaned_df = df.dropna()
    # 进行数据分析
    analysis_result = cleaned_df.describe()
    print(analysis_result)

三、实战应用

爬取电商网站商品信息

分析商品页面结构,提取商品名称、价格、评价等信息。

处理分页和动态加载的内容。

示例代码:

import requests
from bs4 import BeautifulSoup

def scrape_product_info(url):
    response = requests.get(url)
    soup = BeautifulSoup(response.text, 'html.parser')
    product_name = soup.find('h1', class_='product-name').text
    price = soup.find('span', class_='price').text
    rating = soup.find('div', class_='rating').text
    return {
        'product_name': product_name,
        'price': price,
        'rating': rating
    }

def scrape_ecommerce_site():
    base_url = 'https://example.com/products'
    page = 1
    while True:
        url = f'{base_url}?page={page}'
        response = requests.get(url)
        soup = BeautifulSoup(response.text, 'html.parser')
        products = soup.find_all('div', class_='product')
        if not products:
            break
        for product in products:
            product_info = scrape_product_info(product['href'])
            save_data_to_db(product_info)
        page += 1

爬取新闻网站文章内容

提取文章标题、正文、发布时间等信息。

处理文章列表页和详情页的跳转。

示例代码:

import requests
from bs4 import BeautifulSoup

def scrape_article_info(url):
    response = requests.get(url)
    soup = BeautifulSoup(response.text, 'html.parser')
    title = soup.find('h1', class_='article-title').text
    content = soup.find('div', class_='article-content').text
    publish_time = soup.find('span', class_='publish-time').text
    return {
        'title': title,
        'content': content,
        'publish_time': publish_time
    }

def scrape_news_site():
    base_url = 'https://example.com/news'
    response = requests.get(base_url)
    soup = BeautifulSoup(response.text, 'html.parser')
    articles = soup.find_all('a', class_='article-link')
    for article in articles:
        article_url = article['href']
        article_info = scrape_article_info(article_url)
        save_data_to_db(article_info)

四、总结

通过本文的学习,我们掌握了 Python 爬虫的高级技术,包括并发处理、反爬虫策略应对、数据存储与处理等方面。在实战应用中,我们通过爬取电商网站商品信息和新闻网站文章内容,进一步巩固了所学的知识。希望读者能够在实际项目中灵活运用这些技术,开发出高效、稳定的爬虫程序。

请注意,在实际应用中,爬虫行为需要遵守法律法规和网站的使用规则,避免对网站造成不必要的负担和法律风险。

以上内容仅供学习参考,实际使用时请根据具体情况进行调整和优化。
本文部分代码转自:https://www.wodianping.com/app/2024-10/37518.html

目录
相关文章
|
17天前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
13天前
|
机器学习/深度学习 算法 大数据
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
2024“华为杯”数学建模竞赛,对ABCDEF每个题进行详细的分析,涵盖风电场功率优化、WLAN网络吞吐量、磁性元件损耗建模、地理环境问题、高速公路应急车道启用和X射线脉冲星建模等多领域问题,解析了问题类型、专业和技能的需要。
2549 19
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
|
13天前
|
机器学习/深度学习 算法 数据可视化
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
2024年中国研究生数学建模竞赛C题聚焦磁性元件磁芯损耗建模。题目背景介绍了电能变换技术的发展与应用,强调磁性元件在功率变换器中的重要性。磁芯损耗受多种因素影响,现有模型难以精确预测。题目要求通过数据分析建立高精度磁芯损耗模型。具体任务包括励磁波形分类、修正斯坦麦茨方程、分析影响因素、构建预测模型及优化设计条件。涉及数据预处理、特征提取、机器学习及优化算法等技术。适合电气、材料、计算机等多个专业学生参与。
1543 16
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
|
9天前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
11天前
|
人工智能 IDE 程序员
期盼已久!通义灵码 AI 程序员开启邀测,全流程开发仅用几分钟
在云栖大会上,阿里云云原生应用平台负责人丁宇宣布,「通义灵码」完成全面升级,并正式发布 AI 程序员。
|
15天前
|
编解码 JSON 自然语言处理
通义千问重磅开源Qwen2.5,性能超越Llama
击败Meta,阿里Qwen2.5再登全球开源大模型王座
702 14
|
10天前
|
人工智能 开发框架 Java
重磅发布!AI 驱动的 Java 开发框架:Spring AI Alibaba
随着生成式 AI 的快速发展,基于 AI 开发框架构建 AI 应用的诉求迅速增长,涌现出了包括 LangChain、LlamaIndex 等开发框架,但大部分框架只提供了 Python 语言的实现。但这些开发框架对于国内习惯了 Spring 开发范式的 Java 开发者而言,并非十分友好和丝滑。因此,我们基于 Spring AI 发布并快速演进 Spring AI Alibaba,通过提供一种方便的 API 抽象,帮助 Java 开发者简化 AI 应用的开发。同时,提供了完整的开源配套,包括可观测、网关、消息队列、配置中心等。
535 5
|
4天前
|
Docker 容器
Docker操作 (五)
Docker操作 (五)
143 68
|
4天前
|
Docker 容器
Docker操作 (三)
Docker操作 (三)
133 69
|
15天前
|
人工智能 自动驾驶 机器人
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界
过去22个月,AI发展速度超过任何历史时期,但我们依然还处于AGI变革的早期。生成式AI最大的想象力,绝不是在手机屏幕上做一两个新的超级app,而是接管数字世界,改变物理世界。
565 49
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界