Python爬取知乎评论:多线程与异步爬虫的性能优化

简介: Python爬取知乎评论:多线程与异步爬虫的性能优化
  1. 知乎评论爬取的技术挑战
    知乎的评论数据通常采用动态加载(Ajax),这意味着直接使用requests+BeautifulSoup无法获取完整数据。此外,知乎还设置了反爬机制,包括:
    ● 请求头(Headers)验证(如User-Agent、Referer)
    ● Cookie/Session 校验(未登录用户只能获取部分数据)
    ● 频率限制(频繁请求可能导致IP被封)
    因此,我们需要:
  2. 模拟浏览器请求(携带Headers和Cookies)
  3. 解析动态API接口(而非静态HTML)
  4. 优化爬取速度(多线程/异步)
  5. 获取知乎评论API分析
    (1)查找评论API
    打开知乎任意一个问题(如 https://www.zhihu.com/question/xxxxxx),按F12进入开发者工具,切换到Network选项卡,筛选XHR请求
    (2)解析评论数据结构
    评论通常嵌套在data字段中,结构如下:
    "data": [
     {
       "content": "评论内容",
       "author": { "name": "用户名" },
       "created_time": 1620000000
     }
    ],
    "paging": { "is_end": false, "next": "下一页URL" }
    }
    
    我们需要递归翻页(paging.next)爬取所有评论。
  6. Python爬取知乎评论的三种方式
    (1)单线程爬虫(基准测试)
    使用requests库直接请求API,逐页爬取:
    ```import requests
    import time

def fetch_comments(question_id, max_pages=5):
base_url = f"https://www.zhihu.com/api/v4/questions/{question_id}/answers"
headers = {
"User-Agent": "Mozilla/5.0",
"Cookie": "你的Cookie" # 登录后获取
}
comments = []
for page in range(max_pages):
url = f"{base_url}?offset={page * 10}&limit=10"
resp = requests.get(url, headers=headers).json()
for answer in resp["data"]:
comments.append(answer["content"])
time.sleep(1) # 避免请求过快
return comments

start_time = time.time()
comments = fetch_comments("12345678") # 替换为知乎问题ID
print(f"单线程爬取完成,耗时:{time.time() - start_time:.2f}秒")

缺点:逐页请求,速度慢(假设每页1秒,10页需10秒)。
(2)多线程爬虫(ThreadPoolExecutor)
使用concurrent.futures实现多线程并发请求:
```from concurrent.futures import ThreadPoolExecutor

def fetch_page(page, question_id):
    url = f"https://www.zhihu.com/api/v4/questions/{question_id}/answers?offset={page * 10}&limit=10"
    headers = {"User-Agent": "Mozilla/5.0"}
    resp = requests.get(url, headers=headers).json()
    return [answer["content"] for answer in resp["data"]]

def fetch_comments_multi(question_id, max_pages=5, threads=4):
    with ThreadPoolExecutor(max_workers=threads) as executor:
        futures = [executor.submit(fetch_page, page, question_id) for page in range(max_pages)]
        comments = []
        for future in futures:
            comments.extend(future.result())
    return comments

start_time = time.time()
comments = fetch_comments_multi("12345678", threads=4)
print(f"多线程爬取完成,耗时:{time.time() - start_time:.2f}秒")

优化点:
● 线程池控制并发数(避免被封)
● 比单线程快约3-4倍(4线程爬10页仅需2-3秒)
(3)异步爬虫(Asyncio + aiohttp)
使用aiohttp实现异步HTTP请求,进一步提高效率:
```import aiohttp
import asyncio
import time

代理配置

proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

async def fetch_page_async(session, page, question_id):
url = f"https://www.zhihu.com/api/v4/questions/{question_id}/answers?offset={page * 10}&limit=10"
headers = {"User-Agent": "Mozilla/5.0"}
async with session.get(url, headers=headers) as resp:
data = await resp.json()
return [answer["content"] for answer in data["data"]]

async def fetch_comments_async(question_id, max_pages=5):

# 设置代理连接器
proxy_auth = aiohttp.BasicAuth(proxyUser, proxyPass)
connector = aiohttp.TCPConnector(
    limit=20,  # 并发连接数限制
    force_close=True,
    enable_cleanup_closed=True,
    proxy=f"http://{proxyHost}:{proxyPort}",
    proxy_auth=proxy_auth
)

async with aiohttp.ClientSession(connector=connector) as session:
    tasks = [fetch_page_async(session, page, question_id) for page in range(max_pages)]
    comments = await asyncio.gather(*tasks)
return [item for sublist in comments for item in sublist]

if name == "main":
start_time = time.time()
comments = asyncio.run(fetch_comments_async("12345678")) # 替换为知乎问题ID
print(f"异步爬取完成,耗时:{time.time() - start_time:.2f}秒")
print(f"共获取 {len(comments)} 条评论")
```
优势:
● 无GIL限制,比多线程更高效
● 适合高并发IO密集型任务(如爬虫)

  1. 性能对比与优化建议
    爬取方式 10页耗时(秒) 适用场景
    单线程 ~10 少量数据,简单爬取
    多线程(4线程) ~2.5 中等规模,需控制并发
    异步(Asyncio) ~1.8 大规模爬取,高并发需求
    优化建议
  2. 控制并发数:避免触发反爬(建议10-20并发)。
  3. 随机延迟:time.sleep(random.uniform(0.5, 2)) 模拟人类操作。
  4. 代理IP池:防止IP被封(如使用requests+ProxyPool)。
  5. 数据存储优化:异步写入数据库(如MongoDB或MySQL)。
相关文章
|
6月前
|
Java 调度 数据库
Python threading模块:多线程编程的实战指南
本文深入讲解Python多线程编程,涵盖threading模块的核心用法:线程创建、生命周期、同步机制(锁、信号量、条件变量)、线程通信(队列)、守护线程与线程池应用。结合实战案例,如多线程下载器,帮助开发者提升程序并发性能,适用于I/O密集型任务处理。
619 0
|
6月前
|
数据采集 人工智能 JSON
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
Prompt 工程实战:如何让 AI 生成高质量的 aiohttp 异步爬虫代码
|
8月前
|
数据采集 消息中间件 并行计算
Python多线程与多进程性能对比:从原理到实战的深度解析
在Python编程中,多线程与多进程是提升并发性能的关键手段。本文通过实验数据、代码示例和通俗比喻,深入解析两者在不同任务类型下的性能表现,帮助开发者科学选择并发策略,优化程序效率。
627 1
|
8月前
|
并行计算 算法 Java
Python3解释器深度解析与实战教程:从源码到性能优化的全路径探索
Python解释器不止CPython,还包括PyPy、MicroPython、GraalVM等,各具特色,适用于不同场景。本文深入解析Python解释器的工作原理、内存管理机制、GIL限制及其优化策略,并介绍性能调优工具链及未来发展方向,助力开发者提升Python应用性能。
478 0
|
8月前
|
数据采集 机器学习/深度学习 监控
代理IP并发控制:多线程爬虫的加速引擎
在数据采集领域,多线程爬虫结合代理IP并发控制技术,有效突破反爬机制。通过动态代理池与智能并发策略,显著提升采集效率并降低封禁率,成为高效数据抓取的关键方案。
280 0
|
9月前
|
数据采集 监控 调度
干货分享“用 多线程 爬取数据”:单线程 + 协程的效率反超 3 倍,这才是 Python 异步的正确打开方式
在 Python 爬虫中,多线程因 GIL 和切换开销效率低下,而协程通过用户态调度实现高并发,大幅提升爬取效率。本文详解协程原理、实战对比多线程性能,并提供最佳实践,助你掌握异步爬虫核心技术。
|
9月前
|
数据采集 存储 C++
Python异步爬虫(aiohttp)加速微信公众号图片下载
Python异步爬虫(aiohttp)加速微信公众号图片下载
|
9月前
|
人工智能 安全 调度
Python并发编程之线程同步详解
并发编程在Python中至关重要,线程同步确保多线程程序正确运行。本文详解线程同步机制,包括互斥锁、信号量、事件、条件变量和队列,探讨全局解释器锁(GIL)的影响及解决线程同步问题的最佳实践,如避免全局变量、使用线程安全数据结构、精细化锁的使用等。通过示例代码帮助开发者理解并提升多线程程序的性能与可靠性。
280 0
|
9月前
|
数据采集 存储 Java
多线程Python爬虫:加速大规模学术文献采集
多线程Python爬虫:加速大规模学术文献采集

推荐镜像

更多