多线程+代理池如何爬取新闻数据

简介: 多线程+代理池如何爬取新闻数据

说到数据爬取,大部分人都会想到使用Scrapy工具,但是仅仅停留在会使用的阶段。但是要真正的成为技术大牛,需要学会更多的爬虫技术,对于爬虫来说突破各种网站的反爬机制也是需要技术能力的。所以今天为了增加对目标网站爬虫机制的理解,我们可以通过手动实现多线程的爬虫过程,同时,引入IP代理池进行基本的反爬操作。
本次使用腾讯新闻网进行爬虫,该网站具有反爬机制,同时数量足够大,多线程效果较为明显。
需要使用到的技术如下
● IP代理池
● 多线程
● 爬虫与反爬
首先,开始分析新闻网的一些数据。经过抓包分析,可知:.https://new.qq.com/d/cd/包含所有新闻数据同时,该地址具有反爬机制,多次访问将会失败的情况。
分析完目标网站的网的数据后,搭建IP代理池,用于反爬作用。由于使用的代理商提供了参考demo,所以本代码里面直接使用的是代理商提供的代码。搭建完IP代理池后,我们开始着手多线程爬取数据的工作。一旦使用多线程,则需要考虑到数据的读写顺序问题。这里使用python中的队列queue进行存储新闻代码,不同线程分别从这个queue中获取新闻代码,并访问指定新闻的数据。由于queue的读取和写入是阻塞的,所以可以确保该过程不会出现读取重复和读取丢失新闻代码的,实现过程如下:
```import asyncio
import aiohttp
import threading
from collections import Counter

定义一个全局变量,用于存储分类结果

categories = Counter()

定义一个函数,用于根据文本内容进行分类

def classify(text):

# 这里可以使用任何文本分类的方法,例如正则表达式、机器学习等
# 这里为了简单起见,只使用了简单的字符串匹配
if "Python" in text:
    return "Python"
elif "Java" in text:
    return "Java"
elif "C++" in text:
    return "C++"
else:
    return "Other"

async def fetch_page(url, proxy):

# 创建一个 aiohttp 的 ClientSession 对象,并指定代理IP和端口
async with aiohttp.ClientSession(proxy=proxy) as session:
    # 使用 session.get 方法发送请求,并获取响应对象
    async with session.get(url) as response:
        # 返回响应的文本内容
        return await response.text()

async def main():
urls = ["https://www.baidu.com/s?wd=" + str(i) for i in range(10)] # 生成十个百度搜索网址

# 假设有一个文件 16yun.txt,每行存储一个代理host和端口,例如 www.16yun.cn:3333
# 读取文件中的所有代理,并存储在一个列表中
with open("16yun.txt") as f:
    proxies = [line.strip() for line in f]

tasks = [] # 创建一个空列表,用于存储 task 对象

# 遍历 urls 和 proxies 列表,为每个 url 配对一个 proxy,并创建 task 对象
for url, proxy in zip(urls, proxies):
    task = asyncio.create_task(fetch_page(url, proxy))
    tasks.append(task)

results = await asyncio.gather(*tasks) # 同时运行所有 task 并获取结果

# 创建一个线程池,用于执行分类任务
pool = threading.ThreadPoolExecutor(max_workers=4)

for result in results:
    print(result[:100]) # 打印每个网页的前 100 个字符

    # 使用线程池提交一个分类任务,并更新全局变量 categories
    category = pool.submit(classify, result).result()
    categories[category] += 1

# 关闭线程池并等待所有任务完成
pool.shutdown(wait=True)

# 打印最终的分类结果
print(categories)

asyncio.run(main()) # 运行主协程
```

相关文章
|
7月前
|
存储 前端开发 Java
【C++ 多线程 】C++并发编程:精细控制数据打印顺序的策略
【C++ 多线程 】C++并发编程:精细控制数据打印顺序的策略
217 1
|
3月前
|
消息中间件 监控 安全
服务Down机了,线程池中的数据如何保证不丢失?
在分布式系统与高并发应用开发中,服务的稳定性和数据的持久性是两个至关重要的考量点。当服务遭遇Down机时,如何确保线程池中处理的数据不丢失,是每一位开发者都需要深入思考的问题。以下,我将从几个关键方面分享如何在这种情况下保障数据的安全与完整性。
78 2
|
1月前
|
消息中间件 监控 Java
线程池关闭时未完成的任务如何保证数据的一致性?
保证线程池关闭时未完成任务的数据一致性需要综合运用多种方法和机制。通过备份与恢复、事务管理、任务状态记录与恢复、数据同步与协调、错误处理与补偿、监控与预警等手段的结合,以及结合具体业务场景进行分析和制定策略,能够最大程度地确保数据的一致性,保障系统的稳定运行和业务的顺利开展。同时,不断地优化和改进这些方法和机制,也是提高系统性能和可靠性的重要途径。
119 62
|
2月前
|
缓存 安全 Java
使用 Java 内存模型解决多线程中的数据竞争问题
【10月更文挑战第11天】在 Java 多线程编程中,数据竞争是一个常见问题。通过使用 `synchronized` 关键字、`volatile` 关键字、原子类、显式锁、避免共享可变数据、合理设计数据结构、遵循线程安全原则和使用线程池等方法,可以有效解决数据竞争问题,确保程序的正确性和稳定性。
63 2
|
6月前
|
缓存 NoSQL Java
Java高并发实战:利用线程池和Redis实现高效数据入库
Java高并发实战:利用线程池和Redis实现高效数据入库
533 0
|
7月前
|
消息中间件 Java Kafka
实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
3月前
|
消息中间件 存储 Java
服务重启了,如何保证线程池中的数据不丢失?
【8月更文挑战第30天】为确保服务重启时线程池数据不丢失,可采用数据持久化(如数据库或文件存储)、使用可靠的任务队列(如消息队列或分布式任务队列系统)、状态监测与恢复机制,以及分布式锁等方式。这些方法能有效提高系统稳定性和可靠性,需根据具体需求选择合适方案并进行测试优化。
255 5
|
4月前
处理串口线程数据的函数
【8月更文挑战第4天】处理串口线程数据的函数。
32 4
|
4月前
|
数据处理 Python
解锁Python多线程编程魔法,告别漫长等待!让数据下载如飞,感受科技带来的速度与激情!
【8月更文挑战第22天】Python以简洁的语法和强大的库支持在多个领域大放异彩。尽管存在全局解释器锁(GIL),Python仍提供多线程支持,尤其适用于I/O密集型任务。通过一个多线程下载数据的例子,展示了如何使用`threading`模块创建多线程程序,并与单线程版本进行了性能对比。实验表明,多线程能显著减少总等待时间,但在CPU密集型任务上GIL可能会限制其性能提升。此案例帮助理解Python多线程的优势及其适用场景。
48 0
|
4月前
|
NoSQL Redis
Lettuce的特性和内部实现问题之在同步调用模式下,业务线程是如何拿到结果数据的
Lettuce的特性和内部实现问题之在同步调用模式下,业务线程是如何拿到结果数据的