Python 多线程爬取西刺代理

简介: 西刺代理是一个国内IP代理,由于代理倒闭了,所以我就把原来的代码放出来供大家学习吧。

西刺代理是一个国内IP代理,由于代理倒闭了,所以我就把原来的代码放出来供大家学习吧。

首先找到所有的tr标签,与class="odd"的标签,然后提取出来。

image.png

然后再依次找到tr标签里面的所有td标签,然后只提取出里面的[1,2,5,9]这四个标签的位置,其他的不提取。

image.png

最后可以写出提取单一页面的代码,提取后将其保存到文件中。

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

if __name__ == "__main__":
    ip_list=[]
    fp = open("SpiderAddr.json","a+",encoding="utf-8")
    url = "https://www.blib.cn/url/xcdl.html"
    request = requests.get(url=url,headers=head)
    soup = BeautifulSoup(request.content,"lxml")
    data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
    for item in data:
        soup_proxy = BeautifulSoup(str(item),"lxml")
        proxy_list = soup_proxy.find_all(name="td")
        for i in [1,2,5,9]:
            ip_list.append(proxy_list[i].string)
        print("[+] 爬行列表: {} 已转存".format(ip_list))
        fp.write(str(ip_list) + '\n')
        ip_list.clear()

爬取后会将文件保存为 SpiderAddr.json 格式。

image.png

最后再使用另一段代码,将其转换为一个SSR代理工具直接能识别的格式,{'http': 'http://119.101.112.31:9999'}

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

if __name__ == "__main__":
    result = []
    fp = open("SpiderAddr.json","r")
    data = fp.readlines()

    for item in data:
        dic = {}
        read_line = eval(item.replace("\n",""))
        Protocol = read_line[2].lower()
        if Protocol == "http":
            dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
        else:
            dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
        result.append(dic)
        print(result)

image.png

完整多线程版代码如下所示。

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

class AgentSpider(threading.Thread):
    def __init__(self,queue):
        threading.Thread.__init__(self)
        self._queue = queue

    def run(self):
        ip_list=[]
        fp = open("SpiderAddr.json","a+",encoding="utf-8")
        while not self._queue.empty():
            url = self._queue.get()
            try:
                request = requests.get(url=url,headers=head)
                soup = BeautifulSoup(request.content,"lxml")
                data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
                for item in data:
                    soup_proxy = BeautifulSoup(str(item),"lxml")
                    proxy_list = soup_proxy.find_all(name="td")
                    for i in [1,2,5,9]:
                        ip_list.append(proxy_list[i].string)
                    print("[+] 爬行列表: {} 已转存".format(ip_list))
                    fp.write(str(ip_list) + '\n')
                    ip_list.clear()
            except Exception:
                pass

def StartThread(count):
    queue = Queue()
    threads = []
    for item in range(1,int(count)+1):
        url = "https://www.xicidaili.com/nn/{}".format(item)
        queue.put(url)
        print("[+] 生成爬行链接 {}".format(url))

    for item in range(count):
        threads.append(AgentSpider(queue))
    for t in threads:
        t.start()
    for t in threads:
        t.join()

# 转换函数
def ConversionAgentIP(FileName):
    result = []
    fp = open(FileName,"r")
    data = fp.readlines()

    for item in data:
        dic = {}
        read_line = eval(item.replace("\n",""))
        Protocol = read_line[2].lower()
        if Protocol == "http":
            dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
        else:
            dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
        result.append(dic)
    return result

if __name__ == "__main__":
    parser = argparse.ArgumentParser()
    parser.add_argument("-p","--page",dest="page",help="指定爬行多少页")
    parser.add_argument("-f","--file",dest="file",help="将爬取到的结果转化为代理格式 SpiderAddr.json")
    args = parser.parse_args()
    if args.page:
        StartThread(int(args.page))
    elif args.file:
        dic = ConversionAgentIP(args.file)
        for item in dic:
            print(item)
    else:
        parser.print_help()
相关文章
|
21天前
|
数据采集 存储 数据处理
Python中的多线程编程及其在数据处理中的应用
本文深入探讨了Python中多线程编程的概念、原理和实现方法,并详细介绍了其在数据处理领域的应用。通过对比单线程与多线程的性能差异,展示了多线程编程在提升程序运行效率方面的显著优势。文章还提供了实际案例,帮助读者更好地理解和掌握多线程编程技术。
|
1月前
|
并行计算 数据处理 调度
Python中的并发编程:探索多线程与多进程的奥秘####
本文深入探讨了Python中并发编程的两种主要方式——多线程与多进程,通过对比分析它们的工作原理、适用场景及性能差异,揭示了在不同应用需求下如何合理选择并发模型。文章首先简述了并发编程的基本概念,随后详细阐述了Python中多线程与多进程的实现机制,包括GIL(全局解释器锁)对多线程的影响以及多进程的独立内存空间特性。最后,通过实例演示了如何在Python项目中有效利用多线程和多进程提升程序性能。 ####
|
1月前
|
Java Unix 调度
python多线程!
本文介绍了线程的基本概念、多线程技术、线程的创建与管理、线程间的通信与同步机制,以及线程池和队列模块的使用。文章详细讲解了如何使用 `_thread` 和 `threading` 模块创建和管理线程,介绍了线程锁 `Lock` 的作用和使用方法,解决了多线程环境下的数据共享问题。此外,还介绍了 `Timer` 定时器和 `ThreadPoolExecutor` 线程池的使用,最后通过一个具体的案例展示了如何使用多线程爬取电影票房数据。文章还对比了进程和线程的优缺点,并讨论了计算密集型和IO密集型任务的适用场景。
68 4
|
26天前
|
监控 JavaScript 前端开发
python中的线程和进程(一文带你了解)
欢迎来到瑞雨溪的博客,这里是一位热爱JavaScript和Vue的大一学生分享技术心得的地方。如果你从我的文章中有所收获,欢迎关注我,我将持续更新更多优质内容,你的支持是我前进的动力!🎉🎉🎉
21 0
|
26天前
|
数据采集 Java Python
爬取小说资源的Python实践:从单线程到多线程的效率飞跃
本文介绍了一种使用Python从笔趣阁网站爬取小说内容的方法,并通过引入多线程技术大幅提高了下载效率。文章首先概述了环境准备,包括所需安装的库,然后详细描述了爬虫程序的设计与实现过程,包括发送HTTP请求、解析HTML文档、提取章节链接及多线程下载等步骤。最后,强调了性能优化的重要性,并提醒读者遵守相关法律法规。
56 0
|
7月前
|
Python
python代理ip关于设置proxies的问题
python代理ip关于设置proxies的问题
|
数据采集 中间件 Python
Python爬虫:scrapy-splash的请求头和代理参数设置
Python爬虫:scrapy-splash的请求头和代理参数设置
593 0
|
13天前
|
人工智能 数据可视化 数据挖掘
探索Python编程:从基础到高级
在这篇文章中,我们将一起深入探索Python编程的世界。无论你是初学者还是有经验的程序员,都可以从中获得新的知识和技能。我们将从Python的基础语法开始,然后逐步过渡到更复杂的主题,如面向对象编程、异常处理和模块使用。最后,我们将通过一些实际的代码示例,来展示如何应用这些知识解决实际问题。让我们一起开启Python编程的旅程吧!
|
12天前
|
存储 数据采集 人工智能
Python编程入门:从零基础到实战应用
本文是一篇面向初学者的Python编程教程,旨在帮助读者从零开始学习Python编程语言。文章首先介绍了Python的基本概念和特点,然后通过一个简单的例子展示了如何编写Python代码。接下来,文章详细介绍了Python的数据类型、变量、运算符、控制结构、函数等基本语法知识。最后,文章通过一个实战项目——制作一个简单的计算器程序,帮助读者巩固所学知识并提高编程技能。