Python 多线程爬取西刺代理

简介: 西刺代理是一个国内IP代理,由于代理倒闭了,所以我就把原来的代码放出来供大家学习吧。

西刺代理是一个国内IP代理,由于代理倒闭了,所以我就把原来的代码放出来供大家学习吧。

首先找到所有的tr标签,与class="odd"的标签,然后提取出来。

image.png

然后再依次找到tr标签里面的所有td标签,然后只提取出里面的[1,2,5,9]这四个标签的位置,其他的不提取。

image.png

最后可以写出提取单一页面的代码,提取后将其保存到文件中。

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

if __name__ == "__main__":
    ip_list=[]
    fp = open("SpiderAddr.json","a+",encoding="utf-8")
    url = "https://www.blib.cn/url/xcdl.html"
    request = requests.get(url=url,headers=head)
    soup = BeautifulSoup(request.content,"lxml")
    data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
    for item in data:
        soup_proxy = BeautifulSoup(str(item),"lxml")
        proxy_list = soup_proxy.find_all(name="td")
        for i in [1,2,5,9]:
            ip_list.append(proxy_list[i].string)
        print("[+] 爬行列表: {} 已转存".format(ip_list))
        fp.write(str(ip_list) + '\n')
        ip_list.clear()

爬取后会将文件保存为 SpiderAddr.json 格式。

image.png

最后再使用另一段代码,将其转换为一个SSR代理工具直接能识别的格式,{'http': 'http://119.101.112.31:9999'}

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

if __name__ == "__main__":
    result = []
    fp = open("SpiderAddr.json","r")
    data = fp.readlines()

    for item in data:
        dic = {}
        read_line = eval(item.replace("\n",""))
        Protocol = read_line[2].lower()
        if Protocol == "http":
            dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
        else:
            dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
        result.append(dic)
        print(result)

image.png

完整多线程版代码如下所示。

import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup

head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}

class AgentSpider(threading.Thread):
    def __init__(self,queue):
        threading.Thread.__init__(self)
        self._queue = queue

    def run(self):
        ip_list=[]
        fp = open("SpiderAddr.json","a+",encoding="utf-8")
        while not self._queue.empty():
            url = self._queue.get()
            try:
                request = requests.get(url=url,headers=head)
                soup = BeautifulSoup(request.content,"lxml")
                data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
                for item in data:
                    soup_proxy = BeautifulSoup(str(item),"lxml")
                    proxy_list = soup_proxy.find_all(name="td")
                    for i in [1,2,5,9]:
                        ip_list.append(proxy_list[i].string)
                    print("[+] 爬行列表: {} 已转存".format(ip_list))
                    fp.write(str(ip_list) + '\n')
                    ip_list.clear()
            except Exception:
                pass

def StartThread(count):
    queue = Queue()
    threads = []
    for item in range(1,int(count)+1):
        url = "https://www.xicidaili.com/nn/{}".format(item)
        queue.put(url)
        print("[+] 生成爬行链接 {}".format(url))

    for item in range(count):
        threads.append(AgentSpider(queue))
    for t in threads:
        t.start()
    for t in threads:
        t.join()

# 转换函数
def ConversionAgentIP(FileName):
    result = []
    fp = open(FileName,"r")
    data = fp.readlines()

    for item in data:
        dic = {}
        read_line = eval(item.replace("\n",""))
        Protocol = read_line[2].lower()
        if Protocol == "http":
            dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
        else:
            dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
        result.append(dic)
    return result

if __name__ == "__main__":
    parser = argparse.ArgumentParser()
    parser.add_argument("-p","--page",dest="page",help="指定爬行多少页")
    parser.add_argument("-f","--file",dest="file",help="将爬取到的结果转化为代理格式 SpiderAddr.json")
    args = parser.parse_args()
    if args.page:
        StartThread(int(args.page))
    elif args.file:
        dic = ConversionAgentIP(args.file)
        for item in dic:
            print(item)
    else:
        parser.print_help()
相关文章
|
17天前
|
安全 数据处理 开发者
Python中的多线程编程:从入门到精通
本文将深入探讨Python中的多线程编程,包括其基本原理、应用场景、实现方法以及常见问题和解决方案。通过本文的学习,读者将对Python多线程编程有一个全面的认识,能够在实际项目中灵活运用。
|
11天前
|
Java Unix 调度
python多线程!
本文介绍了线程的基本概念、多线程技术、线程的创建与管理、线程间的通信与同步机制,以及线程池和队列模块的使用。文章详细讲解了如何使用 `_thread` 和 `threading` 模块创建和管理线程,介绍了线程锁 `Lock` 的作用和使用方法,解决了多线程环境下的数据共享问题。此外,还介绍了 `Timer` 定时器和 `ThreadPoolExecutor` 线程池的使用,最后通过一个具体的案例展示了如何使用多线程爬取电影票房数据。文章还对比了进程和线程的优缺点,并讨论了计算密集型和IO密集型任务的适用场景。
30 4
|
18天前
|
Python
Python中的多线程与多进程
本文将探讨Python中多线程和多进程的基本概念、使用场景以及实现方式。通过对比分析,我们将了解何时使用多线程或多进程更为合适,并提供一些实用的代码示例来帮助读者更好地理解这两种并发编程技术。
|
25天前
|
Java Python
python知识点100篇系列(16)-python中如何获取线程的返回值
【10月更文挑战第3天】本文介绍了两种在Python中实现多线程并获取返回值的方法。第一种是通过自定义线程类继承`Thread`类,重写`run`和`join`方法来实现;第二种则是利用`concurrent.futures`库,通过`ThreadPoolExecutor`管理线程池,简化了线程管理和结果获取的过程,推荐使用。示例代码展示了这两种方法的具体实现方式。
python知识点100篇系列(16)-python中如何获取线程的返回值
|
28天前
|
网络协议 安全 Java
难懂,误点!将多线程技术应用于Python的异步事件循环
难懂,误点!将多线程技术应用于Python的异步事件循环
51 0
|
6月前
|
缓存 负载均衡 安全
在Python中,如何使用多线程或多进程来提高程序的性能?
【2月更文挑战第17天】【2月更文挑战第50篇】在Python中,如何使用多线程或多进程来提高程序的性能?
66 4
|
6月前
|
安全 Java 数据处理
Python网络编程基础(Socket编程)多线程/多进程服务器编程
【4月更文挑战第11天】在网络编程中,随着客户端数量的增加,服务器的处理能力成为了一个重要的考量因素。为了处理多个客户端的并发请求,我们通常需要采用多线程或多进程的方式。在本章中,我们将探讨多线程/多进程服务器编程的概念,并通过一个多线程服务器的示例来演示其实现。
|
6月前
|
安全 Python
Python中的并发编程:多线程与多进程技术探究
本文将深入探讨Python中的并发编程技术,重点介绍多线程和多进程两种并发处理方式的原理、应用场景及优缺点,并结合实例分析如何在Python中实现并发编程,以提高程序的性能和效率。
|
6月前
|
数据采集 数据库 C++
python并发编程:并发编程中是选择多线程呢?还是多进程呢?还是多协程呢?
python并发编程:并发编程中是选择多线程呢?还是多进程呢?还是多协程呢?
62 0
聊聊python多线程与多进程
为什么要使用多进程与多线程呢? 因为我们如果按照流程一步步执行任务实在是太慢了,假如一个任务就是10秒,两个任务就是20秒,那100个任务呢?况且cpu这么贵,时间长了就是浪费生命啊!一个任务比喻成一个人,别个做高铁,你做绿皮火车,可想而知!接下来我们先看个例子:
下一篇
无影云桌面