Python实现反爬虫

简介: Python实现反爬虫

环境

Python3.12

安装fastapi

pip install "fastapi[all]"

代码

from fastapi import FastAPI, Response
from fastapi.responses import FileResponse
app = FastAPI()
@app.get('/')
def index():
    resp = FileResponse('data.gz')
    resp.headers['Content-Encoding'] = 'gzip'  # 说明这是gzip压缩的数据,否则请求时是乱码
    return resp

VSCode选择编译器环境

Cmd+Shift+P选择 Python : Select Interpreter

运行服务

uvicorn server:app

Uvicorn 简介

uvicorn是一个基于asyncio开发的一个轻量级高效的web服务器框架

uvicorn 设计的初衷是想要实现两个目标:

使用uvloop和httptools 实现一个极速的asyncio服务器

实现一个基于ASGI(异步服务器网关接口)的最小应用程序接口。

目前支持http, websockets, Pub/Sub 广播,并且可以扩展到其他协议和消息类型。

安装使用

uvicorn 仅支持python 3.5.3以上版本,我们可以通过pip3来快速的安装。

压缩数据包

将文本文件压缩成gz压缩包

cat hello.txt | gzip > data.gz

客户端请求

import requests
resp = requests.get('http://127.0.0.1:8000/').text
print(resp)

不带resp.headers['Content-Encoding'] = 'gzip'时运行后乱码

带resp.headers['Content-Encoding'] = 'gzip' 时返回解析压缩包后的数据

使用压缩数据包原理

文本内容为192个1。相当于把192个字符压缩成了5个字符,压缩率高达97.4%。

可以把一个1GB的文件压缩成1MB,那么对服务器来说,仅仅是返回了1MB的二进制数据,不会造成任何影响。但是对客户端或者爬虫来说,它拿到这个1MB的数据以后,就会在内存中把它还原成1GB的内容。这样一瞬间爬虫占用的内存就增大了1GB。如果我们再进一步增大这个原始数据,那么很容易就可以把爬虫所在的服务器内存全部沾满,轻者服务器直接杀死爬虫进程,重则爬虫服务器直接死机。

mac命令

dd if=/dev/zero bs=1048576 count=1000 | gzip > boom.gz

执行完后生成的文件只有995K,

linux命令

# dd: 是一个命令行工具,用于转换和复制文件。这里用来生成一个特定大小的文件。
# if=/dev/zero: 指定输入文件(if代表input file)。/dev/zero是一个特殊的文件,读取会产生无限的零(\0字符)。
# bs=1048576: bs代表“block size”,即每个块的大小。1048576字节等于1MB。这意味着dd命令在每次读写操作中处理1MB的数据。
# count=1000: 这指定dd命令需要复制的块数。因为每个块是1MB,count=1000意味着总共复制1000MB,即1GB的数据。
# | gzip: 这个部分使用管道(|)将dd命令的输出直接传递给gzip命令,后者是一个压缩工具。这意味着生成的1GB数据会被gzip压缩。
# > boom.gz: 最后,>将压缩后的数据重定向到一个名为boom.gz的文件中。如果文件已经存在,它会被覆盖;如果不存在,则会被创建。
dd if=/dev/zero bs=1M count=1000 | gzip > boom.gz

把数据包换成boom.gz

import requests
import sys
resp = requests.get('http://127.0.0.1:8000/').text
print(sys.getsizeof(resp)/1024/1024+"GB")

请求期间可以看到内存在持续的增加

浏览器直接请求http://127.0.0.1:8000/

这样在确定爬虫IP的时候拦截请求把请求重定向到这个地址即可.

来源: https://mp.weixin.qq.com/s?__biz=MzIxODg1OTk1MA==&mid=2247532470&idx=2&sn=fa2ffd45539f406af5db1aed7bbfc4ad&chksm=968d5f85be7938d054924240570270804ad5dd1ce6f6d36304f731679e5175d56a0e55b5a616&scene=132&exptype=timeline_recommend_article_extendread_samebiz&show_related_article=1&subscene=21&scene=132#wechat_redirect

相关文章
|
1月前
|
数据采集 JSON 算法
Python爬虫——模拟登录
Python爬虫——模拟登录
|
7天前
|
数据采集 存储 XML
Python爬虫定义入门知识
Python爬虫是用于自动化抓取互联网数据的程序。其基本概念包括爬虫、请求、响应和解析。常用库有Requests、BeautifulSoup、Scrapy和Selenium。工作流程包括发送请求、接收响应、解析数据和存储数据。注意事项包括遵守Robots协议、避免过度请求、处理异常和确保数据合法性。Python爬虫强大而灵活,但使用时需遵守法律法规。
|
8天前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
9天前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
16天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
1月前
|
数据采集 JSON 算法
Python爬虫——基于JWT的模拟登录爬取实战
Python爬虫——基于JWT的模拟登录爬取实战
Python爬虫——基于JWT的模拟登录爬取实战
|
1月前
|
数据采集 缓存 Java
Python vs Java:爬虫任务中的效率比较
Python vs Java:爬虫任务中的效率比较
|
10天前
|
数据采集 存储 JSON
Python爬虫开发中的分析与方案制定
Python爬虫开发中的分析与方案制定
|
14天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
36 7
|
17天前
|
数据采集 Web App开发 前端开发
Python爬虫进阶:Selenium在动态网页抓取中的实战
【10月更文挑战第26天】动态网页抓取是网络爬虫的难点,因为数据通常通过JavaScript异步加载。Selenium通过模拟浏览器行为,可以加载和执行JavaScript,从而获取动态网页的完整内容。本文通过实战案例,介绍如何使用Selenium在Python中抓取动态网页。首先安装Selenium库和浏览器驱动,然后通过示例代码展示如何抓取英国国家美术馆的图片信息。
37 6