Python - 爬虫中文乱码之请求头 Accept-Encoding Brotli 问题

简介: Python - 爬虫中文乱码之请求头 Accept-Encoding Brotli 问题


当用 Python3 做爬虫的时候,一些网站为了防爬虫会设置一些检查机制,这时我们就需要添加请求头,伪装成浏览器正常访问。

header的内容在浏览器的开发者工具中便可看到,将这些信息添加到我们的爬虫代码中即可。

Accept-Encoding:是浏览器发给服务器,声明浏览器支持的编码类型。一般有 gzip,deflate,br 等等。

Python3中的 requests 包中 response.text 和 response.content:

response.content # 字节方式的响应体,会自动为你解码 gzip 和 deflate 压缩 类型:bytes

reponse.text # 字符串方式的响应体,会自动根据响应头部的字符编码进行解码。类型:str

但是这里是默认是不支持解码 br 的!

br 指的是 Brotli,是一种全新的数据格式,无损压缩,压缩比极高(比gzip高的)。

Brotli 介绍:https://www.cnblogs.com/Leo_wl/p/9170390.html

Brotli 优势:https://www.cnblogs.com/upyun/p/7871959.html


Ps:这个不是本文的重点,重点是 Python3 爬虫是如何解决中文乱码问题。


第一种

将 ‘Accept-Encoding’ 中的:br 去除。这样接受的网页页面就是没有压缩的或者是默认可解析的了。但是我认为这样不好,人家搞出这么牛逼的算法还是要用一下的。

 

第二种

将使用 br 压缩的页面解析。Python3 中要导入 brotli 包 这个要自己安装(这里就不介绍了,百度一堆)。

frombs4importBeautifulSoupimportrequestsimportbrotlifromrequests.exceptionsimportRequestExceptiondefget_one_page(city, keyword, page):
'''获取网页html内容并返回'''paras= {
'jl': city,         #搜索城市'kw': keyword,      #搜索关键词'isadv': 0,         #是否打开更详细搜索选项'isfilter': 1,      #是否对结果过滤'p': page,          #页数# 're': region        # region的缩写,地区,2005代表海淀   }
headers= {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0',
'Host': 'sou.zhaopin.com',
'Referer': 'https://www.zhaopin.com/',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'Accept-Encoding': 'gizp,defale',
'Accept-Language': 'zh-CN,zh;q=0.9'   }
importchardeturl='https://sou.zhaopin.com/jobs/searchresult.ashx?jl={}&kw={}&sm=0&p={}'.format(paras['jl'],paras['kw'],paras['p'])
try:
# 获取网页内容,返回html数据response=requests.get(url, headers=headers)
# 通过状态码判断是否获取成功ifresponse.status_code==200:
#response.encoding = 'utf-8'print(response.headers)
print(response.encoding)
key='Content-Encoding'# print(response.headers[key])print("-----------")
if(keyinresponse.headersandresponse.headers['Content-Encoding'] =='br'):
data=brotli.decompress(response.content)
data1=data.decode('utf-8')
print(data1)
returndata1print(response.text)
returnresponse.textreturnNoneexceptRequestExceptionase:
returnNonedefmain(city, keyword, pages):
foriinrange(pages):
html=get_one_page(city, keyword, i)
if__name__=='__main__':
main('北京', 'python', 1)

部分结果:

{'Server': 'openresty', 'Date': 'Sun, 19 Aug 2018 13:15:46 GMT', 'Content-Type': 'text/html; charset=utf-8', 'Content-Length': '361146', 'Connection': 'keep-alive', 'Vary': 'Accept-Encoding, Accept-Encoding', 'zp-trace-id': '8437455ebb5342a59f8af78ddaab1985', 'Set-Cookie': 'ZP-ENV-FLAG=gray'}
utf-8-----------<!DOCTYPEhtml><html><head><metaname="renderer"content="webkit"><metahttp-equiv="X-UA-Compatible"content="IE=Edge,chrome=1"><title>北京python招聘(求职)python招聘(求职)尽在智联招聘</title><metahttp-equiv="Cache-Control"content="no-transform"/><metahttp-equiv="Cache-Control"content="no-siteapp"/><metaname="description"content="智联招聘为您提供北京招聘信息,与北京相关的工作尽在智联招聘"/><metaname="keywords"content="北京招聘,北京招聘信息"/><linkrel="stylesheet"href="//desktop-bucket.zhaopin.cn/vendors.61c4a5.css"><linkrel="stylesheet"href="//desktop-bucket.zhaopin.cn/index.d26042.css">

这是没有加 br 在请求的头里的,下面改一下 Accept-Encoding 添加 br。

...同上'Accept-Encoding': 'br,gizp,defale'...同上

部分结果:

{'Server': 'openresty', 'Date': 'Sun, 19 Aug 2018 13:19:02 GMT', 'Content-Type': 'text/html; charset=utf-8', 'Transfer-Encoding': 'chunked', 'Connection': 'keep-alive', 'Vary': 'Accept-Encoding', 'zp-trace-id': '842e66a58bb2464296121c9de59a9965', 'Content-Encoding': 'br', 'Set-Cookie': 'ZP-ENV-FLAG=gray'}
utf-8-----------<!DOCTYPEhtml><html><head><metaname="renderer"content="webkit"><metahttp-equiv="X-UA-Compatible"content="IE=Edge,chrome=1"><title>北京python招聘(求职)python招聘(求职)尽在智联招聘</title><metahttp-equiv="Cache-Control"content="no-transform"/><metahttp-equiv="Cache-Control"content="no-siteapp"/><metaname="description"content="智联招聘为您提供北京招聘信息,与北京相关的工作尽在智联招聘"/><metaname="keywords"content="北京招聘,北京招聘信息"/>

当网站使用了 br 压缩的话,他会告诉我们的,就是 ‘Content-Encoding’ 的值。重点是:

key='Content-Encoding'if(keyinresponse.headersandresponse.headers['Content-Encoding'] =='br'):
data=brotli.decompress(response.content)
data1=data.decode('utf-8')
print(data1)

好的,这就解决了!

Ps:不得不说网上对于 brotli 的中文介绍并不算太多,包括对 Java 爬虫的支持教程也很少。

目录
相关文章
|
5月前
|
数据采集 Web App开发 数据安全/隐私保护
实战:Python爬虫如何模拟登录与维持会话状态
实战:Python爬虫如何模拟登录与维持会话状态
|
6月前
|
数据采集 Web App开发 自然语言处理
新闻热点一目了然:Python爬虫数据可视化
新闻热点一目了然:Python爬虫数据可视化
|
5月前
|
数据采集 监控 数据库
Python异步编程实战:爬虫案例
🌟 蒋星熠Jaxonic,代码为舟的星际旅人。从回调地狱到async/await协程天堂,亲历Python异步编程演进。分享高性能爬虫、数据库异步操作、限流监控等实战经验,助你驾驭并发,在二进制星河中谱写极客诗篇。
Python异步编程实战:爬虫案例
|
6月前
|
数据采集 存储 XML
Python爬虫技术:从基础到实战的完整教程
最后强调: 父母法律法规限制下进行网络抓取活动; 不得侵犯他人版权隐私利益; 同时也要注意个人安全防止泄露敏感信息.
938 19
|
5月前
|
数据采集 存储 JSON
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
Python爬虫常见陷阱:Ajax动态生成内容的URL去重与数据拼接
|
5月前
|
数据采集 存储 JavaScript
解析Python爬虫中的Cookies和Session管理
Cookies与Session是Python爬虫中实现状态保持的核心。Cookies由服务器发送、客户端存储,用于标识用户;Session则通过唯一ID在服务端记录会话信息。二者协同实现登录模拟与数据持久化。
|
6月前
|
数据采集 Web App开发 前端开发
处理动态Token:Python爬虫应对AJAX授权请求的策略
处理动态Token:Python爬虫应对AJAX授权请求的策略
|
Python
python 中文乱码问题解决方案
      最近在项目中部署结巴分词的时候遇到了乱码情况,明明是中文,确显示不出来或者显示乱码。解决方案如下。 利用isinstance 来判断是否已经编码,s是出问题的字符串。unicode是没编码 isinstance(s, unicode):  用print 打印,如果结果是true说明没编码。如果是false说明编码了,但是编的码不对 print isinstance(s,un
1497 0
|
6月前
|
数据采集 机器学习/深度学习 人工智能
Python:现代编程的首选语言
Python:现代编程的首选语言
930 102
|
6月前
|
数据采集 机器学习/深度学习 算法框架/工具
Python:现代编程的瑞士军刀
Python:现代编程的瑞士军刀
429 104

推荐镜像

更多