python urllib爬取网页编码问题

简介: 利用python urllib库爬取网页,有时获得的网页打印或写文件遇到编码问题,找了许久终于知道为什么了。首先利用urlopen()函数获取网页对象,再利用info()函数打印网页的相关信息,确定网页的编码及是否压缩。

利用python urllib库爬取网页,有时获得的网页打印或写文件遇到编码问题,找了许久终于知道为什么了。

首先利用urlopen()函数获取网页对象,再利用info()函数打印网页的相关信息,确定网页的编码及是否压缩。

import urllib.request

fp = urllib.request.urlopen('http://www.sina.com')
mybytes = fp.read()
text = mybytes.decode('utf8')
print(text)
报错


显示编码错误,刚开始,傻傻地试各种编码,utf-8,gbk,gb2312,都不行,心里堵得慌,是在玩我吗?

so,开始怀疑是bug,但是有的网页又不会出错,这就奇怪了,最后google找到了一个解释,说是返回的网页数据是压缩格式,恍然大悟,先打印网页信息,看一眼


gzip,网页是压缩后的,所以要先解压,上代码

import urllib.request
import zlib

fp = urllib.request.urlopen('http://www.sina.com')
mybytes = fp.read()
decompressed_data = zlib.decompress(mybytes ,16+zlib.MAX_WBITS)
text = decompressed_data.decode('utf8')
print(text)
print(fp.info())
结果


Google问题原版

http://stackoverflow.com/questions/3746993/change-python-byte-type-to-string

http://stackoverflow.com/questions/3703276/how-to-tell-if-a-file-is-gzip-compressed/3703300#3703300

目录
相关文章
|
20天前
|
JSON API 开发者
Python网络编程新纪元:urllib与requests库,让你的HTTP请求无所不能
【7月更文挑战第31天】互联网的发展使网络编程成为软件开发的关键部分. Python以简洁、功能强大著称, 在此领域尤显突出. `urllib`作为标准库, 自Python初期便支持URL处理, 如读取URL (`urllib.request`) 和解析 (`urllib.parse`). 尽管API底层, 但奠定了网络编程基础.
34 4
|
6天前
|
数据采集 数据挖掘 数据处理
Python爬虫开发:爬取简单的网页数据
本文详细介绍了如何使用Python爬取简单的网页数据,以掘金为例,展示了从发送HTTP请求、解析HTML文档到提取和保存数据的完整过程。通过这个示例,你可以掌握基本的网页爬取技巧,为后续的数据分析打下基础。希望本文对你有所帮助。
|
7天前
|
数据采集 数据挖掘 数据处理
Python爬虫开发:爬取简单的网页数据
在数据分析中,数据的获取是第一步。随着互联网的普及,网络爬虫成为获取数据的重要手段。本文将详细介绍如何使用Python爬取简单的网页数据。
|
9天前
|
搜索推荐 开发者 Python
深入挖掘Python urllib
【8月更文挑战第11天】`urllib` 是 Python 标准库中处理网络请求的核心组件,包含多个子模块以满足不同的需求。`urllib.request` 用于发送 HTTP 请求;`urllib.parse` 专门解析 URL;`urllib.error` 定义异常处理机制;`urllib.robotparser` 则用于解析 robots.txt 文件。这些模块提供了简洁的接口来执行如读取网页内容、解析 URL 结构、处理网络异常及遵守抓取规则等任务,是进行网络编程和 Web 开发的重要工具。
10 1
|
10天前
|
Web App开发 数据采集 C#
Python怎么使用爬虫获取网页内容
本文详细介绍了网页的基本概念及其构成,包括HTML文件的结构与作用,并演示了如何手动下载网页及使用Python编程语言实现网页内容的自动化下载。
|
21天前
|
API 开发者 Python
揭秘Python网络请求的幕后英雄:requests与urllib的恩怨情仇
【7月更文挑战第30天】在网络请求的江湖里,Python中的`urllib`与`requests`犹如高手对决。`urllib`, 作为标准库成员, 自Python诞生起便负责网络请求, 家族庞大且全面, 但操作略显繁琐。新兴的`requests`以简洁API和强大功能快速赢得开发者青睐, 使用体验流畅, 错误处理直观。尽管两者存在竞争, 实际上它们相互补充, 共同进步。简单的请求可能更适合`urllib`, 而复杂场景下`requests`表现更佳。
22 5
|
21天前
|
数据采集 网络协议 数据挖掘
网络爬虫进阶之路:深入理解HTTP协议,用Python urllib解锁新技能
【7月更文挑战第30天】网络爬虫是数据分析和信息聚合的关键工具。深入理解HTTP协议及掌握Python的urllib库对于高效爬虫开发至关重要。HTTP协议采用请求/响应模型,具有无状态性、支持多种请求方法和内容协商等特点。
21 3
|
20天前
|
数据采集 JSON API
Python网络请求高手养成记:requests、urllib库助你驰骋网络海洋
【7月更文挑战第31天】在 Python 的世界里, requests 和 urllib 是处理网络请求的核心库。requests 以简洁的 API 赢得了开发者的心, 让 GET/POST 请求变得简单。urllib 作为标准库一部分, 提供更底层的功能, 但使用较为繁琐。实战中, 发送 GET 请求时, requests 几行代码即可完成, 而 urllib 需要更多代码和手动异常处理。对于 POST 请求, requests 同样简洁, 直接传递数据; urllib 则需手动编码数据和设置方法。
14 1
|
22天前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
【7月更文挑战第29天】在广阔的网络世界里,Python以其简洁的语法和强大的库支持成为网络爬虫开发的首选。本文聚焦于两大网络请求库——urllib和requests。urllib是Python内置库,虽API稍显复杂,却有助于理解HTTP本质。示例代码展示了如何使用`urlopen`函数发起GET请求并读取网页内容。相比之下,requests库则更加人性化,极大地简化了HTTP请求流程,使开发者能更专注于业务逻辑。
26 1
|
28天前
|
数据采集 Web App开发 存储
Python-数据爬取(爬虫)
【7月更文挑战第24天】
57 7