Python 初步了解urllib库:网络请求的利器

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: Python 初步了解urllib库:网络请求的利器

在Python的众多库中,urllib库是一个专门用于处理网络请求的强大工具。urllib库提供了多种方法来打开和读取URLs,从而使得网络数据的获取和处理变得简单而直接。本文将带领大家走进urllib库的世界,探索其功能和用法。

urllib库简介

urllib库是Python的一个标准库,它包含了多个模块,用于处理URL相关的操作。其中,request模块用于打开和读取URLs,parse模块用于解析URLs,error模块则用于处理URL请求过程中可能出现的异常。

request模块

urllib.request模块提供了多种方法来实现URL的打开和读取。其中最常用的方法是urlopen()。这个方法接收一个URL作为参数,返回一个HTTPResponse对象,该对象包含了服务器的响应。

下面是一个简单的示例:

import urllib.request  
  
response = urllib.request.urlopen('http://www.example.com')  
print(response.read())

在这个示例中,首先导入了urllib.request模块,然后使用urlopen()方法打开了一个URL。返回的HTTPResponse对象包含了服务器的响应,可以使用read()方法读取这个响应的内容。

parse模块

urllib.parse模块主要用于解析URLs。它提供了多种函数来解析URL的各个组成部分,比如网络位置、路径、参数等。

例如,使用urlparse()函数来解析一个URL:

import urllib.parse  
  
url = 'http://www.example.com/path?arg1=value1&arg2=value2'  
parsed_url = urllib.parse.urlparse(url)  
print('Scheme:', parsed_url.scheme)  
print('Netloc:', parsed_url.netloc)  
print('Path:', parsed_url.path)  
print('Params:', parsed_url.params)  
print('Query:', parsed_url.query)  
print('Fragment:', parsed_url.fragment)

这个示例中,使用了urlparse()函数来解析一个URL,并打印出了URL的各个组成部分。

error模块

在网络请求中,经常会遇到各种异常,比如URL无法访问、网络连接超时等。urllib库提供了urllib.error模块来处理这些异常。

可以使用try-except语句来捕获和处理这些异常:

import urllib.request  
import urllib.error  
  
try:  
    response = urllib.request.urlopen('http://www.example.com')  
    print(response.read())  
except urllib.error.URLError as e:  
    print('Error occurred:', e.reason)

在这个示例中,如果urlopen()方法抛出了URLError异常,就会捕获这个异常并打印出错误的原因。

下面是 urllib.error 模块中一些常见的异常类及其使用示例:

URLError

URLErrorurllib.error 模块中定义的基类,用于处理所有与 URL 相关的错误。它通常包含了一个描述错误的“原因”(reason)。

import urllib.request  
import urllib.error  
  
try:  
    response = urllib.request.urlopen('http://nonexistent-domain.com')  
except urllib.error.URLError as e:  
    print('An error occurred:', e.reason)

HTTPError

HTTPError 是 URLError 的一个子类,专门用于处理 HTTP 请求过程中出现的错误,比如 404 Not Found 或 500 Internal Server Error。当请求成功但服务器返回了一个错误状态码时,就会抛出 HTTPError 异常。

import urllib.request  
import urllib.error  
  
try:  
    response = urllib.request.urlopen('http://www.example.com/nonexistent-page')  
except urllib.error.HTTPError as e:  
    print('HTTP error occurred:', e.code)  # 输出 HTTP 状态码  
    print(e.reason)                         # 输出错误原因  
    print(e.headers)                        # 输出响应头部  
    print(e.read())                         # 读取响应体内容(如果可用)

ContentTooShortError

ContentTooShortError 异常通常在读取的数据少于预期时抛出。这可能是因为连接在数据完全接收之前被关闭。

import urllib.request  
import urllib.error  
  
try:  
    # 假设这个 URL 返回一个非常小的内容,但我们期望的内容长度更长  
    response = urllib.request.urlopen('http://www.example.com/small-content')  
    content = response.read(1000)  # 尝试读取比实际内容更多的数据  
except urllib.error.ContentTooShortError as e:  
    print('Content was too short:', e)

异常处理策略

在实际应用中,可能会根据具体的需求来捕获和处理不同的异常。通常,会首先捕获 HTTPError,因为它提供了关于 HTTP 请求失败的详细信息。然后,会捕获更一般的 URLError,以处理其他与 URL 相关的错误。

import urllib.request  
import urllib.error  
  
try:  
    response = urllib.request.urlopen('http://www.example.com/some-page')  
except urllib.error.HTTPError as e:  
    # 处理 HTTP 错误,比如状态码检查、重试逻辑等  
    print('HTTP error occurred:', e.code)  
except urllib.error.URLError as e:  
    # 处理 URL 错误,比如网络不可用、DNS 解析失败等  
    print('URL error occurred:', e.reason)  
except Exception as e:  
    # 处理其他未明确捕获的异常  
    print('An unexpected error occurred:', e)


通过适当地使用 try-except 语句和 urllib.error 模块中的异常类,可以编写出健壮的网络请求代码,能够优雅地处理各种可能的错误情况。

response模块

urllib.response模块主要用于处理服务器的响应。通常,不需要直接操作urllib.response模块,而是会通过urllib.request模块得到的urllib.response.HttpResponse对象来间接地使用它。

当使用urllib.request.urlopen()或者其他类似方法发送一个HTTP请求时,如果请求成功,将得到一个HttpResponse对象,这个对象就是urllib.response模块的一部分。这个对象提供了方法来处理响应的状态、头部以及响应体。

以下是urllib.response模块在使用中经常涉及的几个方面:

读取响应内容

使用read()方法读取响应体的内容。

import urllib.request  
 
response = urllib.request.urlopen('http://www.example.com')  
content = response.read()  
print(content)

获取响应状态码

使用status属性获取HTTP响应的状态码。

import urllib.request  
 
response = urllib.request.urlopen('http://www.example.com')  
status_code = response.status  
print(status_code)

获取响应头部信息

使用getheader(name)方法获取特定头部的值,或者使用headers属性获取所有头部信息。

import urllib.request  
 
response = urllib.request.urlopen('http://www.example.com')  
content_type = response.getheader('Content-Type')  
print(content_type)  
 
# 获取所有头部信息  
for header, value in response.headers.items():  
   print(header, value)

处理重定向

默认情况下,urllib.request会自动处理HTTP重定向。但如果需要更细粒度的控制,可以通过urllib.request.HTTPRedirectHandler来自定义重定向行为。


处理cookies

虽然urllib.response模块本身不直接处理cookies,但可用urllib.request.HTTPCookieProcessorhttp.cookiejar.CookieJar来管理cookies。


关闭响应

在读取完响应内容后,为了释放系统资源,通常应该关闭响应。Python的HTTP响应对象支持上下文管理器协议,因此可以使用with语句来自动关闭响应。

import urllib.request  
 
with urllib.request.urlopen('http://www.example.com') as response:  
    content = response.read()  
    # 在这里处理内容  
    # 响应会在with块结束时自动关闭

尽管urllib.response模块提供了这些功能,但在日常使用中,更多的是与urllib.request模块交互,它负责发送请求并返回HttpResponse对象,而HttpResponse对象则提供了上述方法来处理响应。


需要注意的是,对于更复杂的网络请求和处理,如POST请求、设置请求头部、处理cookies等,可能还需要结合urllib.request中的其他类和方法一起使用。同时,对于更加现代和高级的HTTP客户端需求,还可以考虑使用requests库,它提供了更加友好和强大的API。

代码实例

以下举3个实例,都是代码框架并不能正常运行,请根据网页实现情况修改代码。

图片下载

import re  
import urllib.request  
  
def download_images(url):  
    # 从网页获取HTML代码  
    response = urllib.request.urlopen(url)  
    html = response.read().decode('utf-8')  
  
    # 使用正则表达式提取图片URL  
    img_urls = re.findall(r'src="([^"]+\.(?:png|jpg|jpeg|gif|bmp))"', html)  
  
    # 遍历图片URL并下载图片  
    for img_url in img_urls:  
        img_url = 'http://example.com/' + img_url  # 根据实际情况修改URL前缀  
        urllib.request.urlretrieve(img_url, 'image_' + img_url.split('/')[-1])  # 下载图片并保存  
  
# 使用函数下载图片  
download_images('http://example.com/some_page_with_images')  # 替换为实际的网页URL

股票信息

import urllib.request  
from urllib.parse import urlencode  
import json  
  
def get_stock_info(stock_symbol):  
    # 假设有一个网站提供股票信息,并且它接受一个查询参数'symbol'  
    url = 'http://example.com/stock_info'  
    params = {'symbol': stock_symbol}  
    query_string = urlencode(params)  
    full_url = f"{url}?{query_string}"  
  
    # 发起请求  
    req = urllib.request.Request(full_url)  
    response = urllib.request.urlopen(req)  
    data = response.read()  
  
    # 解析JSON响应  
    stock_data = json.loads(data)  
    return stock_data  
  
# 使用函数获取股票信息  
stock_symbol = 'AAPL'  # 例如,查询苹果公司的股票信息  
stock_info = get_stock_info(stock_symbol)  
  
# 输出股票信息  
print(stock_info)

天气预报

import urllib.request  
import json  
  
def get_weather_forecast(city):  
    # 假设有一个提供天气服务的网站,并且它接受一个查询参数'city'  
    url = 'http://example.com/weather_forecast'  
    params = {'city': city}  
    query_string = urllib.parse.urlencode(params)  
    full_url = f"{url}?{query_string}"  
  
    # 发起请求  
    req = urllib.request.Request(full_url)  
    response = urllib.request.urlopen(req)  
    data = response.read()  
  
    # 解析JSON响应  
    weather_data = json.loads(data)  
    return weather_data  
  
# 使用函数获取天气预报  
city = 'Beijing'  # 想要查询的城市  
weather_forecast = get_weather_forecast(city)  
  
# 输出天气预报信息  
print(weather_forecast)

总结

urllib库是Python中用于处理网络请求的强大工具。通过urllib库,可以方便地打开和读取URLs,处理网络请求中的异常,以及解析URLs的各个组成部分。无论是进行网络爬虫的开发,还是实现其他与网络请求相关的功能,urllib库都是一个值得学习和使用的工具。


目录
相关文章
|
4天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
害虫识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了12种常见的害虫种类数据集【"蚂蚁(ants)", "蜜蜂(bees)", "甲虫(beetle)", "毛虫(catterpillar)", "蚯蚓(earthworms)", "蜚蠊(earwig)", "蚱蜢(grasshopper)", "飞蛾(moth)", "鼻涕虫(slug)", "蜗牛(snail)", "黄蜂(wasp)", "象鼻虫(weevil)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Djan
29 1
基于Python深度学习的【害虫识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
4天前
|
监控 算法 安全
公司电脑网络监控场景下 Python 广度优先搜索算法的深度剖析
在数字化办公时代,公司电脑网络监控至关重要。广度优先搜索(BFS)算法在构建网络拓扑、检测安全威胁和优化资源分配方面发挥重要作用。通过Python代码示例展示其应用流程,助力企业提升网络安全与效率。未来,更多创新算法将融入该领域,保障企业数字化发展。
33 10
|
27天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
88 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
24天前
|
数据采集 JavaScript Android开发
【02】仿站技术之python技术,看完学会再也不用去购买收费工具了-本次找了小影-感觉页面很好看-本次是爬取vue需要用到Puppeteer库用node.js扒一个app下载落地页-包括安卓android下载(简单)-ios苹果plist下载(稍微麻烦一丢丢)-优雅草卓伊凡
【02】仿站技术之python技术,看完学会再也不用去购买收费工具了-本次找了小影-感觉页面很好看-本次是爬取vue需要用到Puppeteer库用node.js扒一个app下载落地页-包括安卓android下载(简单)-ios苹果plist下载(稍微麻烦一丢丢)-优雅草卓伊凡
52 7
【02】仿站技术之python技术,看完学会再也不用去购买收费工具了-本次找了小影-感觉页面很好看-本次是爬取vue需要用到Puppeteer库用node.js扒一个app下载落地页-包括安卓android下载(简单)-ios苹果plist下载(稍微麻烦一丢丢)-优雅草卓伊凡
|
7天前
|
机器学习/深度学习 API Python
Python 高级编程与实战:深入理解网络编程与异步IO
在前几篇文章中,我们探讨了 Python 的基础语法、面向对象编程、函数式编程、元编程、性能优化、调试技巧、数据科学、机器学习、Web 开发和 API 设计。本文将深入探讨 Python 在网络编程和异步IO中的应用,并通过实战项目帮助你掌握这些技术。
|
13天前
|
人工智能 网络协议 IDE
使用通义灵码AI高效学习muduo网络库开发指南
Muduo 是一个基于 C++11 的高性能网络库,支持多线程和事件驱动,适用于构建高效的服务器和应用程序。它提供 TCP/IP 协议支持、异步非阻塞 I/O、定时器、异步日志等功能,并具备跨平台特性。通过 Git 克隆 muduo 仓库并切换至 C++17 分支可开始使用。借助 AI 工具如 Deepseak-v3,用户可以更便捷地学习和理解 Muduo 的核心模块及编写测试用例,提升开发效率。
|
17天前
|
Web App开发 数据采集 数据安全/隐私保护
Selenium库详解:Python实现模拟登录与反爬限制的进阶指南
Selenium库详解:Python实现模拟登录与反爬限制的进阶指南
|
19天前
|
网络协议 测试技术 Linux
Golang 实现轻量、快速的基于 Reactor 模式的非阻塞 TCP 网络库
gev 是一个基于 epoll 和 kqueue 实现的高性能事件循环库,适用于 Linux 和 macOS(Windows 暂不支持)。它支持多核多线程、动态扩容的 Ring Buffer 读写缓冲区、异步读写和 SO_REUSEPORT 端口重用。gev 使用少量 goroutine,监听连接并处理读写事件。性能测试显示其在不同配置下表现优异。安装命令:`go get -u github.com/Allenxuxu/gev`。
|
移动开发 网络协议 Linux
Python网络编程(socketserver、TFTP云盘、HTTPServer服务器模型)
Python网络编程 Python小项目 Python网盘 Python HTTP请求服务端
2163 0
|
网络协议 Python Unix

热门文章

最新文章

推荐镜像

更多