下载单个网页(Python2.7)

简介: 本文目录1. 功能与目的2. 下载一个网页3. 下载错误后重试下载

1. 功能与目的

就是下载一个网页的源代码,网址就是CSDN博客地址:http://blog.csdn.net/woshisangsang


2. 下载一个网页

通过urllib2模块的urlopen方法可以获取一个地址对应的html代码,注意在linux环境下,需要指明解释器的路径,并指明编码(不然没法使用中文)

#!/usr/bin/python2.7
# coding=UTF-8
import urllib2
#变量区域
url="http://blog.csdn.net/woshisangsang"#待下载的网址
#方法区域
def downloadWebsite(url):#下载
    print("start to download:"+url)
    try:
        result=urllib2.urlopen(url).read()
    except urllib2.URLError as ex:
        print("download error,the reason is:"+ex.reason)
    return result
result=downloadWebsite(url)
print(result)

运行结果如下(部分结果,证明程序跑成功了),通过这个结果我们可以想到href对应的链接就是一篇博文对应的地址。

<span class="link_title"><a href="/woshisangsang/article/details/77222166">
        Java 线程与进程的速度比较(继承Thread实现)            
        </a>
        </span>

3. 下载错误后重试下载

网页请求失败在所难免,所以可以重试下载,而对只有重试到最后一次仍然报错的显示错误信息。具体实现代码如下:

#!/usr/bin/python2.7
# coding=UTF-8
import urllib2
#变量区域
url="http://blog.csdn.net/woshisangsang11"#待下载的网址
#方法区域
def downloadWebsite(url,retry_time=5):
    print("start to download:"+url+",the retry time is:"+str(retry_time))
    try:
        result=urllib2.urlopen(url).read()
    except urllib2.URLError as ex:
        if retry_time==1:
            return "download error,the reason is:"+ex.reason+",error code"+str(ex.code)
        else:
            return downloadWebsite(url,retry_time-1)
    return result
result=downloadWebsite(url)
print(result)

执行结果如下,可见咱这个程序是不服气的下载了5次,最后实在不行才报告错误的。最后error code是403,指的是可以连接该网站,但没有查看网页的权限,因为此处的url是我虚构的(加了11).


start to download:http://blog.csdn.net/woshisangsang11,the retry time is:5

start to download:http://blog.csdn.net/woshisangsang11,the retry time is:4

start to download:http://blog.csdn.net/woshisangsang11,the retry time is:3

start to download:http://blog.csdn.net/woshisangsang11,the retry time is:2

start to download:http://blog.csdn.net/woshisangsang11,the retry time is:1

download error,the reason is:Forbidden,error code403

[Finished in 1.6s]

相关文章
|
2月前
|
PyTorch Linux 算法框架/工具
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
这篇文章是关于如何使用Anaconda进行Python环境管理,包括下载、安装、配置环境变量、创建多版本Python环境、安装PyTorch以及使用Jupyter Notebook的详细指南。
345 1
pytorch学习一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
|
2月前
|
数据采集 UED Python
如何应对动态图片大小变化?Python解决网页图片截图难题
随着互联网技术的发展,电商平台如京东(JD.com)广泛采用动态内容加载技术,给爬虫获取商品图片带来挑战:图片无法直接保存,尺寸动态变化,且存在反爬机制。本文介绍如何利用Python结合代理IP、多线程技术解决这些问题,通过Selenium和Pillow库实现动态网页图片的屏幕截图,有效绕过反爬措施,提升数据抓取效率和稳定性。具体步骤包括设置代理IP、使用Selenium抓取图片、多线程提升效率以及设置cookie和user-agent伪装正常用户。实验结果显示,该方法能显著提升抓取效率,精准截图保存图片,并成功绕过反爬机制。
|
3月前
|
移动开发 Python Windows
python编程获取网页标题title的几种方法及效果对比(源代码)
python编程获取网页标题title的几种方法及效果对比(源代码)
|
3月前
|
Python
下载python所有的包 国内地址
下载python所有的包 国内地址
|
1月前
|
监控 数据挖掘 数据安全/隐私保护
Python脚本:自动化下载视频的日志记录
Python脚本:自动化下载视频的日志记录
|
1月前
|
JavaScript 前端开发 开发者
探索 DrissionPage: 强大的Python网页自动化工具
DrissionPage 是一个基于 Python 的网页自动化工具,结合了浏览器自动化的便利性和 requests 库的高效率。它提供三种页面对象:ChromiumPage、WebPage 和 SessionPage,分别适用于不同的使用场景,帮助开发者高效完成网页自动化任务。
151 4
|
1月前
|
数据采集 Web App开发 iOS开发
如何使用 Python 语言的正则表达式进行网页数据的爬取?
使用 Python 进行网页数据爬取的步骤包括:1. 安装必要库(requests、re、bs4);2. 发送 HTTP 请求获取网页内容;3. 使用正则表达式提取数据;4. 数据清洗和处理;5. 循环遍历多个页面。通过这些步骤,可以高效地从网页中提取所需信息。
|
2月前
|
云计算 Python
用python给你写个简单的计算器功能网页啊
这张图片展示了阿里巴巴集团的组织架构图,涵盖了核心电商、云计算、数字媒体与娱乐、创新业务等主要板块,以及各板块下的具体业务单元和部门。
|
2月前
|
数据采集 Java Python
如何用Python同时抓取多个网页:深入ThreadPoolExecutor
在信息化时代,实时数据的获取对体育赛事爱好者、数据分析师和投注行业至关重要。本文介绍了如何使用Python的`ThreadPoolExecutor`结合代理IP和请求头设置,高效稳定地抓取五大足球联赛的实时比赛信息。通过多线程并发处理,解决了抓取效率低、请求限制等问题,提供了详细的代码示例和解析方法。
如何用Python同时抓取多个网页:深入ThreadPoolExecutor
|
2月前
|
Java Python
> python知识点100篇系列(19)-使用python下载文件的几种方式
【10月更文挑战第7天】本文介绍了使用Python下载文件的五种方法,包括使用requests、wget、线程池、urllib3和asyncio模块。每种方法适用于不同的场景,如单文件下载、多文件并发下载等,提供了丰富的选择。