经验大分享:Python抓取糗事百科成人版图片

简介: 经验大分享:Python抓取糗事百科成人版图片

最近开始学习爬虫,一开始看的是静觅的爬虫系列文章,今天看到糗事百科成人版,心里就邪恶了一下,把图片都爬下来吧,哈哈~

虽然后来实现了,但还是存在一些问题,暂且不提,先切入正题吧,没什么好说的,直接上代码如下:

环境:Python2.79

1 #coding: utf-8

2 import urllib2

3 import urllib

4 import re

5 import os

6

7 #糗百成人版抓取图片

8 class QBAdult:

9

10 #类初始化

11 def init(self):

12 self.baseURL = ""

13 #获取索引页面内容

14 def getPage(self, pageIndex):

15 url = self.baseURL + "index_" + str(pageIndex) + ".html"

16 req_header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',

17 'Accept':'text/html;q=0.9,/;q=0.8',

18 'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,;q=0.3',

19 'Accept-Encoding':'gzip',

20 'Connection':'close',

21 'Referer':None #注意如果依然不能抓取的话,这里可以设置抓取网站的host

22 }//代码效果参考:http://www.ezhiqi.com/bx/art_595.html

23 req_timeout = 5

24 request = urllib2.Request(url, None, req_header)

25 reponse = urllib2.urlopen(request, None, req_timeout)

26 #print reponse.read().decode('gbk')

27 return reponse.read().decode('gbk')

28

29 #获取页面所有条目信息,list格式

30 def getContents(self, pageIndex):

31 page = self.getPage(pageIndex)

32 pattern = re.compile('div class="ui-module".?(.?).?<img.?src="(.?)"', re.S)

33 items = re.findall(pattern, page)

34 #for item in items:

35 #print item【0】, item【1】

36 return items

37

38

39 #获取页面所有图片

40 def getAllImgs(self, items):

41

42 images = 【】

43 for item in items:

44 images.append(item【1】)

45 return images

46

47

48 #保存多张图片

49 def saveAllImg(self, images, n, name):

50 number = 1

51 print u"--正在保存第", n , u"页美女图片-"

52 for imageURL in images:

53 splitPath = imageURL.split('.')

54 fTail = splitPath.pop()

55 fileName = name + "/" + str(n) + "-" + str(number) + "." + fTail

56 self.saveImg(imageURL, fileName)

57 number += 1

58

59

60 #传入图片地址,文件名,保存单张图片

61 def saveImg(self, imageURL, fileName):

62 u = urllib.urlopen(imageURL)

63 data = u.read()

64 f = open(fileName, 'wb')

65 f.write(data)

66 print u"正在保存美女图片", fileName

67 f.close()

68

69 #创建新目录

70 def mkdir(self, path):

71 path = path.strip()

72 #判断是否存在

73 isExists = os.path.exists(path)

74 if not isExists:

75 print u"新建名字为", path, u"的文件夹"

76 os.makedirs(path)

77 return True

78 else:

79 #如果目录存在则不创建,并提示目录已存在

80 print u"名为", path, u"的文件夹已经创建成功"

81 return False

82

83

84 def savePageInfos(self, start, end):

85 fileName = "beautifull"

86 #获取一页内容,存入beautifull文件夹

87 self.mkdir(fileName)

88 for i in range(start, end+1):

89 print u"正在保存第", i, "页的美女图片"

90 contents = self.getContents(i)

91 images = self.getAllImgs(contents)

92 self.saveAllImg(images, i, fileName)

93

94

95 qAdult = QBAdult()

96 qAdult.savePageInfos(1, 301)

其中16-23行的代码是后来出现IOERROR以及超时等错误后加上的,但是这种方法只是治标不治本,时不时程序还会停止,错误如下:

小规模抓取图片,几百页抓取会出现如上问题,我还没有找到什么原因。。。。

点滴积累,点滴生活,丰富研究生生活!

相关文章
|
6月前
|
机器学习/深度学习 编解码 Python
Python图片上采样工具 - RealESRGANer
Real-ESRGAN基于深度学习实现图像超分辨率放大,有效改善传统PIL缩放的模糊问题。支持多种模型版本,推荐使用魔搭社区提供的预训练模型,适用于将小图高质量放大至大图,放大倍率越低效果越佳。
460 3
|
6月前
|
机器学习/深度学习 文字识别 Java
Python实现PDF图片OCR识别:从原理到实战的全流程解析
本文详解2025年Python实现扫描PDF文本提取的四大OCR方案(Tesseract、EasyOCR、PaddleOCR、OCRmyPDF),涵盖环境配置、图像预处理、核心识别与性能优化,结合财务票据、古籍数字化等实战场景,助力高效构建自动化文档处理系统。
1537 0
|
7月前
|
数据采集 存储 JSON
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
|
10月前
|
数据采集 Web App开发 JavaScript
基于Selenium的Python爬虫抓取动态App图片
基于Selenium的Python爬虫抓取动态App图片
732 68
|
7月前
|
数据采集 存储 XML
Python爬虫XPath实战:电商商品ID的精准抓取策略
Python爬虫XPath实战:电商商品ID的精准抓取策略
|
8月前
|
数据采集 存储 监控
Python爬虫实战:批量下载亚马逊商品图片
Python爬虫实战:批量下载亚马逊商品图片
|
10月前
|
数据采集 存储 前端开发
Python爬虫自动化:批量抓取网页中的A链接
Python爬虫自动化:批量抓取网页中的A链接
|
10月前
|
存储 机器学习/深度学习 人工智能
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
本文探讨了多模态RAG系统的最优实现方案,通过模态特定处理与后期融合技术,在性能、准确性和复杂度间达成平衡。系统包含文档分割、内容提取、HTML转换、语义分块及向量化存储五大模块,有效保留结构和关系信息。相比传统方法,该方案显著提升了复杂查询的检索精度(+23%),并支持灵活升级。文章还介绍了查询处理机制与优势对比,为构建高效多模态RAG系统提供了实践指导。
2472 0
多模态RAG实战指南:完整Python代码实现AI同时理解图片、表格和文本
|
10月前
|
JSON API 数据格式
手把手教你抓取京东商品评论:API 接口解析与 Python 实战
京东商品评论蕴含用户对产品质量、体验和服务的真实反馈,分析这些数据有助于企业优化产品和满足用户需求。由于京东未提供官方API,需通过逆向工程获取评论数据。其主要接口为“商品评论列表接口”,支持按商品ID、评分、排序方式等参数获取评论,返回JSON格式数据,包含评论列表、摘要(如好评率)及热门标签等信息。
|
11月前
|
数据采集 存储 缓存
Python爬虫与代理IP:高效抓取数据的实战指南
在数据驱动的时代,网络爬虫是获取信息的重要工具。本文详解如何用Python结合代理IP抓取数据:从基础概念(爬虫原理与代理作用)到环境搭建(核心库与代理选择),再到实战步骤(单线程、多线程及Scrapy框架应用)。同时探讨反爬策略、数据处理与存储,并强调伦理与法律边界。最后分享性能优化技巧,助您高效抓取公开数据,实现技术与伦理的平衡。
514 4

推荐镜像

更多