Python爬虫-爬取贴吧中每个帖子内的楼主图片

简介: 1.根据输入的关键字筛选贴吧 2.获得贴吧内的帖子,支持分页爬取 3.爬取并下载帖子内仅和楼主相关的图片


# -*- coding:utf-8 -*-

import urllib.request
from lxml import etree


def loadPage(url):
	"""
	 作用:根据url发送请求,获取服务器响应文件
	 url: 需要爬取的url地址
	"""
	# headers = {"User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
	
	request = urllib.request.Request(url)
	html = urllib.request.urlopen(request).read()
	# 解析HTML文档为HTML DOM模型
	content = etree.HTML(html)
	# print content
	# 返回所有匹配成功的列表集合
	link_list = content.xpath('//div[@class="t_con cleafix"]/div/div/div/a/@href')
	
	# link_list = content.xpath('//a[@class="j_th_tit"]/@href')
	for link in link_list:
		fulllink = "http://tieba.baidu.com" + link
		# 组合为每个帖子的链接
		# print link
		loadImage(fulllink)


# 取出每个帖子里的每个图片连接
def loadImage(link):
	headers = {
		"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
	request = urllib.request.Request(link, headers=headers)
	html = urllib.request.urlopen(request).read()
	# 解析
	content = etree.HTML(html)
	# 取出帖子里每层层主发送的图片连接集合
	# link_list = content.xpath('//img[@class="BDE_Image"]/@src')
	# link_list = content.xpath('//div[@class="post_bubble_middle"]')
	link_list = content.xpath('//img[@class="BDE_Image"]/@src')
	# 取出每个图片的连接
	for link in link_list:
		print("link:" + link)
		writeImage(link)


def writeImage(link):
	"""
	 作用:将html内容写入到本地
	 link:图片连接
	"""
	# print "正在保存 " + filename
	headers = {
		"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
	# 文件写入
	request = urllib.request.Request(link, headers=headers)
	# 图片原始数据
	image = urllib.request.urlopen(request).read()
	# 取出连接后10位做为文件名
	filename = link[-10:]
	# 写入到本地磁盘文件内
	with open("/Users/didi/Downloads/crawlertest/" + filename, "wb") as f:
		f.write(image)
	# print("已经成功下载 " + filename)


def tiebaSpider(url, beginPage, endPage):
	"""
	 作用:贴吧爬虫调度器,负责组合处理每个页面的url
	 url : 贴吧url的前部分
	 beginPage : 起始页
	 endPage : 结束页
	"""
	for page in range(beginPage, endPage + 1):
		pn = (page - 1) * 50
		filename = "第" + str(page) + "页.html"
		print(filename)
		fullurl = url + "&pn=" + str(pn)
		print(fullurl)
		loadPage(fullurl)
		# print html
		
		print("下载完成")


if __name__ == "__main__":
	kw = input("请输入需要爬取的贴吧名:")
	beginPage = int(input("请输入起始页:"))
	endPage = int(input("请输入结束页:"))
	
	url = "http://tieba.baidu.com/f?"
	key = urllib.parse.urlencode({"kw": kw})
	fullurl = url + key
	tiebaSpider(fullurl, beginPage, endPage)


相关文章
|
6天前
|
数据采集 存储 机器学习/深度学习
Fuel 爬虫:Scala 中的图片数据采集与分析
Fuel 爬虫:Scala 中的图片数据采集与分析
|
6月前
|
数据采集 JavaScript C#
C#图像爬虫实战:从Walmart网站下载图片
C#图像爬虫实战:从Walmart网站下载图片
|
3月前
|
数据采集 Java Scala
淘宝图片爬虫:Scala与Curl的高效集成
淘宝图片爬虫:Scala与Curl的高效集成
|
6月前
|
数据采集 存储 前端开发
Java爬虫开发:Jsoup库在图片URL提取中的实战应用
Java爬虫开发:Jsoup库在图片URL提取中的实战应用
|
7月前
|
数据采集 存储 自然语言处理
【优秀python案例】基于百度贴吧的数据采集与文本分析设计与实现
本文介绍了百度贴吧数据采集与文本分析的设计与实现,包括自动化采集帖子数据、进行情感分析和主题分析,以及使用可视化技术展示分析结果。
224 4
|
8月前
|
数据采集 Web App开发 存储
Python-数据爬取(爬虫)
【7月更文挑战第24天】
112 7
|
8月前
|
数据采集 机器学习/深度学习 算法
Python-数据爬取(爬虫)
【7月更文挑战第23天】
87 5
|
8月前
|
数据采集 存储 Web App开发
Python-数据爬取(爬虫)
【7月更文挑战第15天】
384 3
|
8月前
|
数据采集 大数据 关系型数据库
如何使用 PHP 爬虫爬取大数据
**摘要:** 本文探讨了如何使用PHP爬虫处理大数据。从爬虫基本概念出发,讨论了PHP爬虫框架如Goutte和PHP-Crawler。在爬取大数据时,需明确目标网站、数据类型和量,编写爬虫程序,包括数据提取、反爬策略如设置User-Agent和访问频率控制。同时,采用并发处理(多线程)和分布式爬虫策略提升效率。最后,强调了合法合规使用爬虫技术的重要性。
|
9月前
|
Web App开发 Python Windows
经验大分享:PYTHON爬取66影视的电影下载链接,有搜索功能
经验大分享:PYTHON爬取66影视的电影下载链接,有搜索功能
214 2