Python爬虫系列7-采集千图网无水印的VIP数据

简介: 每个人在改变自己的时候其实是一个非常缓慢的过程,慢到你甚至长时间感觉不到一丝的变化,但记住 你的人生,只有你才是主角。坚持下去,正所谓量变引起质变,你经历的每一件事情都自有它的意义。大家都知道现在是一个网络爆炸的时代;网上的资料满天飞的到处都是;但不知道细心的同学有没有发现;当我们去查阅资料的时候;网上很多的内容有时候并不能如愿的解决我们的疑惑;这也导致我们在这期间浪费了大量的时间、精力;当然也能理解;毕竟没有任何人会无缘无故的无偿去做一件事情;或者说无缘无故的把自己多年积累到的经验、知识、技巧等毫无保留的奉献出来。~师者传道受业解惑~ PS:不要copy;一定要理解思路。

-实战

千图网链接:https://www.58pic.com/
需要安装的第三方库

pip install requests  # 请求网络专用
pip install lxml      # 解析数据专用

第一步:确定要抓取的网站内容

image.png

image.png
image.png

image.png

我们能看到这些都是需要办理VIP才能下载的数据,而且每个付费后的VIP还分不同的种类,但是没关系 因为接下来我会教大家如何抓取。

第二步:分析网站结构数据

通过元素面板的属性选择器我们快速定位到了图片的所在位置;发现这是一个url;但这个url有点与众不同;我们尝试打开一下看看;ps:这里需要添加一个http头部;否则是打不开的。

image.png

打开之后我们会发现这是一张很小的像素图;小图;这肯定是不满足我们需求的;因为如果单单只是获取到一些小图片;嗯!恕我想象不到有任何的用处;哈哈!如果大家需要的话;可以参照我的思路直接获取就可以了;接下来我们看看如何获取它的大图;因为只有大图最好还是高清的图;才是我们需要的。

image.png

这个属性面板中有一个herf的url链接;在我点击之后会进入这张图像的详情页;看下图的演示!

image.png

大家看!是不是明显就感觉到比原先打开的图要大的多并且还清晰 ;这才是我们理想中的样子嘛;但这个高清图的背景有很多的水印;不过没关系;这也正是我要教大家的地方所在!大家跟着我的思路继续往下走。😁

image.png

第三步:发起网络请求;获取数据

到这里大家对该网站的结构分析的也差不多了;看了这么久;该到了大展身手的时刻了。哈哈,等着急了吧!
import requests
# 网址
url = 'https://www.58pic.com/piccate/11-0-0.html'
# 请求网络
html = requests.get(url).content.decode('gbk')
print(html)

这一行代码是能够获取到网站返回的html数据;但如果只是单纯的从上往下堆代码的话;感觉会比较Low所以我们会通过函数进行一些简单的封装

image.png

第四步:对获取到的网络数据进行解析

# 网址
url = 'https://www.58pic.com/piccate/11-0-0.html'
# 请求网络;获取html
def get_requests(url):
    # 请求网络
    html = requests.get(url,headers).content.decode('gbk')
    <!--print(html)-->
    return html

考虑到要获取高清的大图;所以我们需要先能进入每张图片的详情页中;把它详情页中的数据先获取下来。

# 提取详情页url
def get_parser_url(data):
    html = etree.HTML(data)
    href_url_list = html.xpath('//div[@class="pic-box clearfix"]/div/a/@href')
    return href_url_list   
    
html = get_requests(url)
href_url_list = get_parser_url(html)
print(href_url_list)

到这一步我们已经进入把所有详情页的url成功获取下来了;不过这些 url数据全部都没有http头部;所以想要请求它们的话;就需要我们对这些url进行拼接。
image.png

# 提取url数据
def get_new_img_url(data):
    html = etree.HTML(data)
    # 提取图片的url
    url = html.xpath('//img[@class="show-area-pic"]/@src')[0]
    # 提取图片的标题
    title = html.xpath('//img[@class="show-are-pic"]/@title')[0]+'.png'
    print(url,title)
    # 去除水印的url
    base_url = "http://apifont.58pic.com/index.php?c=Download&a=downPng&im=//"
    # auto_img_url=url.split('/')[-1].split('!')[0].split('.')[0].replace('auto_','')+'.png'
    # 分割筛选url 对接VIP图片水印路径
    pic_url = url.replace('//preview.qiantucdn.com/', '').split('!')[0].replace('auto_', '').split('.')[0] + '.png'
    # 拼接去除水印 完整图片的链接
    new_url = base_url + pic_url
    # 替换
    new_url_new=new_url.replace('png_','')
    print('点击url进行下载 ---', new_url_new)
    return url,title

image.png

image.png

第五步:对数据进行下载保存

import os
# 伪装
headers = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.117 Safari/537.36'
}
# 保存
def save_file(url,file):
    try:
        file_name = './我创建的千图网/'+file
        img = requests.get(url,headers=headers).content
        with open (file_name,'wb') as save_img:
            save_img.write(img)
    except FileNotFoundError:
        pass
# 遍历
for url_html in href_url_list:
    html = get_requests('http:' + url_html)
    img_url, img_title = get_new_img_url(html)
    save_file('http:'+img_url, img_title)
    print('正在下载{}'.format(img_title))

到这里其实就已经能够成功的把数据获取保存下来了;不过目前保存的数据及图片类型是去除水印之前的效果;大家可以根据我的思路动手实践一下。
image.png

image.png

image.png

去除水印前的效果

至此可以清晰的看到下载的这些图片都是带有水印的,当然这并不是我们最终的目的。 大家继续往下看🤓

image.png

image.png

image.png

去除水印后的效果

哈哈! 这就是我们最终想要的结果;是不是很绚丽。

此时此刻感觉非常有必要在下面来个大大的赞 👍 。

image.png

image.png

image.png

image.png

image.png

如果本文对你学习有所帮助-可以点赞👍+ 关注!将持续更新更多新的文章。

相关文章
|
1天前
|
数据采集 JSON 测试技术
如何在Python中高效实现CSV到JSON的数据转换
在实际项目中,数据格式转换是常见问题,尤其从CSV到JSON的转换。本文深入探讨了多种转换方法,涵盖Python基础实现、数据预处理、错误处理、性能优化及调试验证技巧。通过分块处理、并行处理等手段提升大文件转换效率,并介绍如何封装为命令行工具或Web API,实现自动化批量处理。关键点包括基础实现、数据清洗、异常捕获、性能优化和单元测试,确保转换流程稳定高效。
102 82
|
7天前
|
数据采集 数据安全/隐私保护 Python
从零开始:用Python爬取网站的汽车品牌和价格数据
在现代化办公室中,工程师小李和产品经理小张讨论如何获取懂车帝网站的汽车品牌和价格数据。小李提出使用Python编写爬虫,并通过亿牛云爬虫代理避免被封禁。代码实现包括设置代理、请求头、解析网页内容、多线程爬取等步骤,确保高效且稳定地抓取数据。小张表示理解并准备按照指导操作。
从零开始:用Python爬取网站的汽车品牌和价格数据
|
2天前
|
算法 Serverless 数据处理
从集思录可转债数据探秘:Python与C++实现的移动平均算法应用
本文探讨了如何利用移动平均算法分析集思录提供的可转债数据,帮助投资者把握价格趋势。通过Python和C++两种编程语言实现简单移动平均(SMA),展示了数据处理的具体方法。Python代码借助`pandas`库轻松计算5日SMA,而C++代码则通过高效的数据处理展示了SMA的计算过程。集思录平台提供了详尽且及时的可转债数据,助力投资者结合算法与社区讨论,做出更明智的投资决策。掌握这些工具和技术,有助于在复杂多变的金融市场中挖掘更多价值。
24 12
|
4天前
|
数据采集 JSON Java
Java爬虫获取微店快递费用item_fee API接口数据实现
本文介绍如何使用Java开发爬虫程序,通过微店API接口获取商品快递费用(item_fee)数据。主要内容包括:微店API接口的使用方法、Java爬虫技术背景、需求分析和技术选型。具体实现步骤为:发送HTTP请求获取数据、解析JSON格式的响应并提取快递费用信息,最后将结果存储到本地文件中。文中还提供了完整的代码示例,并提醒开发者注意授权令牌、接口频率限制及数据合法性等问题。
|
1天前
|
数据采集 存储 前端开发
用Python抓取亚马逊动态加载数据,一文读懂
用Python抓取亚马逊动态加载数据,一文读懂
|
2天前
|
数据采集 存储 数据挖掘
深入剖析 Python 爬虫:淘宝商品详情数据抓取
深入剖析 Python 爬虫:淘宝商品详情数据抓取
|
5天前
|
存储 数据采集 数据库
Python爬虫实战:股票分时数据抓取与存储
Python爬虫实战:股票分时数据抓取与存储
|
9天前
|
数据采集 前端开发 API
SurfGen爬虫:解析HTML与提取关键数据
SurfGen爬虫:解析HTML与提取关键数据
|
1月前
|
数据采集 Web App开发 数据可视化
Python用代理IP获取抖音电商达人主播数据
在当今数字化时代,电商直播成为重要的销售模式,抖音电商汇聚了众多达人主播。了解这些主播的数据对于品牌和商家至关重要。然而,直接从平台获取数据并非易事。本文介绍如何使用Python和代理IP高效抓取抖音电商达人主播的关键数据,包括主播昵称、ID、直播间链接、观看人数、点赞数和商品列表等。通过环境准备、代码实战及数据处理与可视化,最终实现定时任务自动化抓取,为企业决策提供有力支持。
|
1月前
|
数据采集 JSON 数据格式
Python爬虫:京东商品评论内容
京东商品评论接口为商家和消费者提供了重要工具。商家可分析评论优化产品,消费者则依赖评论做出购买决策。该接口通过HTTP请求获取评论内容、时间、点赞数等数据,支持分页和筛选好评、中评、差评。Python示例代码展示了如何调用接口并处理返回的JSON数据。应用场景包括产品优化、消费者决策辅助、市场竞争分析及舆情监测。

热门文章

最新文章