xpath实战

简介: xpath实战

xpath

实战

站长素材图片抓取并下载

思路:

(1) 请求对象定制

(2)获取网页的源码

(3)下载

获取地址

url =‘ https://sc.chinaz.com/tupian/rentiyishu.html’

#第一页https://sc.chinaz.com/tupian/rentiyishu.html

#第二页https://sc.chinaz.com/tupian/rentiyishu_2.html

找到关系

if(page==1):

url = ‘ https://sc.chinaz.com/tupian/rentiyishu.html

else:

url =‘ https://sc.chinaz.com/tupian/rentiyishu_‘+str(page)+’.html

其中 UA用来反爬虫

UA介绍:User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统 及版本、CPU 类型、浏览器及版本。浏览器内核、浏览器渲染引擎、浏览器语言、浏览器插件等

表头数据

headers = {
‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36’
}

请求对象定制

request = urllib.request.Request(url=url,headers=headers)

向浏览器发送请求

response = urllib.request.urlopen(request)

对源码进行解码

content = response.read().decode(‘utf-8’)

下载

解析服务器响应文件

tree = etree.HTML(content)

解析想要图片的源码

src_list = tree.xpath(‘//div[@class=“container”]//img//@data-original’)

通过xpath插件检查语法

image.png

源码写最后了

import urllib.request
from lxml import etree
#(1) 请求对象定制
#(2)获取网页的源码
#(3)下载
#需求 下载的前十页的图片
#https://sc.chinaz.com/tupian/rentiyishu.html
#https://sc.chinaz.com/tupian/rentiyishu_2.html
# https://sc.chinaz.com/tupian/rentiyishu_3.html
def create_request(page):
    if(page==1):
        url = 'https://sc.chinaz.com/tupian/rentiyishu.html'
    else:
        url ='https://sc.chinaz.com/tupian/rentiyishu_'+str(page)+'.html'
    headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36'
    }
    request = urllib.request.Request(url=url,headers=headers)
    return  request
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content
def down_load(content):
    tree = etree.HTML(content)
    name_list = tree.xpath('//div[@class="container"]//img//@alt')
    src_list = tree.xpath('//div[@class="container"]//img//@data-original')
    # for i in range(len(name_list)):
    #     print(src_list)
    for i in range(len(name_list)):
        name =name_list[i]
        src = src_list[i]
        url = 'https:'+src
        urllib.request.urlretrieve(url=url,filename='./loveimg/'+name+'.jpg')
if __name__  == '__main__':
    start_page = int(input("请输入起始页码"))
    end_page = int(input("请输入结束页码"))
    for page in range (start_page,end_page+1):
        print(page)
        #(1)请求对象定制
        request = create_request(page)
        #(2)获取网页源码
        content = get_content(request)
        #(3) 下载
        down_load(content)

相关文章
|
2月前
|
SQL 安全 数据库
Pangolin渗tou实战
Pangolin渗tou实战
|
数据采集 安全 数据处理
CPCI(CompactPCI)简介
CPCI(CompactPCI)简介
1991 0
CPCI(CompactPCI)简介
|
分布式计算 搜索推荐 算法
Spark案例实战教程
实战代码参考:GitHub - GoAlers/Bigdata_project: 电商大数据项目-推荐系统(java和scala语言)
223 0
Spark案例实战教程
|
SQL 存储 分布式计算
HBSAE实战总结
HBSAE实践:(先启动zookeeper)
194 0
HBSAE实战总结
html+css实战118-特点
html+css实战118-特点
124 0
html+css实战118-特点
html+css实战91-pxcook使用
html+css实战91-pxcook使用
167 0
html+css实战91-pxcook使用
|
分布式计算 Java Spark
Spark Sreaming实战(一)-教程概述
Spark Sreaming实战(一)-教程概述
134 0
Spark Sreaming实战(一)-教程概述
|
机器学习/深度学习 分布式计算 算法
Spark快速入门(72集视频+源码+笔记)
Spark快速入门(72集视频+源码+笔记)1、什么是Spark?Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
1752 0
|
Spring
上部 本地实战
本文属于《JavaEE实战——从本地到云端》 上部 本地实战 从开发环境搭建开始,带你一步一步了解当下流行的SpringMVC——SSM(Spring+SpringMVC+MyBatis) 框架,spring-boot框架在项目中的实际应用方法。
786 0