一:《智慧的网络爬虫》— 认识爬虫

简介: 网络爬虫又称为网络蜘蛛;网络蚂蚁;网络机器人等,可以自动高效地从互联网的海量信息中浏览获取到我们感兴趣的信息,在浏览信息的时候需要按照我们制定的规则进行,而这些规则就是网络爬虫算法。使用Python可以很方便地编写出爬虫程序,进行互联网信息的自动化检索,也就是代替人去模拟浏览器进行网页操作​。在本篇文章中需掌握http与https协议,以及如何去抓包
1.爬虫引入:

​ 网络爬虫又称为网络蜘蛛;网络蚂蚁;网络机器人等,可以自动高效地从互联网的海量信息中浏览获取到我们感兴趣的信息,在浏览信息的时候需要按照我们制定的规则进行,而这些规则就是网络爬虫算法。使用Python可以很方便地编写出爬虫程序,进行互联网信息的自动化检索,也就是代替人去模拟浏览器进行网页操作

​ 网络爬虫分为通用网络爬虫聚焦网络爬虫

(1)通用网络爬虫:

​ 用做搜索引擎,获取一些高质量网页

(2)聚焦网络爬虫:

​ 获取某一垂直领域的数据或者有明确的检索需求,并过滤掉无用的信息

2.Python做爬虫的优势:
  • PHP:对多线程;异步支持不太好
  • Java:代码量大;代码笨重
  • C/C++:代码量大;难以编写
  • Python:支持模块多;代码简洁;开发效率高(scrapy框架)
3.爬虫的合法性:

​ 爬虫本身在法律上并不被禁止,但是利用爬虫技术获取数据这一行为是具有违法甚至是犯罪的风险的。建议熟读《网络安全法》;并参考《刑法》第72条,第253条,第285条;且遵守Robots协议

4.httphttps协议:

httphttps

http -- 不安全;https -- 安全
https = http + ssl
ssl:安全认证证书
网址(url):全球统一资源管理定位器,用来定位的

写爬虫的第一步就是找到数据接口 -- 当前数据存在的url,也就是网址

url.png

​ (1)什么是协议:

​ 网络协议是计算机之间为了实现网络通信而达成的一种 “约定” 或者 “规则” ,有了这种约定,不同厂商的生产设备,以及不同操作系统组成的计算机之间,就可以实现通信

​ (2)HTTP(Hyper Text Transfer Protocol)协议:

​ 是超文本传输协议的缩写;是从Web服务器传输超文本标记语言(HTML)到本地浏览器的传送协议。设计HTTP最初的目的就是为了提供一种发布和接收HTML页面的方法

HTTP有多个版本,目前广泛使用的是HTTP1.1版本,有些网站运用的是HTTP2.0版本,因为版本的不同,所以可能会导致发包异常

​ (3)HTTP原理(了解):

HTTP是一种基于TCP/IP通信协议来传递数据的协议,传输的数据类型为HTML文件;图片文件;查询结果等

HTTP协议一般用于B/S架构(浏览器/服务器结构)。浏览器作为HTTP客户端通过URLHTTP服务端即Web服务器发送所有请求

​ (4)HTTP特点(了解):

  • HTTP协议支持客户端/服务端模式,也是一种请求/响应模式的协议
  • ​ 简单快速:客户向服务器请求服务时,只需传送请求方法和路径,请求方法常用的有GETHEADPOST
  • ​ 灵活:HTTP允许传输任意类型的数据对象,传输的类型由Content-Type加以标记
  • ​ 无连接:限制每次连接只处理一个请求。服务器处理完请求,并收到客户的应答后,即断开连接,但是却不利于客户端与服务器保持会话连接,为了弥补这种不足,产生了两项记录HTTP状态的技术,一个叫做Cookie;一个叫做Session
  • ​ 无状态:无状态是指协议对于事物处理没有记忆,后续处理需要前面的信息,则必须重传

(5)HTTP的请求与响应:

HTTP通信由两部分组成:客户端请求信息;服务器响应信息

示例:

HTTP的请求与响应.png

​ 1.当用户在浏览器的地址栏中输入一个URL https://www.baidu.com/ 并按回车键后,浏览器会向HTTP服务器发送HTTP请求,HTTP请求主要分为 GetPost 两种方法

​ 2.当我们在浏览器输入URL https://www.baidu.com/ 的时候,浏览器会发送一个Request请求去获取这个URL https://www.baidu.com/html文件,服务器把Response文件对象发送回浏览器(客户端)

​ 3.浏览器分析Response中的HTML,发现其中引用了很多其它文件,比如images文件;CSS文件;JS文件,浏览器会自动的再次发送Request去获取images文件;CSS文件;JS文件 —— 下载的过程

​ 4.当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来

(6)HTTP的报文组成:

HTTP报文大致分为报文首部报文主体两块,中间用空行来划分。通常不一定会有报文主体

​ 报文首部:包含服务器或客户端需处理的请求或响应的内容及属性

​ 报文主体:应该被发送的数据

​ (7)什么是HTTPS?

https = http + sslhttps就是在http的基础上加上了SSL保护壳,信息的加密过程就是在SSL中完成的

https是以安全为目标的HTTP通道,简单来讲就是HTTP的安全版,即HTTP下加入SSL层,HTTPS的安全基础就是SSL

注意: SSL也是一个协议,主要用于Web的安全传输协议

​ (8)HTTPSHTTP的区别与总结(了解):

一般http中存在如下问题:

  • 请求信息明文传输,容易被窃听截取。
  • 数据的完整性未校验,容易被篡改
  • 没有验证对方身份,存在冒充危险

HTTPS的缺点

  • HTTPS协议多次握手,导致页面的加载时间延长近50%;
  • HTTPS连接缓存不如HTTP高效,会增加数据开销和功耗;
  • 申请SSL证书需要钱,功能越强大的证书费用越高。
  • SSL涉及到的安全算法会消耗 CPU 资源,对服务器资源消耗较大。

总结

  • HTTPSHTTP协议的安全版本,HTTP协议的数据传输是明文的,是不安全的,HTTPS使用了SSL/TLS协议进行了加密处理。
  • httphttps使用连接方式不同,默认端口也不一样,http是80,https是443。
5.抓包工具的使用:

如何抓包:以抓取百度首页的包为例:

注意: 尽量不要把英文换成中文,因为在找资料的过程中,通过中文搜索有时会搜索不到

​ (1)鼠标右键网页然后点击检查 / 按F12 / 按Fn + F12 -- 打开抓包工具框

注意: 不要弄错,是点击检查,不是网页源代码,网页源代码是查看当前页面的组成代码数据

​ (2)点击 Network -- 抓包;Network 是网络工作区,里面有非常多的包
​ (3)把 Preserve log(日志信息) 和 Disable cache(禁用缓存) 勾选上,避免有些包抓不到
​ (4)点击刷新页面 / CTRL + R -- 刷新页面让它发包
​ (5)点击百度的包 www.baidu.com 再点击 Headers(标头)
Headers 里面有 General(通用的);Response Headers(响应头);Request Headers(请求头)。先请求再响应,只有发出了正常的请求头才会得到正确的响应;所以目前主要关注 Request Headers 就可以
​ 发出请求:
1.携带URL;URL可以在 General 中查看
​ 2.请求参数;在 Request Headers 中查看
​ 因为服务器会做校验,而校验的内容全是 Request Headers(请求头),当你不知道要校验的具体参数时,就将请求头里面的内容全部复制下来,这样做不会出现任何的问题;但在有反爬的情况下,它里面的有些参数会是动态的,这个时候,在发出请求的过程中,如果不能找到那个动态的参数,这样做就没有任何的意义了

图片解析:

抓包(1).png

抓包(2).png

示例代码:爬取百度首页源代码:CTRL+F检索,查找具体数据

#导入网络请求模块;因为这是第三方模块,并不是内库,所以需要去安装 -- 通过 win + R 输入cmd 打开终端,输入 pip install requests 安装
import requests 

#目标网址
url = 'http://www.baidu.com' 

#添加请求头信息
headers = {
   'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0'} 

#发送请求:1.携带url 2.携带请求头信息
response = requests.get(url,headers=headers)

#将得到的响应数据指定为可读的格式编码
response.encoding = 'utf-8' 

#获取到响应内容
html = response.text 

#打印响应数据
print(html) 

#CTRL+F检索,查找具体数据

注意: 请求头一定要是字典的形式

复制粘贴的时候不要多出空格

6.一些零碎的知识:

(1)反反爬的第一步(了解):Request Headers(请求头)里的 User-Agent(用户代理)

User-Agent:客户端程序的信息,就是我发送请求的浏览器信息

​ 我们的爬虫程序的目的:模拟我们的浏览器向我们的服务器要数据

​ 在发请求的过程中,我们需携带请求头,而这个 User-Agent 是第一步,要让它认为我们是一个浏览器去访问的服务器,而不是我们的爬虫程序去访问的服务器,因为如果是爬虫程序访问的服务器,它会在前面显示 Python-Request,它会认为我们是一个自动化爬虫的请求,服务器一旦检测出来 User-Agent:Python-Request,那么服务器就不会给我们校验通过,这个时候我们需要模拟携带上我们自带的电脑上的 User-Agent(这个 User-Agent 直接复制就可以了)
注意: 无论要写什么样的爬虫程序 User-Agent 都是我们必须要携带的东西

Response Headers(响应头)里的 Set-Cookie:判断我们的Cookie它是本地生成的,还是服务器生成的(了解)

抓包(3).png

(2)认识url

URLUniform Resource Locator),中文叫统一资源管理定位器,是用来标识某一处资源的地址,即是我们常说的网址,在发送http请求时,通过URL对网络资源进行定位
URL解析.png

(3)常见的请求方法:

  • GET:请求指定的页面信息,并返回实体主体

  • POST:向指定资源提交数据进行处理请求(例如提交表单或者上传文件),数据被包含在请求体中,POST请求可能会导致新的资源的建立和/或已有资源的修改

  • HEAD:类似于get请求,只不过返回的响应中没有具体的内容,用于获取报头

  • PUT:从客户端向服务器传送的数据取代指定的文档的内容

  • DELETE:请求服务器删除指定的页面

    注意: GET请求和 POST请求是用的最多的,其它的很少用到

(4)响应状态码:

​ 访问一个网页时,浏览器会向web服务器发出请求。此网页所在的服务器会返回一个包含HTTP状态码的信息头用以响应浏览器的请求

状态码的分类:

  • 1XX -- 信息型,服务器收到请求,需要请求者继续操作

  • 2XX -- 成功型,请求成功收到,理解并处理

  • 3XX -- 重定向,需要进一步的操作以完成请求

  • 4XX -- 客户端错误,请求包含语法错误或无法完成请求

  • 5XX -- 服务器错误,服务器在处理请求的过程中发生了错误

    常见的状态码

  • 200 OK -- 客户端请求成功

  • 301 -- 资源(网页等)被永久转移到其它URL

  • 302 -- 临时跳转

  • 400 Bad Request -- 客户端请求有语法错误,不能被服务器所理解

  • 401 Unauthorized -- 请求未经授权,这个状态代码必须和WWW-Authenticate报头域一起使用

  • 404 -- 请求资源不存在,可能是输入了错误的URL

  • 500 -- 服务器内部发生了不可预期的错误

  • 503 Server Unavailable -- 服务器当前不能处理客户端的请求,一段时间后可能恢复正常

目录
相关文章
|
6月前
|
数据采集 存储 XML
深入浅出:基于Python的网络数据爬虫开发指南
【2月更文挑战第23天】 在数字时代,数据已成为新的石油。企业和个人都寻求通过各种手段获取互联网上的宝贵信息。本文将深入探讨网络爬虫的构建与优化,一种自动化工具,用于从网页上抓取并提取大量数据。我们将重点介绍Python语言中的相关库和技术,以及如何高效、合法地收集网络数据。文章不仅为初学者提供入门指导,也为有经验的开发者提供进阶技巧,确保读者能够在遵守网络伦理和法规的前提下,充分利用网络数据资源。
|
6月前
|
数据采集 JavaScript 前端开发
实用工具推荐:适用于 TypeScript 网络爬取的常用爬虫框架与库
实用工具推荐:适用于 TypeScript 网络爬取的常用爬虫框架与库
|
8天前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
4月前
|
数据采集 存储 API
在信息时代,Python爬虫用于自动化网络数据采集,提高效率。
【7月更文挑战第5天】在信息时代,Python爬虫用于自动化网络数据采集,提高效率。基本概念包括发送HTTP请求、解析HTML、存储数据及异常处理。常用库有requests(发送请求)和BeautifulSoup(解析HTML)。基本流程:导入库,发送GET请求,解析网页提取数据,存储结果,并处理异常。应用案例涉及抓取新闻、商品信息等。
93 2
|
6月前
|
数据采集 存储 JSON
【专栏】网络爬虫与数据抓取的基础知识,包括爬虫的工作原理、关键技术和不同类型
【4月更文挑战第27天】本文介绍了网络爬虫与数据抓取的基础知识,包括爬虫的工作原理、关键技术和不同类型。通过实例展示了如何构建简单爬虫,强调实战中的环境搭建、目标分析及异常处理。同时,文章探讨了法律、伦理考量,如尊重版权、隐私保护和合法用途,并分享了应对反爬策略。最后,倡导遵守数据抓取道德规范,以负责任的态度使用这项技术,促进数据科学的健康发展。
793 2
|
2月前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
在网络的广阔世界里,Python凭借其简洁的语法和强大的库支持,成为开发网络爬虫的首选语言。本文将通过实战案例,带你探索urllib和requests两大神器的魅力。urllib作为Python内置库,虽API稍显繁琐,但有助于理解HTTP请求本质;requests则简化了请求流程,使开发者更专注于业务逻辑。从基本的网页内容抓取到处理Cookies与Session,我们将逐一剖析,助你从爬虫新手成长为高手。
66 1
|
3月前
|
数据采集 机器学习/深度学习 人工智能
Python爬虫入门指南探索AI的无限可能:深度学习与神经网络的魅力
【8月更文挑战第27天】本文将带你走进Python爬虫的世界,从基础的爬虫概念到实战操作,你将学会如何利用Python进行网页数据的抓取。我们将一起探索requests库和BeautifulSoup库的使用,以及反爬策略的应对方法。无论你是编程新手还是有一定经验的开发者,这篇文章都将为你打开一扇通往数据抓取世界的大门。
|
4月前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
【7月更文挑战第29天】在广阔的网络世界里,Python以其简洁的语法和强大的库支持成为网络爬虫开发的首选。本文聚焦于两大网络请求库——urllib和requests。urllib是Python内置库,虽API稍显复杂,却有助于理解HTTP本质。示例代码展示了如何使用`urlopen`函数发起GET请求并读取网页内容。相比之下,requests库则更加人性化,极大地简化了HTTP请求流程,使开发者能更专注于业务逻辑。
49 1
|
5月前
|
数据采集 JSON 数据格式
三:《智慧的网络爬虫》— 网络请求模块(下)
本篇文章讲解了网络请求模块中Requests模块的get请求和post请求,并用十几张图示详细介绍了爬虫工具库与开发者工具的操作与使用;同时本篇文章也列举了多个代码示例如:对搜狗网页的爬取;爬取360翻译(中英文互译程序)并以此介绍了重放请求(通过重放请求来确定反爬参数)以及Cookie与Session实战案例 -- 爬取12306查票
66 9
三:《智慧的网络爬虫》—  网络请求模块(下)
|
5月前
|
数据采集 数据安全/隐私保护 Python
二:《智慧的网络爬虫》— 网络请求模块(上)
网络请求模块就是帮助浏览器(客户端)向服务器发送请求的​。在Python3之前的版本(Python2版本)中所使用的网络请求模块是urllib模块​;在Python3现在的版本中通过urllib模块进行升级 有了现在所使用的requests模块,也就是requests模块是基于urllib模块进行开发的。本篇文章讲解的是urllib模块。
57 2
二:《智慧的网络爬虫》—  网络请求模块(上)