Python爬虫-数据处理与存储(二)

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: Python爬虫-数据处理与存储(二)

接上文 Python爬虫-数据处理与存储(一)https://developer.aliyun.com/article/1617983

数据的增、删、改、查

  1. 增添数据
    当为DataFrame对象添加一列数据时,可以先创建列名,然后为其赋值数据。示例代码如下:
#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 10:39 PM
# 文件      :增添数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)

# 增加D列数据
data_frame['D'] = [10, 20, 30, 40, 50]
# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A   B   C   D
0  1   6  11  10
1  2   7  12  20
2  3   8  13  30
3  4   9  14  40
4  5  10  15  50

Process finished with exit code 0
  1. 删除数据
    pandas 模块中提供了drop()函数,用于删除DataFrame对象中的某行或某列数据,该函数提供了多个参数,其中比较常用的参数及含义如下表所示:

drop()函数常用参数及含义

image.png

实现删除DataFrame对象原数据中指定列与索引的行数据。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 10:48 PM
# 文件      :删除数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 删除原数据中索引为0的那行数据
data_frame.drop([0], inplace=True)
# 删除原数据中列名为A的那列数据
data_frame.drop(labels='A', axis=1, inplace=True)
# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

B   C
1   7  12
2   8  13
3   9  14
4  10  15

Process finished with exit code 0

补 充

在实现删除DataFrame对象中指定列名的数据时,也可以通过del关键字来实现,例如删除原来数据中列名为A的数据,可以用del data_frame[‘A’]代码

drop()函数除了可以删除指定的列或者行数据以外,还可以通过指定行索引的范围,实现删除多行数据的功能。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:01 PM
# 文件      :删除多行数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)

# 删除原数据中行索引从02的前三行数据
data_frame.drop(labels=range(0, 3), axis=0, inplace=True)
# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A   B   C
3  4   9  14
4  5  10  15

Process finished with exit code 0
  1. 修改数据
    当需要修改DataFrame对象中某一列的某个元素时,可以通过赋值的方式来进行元素的修改。示例代码如下:
#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:12 PM
# 文件      :修改数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 将A列中第三行数据修改为10
data_frame['A'][2] = 10

# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A   B   C
0   1   6  11
1   2   7  12
2  10   8  13
3   4   9  14
4   5  10  15

Process finished with exit code 0

在修改DataFrame对象中某一列的所有数据时,需要了解当前修改列名所对应的元素数组中包含的元素个数,然后根据原有元素的个数进行对应元素的修改。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:21 PM
# 文件      :修改某一列的所有数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 将B列中所有的数据修改
data_frame['B'] = [5, 4, 3, 2, 1]

# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A  B   C
0  1  5  11
1  2  4  12
2  3  3  13
3  4  2  14
4  5  1  15

Process finished with exit code 0

注 意

当修改B列中的所有数据且修改的元素数量与原有的元素数了不匹配时,将报错。

说 明

将某一列赋值为单个元素时,例如,data_frame[‘B’] = 1, 此时B列所对应的数据将都被修改为1

data_frame['B'] =  1

结果如下:

A  B   C
0  1  1  11
1  2  1  12
2  3  1  13
3  4  1  14
4  5  1  15

Process finished with exit code 0

4.查询数据
在获取DataFrame对象中某一列数据时,可以通过直接指定列名或者直接调用列名属性的方式来获取指定列的数据。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:34 PM
# 文件      :查询数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)

print('指定列名的数据为:\n', data_frame['A'])
print('指定列名属性的数据为:\n', data_frame.B)

程序运行结果如下:

指定列名的数据为:
 0    1
1    2
2    3
3    4
4    5
Name: A, dtype: int64
指定列名属性的数据为:
 0     6
1     7
2     8
3     9
4    10
Name: B, dtype: int64

Process finished with exit code 0

在获取DataFrame对象从第1行至第3行范围内的数据时,可以通过指定索引范围的方式来获取数据,行索引从0开始,行索引0对应的是DataFrame对象中的第1行数据。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:39 PM
# 文件      :获取指定行索引范围的数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)

print('指定行索引范围的数据:\n', data_frame[0:3])

16.
程序运行结果如下:

指定行索引范围的数据:
    A  B   C
0  1  6  11
1  2  7  12
2  3  8  13

Process finished with exit code 0

说 明

在获取指定行索引范围的示例代码中,0为起始行索引,3为结束行索引的位置,所以此次获取内容并不包含行索引为3的数据。

在获取DataFrame对象中某一列的某个元素时,可以通过依次指定列名称、行索引的方式来进行数据的获取。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/13/22 11:44 PM
# 文件      :获取某列的某个元素.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)

print('获取指定列中的某个数据:\n', data_frame['B'][2])

程序运行结果如下:

获取指定列中的某个数据:
 8

Process finished with exit code 0

NaN数据处理
1.修改元素为NaN
NaN数据在numpy模块中表示空缺数据,所以在数据分析中偶尔会需要将数据结构中的某个元素修改为NaN值,这时只需要调用numpy.NaN,为需要修改的元素赋值即可实现修改元素的目的。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:14 AM
# 文件      :修改元素为NaN.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd, numpy

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
#将数据中列名为A,行索引为0的元素修改为NaN
data_frame['A'][0] = numpy.nan

# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A   B   C
0  NaN   6  11
1  2.0   7  12
2  3.0   8  13
3  4.0   9  14
4  5.0  10  15

Process finished with exit code 0

2.统计NaN数据
pandas模块提供了两个可以快速识别空缺值的方法,isnull()方法用于判断数值是否为空缺值,如果是空缺值将返回True。notnull()方法用于识别非空缺值,该方法在检测出不是空缺值的数据时将返回True。通过这两个方法与统计函数sum()方法即可获取数据中空缺值与非空缺值的具体数量。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:32 AM
# 文件      :统计NaN数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd, numpy

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
#将数据中列名为A,行索引为0的元素修改为NaN
data_frame['A'][0] = numpy.nan

# 打印数据中空缺值数量
print('每列空缺值数量为:\n', data_frame.isnull().sum())

# 打印数据中非空缺值数量
print('每列非空缺值数量为:\n', data_frame.notnull().sum())

程序运行结果如下:

每列空缺值数量为:
 A    1
B    0
C    0
dtype: int64
每列非空缺值数量为:
 A    4
B    5
C    5
dtype: int64

Process finished with exit code 0
  1. 筛选NaN元素
    在实现NaN元素的筛选时,可以使用dropna()函数,例如,将包含NaN元素所在的整行数据删除。示例代码如下:
#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:38 AM
# 文件      :筛选NaN元素.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd, numpy

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
#将数据中列名为A,行索引为0的元素修改为NaN
data_frame['A'][0] = numpy.nan

# 将包含NaN元素的整行数据删除
data_frame.dropna(axis=0, inplace=True)

# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

A   B   C
1  2.0   7  12
2  3.0   8  13
3  4.0   9  14
4  5.0  10  15

Process finished with exit code 0

说 明

如果需要将数据中包含NaN元素所在的整列数据删除,可以将axis参数设置为1

dropna()函数提供了一个how参数,如果将该参数设置为all, dropna()函数将会删除某行或者是某列所有元素全部为NaN的值。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:49 AM
# 文件      :dropna()函数how参数应用.py
# IDE      :PyCharm

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:14 AM
# 文件      :修改元素为NaN.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd, numpy

data = {
   'A':[1, 2, 3, 4, 5],
        'B':[6, 7, 8, 9, 10],
        'C':[11, 12, 13, 14, 15]}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 将数据中列名为A,行索引为0的元素修改为NaN
data_frame['A'][0] = numpy.nan
# 将数据中列名为A,行索引为1的元素修改为NaN
data_frame['A'][1] = numpy.nan
# 将数据中列名为A,行索引为2的元素修改为NaN
data_frame['A'][2] = numpy.nan
# 将数据中列名为A,行索引为3的元素修改为NaN
data_frame['A'][3] = numpy.nan
# 将数据中列名为A,行索引为4的元素修改为NaN
data_frame['A'][4] = numpy.nan

# 删除包含NaN元素对应的整行数据
data_frame.dropna(how='all', axis=1,inplace=True)
# 输出DataFrame对象内容
print(data_frame)

程序运行结果如下:

B   C
0   6  11
1   7  12
2   8  13
3   9  14
4  10  15

Process finished with exit code 0

说 明

因为axis的默认值0,所以只对行数据进行删除,而所有元素都为NaN的是列,所以在指定how参数时还需要指定删除目标列axis=1

  1. NaN元素的替换
    当处理数据中的NaN元素时,为了避免删除数据中比较重要的参考数据。可以使用fillna()函数将数据中NaN元素替换为同一个元素,这样在进行数据分析时,可以很清楚地知道哪些元素无用(即为NaN元素)。示例代码如下:
#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 9:53 AM
# 文件      :NaN元素的替换.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd
data = {
   'A':[1, None, 3, 4, 5],
        'B':[6, 7, 8, None, 10],
        'C':[11, 12, None, 14, None]}

# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 输出修改前的数据
print('修改前的数据:\n', data_frame)
# 将数据中所有NaN元素修改为0
data_frame.fillna(0, inplace=True)
# 输出修改后的数据
print('修改后代数据:\n', data_frame)

程序运行结果如下:

修改前的数据:
      A     B     C
0  1.0   6.0  11.0
1  NaN   7.0  12.0
2  3.0   8.0   NaN
3  4.0   NaN  14.0
4  5.0  10.0   NaN
修改后代数据:
      A     B     C
0  1.0   6.0  11.0
1  0.0   7.0  12.0
2  3.0   8.0   0.0
3  4.0   0.0  14.0
4  5.0  10.0   0.0

Process finished with exit code 0

去除重复数据
pandas模块提供的drop_duplicates()方法用于去除指定列中的重复数据。语法格式如下:

pandas.dataFrame.drop_duplicates(subset=None, keep='first', inplace=False)

drop_duplicates()方法的常用参数及含义如下表:

drop_duplicates()方法中常用的参数及含义

参 数 名

含 义

subset

表示指定需要去重的列名,也可以是多个列名组成的列表。默认None,表示全部列

keep

表示保存重复数据的哪一条数据,first表示保留第一条、last表示保留最后一条、False表示重复项数据都不留。默认first

inplace

表示是否在原数据中进行操作,默认为False

在指定去除某一列中重复数据时,需要在subset参数位置指定列名。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 11:00 AM
# 文件      :drop_duplicate()方法出去指定列中的重复数据.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd
# 创建数据
data = {
   'A':['A1','A1','A3'],
       'B':['B1','B2','B1']}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 指定列名为A
data_frame.drop_duplicates('A', inplace=True)
# 打印移除后的数据
print(data_frame)

程序运行结果如下:

A   B
0  A1  B1
2  A3  B1

Process finished with exit code 0

注 意

在去除DataFrame对象中的重复数据时,将会删除指定列中重复数据所对应整行数据。

说 明

drop_duplicates()方法除了删除DataFrame对象中的数据行以外,还可以对DataFrame对象中的某一列数据进行重复数据的删除。例如,删除DataFrame对象中A列内重复数据,可使用此行代码:new_data = data_frame[‘A’].drop_duplicates()

drop_duplicates()方法不仅可以实现DataFrame对象中单列的去重复操作,还可以实现多列的去重操作。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 12:00 PM
# 文件      :drop_duplicates()方法实现DataFrame对象多列去重操作.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd
# 创建数据
data = {
   'A':['A1', 'A1', 'A1', 'A2', 'A2'],
        'B':['B1', 'B1', 'B3', 'B4', 'B5'],
        'C':['C1', 'C2', 'C3', 'C4', 'C5']}
# 创建DataFrame对象
data_frame = pd.DataFrame(data)
# 进行多列去重操作
data_frame.drop_duplicates(subset=['A', 'B'], inplace=True)
# 输出移除后的数据
print(data_frame)

程序运行结果如下:

A   B   C
0  A1  B1  C1
2  A1  B3  C3
3  A2  B4  C4
4  A2  B5  C5

Process finished with exit code 0

文件的存取
基本文件操作TXT

  1. TXT文件存储
    如果想要简单地进行TXT文件存储工作,可以通过open()函数操作文件实现,即需要先创建或者打开指定的文件并创建文件对象。open()函数的基本语法格式如下:
file = open(filename[, mode[,buffering]])

参数说明

§ file:被创建的文件对象

§ filename:要创建或打开文件的文件名称,需要使用单引号或双引号将其括起来。如果要打开的文件和当前文件在同一目录下,那么直接写文件名即可,否则需要指定完整路径。例如,要打开当前路径下的名称为status.txt的文件,可以使用"status.txt"。

§ mode:可选参数,用于指定文件的打开模式。其参数如下表。默认的打开模式为只读(即r)

mode参数的参数值说明
image.png
image.png
image.png
image.png
§ buffering:可选参数,用于指定读写文件的缓冲模式,值为0表达式不缓存;值为1表示缓存;值大于1,则表示缓冲区的大小。默认为缓存模式。

以爬取某网页中的励志名句为例,首先通过requests发送网络请求,然后接收响应结果并通过BeautifulSoup解析HTML代码,接着提取所有信息,最后将信息逐条写入data.txt文件当中。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 1:06 PM
# 文件      :TXT文件存储.py
# IDE      :PyCharm

# 导入网络请求模块
import requests
# 导入etree子模块
from lxml import etree


# 定义请求头
headers = {
   
  "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.80 Safari/537.36"
}
for i in range(2):
    # 定义请求地址
    url = f'http://quotes.toscrape.com/tag/inspirational/page/{i+1}/'
    # 发送网络请求
    resp = requests.get(url, headers=headers)
    # 如果网络请求成功
    if resp.status_code == 200:
        # 解析html文件
        html = etree.HTML(resp.text)
        # 获取当前页的所有显示的励志名句的span标签
        text_all = html.xpath('//span[@class="text"]')
        # 创建open对象
        txt_file = open('data.txt', 'a', encoding='utf-8')
        # 循环遍历爬取内容
        for i1, value in enumerate(text_all):
            # 写入爬取的每条励志名句并在结尾换行
            txt_file.write(str(i1)+value.text+'\n')
    txt_file.close()

运行以上示例代码后,当前目录中将自动生成data.txt文件,打开文件如下图所示:

image.png

  1. 读取TXT文件
    在Python中打开TXT文件后,除了可以向其写入或追加内容,还可以读取文件中的内容。读取文件内容主要是分为以下几种情况。

§ 读取指定字符

文件对象提供了read()方法用于读取指定个数的字符。其语法格式如下:

file.read([size])

其中,file为打开的文件对象;size为可选参数,用于指定要读取的字符个数,如果省略则一次性读取所有内容。读取上例中的data.txt文件中的示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 2:27 PM
# 文件      :读取data.txt文件中的前46个字符.py
# IDE      :PyCharm

# 打开文件
with open('data.txt', 'r') as f:
    # 读取前50个字符
    string = f.read(46)
    print(string)

执行结果如下:

0. “There are only two ways to live your life.

Process finished with exit code 0

使用read()方法读取文件时,是从文件的开头读取的。如果想要读取部分内容,可以先使用文件对象的seek()方法将文件的指针移动到新的位置,然后再应用read()方法读取。seek()方法的基本语法格式如下:

file.seek(offset[,where])

参数说明:

file:表示已经打开的文件对象
offset:用于指定移动的字符个数,其具体位置与whence有关
whence:用于指定从什么位置开始计算。值为0表示从文件头开始计算;1 表示从当前位置开始计算;2 表示从文件尾开始计算,默认为0
想要从文件的第49个字符开始读取38个字符,示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 2:56 PM
# 文件      :从文件的指定字符开始读取特定个数的字符.py
# IDE      :PyCharm

# 打开文件
with open('data.txt', 'r') as f:
    # 移动到文件指针到新到位置
    f.seek(49)
    string = f.read(38)
    print(string)

上面的程序执行结果如如下:

One is as though nothing is a miracle.

Process finished with exit code 0

说 明

使用seek()方法时,如果采用GBK编码,那么offset的值是按一个汉字(包括中文标点符号)占两个字符计算,而采用UTF-8编码,则一个汉字占3个字符,不过无论采用何种编码英文和数字都按一个字符计算的。这与read()方法不同。

§ 读取一行

在使用read()方法读取文件时,如果文件很大,一次读取全部内容到内存容易造成内存不足,所以通常会采用逐行读取。文件对象提供了readline()方法用于每次读取一行数据。readline()方法基本语法格式如下:


file.readline()

其中,file为打开的文件对象。同read()方法一样,打开文件时,也需要指定打开模式为r(只读)或者r+(读写)。逐行读取Python经典应用文件,示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 3:27 PM
# 文件      :逐行读取Python经典应用文件.py
# IDE      :PyCharm

print("\n","="*20,"Python经典应用","="*20,"\n")
with open('message.txt','r') as file:   # 打开保存Python经典应用信息的文件
    number = 0   # 记录行号
    while True:
        number += 1
        line = file.readline()
        if line =='':
            break    # 跳出循环
        print(number,line,end= "\n")  # 输出一行内容
print("\n","="*20,"over","="*20,"\n")

程序运行结果如下:

==================== Python经典应用 ==================== 

1 1 Zope :应用服务器

2 2 Plone :内容管里系统

3 3 Django :鼓励快速开发的Web应用框架

4 4 Python Wikipedia Robot Framework:MediaWiki的机器人程序

5 5 tornado :非阻塞式服务器

6 6 Reddit :社交分享网站

7 7 Dropbox :文件分享服务

8 8 Trac :使用Python编写的BUG管里系统

9 9 Blender :以C与Python开发的开源3D绘图软件

 ==================== over ==================== 


Process finished with exit code 0

§ 读取全部行

读取全部行的作用同调用readd()方法时不指定size类似,只不过读取全部行时,返回的是一个字符串列表,每个元素为文件的一行内容。读取全部行,使用的是文件对象的readlines()方法,其语法格式如下:

file.readlines()

其中,file为打开的文件对象。同read()方法一样,打开文件时,也需要指定打开模式为r(只读)或者r+(读写),通过readlines()方法读取message.txt文件中的所有内容,并输出读取结果,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 4:13 PM
# 文件      :通过readlines()方法读取全部内容.py
# IDE      :PyCharm

print("\n","="*20,"Python经典应用","="*20,"\n")
with open('message.txt','r') as file:      # 打开保存Python经典应用信息的文件
    message = file.readlines()              # 读取全部信息
    print(message)                           # 输出信息
    print("\n","="*25,"over","="*25,"\n")

程序运行结果如下:

==================== Python经典应用 ==================== 

['1 Zope :应用服务器\n', '2 Plone :内容管里系统\n', '3 Django :鼓励快速开发的Web应用框架\n', '4 Python Wikipedia Robot Framework:MediaWiki的机器人程序\n', '5 tornado :非阻塞式服务器\n', '6 Reddit :社交分享网站\n', '7 Dropbox :文件分享服务\n', '8 Trac :使用Python编写的BUG管里系统\n', '9 Blender :以C与Python开发的开源3D绘图软件']

 ========================= over =========================

从该运行结果中可以看出readlines()方法的返回值为一个字符串列表。在这个字符串列表中,每个元素记录一行内容。如果文件比较大时,采用这种方法输出读取的文件内容会很慢。这时可以将列表的内容逐行输出。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 4:26 PM
# 文件      :deadlines()方法逐行输出内容.py
# IDE      :PyCharm

print("\n","="*20,"Python经典应用","="*20,"\n")
with open('message.txt','r') as file:      # 打开保存Python经典应用信息的文件
    messageall = file.readlines()              # 读取全部信息
    for message in messageall:
        print(message)                           # 输出信息
print("\n","="*25,"over","="*25,"\n")

程序运行结果如下:

==================== Python经典应用 ==================== 

1 Zope :应用服务器

2 Plone :内容管里系统

3 Django :鼓励快速开发的Web应用框架

4 Python Wikipedia Robot Framework:MediaWiki的机器人程序

5 tornado :非阻塞式服务器

6 Reddit :社交分享网站

7 Dropbox :文件分享服务

8 Trac :使用Python编写的BUG管里系统

9 Blender :以C与Python开发的开源3D绘图软件

 ========================= over ========================= 


Process finished with exit code 0

存取CSV文件
CSV文件是文本文件的一种,该文件中每一行数据的各元素使用逗号进行分隔。其实存取CSV文件时同样可以使用open()函数,不过还可以使用更好的办法,那就是使用pandas模块实现CSV文件的存取。

1.CSV文件的存储
Pandas提供了to_csv()函数用于实现CSV文件的存储,该函数中常用的参数及含义如下表:

to_csv()函数常用参数及含义
image.png
例如,创建A,B,C三列数据,然后将数据写入CSV文件中,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 5:14 PM
# 文件      :创建CSV文件.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

# 创建三列数据
data = {
   'A':[1, 2, 3], 'B':[4, 5, 6], 'C':[7, 8, 9]}
# 创建DataFrame对象
df = pd.DataFrame(data)
# 存储CSV文件
df.to_csv('test.csv')

运行代码后, 文件夹目录中将自动生成一个test.csv文件,在Pycharm中打开该文件,将显示如下图所示内容:

image.png

说 明

图中第一列数据为默认生成的索引列,在写入数据时如果不需要默认的索引列,可以在to_csv()函数中设置index参数为False即可。

  1. CSV文件的读取
    pandas模块提供了read_csv()函数用于CSV文件的读取工作。read_csv()函数中常用的参数及含义如下表:

read_csv()函数常用的参数及含义
image.png
image.png
在实现一个简单的读取CSV文件时,直接调用pandas.read_csv()函数,然后指定文件路径即可。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 5:50 PM
# 文件      :读取csv文件.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd
# 读取csv文件信息
data = pd.read_csv('test.csv')

# 输出读取的文件内容
print('读取的CSV文件内容为:\n', data)

程序运行结果如下:

读取的CSV文件内容为:

Unnamed: 0  A  B  C
0           0  1  4  7
1           1  2  5  8
2           2  3  6  9

Process finished with exit code 0

还可以将读取出来的数据指定列,写入到新的文件当中。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 5:59 PM
# 文件      :将读取出来的csv数据指定列写到新的文件中.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

# 读取csv文件信息
data = pd.read_csv('test.csv')
# 将读取的信息中指定列,写入新的文件中
data.to_csv('new_test.csv', columns=['B', 'C'], index=False)
# 读取新写入的CSV文件信息
new_data = pd.read_csv('new_test.csv')
# 打印新文件信息
print('读取新的csv文件内容为:\n', new_data)

程序运行结果如下:

读取新的csv文件内容为:

B  C
0  4  7
1  5  8
2  6  9

Process finished with exit code 0

存取Excel文件

  1. Excel文件的存储
    Excel文件是一种大家都比较熟悉的常用办公表格文件,是微软公司推出的办公软件中的一个组件。Excel文件的扩展名目前两种,一种为.xls,另一种为.xlsx,其扩展名主要根据办公软件版本决定。

通过DataFrame的数据对象直接调用to_excel()方法即可实现Excel文件的写入功能,该方法的参数含义与to_csv()方法类似。通过to_excel()方法向Excel文件写入信息的代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 6:18 PM
# 文件      :to_excel()方法写入excel文件.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd

# 创建三列数据
data = {
   'A':[1, 2, 3],'B':[4, 5, 6], 'C':[7, 8, 9]}
# 创建DataFrame对象
df = pd.DataFrame(data)
# 存储Excel文件
df.to_excel('test.xlsx')
  1. Excel文件的读取
    pandas 模块的read_excel()函数用于Excel文件的读取,该函数中常用的参数及含义如下表:

read_excel()函数常用参数及含义
image.png
在没有特殊情况下,读取Excel文件内容与读取CSV文件内容相同,直接调用pandas.read_excel()函数即可。示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 6:31 PM
# 文件      :读取excel文件.py
# IDE      :PyCharm

# 导入pandas模块
import pandas as pd
# 读取Excel文件内容
data = pd.read_excel('test.xlsx')
print('读取的Excel文件内容为:\n', data)

程序运行结果如下:

读取的Excel文件内容为:
    Unnamed: 0  A  B  C
0           0  1  4  7
1           1  2  5  8
2           2  3  6  9

Process finished with exit code 0

SQLite数据库
与许多其他数据库管理系统不同,SQLite不是一个客户端/服务器结构的数据库引擎,而是一种 嵌入式数据库,它的数据库就是一个文件。SQLite将整个数据库,包括定义、表、索引以及数据本身,作为一个单独的、可跨平台使用的文件存储在主机中。由于SQLite本身是C语言编写的,而且体积很小,所以经常被集成到各种应用程序中。Python就内置了SQLite3,所以,在Python中使用SQLite数据库,不需要安装任何模块,可以直接使用。

创建数据库文件
由于Python中已经内置了SQLite3, 所以可以直接使用import语句导入SQLite3模块。Python操作数据库的通用的流程如图所示:

image.png

例如,创建一个名称为mySoft.db的SQLite数据库文件,然后执行SQL语句创建一个user(用户表),user表包含id和name两个字段,示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/14/22 8:27 PM
# 文件      :创建mySoft.db的SQLite数据库.py
# IDE      :PyCharm

import sqlite3
# 连接到SQLite数据库
# 数据库文件是mySoft.db,如果文件不存在,会自动在当前目录创建
conn = sqlite3.connect('mySoft.db')
# 创建一个Cursor
cursor = conn.cursor()

# 执行一条SQL语句,创建user表
cursor.execute('create table user(id int(10) primary key, name varchar(20))')
# 关闭游标
cursor.close()
# 关闭connection
conn.close()

说 明

上面代码只能运行一次,再次运行时,会提示错误信息:sqlite3.OperationalError:table user already exists。这是因为user表已经存在

操作SQLite

  1. 新增用户数据信息
    为了向数据表中新增数据,可以使用如下SQL语句:
insert into 表名(字段名1, 字段名2,....,字段名n) values(字段值1, 字段值2.....,字段值n)

例如,在user表中有2个字段,字段名分别为id和name。而 字段值需要根据字段的数据类型来赋值,例如,id是一个长度为10的整型,name是长度为20的字符串型数据。向user表中插入3条用户信息记录,SQL语句如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 6:26 AM
# 文件      :新增用户数据信息.py
# IDE      :PyCharm

import sqlite3
# 连接到SQLite数据库
# 数据库文件是mySoft.db,如果文件不存在,会自动在当前目录创建
conn = sqlite3.connect('mySoft.db')
# 创建一个Cursor
cursor = conn.cursor()
# 执行一条SQL语句,创建user表
cursor.execute('create table user (id int(10) primary key, name varchar(20))')
# 插入3条数据
cursor.execute('insert into user (id, name) values("1", "Bruce_liu")')
cursor.execute('insert into user (id, name) values("2", "Andy")')
cursor.execute('insert into user (id, name) values("3", "光辉岁月")')

# 提交commit()
cursor.commit()
# 关闭游标
cursor.close()
# 关闭connection
conn.close()
  1. 查看用户数据信息
    查找user表中的数据可以使用如下SQL语句:
selec 字段名1, 字段名2, 字段名3,.... from 表名 where 查询条件

查看用户信息的代码与插入数据信息的代码大致相同,不同之处在于使用的SQL语句不同。此外,查询数据时通常使用如下3种方式:

§ fetching():获取查询结果集中的下一条记录

§ fetch many(size):获取指定数量的记录

§ fetch all():获取结果集的所有记录

下面通过示例来练习这3种查询方式的区别:

例如,分别使用fetchone()、fetch many(size)、fetchall()这3种方式查询用户信息,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 6:38 AM
# 文件      :查看用户数据信息.py
# IDE      :PyCharm

# 导入模块
import sqlite3
# 连接到SQLite数据库
# 数据库文件是mySoft.db,如果文件不存在,会自动在当前目录创建
conn = sqlite3.connect('mySoft.db')
# 创建一个Cursor
cursor = conn.cursor()
# 执行查询语句
cursor.execute('select * from user')

# 获取查询结果

result1 = cursor.fetchone()         # 使用fetchone()获取一条信息
print(result1)
result2 = cursor.fetchmany(2)       # 使用fetchmany(size)方法查询指定数量的数据
print(result2)
result3 = cursor.fetchall()         # 使用fetchall()方法查询所有数据
print(result3)
# 关闭游标
cursor.close()
# 关闭链接
conn.close()

程序运行结果如下:

(1, 'Bruce_liu')
[(2, '小薇'), (3, '海阔天空')]
[(1, 'Bruce_liu'), (2, '小薇'), (3, '海阔天空')]

修改上面代码为条件查询,示例如下:

cursor.execute('select * from user where id > ?', (1, ))
result3 = cursor.fetchall()
print(result3)

程序运行结果如下:

[(2, '小薇'), (3, '海阔天空')]

Process finished with exit code 0

在select查询语句中,使用问号作为占位符代替具体的数值,然后使用一个元组来替换问号(注意,不要忽略元组中最后的逗号)。上述条件查询语句等价于:

cursor.execute('select * from user where id > 1')

说 明

使用占位符的方式可以避免SQL注入的风险,推荐使用这样的方式

  1. 修改用户数据信息
    修改user表中的数据可以使用如下SQL语句:
update 表名 set 字段名 = 字段值 where 查询条件

例如,将SQLite数据库中user表id 为1的数据name字段值修改为’李小龙’,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 7:33 AM
# 文件      :删除用户数据信息.py
# IDE      :PyCharm

# 导入模块
import sqlite3

# 连接数据库
conn = sqlite3.connect('mySoft.db')
# 创建cursor
cursor = conn.cursor()

# 执行语句
cursor.execute('delete from user where id = ?', (1, ))
# 提交
conn.commit()
# 关闭游标
cursor.close()
# 关闭连接
conn.close()

MySQL数据库
MySQL服务器下载及安装
本人的运行环境为macOS系统,在terminal下执行brew install mysql@5.7进行安装,这里不再赘述。

liuxiaowei@MacBookAir ~ % brew install mysql@5.7
==> Downloading https://ghcr.io/v2/homebrew/core/mysql/5.7/manifests/5.7.36
Already downloaded: /Users/liuxiaowei/Library/Caches/Homebrew/downloads/3bd8201ca705f862e6a7e4c71ec30e87f77b9372889bd10d37989ac9edf694b1--mysql@5.7-5.7.36.bottle_manifest.json
==> Downloading https://ghcr.io/v2/homebrew/core/mysql/5.7/blobs/sha256:5289b664
Already downloaded: /Users/liuxiaowei/Library/Caches/Homebrew/downloads/e6da9b8d37c53e90332bc6c290ce514b6913c16310d45cad80490b191d45c903--mysql@5.7--5.7.36.monterey.bottle.tar.gz
==> Pouring mysql@5.7--5.7.36.monterey.bottle.tar.gz
==> Caveats
We've installed your MySQL database without a root password. To secure it run:
    mysql_secure_installation

MySQL is configured to only allow connections from localhost by default

To connect run:
    mysql -uroot

mysql@5.7 is keg-only, which means it was not symlinked into /usr/local,
because this is an alternate version of another formula.

If you need to have mysql@5.7 first in your PATH, run:
  echo 'export PATH="/usr/local/opt/mysql@5.7/bin:$PATH"' >> ~/.zshrc

For compilers to find mysql@5.7 you may need to set:
  export LDFLAGS="-L/usr/local/opt/mysql@5.7/lib"
  export CPPFLAGS="-I/usr/local/opt/mysql@5.7/include"


To restart mysql@5.7 after an upgrade:
  brew services restart mysql@5.7
Or, if you don't want/need a background service you can just run:
  /usr/local/opt/mysql@5.7/bin/mysqld_safe --datadir=/usr/local/var/mysql
==> Summary
🍺  /usr/local/Cellar/mysql@5.7/5.7.36: 320 files, 234.3MB
==> Running `brew cleanup mysql@5.7`...
Disable this behaviour by setting HOMEBREW_NO_INSTALL_CLEANUP.
Hide these hints with HOMEBREW_NO_ENV_HINTS (see `man brew`).

说 明

启动SQL
使用MySQL数据库前,需要先启动MySQL。在terminal窗口中,输入命令:

MacBookAir:~ root# /usr/local/opt/mysql\@5.7/bin/mysql.server start

启动结果如下:

Starting MySQL

. SUCCESS!

使用Navicat 操作管理MySQL
§ 1. 打开Navicat,新建MySQL连接,输入连接信息。(本例)连接名:python-mysql,输入主机名后IP地址“localhost“或"127.0.0.1",输入密码,如下图:

image.png

§ 2. 创建完成以后,双击python-mysql,进入数据库。如下图:
image.png

§ 3. 创建一个名为“myPython“的数据库,步骤为:右键单击python-mysql,选择“新建数据库“,填写数据库信息,如下图:
image.png

安装PyMySQL
由于MySQL服务器独立的进程行,并通过网络对外服务,所以,需要支持Python的MySQL驱动连接到MySQL服务器。在Python中支持MySQL的数据库模块有很多,我们选择使用PyMySQL模块。

PyMySQL模块的安装比较简单,在CMD命令行窗口中运行如下命令即可:

pip install PyMySQL

连接数据库
使用数据库的第一步是连接数据库。接下来使用PyMySQL模块连接数据库。由于PyMySQL模块页遵循Python Database API2.0规范,所以操作MySQL数据库的方式与SQLite相似。前面已经创建了一个MySQL连接“python-mysql“,并且在安装数据库时设置了数据库的用户名"root"和密码“12345”。下面通过以上信息,使用connect()方法连接MySQL数据库,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 12:19 PM
# 文件      :使用connect()方法连接MySQL数据库.py
# IDE      :PyCharm

# 导入模块
import pymysql

# 打开数据库连接,参数1:主机名或IP;参数2:用户名;参数3:密码;参数4:数据库名
db = pymysql.connect(host='localhost', database='myPython', port=3306, user='root', password='12345')

# 使用cursor()方法创建一个游标对象cursor
cursor = db.cursor()
# 使用execute()方法执行SQL查询
cursor.execute('SELECT VERSION()')
# 使用fetchone()方法获取单条数据
data = cursor.fetchone()
print('Database version :%s '% data)
# 关闭数据库连接
db.close()

上述代码中,首先使用connect()方法连接数据库,然后使用cursor()方法创建游标,接着使用execute()方法执行SQL语句查看MySQL数据库版本,然后使用fetchone()方法获取数据,最后使用close()方法关闭数据库连接,运行结果如下:

Database version :5.7.36 

Process finished with exit code 0

创建数据库表
数据库连接成功以后,接下来就可以为数据库创建数据表了。创建数据库表需要使用excute()方法,本例使用该方法创建一个books图书表,books表包含id(主键)、name(图书名称)、category(图书分类)、price(图书价格)和publish_time(出版时间)5个字段。创建books表SQL语句如下:

CREATE TABLE books(
        id int(8) NOT NULL AUTO_INCREMENT,
        name varchar(50) NOT NULL,
        category varchar(50) NOT NULL,
        price decimal(10,2) DEFAULT NULL,
        publish_time date DEFAULT NULL,
        PRIMARY KEY(id)
        ) ENGINE=MyISAM AUTO_INCREMENT=1 DEFAULT CHARSET = utf8;

备注 在创建表之前,使用如下语句实现当前数据库表存在时先删除:

DROP TABLE IF EXISTS 'books';

示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 12:44 PM
# 文件      :创建数据表.py
# IDE      :PyCharm

# 导入模块
import pymysql
# 打开数据库连接
db = pymysql.connect(host='localhost', database='myPython', port=3306, user='root', password='12345')

# 使用cursor()方法创建一个游标对象
cursor = db.cursor()
# 使用预处理语句创建表
sql = '''
CREATE TABLE books(
        id int(8) NOT NULL AUTO_INCREMENT,
        name varchar(50) NOT NULL,
        category varchar(50) NOT NULL,
        price decimal(10,2) DEFAULT NULL,
        publish_time date DEFAULT NULL,
        PRIMARY KEY(id)
        ) ENGINE=MyISAM AUTO_INCREMENT=1 DEFAULT CHARSET = utf8;
'''
# 执行SQL语句
cursor.execute(sql)
# 关闭数据库连接
db.close()

运行上述代码后,myPython数据库下会创建一个books表。打开Navicat(如果已经打开按下键刷新),发现myPython数据库下多了一个books表,右键单击books,选择设计表,如下图所示:

image.png

操作MySQL数据表
MySQL数据表的操作主要包括数据的增、删、改、查,与操作SQLite类似,我们使用executemany()方法向数据表中批量添加多条记录,executemany()方法格式如下:

exeutemany(operation, seq_of_params)

§ operation:操作的SQL语句

§ seq_of_params:参数序列

示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/15/22 1:04 PM
# 文件      :向数据表中批量添加多条记录.py
# IDE      :PyCharm

# 导入模块
import pymysql

# 打开数据库连接
db = pymysql.connect(host="localhost", user="root", password="12345", database="myPython",charset="utf8")
# 使用cursor()方法获取操作游标
cursor = db.cursor()
# 数据列表
data = [("零基础学Python",'Python','79.80','2018-5-20'),
("Python从入门到精通",'Python','69.80','2018-6-18'),
("零基础学PHP",'PHP','69.80','2017-5-21'),
("PHP项目开发实战入门",'PHP','79.80','2016-5-21'),
("零基础学Java",'Java','69.80','2017-5-21'),
]
try:
    # 执行sql语句,插入多条数据
    cursor.executemany("insert into books(name, category, price, publish_time) values (%s,%s,%s,%s)", data)
    # 提交数据
    db.commit()
except:
    # 发生错误时回滚
    db.rollback()

# 关闭数据库连接
db.close()

运行上述代码,在Navicat中查看books表数据,如下图:

image.png

注 意

§ 使用connect()方法连接数据库时,额外设置字符集“charset=utf-8“, 可以防止插入中文出错。

§ 在使用insert语句插入数据时,使用“%s“作为占位符,可以防止SQL注入。

总 结

image.png

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
2天前
|
数据采集 存储 数据处理
Python爬虫-数据处理与存储(一)
Python爬虫-数据处理与存储(一)
12 0
|
2天前
|
数据采集 消息中间件 Python
Python爬虫-进程间通信
Python爬虫-进程间通信
|
2月前
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
117 4
|
2月前
|
数据采集 存储 搜索推荐
打造个性化网页爬虫:从零开始的Python教程
【8月更文挑战第31天】在数字信息的海洋中,网页爬虫是一艘能够自动搜集网络数据的神奇船只。本文将引导你启航,用Python语言建造属于你自己的网页爬虫。我们将一起探索如何从无到有,一步步构建一个能够抓取、解析并存储网页数据的基础爬虫。文章不仅分享代码,更带你理解背后的逻辑,让你能在遇到问题时自行找到解决方案。无论你是编程新手还是有一定基础的开发者,这篇文章都会为你打开一扇通往数据世界的新窗。
|
3月前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
【7月更文挑战第31天】在网络数据的海洋中,使用Python的`requests`库构建网络爬虫就像探索未知的航船。HTTP协议指导爬虫与服务器交流,收集信息。HTTP请求包括请求行、头和体,响应则含状态行、头和体。`requests`简化了发送各种HTTP请求的过程。
74 4
|
6天前
|
数据采集 存储 数据挖掘
深入探索 Python 爬虫:高级技术与实战应用
本文介绍了Python爬虫的高级技术,涵盖并发处理、反爬虫策略(如验证码识别与模拟登录)及数据存储与处理方法。通过asyncio库实现异步爬虫,提升效率;利用tesseract和requests库应对反爬措施;借助SQLAlchemy和pandas进行数据存储与分析。实战部分展示了如何爬取电商网站的商品信息及新闻网站的文章内容。提醒读者在实际应用中需遵守法律法规。
121 66
|
3月前
|
数据采集 存储 API
在信息时代,Python爬虫用于自动化网络数据采集,提高效率。
【7月更文挑战第5天】在信息时代,Python爬虫用于自动化网络数据采集,提高效率。基本概念包括发送HTTP请求、解析HTML、存储数据及异常处理。常用库有requests(发送请求)和BeautifulSoup(解析HTML)。基本流程:导入库,发送GET请求,解析网页提取数据,存储结果,并处理异常。应用案例涉及抓取新闻、商品信息等。
85 2
|
22天前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
在网络数据的海洋中,网络爬虫遵循HTTP协议,穿梭于互联网各处,收集宝贵信息。本文将从零开始,使用Python的requests库,深入解析HTTP协议,助你构建自己的网络爬虫帝国。首先介绍HTTP协议基础,包括请求与响应结构;然后详细介绍requests库的安装与使用,演示如何发送GET和POST请求并处理响应;最后概述爬虫构建流程及挑战,帮助你逐步掌握核心技术,畅游数据海洋。
51 3
|
22天前
|
数据采集 API 开发者
🚀告别网络爬虫小白!urllib与requests联手,Python网络请求实战全攻略
在网络的广阔世界里,Python凭借其简洁的语法和强大的库支持,成为开发网络爬虫的首选语言。本文将通过实战案例,带你探索urllib和requests两大神器的魅力。urllib作为Python内置库,虽API稍显繁琐,但有助于理解HTTP请求本质;requests则简化了请求流程,使开发者更专注于业务逻辑。从基本的网页内容抓取到处理Cookies与Session,我们将逐一剖析,助你从爬虫新手成长为高手。
47 1
|
1月前
|
数据采集 机器学习/深度学习 搜索推荐
Python爬虫技术基础与应用场景详解
本文介绍了爬虫技术的基本概念、原理及应用场景,包括数据收集、价格监测、竞品分析和搜索引擎优化等。通过一个实战案例展示了如何使用Python爬取电商网站的商品信息。强调了在使用爬虫技术时需遵守法律法规和道德规范,确保数据抓取的合法性和合规性。