python表格操作,数据提取分析的用法(2)

简介: python表格操作,数据提取分析的用法(2)

5,获取表格内的所有内容,以列表里套字典的方式读取出来(很重要,想掌握自动化测试的一定要掌握这个方法)


1)代码段


我们只需要传入表的路径和表页就能自动读取我们的数据



   2)我们可以看到,这个函数的功能读取数据,哈哈,我们找一个表格来测试下吧,下面的表格我们可以看到,里面有2行内容,我们只要给这个class里传入表位置的路径和表页



3)我们传入表的用法和路径和可以看到,函数已经帮我计算和组合出了我们所要的数据类型,我这里设置的是将表的第一行设置为字典的键,每一行的内容使用字典来存储,一个键一个值类似于[{"第一行第一列的内容":"第二行第一列的内容"},{"第一行第二列的内容":"第二行第二列的内容"},{"第一行第一列的内容":"第三行行第一列的内容"}]



6,在指定单元格里写入数据


1)上代码



2)这个函数的功能是,我们在class提交表格路径和表页后,在函数里面传入我们要在表格里写数据的是第几行的第几列,这里我在表格的第5行第4列写入数据“admin”,这里要注意,当我们要在表格里写入数据的时候是不能把表打开的。



3)我们在来看看执行函数后表格有什么变化吧。我们已经看到,函数已经帮我们在表格中指定的位置添加了数据“admin”



7,获取所有的数据,以列表套列表的形式展示


1)上代码



2)这个函数功能与获取数据已字典里套列表的形式是差不多的,只不过是数据类型不一致,一个是字典里套列表,一个是列表里套列表,看下实验表是怎么样的吧



3)还是在class里传入我们表格的所在位置和表页,函数就能帮我们统计内容和数据转换啦,我们已经看到数据已经帮我们统计出来了,这里要注意的时,他是将每一行的数据放值在最里面的列表里,有多少行就有多少数据,这里要注意下,我设置的是不读取第一行的内容,读取的内容形式相当于      [[第二行内容],[第三行内容],[第四行内容]]



就讲到这里了

相关文章
|
2天前
|
XML 前端开发 数据格式
BeautifulSoup 是一个 Python 库,用于从 HTML 和 XML 文件中提取数据
BeautifulSoup 是 Python 的一个库,用于解析 HTML 和 XML 文件,即使在格式不规范的情况下也能有效工作。通过创建 BeautifulSoup 对象并使用方法如 find_all 和 get,可以方便地提取和查找文档中的信息。以下是一段示例代码,展示如何安装库、解析 HTML 数据以及打印段落、链接和特定类名的元素。BeautifulSoup 还支持更复杂的查询和文档修改功能。
10 1
|
1天前
|
Python
【Python操作基础】——while语句用法和pass语句
【Python操作基础】——while语句用法和pass语句
|
1天前
|
Python
【Python操作基础】——for语句用法
【Python操作基础】——for语句用法
|
1天前
|
Python
【Python操作基础】——if语句用法
【Python操作基础】——if语句用法
|
4天前
|
语音技术 开发者 Python
python之pyAudioAnalysis:音频特征提取分析文档示例详解
python之pyAudioAnalysis:音频特征提取分析文档示例详解
10 0
|
4天前
|
数据采集 NoSQL 中间件
python-scrapy框架(四)settings.py文件的用法详解实例
python-scrapy框架(四)settings.py文件的用法详解实例
9 0
|
4天前
|
存储 数据采集 数据库
python-scrapy框架(三)Pipeline文件的用法讲解
python-scrapy框架(三)Pipeline文件的用法讲解
7 0
|
4天前
|
存储 数据采集 JSON
python-scrapy框架(二)items文件夹的用法讲解
python-scrapy框架(二)items文件夹的用法讲解
11 0
|
4天前
|
数据采集 前端开发 中间件
python-scrapy框架(一)Spider文件夹的用法讲解
python-scrapy框架(一)Spider文件夹的用法讲解
10 0
|
4天前
|
存储 JSON 数据挖掘
python序列化和结构化数据详解
python序列化和结构化数据详解
12 0