Python-数据读取

简介: Python-数据读取

txt/csv

导入numpy

同一行的数据都为浮点数,或者说是同一行的数据格式相同时:

 with open(input_file, 'r') as f:#打开文件
        header = f.readline().strip()#跳过一行
        column_names = header.split('|')# 以管道分隔符切分数据
        values = np.loadtxt(f, delimiter='|')

同一行的数据格式不相同时,比如字符串和浮点数结合时:

选择跳过某一列或者只读取某一列数据,下面为只读取某一列数据

with open(input_file, 'r') as f:#打开文件
     values = np.loadtxt(f,delimiter=' ',dtype=int,usecols = (3))#读取第4列 分隔符为空格

excel( .xlsx)

读取:导入pandas

#input_template路径+文件名 
df_input_Analyze = pd.read_excel(input_template, encoding='gb18030').dropna(axis=1, how='all')

写入

"""
函数说明:保存数据为excel
   .xlsx
Parameters:
    table_dict - 字典类型 key-DatFrame(表)
    keyword  -  最终输出的excel的文件名
Returns:
Author:
    heda3
Blog:
    https://blog.csdn.net/heda3
Modify:
    2019-10-12
"""
        def generate_excel(table_dict, keyword):
            with pd.ExcelWriter(keyword+'.xlsx') as writer:
                for sheet_name in table_dict:#读取每一个DataFrame
                    table_dict[sheet_name].to_excel(writer, sheet_name=sheet_name, index=None)

JSON

JSON: JavaScript Object Notation(JavaScript 对象表示法)

JSON 是存储和交换文本信息的语法

导入 Json   模块,它提供了四个方法: dumps、dump、loads、load

dumps : 把数据类型转换成字符串

dump : 把数据类型转换成字符串并存储在文件中

loads : 把字符串转换成数据类型

load : 把文件打开从字符串转换成数据类型

读取

import json
#open 默认为只读 r 以什么样的编码方式打开
#设置以utf-8解码模式读取文件,encoding参数必须设置,否则默认以gbk模式读取文件,当文件中包含中文时,会报错
with open("D:\Python Example\Tianyancha\xx.json",'r', encoding='utf-8') as load_f:
    load_dict = json.load(load_f)
    print(load_dict)

或者:

import json
#读取Json文件加载为python对象
f = open("D:\Python Example\Tianyancha\xx.json", encoding='utf-8')
bb=json.load(f)

注意的是读取文件使用的函数是:json.load(),从内存中读取使用的函数是:json.loads()

参考:json中load和loads区别https://www.cnblogs.com/bigtreei/p/10466518.html

写入

## 测试JSON格式数据的保存和读取
import json
import codecs#编码解码模块
import time
import re
import pandas as pd
from collections import OrderedDict
class WriterJson:
    def __init__(self):
        pass
    # 将单个DataFrame保存为JSON,确保中文显示正确
    def df_to_json(self, df, orient:str = 'table'):
        return json.loads(df.to_json(orient, force_ascii=False))
    # 将多个DataFrames组成的字典批量保存为JSON,确保中文显示正确:服务于类似`金融产品信息表`这样的包含多
    def dfs_to_json(self, dic_dfs, orient:str = 'table'):
        pass
    # 将单个OrderedDict:key-DataFrame保存为JSON List
    def odict_to_json(self, odict):
        items = list(odict.items())#items[i][0] key   items[i][1]  value
        list_JSONed = []
        # 把列表中的每个df通过list append变成json
        for i in range(len(items)):
            try:
                #to_json为pandas自带的pandas.DataFrame.to_json 可参考https://blog.csdn.net/huanbia/article/details/72674832
                 #其中的items[i][1].to_json(orient='table', force_ascii=False) 转换为Json的str模式
                 #json.loads 将包含一个 JSON 文档的文件反序化为Python对象
                list_JSONed.append([items[i][0],json.loads(items[i][1].to_json(orient='table', force_ascii=False))])
            except:
                print(items[i][0] + '表为空,请检查。')
        # 记录版本信息 dict嵌套在list之中
        list_JSONed.append({'version_date': time.strftime("%Y/%m/%d")})
        return list_JSONed
    # 从list_JSONed获取公司名称,用于设置JSON文件名称
    def get_company_name_from_JSON(self, items_JSONed):
        pass
    # 将一个json list或者json dict存入文件
    def write_json(self, json_list, file_name, indent=4, encoding='utf-8'):
        f_out = codecs.open(file_name, 'w', encoding=encoding)#以utf-8 打开一个文件
        #json格式的文件转换为str /将 obj 序列化为 JSON 格式的 str  indent:表示缩进 使用一个正整数会让每一层缩进同样数量的空格
          #ensure_ascii=False 字符原样输出
        json_str = json.dumps(json_list, indent=indent, ensure_ascii=False) #, encoding=encoding)
        f_out.write(json_str)#python自带的write
        f_out.close()
"""
函数说明:保存数据为JSON
    .json
Parameters:
    table_dict - 字典类型 key-DatFrame(表)
    keyword  -  最终输出的json的文件名
Returns:
Author:
    heda3
Blog:
    https://blog.csdn.net/heda3
Modify:
    2019-10-12
"""
def gen_json(table_dict, keyword):
    list_dic = []
    for i in list(table_dict.keys()):
        list_dic.append((i, table_dict[i]))
    dic = OrderedDict(list_dic)#字典key-DataFrame
    list_json = WriterJson().odict_to_json(dic)#list内嵌套了dict和list多层
    WriterJson().write_json(json_list=list_json, file_name=keyword+'.json')
#保存为Json格式的数据 该文件为str
keyword='数据名测试2'
table_dict1=tuple_dicts[0]
gen_json(table_dict1,keyword)

pandas 的 数据表转换为jsonstr:. to_json()函数的用法

8e5fd949b09cee65083489d3c2d40d6f_20191014094056299.png

其中的‘table’模式:

a5d4aaf0c1a9eea6930a81b034a21328_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2hlZGEz,size_16,color_FFFFFF,t_70.png

from collections import OrderedDict 库参考文档:

https://docs.python.org/zh-cn/3.7/library/collections.html#collections.OrderedDict

codecs编码

转换过程:原有编码--python内部编码(unicode)--目标编码

https://blog.csdn.net/suofiya2008/article/details/5579413

参考文档

1、loadtxt 函数使用https://www.numpy.org/devdocs/reference/generated/numpy.loadtxt.html?highlight=loadtxt#numpy.loadtxt


2、https://blog.csdn.net/ACID_lv_ing/article/details/87092714


3、numpy.loadtxt https://numpy.org/devdocs/reference/generated/numpy.loadtxt.html?highlight=loadtxt#numpy.loadtxt


4、过滤缺失数据  dropna -pandas 参考文档https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.dropna.html


5、Json 文档 https://www.runoob.com/json/json-syntax.html


6、Json包 https://docs.python.org/zh-cn/3.7/library/json.html


7、https://www.cnblogs.com/tjuyuan/p/6795860.html


8、天眼查项目 https://github.com/qzcool/Tianyancha


9.pandas 数据表转换为json https://blog.csdn.net/huanbia/article/details/72674832


pandas.DataFrame.to_json https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.to_json.html


10、JSON 编码和解码器官方文档 https://docs.python.org/zh-cn/3.7/library/json.html


目录
相关文章
|
1月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
使用Python实现深度学习模型:智能数据隐私保护
使用Python实现深度学习模型:智能数据隐私保护 【10月更文挑战第3天】
103 0
|
29天前
|
数据采集 JSON 数据处理
抓取和分析JSON数据:使用Python构建数据处理管道
在大数据时代,电商网站如亚马逊、京东等成为数据采集的重要来源。本文介绍如何使用Python结合代理IP、多线程等技术,高效、隐秘地抓取并处理电商网站的JSON数据。通过爬虫代理服务,模拟真实用户行为,提升抓取效率和稳定性。示例代码展示了如何抓取亚马逊商品信息并进行解析。
抓取和分析JSON数据:使用Python构建数据处理管道
|
14天前
|
图形学 Python
SciPy 空间数据2
凸包(Convex Hull)是计算几何中的概念,指包含给定点集的所有凸集的交集。可以通过 `ConvexHull()` 方法创建凸包。示例代码展示了如何使用 `scipy` 库和 `matplotlib` 绘制给定点集的凸包。
24 1
|
15天前
|
JSON 数据格式 索引
Python中序列化/反序列化JSON格式的数据
【11月更文挑战第4天】本文介绍了 Python 中使用 `json` 模块进行序列化和反序列化的操作。序列化是指将 Python 对象(如字典、列表)转换为 JSON 字符串,主要使用 `json.dumps` 方法。示例包括基本的字典和列表序列化,以及自定义类的序列化。反序列化则是将 JSON 字符串转换回 Python 对象,使用 `json.loads` 方法。文中还提供了具体的代码示例,展示了如何处理不同类型的 Python 对象。
|
15天前
|
数据采集 Web App开发 iOS开发
如何使用 Python 语言的正则表达式进行网页数据的爬取?
使用 Python 进行网页数据爬取的步骤包括:1. 安装必要库(requests、re、bs4);2. 发送 HTTP 请求获取网页内容;3. 使用正则表达式提取数据;4. 数据清洗和处理;5. 循环遍历多个页面。通过这些步骤,可以高效地从网页中提取所需信息。
|
1月前
|
数据处理 Python
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
这篇文章介绍了如何使用Python读取Excel文件中的数据,处理后将其保存为txt、xlsx和csv格式的文件。
50 3
Python实用记录(十):获取excel数据并通过列表的形式保存为txt文档、xlsx文档、csv文档
|
1月前
|
计算机视觉 Python
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
这篇文章介绍了如何使用Python的OpenCV库将多张图片合并为一张图片显示,以及如何使用matplotlib库从不同txt文档中读取数据并绘制多条折线图。
42 3
Python实用记录(九):将不同的图绘制在一起、将不同txt文档中的数据绘制多条折线图
|
1月前
|
数据可视化 算法 Python
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
本文介绍了如何利用Python脚本结合动态模态分解(DMD)技术,分析从OpenFOAM模拟中提取的二维切片数据,以深入理解流体动力学现象。通过PyVista库处理VTK格式的模拟数据,进行POD和DMD分析,揭示流场中的主要能量结构及动态特征。此方法为研究复杂流动系统提供了有力工具。
73 2
基于OpenFOAM和Python的流场动态模态分解:从数据提取到POD-DMD分析
|
27天前
|
数据可视化 算法 JavaScript
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
本文探讨了如何利用图论分析时间序列数据的平稳性和连通性。通过将时间序列数据转换为图结构,计算片段间的相似性,并构建连通图,可以揭示数据中的隐藏模式。文章介绍了平稳性的概念,提出了基于图的平稳性度量,并展示了图分区在可视化平稳性中的应用。此外,还模拟了不同平稳性和非平稳性程度的信号,分析了图度量的变化,为时间序列数据分析提供了新视角。
54 0
基于图论的时间序列数据平稳性与连通性分析:利用图形、数学和 Python 揭示时间序列数据中的隐藏模式
|
1月前
|
自然语言处理 算法 数据挖掘
探讨如何利用Python中的NLP工具,从被动收集到主动分析文本数据的过程
【10月更文挑战第11天】本文介绍了自然语言处理(NLP)在文本分析中的应用,从被动收集到主动分析的过程。通过Python代码示例,详细展示了文本预处理、特征提取、情感分析和主题建模等关键技术,帮助读者理解如何有效利用NLP工具进行文本数据分析。
48 2
下一篇
无影云桌面