Python处理CSV文件

简介: Python处理CSV文件

在数据处理过程中,可能会需要采用筛选、提取、重新生成等方法来对数据进行处理,下面以csv文件为例,介绍使用Python处理文本文件的方法。

开始之前

在面对文件读写类的问题时,open函数是一定绕不开的,下面先介绍几种open函数使用的技巧。

  • 使用with来处理上下文,可以在读/写完成后自动关闭文件
file_path = 'test.csv'
# bad
fp = open(file_path, 'r')
fp.read()
fp.close()
# good
with open(file_path, 'r') as fp:
    fp.read()
  • 对文件直接进行循环(文件本身就是一个可迭代对象,可以直接进行循环遍历)
# bad
with open(file_path, 'r') as fp:
    lines = fp.readlines()
    for index in range(lines):
        print(lines[index])
# good
with open(file_path, 'r') as fp:
    for line in fp:
        print(line)
  • 打开多个文件可以使用一个with
# bad
with open(file1, 'r') as fp1:
    with open(file2, 'w') as fp2:
        for line in fp1:
            fp2.write(line)
# good
with open(file1, 'r') as fp1, open(file2, 'w') as fp2:
    for line in fp1:
        fp2.write(line)

csv

csv文件是一类出现频率非常高的文本文件,在python中有许多方法可以读写他。下面介绍两种读写的方法。

在开始之前,先来介绍一下csv文件的格式,比如下面这个文件,里面有4行,第一行是表头或者叫列名(可以没有表头),每一列之间使用,隔开。后面3列是对应的内容,也是使用,进行隔开;每一行都是单独的,行与行之间使用\n进行分割,这个\n是一个不可见字符,作用是换行。

name,age,city
liming,12,taian
zhangsan,20,heze
lisi,18,shenzhen

读取

原生方法

原生方法是指不借助第三方库,只使用python本身来进行读写。

根据上面我们对csv文件的了解,我们可以得到下面这些信息

  • 第一行可能是表头,也可能直接就是数据
  • 列与列之间使用,进行分割
  • 行与行之间使用\n进行分割

下面来编写函数来进行解析csv文件,我们需要一个文件路径csv_file来进行读取,需要分隔符sep,来确定列与列之间是由什么来进行分割的,最后还需要一个header来控制是否在最后的数据中保留第一行(因为第一行可能是表头,不是真正的数据)

def parse_csv(csv_file, sep=',', header=False):
    result = []  # 存放最终的数据
    with open(csv_file, 'r') as fp:
        # 如果是True,那么可以跳过第一行
        if header:  
            fp.readline()  # 直接丢弃(读取)第一行
        for line in fp:
            result.append(line.split(sep))  # 根据sep来进行分割
    return result

Pandas

pandas是python中一个十分强大的数据分析工具,下面使用pandas来实现和上面代码一样的功能

import pandas as pd
result = pd.read_csv(csv_file, sep=',', header=None)  # 包括第一行
result = pd.read_csv(csv_file, sep=',')               # 不包括第一行

可以发现,两种方式的代码量相差很大,第二种方法几乎是一行代码就可以实现csv的读取。上面两种方法都是读取的操作,下面来介绍写入的操作

写入

原生方法

在写入的时候,我们只需要构造出符合csv文件格式的字符串,然后写入文件即可

将每一列的数据使用分隔符sep进行连接,将每一行之间的数据使用\n进行分割

data = [
 ['liming','12','taian'],
 ['zhangsan','20','heze'],
 ['lisi','18','shenzhen'],
]
def write_csv(data, output_file, sep=','):
    with open(output_file, 'w') as fp:
        for line in data:
            # 使用sep将每一行中的数据连接起来
            # 同时在最后加上\n来进行换行
            fp.write(sep.join(line) + '\n')

pandas

import pandas as pd
data = [
   ['liming', '12', 'taian'],
   ['zhangsan', '20', 'heze'],
   ['lisi', '18', 'shenzhen'],
]
df = pd.DataFrame(data)  # 需要先构造一个数据表
# 把构造的数据表存下来,不存表头,不存索引
df.to_csv(output_file, header=None, index=None)

下面我将从一个具体的案例来讲述如何使用python来完成文本处理的任务。

案例讲解

需求

有一个csv文件,第一列是gene_id,第二列是表达量

c085bcd30cc980d5f8bed2ba3c83d168_640_wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1.png

现在你需要在里面筛选20个特定的基因,同时根据另一个文件为这20个gene_id重命名

20613d229973134c65a8870ee5020ab2_640_wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1.png

最后将筛选出来的gene_idexpression保存到一个新的csv文件里面

实现

下面我们也是使用两种方法来完成这个需求

原生方法

def get_geneid_map(geneid_map_csv):
    """ 将第二个csv文件转化从dict中,旧id做key,新id做value """
    result = {}
    with open(geneid_map_csv,'r') as fp:
        fp.readline()  # 去掉表头
        for line in fp:
            line = line.strip('\n')    # 去掉最后的\n
            line = line.split(',')     # 根据,进行分割
            result[line[0]] = line[1]  # 存到字典里面
    return result
def parse_gene_file(gene_file,geneid_map_dict):
    result = []
    with open(gene_file,'r') as fp:
        fp.readline()  # 去掉表头
        for line in fp:
            line = line.strip('\n')
            line = line.split(',')
            if line[0] in geneid_map_dict:
                result.append([
                    geneid_map_dict[line[0]],  # 根据旧id获得新id
                    line[1]  # 表达量
                ])
    return result
def save_to_csv(result,output_file):
    with open(output_file,'w') as fp:
        for line in result:
            fp.write(','.join(line) + '\n')
if __name__ == '__main__':
    csv_file1 = 'gene.csv'
    csv_file2 = 'geneid_map.csv'
    csv_result = 'filter.csv'
    geneid_map = get_geneid_map(csv_file2)
    result = parse_gene_file(csv_file1,geneid_map)
    save_to_csv(result,csv_result)

pandas

if __name__ == '__main__':
    csv_file1 = 'gene.csv'
    csv_file2 = 'geneid_map.csv'
    csv_result = 'filter.csv'
    import pandas as pd
    # 读取csv文件,数据不包含header
    gene = pd.read_csv(csv_file1,sep=',')
    geneid = pd.read_csv(csv_file2,sep=',')
    # 使用isin筛选需要的id,同时拷贝一份
    filter_gene = gene[gene['gene_id'].isin(geneid['gene_id1'])].copy() 
    # 构造字典,与上面构造的字典相同
    geneid_map = {v['gene_id1']:v['gene_id2'] for k,v in geneid.to_dict('index').items()}
    # 使用字典对旧id进行替换
    filter_gene['gene_id'] = filter_gene['gene_id'].map(geneid_map)
    # 保存csv,不包含表头,不包含索引
    filter_gene.to_csv(csv_result,header=None,index=None)

后台回复csv即可获得案例中使用的文件

相关文章
|
6月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
155 4
|
2月前
|
编译器 Python
如何利用Python批量重命名PDF文件
本文介绍了如何使用Python提取PDF内容并用于文件重命名。通过安装Python环境、PyCharm编译器及Jupyter Notebook,结合tabula库实现PDF数据读取与处理,并提供代码示例与参考文献。
|
2月前
|
编译器 Python
如何利用Python批量重命名文件
本文介绍了如何使用Python和PyCharm对文件进行批量重命名,包括文件名前后互换、按特定字符调整顺序等实用技巧,并提供了完整代码示例。同时推荐了第三方工具Bulk Rename Utility,便于无需编程实现高效重命名。适用于需要处理大量文件命名的场景,提升工作效率。
|
3月前
|
编解码 Prometheus Java
当Python同时操作1000个文件时,为什么你的CPU只用了10%?
本文介绍如何构建一个高效的文件处理系统,解决单线程效率低、多线程易崩溃的矛盾。通过异步队列与多线程池结合,实现任务调度优化,提升I/O密集型操作的性能。
66 4
|
3月前
|
人工智能 索引 Python
[oeasy]python094_使用python控制音符列表_midi_文件制作
本文介绍了如何使用Python控制音符列表制作MIDI文件。首先回顾了列表下标索引(正数和负数)的用法,接着通过`mido`库实现MIDI文件生成。以《两只老虎》为例,详细解析了代码逻辑:定义音高映射、构建旋律列表、创建MIDI文件框架,并将音符插入音轨。还探讨了音符时值与八度扩展的实现方法。最终生成的MIDI文件可通过不同平台播放或编辑。总结中提到,此技术可用于随机生成符合调性的旋律,同时引发对列表其他实际应用的思考。
97 5
|
5月前
|
Python
使用Python实现multipart/form-data文件接收的http服务器
至此,使用Python实现一个可以接收 'multipart/form-data' 文件的HTTP服务器的步骤就讲解完毕了。希望通过我的讲解,你可以更好地理解其中的逻辑,另外,你也可以尝试在实际项目中运用这方面的知识。
253 69
|
2月前
|
数据采集 监控 算法
Python文件与目录比较全攻略:从基础操作到性能优化
文件比较的核心在于数据指纹校验,通过逐字节比对生成唯一标识,确保内容一致性。从标准库的os与filecmp到高性能第三方库如pydiffx,再到分布式与量子加密技术的未来趋势,文件比较广泛应用于数据备份、代码审查与系统监控等领域,是保障数据完整性的关键技术手段。
76 0
|
3月前
|
数据采集 存储 API
Python爬虫结合API接口批量获取PDF文件
Python爬虫结合API接口批量获取PDF文件
|
3月前
|
数据采集 运维 BI
Python 文件操作进阶|使用 shutil 实现高效文件复制
在开发和运维中,处理大量文件是常见需求,如备份配置、归档日志或构建部署包。手动复制粘贴已无法满足高效需求!Python 的 `shutil` 模块提供了强大的文件操作功能,支持单文件复制、目录树迁移及自动化任务构建。本文详解 `shutil.copy()` 基础用法与进阶技巧,如批量复制、自动路径检测、时间戳命名备份等,助你实现高效自动化。结合实战案例(如自动备份系统),让你的代码更专业!学习后,欢迎交流心得,一起精进 Python 技能。关注我,获取更多编程技巧与源码分享!
|
5月前
|
Shell 开发者 Docker
Python文件打包:一站式指南
本文深入探讨Python文件打包的各种方法,从基础的zip和tar工具到高级的setuptools、PyInstaller、cx_Freeze等,涵盖Docker镜像、虚拟环境及自包含可执行文件的打包方式。通过示例代码与详细解析,帮助开发者根据项目需求选择合适的打包方案,提升代码分发与部署效率。内容全面,适合各水平读者学习参考。
421 7

热门文章

最新文章

推荐镜像

更多