Python数据写入csv格式文件

简介: (只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块。 废话不多说,直接写代码!该重要的内容都已经注释了,剩下不懂的可以自己查询一下,或者QQ群内问我。

(只是传递,基础知识也是根基)

Python读取数据,并存入Excel打开的CSV格式文件内!

这里需要用到bs4,csv,codecs,os模块。

废话不多说,直接写代码!该重要的内容都已经注释了,剩下不懂的可以自己查询一下,或者QQ群内问我。QQ群在以往的博客中!

 1 #coding:utf-8 
 2 from bs4 import BeautifulSoup
 3 import bs4
 4 import os
 5 import time
 6 import csv
 7 import codecs
 8 
 9 #读取XML内的文件数据并存入CSV格式的文件--可使用EXCEL打开
10 def open_file():
11     file_folder= 'C:\\Users\\Administrator\\Desktop\\File\\Filename' ##文件夹位置
12     if os.path.isdir(file_folder):
13         for fileName in os.listdir(file_folder):
14            # print fileName
15             info(fileName) ##读取文件名字
16 def info(fileName):
17     soup = bs4.BeautifulSoup(open('C:/Users/Administrator/Desktop/File/Filename/'+fileName))
18     a = soup.find_all('mxxx')
19     info = []
20     for i in a:
21         dt=[]
22         dt.append(i.find('xx').get_text().strip())
23         dt.append( i.find('xx').get_text().strip())
24         dt.append(i.find('xx').get_text().strip())
25         dt.append(i.find('xx').get_text().strip()+'\n')
26         dt.append( i.find('xx').get_text().strip())
27         dt.append(i.find('xx').get_text().strip())
28         dt.append(float( i.find('xx').get_text().strip())  + float(i.find('xx').get_text().strip()))
29         info.append(dt)
30     with open("Ex_info.csv","ab+") as csvfile: ##“ ab+ ”去除空白行,又叫换行!
31         csvfile.write(codecs.BOM_UTF8)  ##存入表内的文字格式
32         writer = csv.writer(csvfile)  #存入表时所使用的格式
33         writer.writerow(['表头','表头'])
34         writer.writerows(info) #写入表
35     
36 if __name__ == '__main__':
37     open_file()

这里主要三部分,我调用的测试使用的xml内的数据,这里使用的bs4来解析xml文件。

解释第一部分:

打开文件夹,并获取到文件的名字,因为文件有多个,所以使用了os模块的函数来打开文件

1  file_folder= 'C:\\Users\\Administrator\\Desktop\\File\\Filename' ##文件夹位置
2     if os.path.isdir(file_folder):
3         for fileName in os.listdir(file_folder):
4            # print fileName
5             info(fileName) ##读取文件名字

fileName就是我们所获取的文件的名字。

第二部分:

获取文件名字后需要使用bs4模块来打开文件,因为多个文件,所以将解析过程写入函数内。

 1 def info(fileName):
 2     soup = bs4.BeautifulSoup(open('C:/Users/Administrator/Desktop/File/Filename/'+fileName))
 3     a = soup.find_all('mxxx')
 4     info = []
 5     for i in a:
 6         dt=[]
 7         dt.append(i.find('xx').get_text().strip())
 8         dt.append( i.find('xx').get_text().strip())
 9         dt.append(i.find('xx').get_text().strip())
10         dt.append(i.find('xx').get_text().strip()+'\n')
11         dt.append( i.find('xx').get_text().strip())
12         dt.append(i.find('xx').get_text().strip())
13         dt.append(float( i.find('xx').get_text().strip())  + float(i.find('xx').get_text().strip()))
14         info.append(dt)

打开文件夹后取出文件,并解析后使用BeautifulSoup的解析网页方法来获取数据,'mxxx'与'xx'都是树的名字。

第三部分:

将数据写入csv文件,这里的数据都是List格式,并需要遍历。

1 with open("Ex_info.csv","ab+") as csvfile: ##“ ab+ ”去除空白行,又叫换行!
2         csvfile.write(codecs.BOM_UTF8)  ##存入表内的文字格式
3         writer = csv.writer(csvfile)  #存入表时所使用的格式
4         writer.writerow(['表头','表头','表头','表头'])
5         writer.writerows(info) #写入表

这里的表头要和我们上面获取的数据列一致,不然会出现错误。写入文件的格式有 “ w ”," a+ "," ab+ "等,这里使用的是“ ab+ ”,去除空行!

还有我们如果存入的数据是1000000000这样的,在excel内是E+17的显示,所有在获取数据的时候最后面加  “\n”。最后写入表内,并打开!

 

Welcome to Python world! I have a contract in this world! How about you?
相关文章
|
2月前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
1183 1
|
2月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
381 0
|
2月前
|
JSON 算法 API
Python采集淘宝商品评论API接口及JSON数据返回全程指南
Python采集淘宝商品评论API接口及JSON数据返回全程指南
|
3月前
|
数据可视化 Linux iOS开发
Python脚本转EXE文件实战指南:从原理到操作全解析
本教程详解如何将Python脚本打包为EXE文件,涵盖PyInstaller、auto-py-to-exe和cx_Freeze三种工具,包含实战案例与常见问题解决方案,助你轻松发布独立运行的Python程序。
1007 2
|
2月前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
2月前
|
监控 机器人 编译器
如何将python代码打包成exe文件---PyInstaller打包之神
PyInstaller可将Python程序打包为独立可执行文件,无需用户安装Python环境。它自动分析代码依赖,整合解释器、库及资源,支持一键生成exe,方便分发。使用pip安装后,通过简单命令即可完成打包,适合各类项目部署。
|
3月前
|
数据采集 关系型数据库 MySQL
python爬取数据存入数据库
Python爬虫结合Scrapy与SQLAlchemy,实现高效数据采集并存入MySQL/PostgreSQL/SQLite。通过ORM映射、连接池优化与批量提交,支持百万级数据高速写入,具备良好的可扩展性与稳定性。
|
3月前
|
JSON API 数据安全/隐私保护
Python采集淘宝评论API接口及JSON数据返回全流程指南
Python采集淘宝评论API接口及JSON数据返回全流程指南
|
3月前
|
数据采集 数据可视化 关系型数据库
基于python大数据的电影数据可视化分析系统
电影分析与可视化平台顺应电影产业数字化趋势,整合大数据处理、人工智能与Web技术,实现电影数据的采集、分析与可视化展示。平台支持票房、评分、观众行为等多维度分析,助力行业洞察与决策,同时提供互动界面,增强观众对电影文化的理解。技术上依托Python、MySQL、Flask、HTML等构建,融合数据采集与AI分析,提升电影行业的数据应用能力。
|
3月前
|
数据可视化 大数据 数据挖掘
基于python大数据的招聘数据可视化分析系统
本系统基于Python开发,整合多渠道招聘数据,利用数据分析与可视化技术,助力企业高效决策。核心功能包括数据采集、智能分析、可视化展示及权限管理,提升招聘效率与人才管理水平,推动人力资源管理数字化转型。

推荐镜像

更多