直接保存“DataFrame表格”到本地,这个“骚操作”90%以上的人不知道!

简介: 直接保存“DataFrame表格”到本地,这个“骚操作”90%以上的人不知道!

引入问题

其实,这个知识点也是在群里面遇到了,如果当时问我,我也会很蒙逼。因此,我做了一个简单的学习,并将其整理后,供大家学习和参考。

image.png

比如说:我们得到了一个df_new表格,我们想要将其保存在本地,应该怎么办呢?保存图片,你可能用的多。但是保存这个表格,你估计就不一定知道了。

image.png

为什么需要将df_new保存在本地呢?其实提问者是为了将表格保存在本地,后面需要完成自动化群发消息的操作,这样一来,你不仅仅可以发图片,现在还可以发表格了,是不是很舒服?


那么,这样一个操作,应该怎么完成呢?下面我为大家慢慢讲述。


方法介绍

完成这个需求使用的是dataframe_image库,因此在使用他之前,需要我们先安装这个库。


pip install dataframe_image


然后在使用之前,还需要导入这个库。


import dataframe_image as dfi


接着,调用dfi中的export()方法,就可以实现这个需求。但是关于这个知识点,你在百度上面其实看不到任何解答,那么你应该怎么学习呢?我们以jupyter notebook为例,进行说明。


直接在单元格中输入??dfi.export,然后运行,即可出现详细帮助文档。

image.png

详细参数如下:


dfi.export(obj, filename, fontsize=14, max_rows=None, max_cols=None, table_conversion='chrome', chrome_path=None)


obj:表示的是待保存的DataFrame数据框;

filename:表示的是图片保存的本地路径;

fontsize:表示的是待保存图片中字体大小,默认是14;

max_rows:表示的是DataFrame输出的最大行数。

这个数字被传递给DataFrame的to_html方法。为防止意外创建具有大量行的图像,具有100行以上的DataFrame将引发错误。显式设置此参数以覆盖此错误,对所有行使用-1。

max_cols:表示的是DataFrame输出的最大列数。

这个数字被传递给DataFrame的to_html方法。为防止意外创建具有大量列的图像,包含30列以上的DataFrame将引发错误。显式设置此参数以覆盖此错误,对所有列使用-1。

table_conversion:‘chrome’或’matplotlib’,默认为’chrome’。DataFrames将通过Chrome或matplotlib转换为png。

除非无法正常使用,否则请使用chrome。 matplotlib提供了一个不错的选择。

可以看到:这个方法其实就是通过chrome浏览器,将这个DataFrames转换为png或jpg格式。


举例说明

我们先随意构造或读取一个DataFrame。


import pandas as pd
df = pd.read_excel("chaifen.xlsx")
df_new = df.iloc[:5,:]
df_new


结果如下:

image.png

通过上面的学习,保存这个DataFrame,只需要两行代码。


import dataframe_image as dfi
dfi.export(obj=df_new,filename='df_new.jpg')


打开本地目录,查看这张图片。

image.png


可以看到,上述图片中的字体超级小,然后我们还可以使用fontsize参数,设置字体大小。


import dataframe_image as dfi
dfi.export(obj=df_new,filename='df_new_1.jpg',fontsize=30)


再次打开本地目录,查看这张图片。


image.png

该知识点就说到这里,关于其他的参数,大家可以自行下去尝试。


相关文章
|
存储 开发工具 Docker
Docker数据目录迁移解决方案
在docker的使用中随着下载镜像越来越多,构建镜像、运行容器越来越多, 数据目录必然会逐渐增大;当所有docker镜像、容器对磁盘的使用达到上限时,就需要对数据目录进行迁移。
12828 1
|
运维 监控 JavaScript
(ARMS-AIOps)一文教你用Attributor算法实现多维下钻分析
常见的AIOps应用路径为:对监控的各种关键性能指标(KPI)进行实时异常检测;对多维指标进行根源分析,快速下钻到异常维度和元素;基于应用拓扑和实时Trace,实现根因定位;结合CMDB、关联等、构建异常根因上下文,帮助快速修复问题。 作为KPI指标, 往往包含了很多维度和元素,最显而易见的则是对每一个维度的元素都进行实时异常检测。 对于维度组合笛卡尔集数量很长的场景, 该方案的成本则有点难以承受
5142 0
|
编译器 Python Windows
解决jupyter以及windows系统中pycharm编译器画图的中文乱码问题大全
解决jupyter以及windows系统中pycharm编译器画图的中文乱码问题大全,我们在jupyter的notebook中使用matplotlib画图的时候,经常性的会遇见一些中文乱码显示□的情况,如下所示:
911 0
解决jupyter以及windows系统中pycharm编译器画图的中文乱码问题大全
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
思通数科AI平台在尽职调查中的技术解析与应用
思通数科AI多模态能力平台结合OCR、NLP和深度学习技术,为IPO尽职调查、融资等重要交易环节提供智能化解决方案。平台自动识别、提取并分类海量文档,实现高效数据核验与合规性检查,显著提升审查速度和精准度,同时保障敏感信息管理和数据安全。
457 11
|
8月前
|
存储 数据挖掘 数据处理
Pandas高级数据处理:性能优化技巧
Pandas 是 Python 数据分析的强大工具,但在处理大规模数据集时可能遇到性能瓶颈。本文介绍常见性能问题及优化方法,包括数据加载(分块读取、选择必要列、指定数据类型)、筛选过滤(避免链式索引、优化布尔索引)、聚合分组(使用 `transform`、减少列)等,并提供代码案例。同时,针对内存溢出、数据类型不匹配和索引冲突等常见报错,给出解决方案。通过这些优化措施,提升 Pandas 数据处理的效率和稳定性。
286 14
|
9月前
|
数据库连接 数据库 数据安全/隐私保护
数据库连接池的配置文件
我们首先要确认连接池需要哪些配置信息,根据经验,一个数据库连接池至少要有一下几个必须的配置。首先是必须由用户指定的几项配置,也就是数据库驱动、数据库连接的url、用户名和密码。然后是可以由连接池自己默认指定的几项配置,这些配置一般有:连接池初始大小,连接池最大大小,健康检查开始时间,健康检查间隔时间,以及连接超时时间。这些配置信息我们可以将其写进一个properties文件里,这个文件我们命名为pool.properties,处于项目的resource目录下。在创建数据库连接池时我们需要将这些配置信息读进内存里。
|
人工智能 监控 数据可视化
bashplotlib,一个有趣的 Python 数据可视化图形库
bashplotlib,一个有趣的 Python 数据可视化图形库
168 4
|
机器学习/深度学习 算法 Python
【Python机器学习专栏】数据特征选择与降维技术
【4月更文挑战第30天】本文探讨了Python中数据特征选择与降维技术在机器学习和数据分析中的应用。特征选择包括单变量选择、递归特征消除(RFE)、树模型的特征重要性和相关性分析,有助于去除冗余和无关特征。降维技术涵盖PCA、LDA以及非线性方法如KPCA和ISOMAP,用于在低维空间保留信息。这些技术能简化数据、提升模型性能及可解释性。
256 0
|
人工智能 决策智能
【AI Agent系列】【MetaGPT多智能体学习】3. 开发一个简单的多智能体系统,兼看MetaGPT多智能体运行机制
【AI Agent系列】【MetaGPT多智能体学习】3. 开发一个简单的多智能体系统,兼看MetaGPT多智能体运行机制
479 0
|
SQL 分布式计算 HIVE
sparksql 参数调优
sparksql 参数调优

热门文章

最新文章