0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Pandas DataFrame的存储格式性能对比

科技绿洲 来源:Python数据科学 作者:Python数据科学 2023-11-03 09:58 次阅读

Pandas 支持多种存储格式,在本文中将对不同类型存储格式下的Pandas Dataframe的读取速度、写入速度和大小的进行测试对比。

创建测试Dataframe

首先创建一个包含不同类型数据的测试Pandas Dataframe。

import pandas as pd
import random
import string
import numpy as np

# Config DF
df_length= 10**6
start_date= '2023-01-01'
all_string= list(string.ascii_letters + string.digits)
string_length= 10**1
min_number= 0
max_number= 10**3

# Create Columns
date_col= pd.date_range(start= start_date, periods= df_length, freq= 'H')
str_col= [''.join(np.random.choice(all_string, string_length)) for i in range(df_length)]
float_col= np.random.rand(df_length)
int_col= np.random.randint(min_number,max_number, size = df_length)

# Create DataFrame
df= pd.DataFrame({'date_col' : date_col,
'str_col' : str_col,
'float_col' : float_col,
'int_col' : int_col})
df.info()
df.head()

以不同的格式存储

接下来创建测试函数,以不同的格式进行读写。

import time
import os

def check_read_write_size(df, file_name, compression= None) :
format= file_name.split('.')[-1]
# Write
begin= time.time()
if file_name.endswith('.csv') : df.to_csv(file_name, index= False, compression= compression)
elif file_name.endswith('.parquet') : df.to_parquet(file_name, compression= compression)
elif file_name.endswith('.pickle') : df.to_pickle(file_name, compression= compression)
elif file_name.endswith('.orc') : df.to_orc(file_name)
elif file_name.endswith('.feather') : df.to_feather(file_name)
elif file_name.endswith('.h5') : df.to_hdf(file_name, key= 'df')
write_time= time.time() - begin
# Read
begin= time.time()
if file_name.endswith('.csv') : pd.read_csv(file_name, compression= compression)
elif file_name.endswith('.parquet') : pd.read_parquet(file_name)
elif file_name.endswith('.pickle') : pd.read_pickle(file_name, compression= compression)
elif file_name.endswith('.orc') : pd.read_orc(file_name)
elif file_name.endswith('.h5') : pd.read_hdf(file_name)
read_time= time.time() - begin
# File Size
file_size_mb = os.path.getsize(file_name) / (1024 * 1024)
return [format, compression, read_time, write_time, file_size_mb]

然后运行该函数并将结果存储在另一个Pandas Dataframe中。

test_case= [
['df.csv','infer'],
['df.csv','gzip'],
['df.pickle','infer'],
['df.pickle','gzip'],
['df.parquet','snappy'],
['df.parquet','gzip'],
['df.orc','default'],
['df.feather','default'],
['df.h5','default'],
]

result= []
for i in test_case :
result.append(check_read_write_size(df, i[0], compression= i[1]))

result_df= pd.DataFrame(result, columns= ['format','compression','read_time','write_time','file_size'])
result_df

测试结果

下面的图表和表格是测试的结果。

图片

我们对测试的结果做一个简单的分析:

CSV

  • 未压缩文件的大小最大
  • 压缩后的尺寸很小,但不是最小的
  • CSV的读取速度和写入速度是最慢的

Pickle

  • 表现得很平均
  • 但压缩写入速度是最慢的

Feather(再见 CSV,速度提升 150 倍!

  • 最快的读写速度,文件的大小也是中等,非常的平均

ORC

  • 所有格式中最小的
  • 读写速度非常快,几乎是最快的

Parquet

  • 总的来说,快速并且非常小,但是并不是最快也不是最小的

总结

从结果来看,我们应该使用ORC或Feather,而不再使用CSV了,是吗?

这取决于需求。

如果你正在做一些单独的项目,那么使用最快或最小的格式肯定是有意义的。

但大多数时候,我们必须与他人合作。所以,除了速度和大小,还有更多的因素。

未压缩的CSV可能很慢,而且最大,但是当需要将数据发送到另一个系统时,它非常容易。

ORC作为传统的大数据处理格式(来自Hive)对于速度的和大小的优化是做的最好的,Parquet比ORC更大、更慢,但是它却是在速度和大小中取得了最佳的平衡,并且支持他的生态也多,所以在需要处理大文件的时候可以优先选择Parquet。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6514

    浏览量

    87610
  • 存储
    +关注

    关注

    12

    文章

    3863

    浏览量

    84681
  • 函数
    +关注

    关注

    3

    文章

    3904

    浏览量

    61311
收藏 人收藏

    评论

    相关推荐

    R128平台SPI与DBI接口的性能对比

    R128平台SPI与DBI接口的性能对比
    的头像 发表于 11-15 09:08 494次阅读
    R128平台SPI与DBI接口的<b class='flag-5'>性能对比</b>

    Python利用pandas读写Excel文件

    使用pandas模块读取Excel文件可以更为方便和快捷。pandas可以将Excel文件读取为一个DataFrame对象,方便进行数据处理和分析。
    的头像 发表于 12-16 11:22 603次阅读
    Python利用<b class='flag-5'>pandas</b>读写Excel文件

    Nanopi系列板子资源性能对比

    Nanopi系列板子资源性能对比对比性能 选择适合你的板子
    发表于 08-05 14:21

    在PyODPS DataFrame自定义函数中使用pandas、scipy和scikit-learn

    背景PyODPS DataFrame 提供了类似 pandas 的接口,来操作 ODPS 数据,同时也支持在本地使用 pandas,和使用数据库来执行。PyODPS DataFrame
    发表于 05-17 19:48

    SparkRDMA基于BigDataBench的性能对比测试

    SparkRDMA基于BigDataBench 性能对比测试
    发表于 05-04 13:16

    Linux下AWTK与Qt的性能对比

    为了比较直观的看到AWTK的基本性能,我们对产品开发者比较关心GUI的一些参数做了测试,如界面刷新帧数、启动时间等。让我们从参数上直观了解Linux下AWTK与Qt的性能对比
    发表于 10-29 08:26

    Arm Cortex-A35性能对比分析

    Arm Cortex-A35性能对比
    发表于 01-19 07:44

    主流CAN收发器性能对比分析哪个最好?

    主流CAN收发器性能对比分析哪个最好?
    发表于 05-20 06:14

    步进电机和交流伺服电机性能对比分析哪个好?

    步进电机和交流伺服电机性能对比分析哪个好?
    发表于 10-09 06:03

    arduino和stm32性能对比究竟谁更厉害?

    一些DIY和各种小项目?arduino和stm32性能对比究竟谁更厉害呢?我们一起来讨论一下。比较两者之前首先我们来了解下arduino和stm32的特点:Arduino:Arduino UNO-DFRobot商城1. Arduino更倾向于创意,它弱化了具体的硬件的操作,它的函数...
    发表于 01-24 07:14

    关于高清混插矩阵和单格式视频矩阵的性能对比

    更深入的理解。 高清混插矩阵和单格式视频矩阵的对比: 同时具备模拟信号输入,数字信号输入,模拟信号输出,数字信号输出。具有VGA接口、BNC接口、RCA接口、HDMI接口、DVI接口、立体声接口、网络接口等。可同时配置多种组合板卡
    发表于 07-02 17:01 852次阅读

    图解Pandas常用操作!

    它描述了一个在线商店的不同产品线,共有四种不同的产品。与前面的例子不同,它可以用NumPy数组或Pandas DataFrame表示。但让我们看一下它的一些常见操作。
    的头像 发表于 04-25 10:55 590次阅读
    图解<b class='flag-5'>Pandas</b>常用操作!

    全志T3(A40I)/T5(T507)性能对比,一代更比一代强

    全志T3(A40I)/T5(T507)性能对比
    的头像 发表于 05-27 15:47 5989次阅读
    全志T3(A40I)/T5(T507)<b class='flag-5'>性能对比</b>,一代更比一代强

    pandas中合并数据的5个函数

    今天借着这个机会,就为大家盘点一下pandas中合并数据的5个函数。 join join是基于索引的横向拼接,如果索引一致,直接横向拼接。如果索引不一致,则会用Nan值填充。 索引一致
    的头像 发表于 10-31 11:11 317次阅读
    <b class='flag-5'>pandas</b>中合并数据的5个函数

    如何实现PandasDataFrame转换交互式表格

    Pivottablejs是一个通过IPython widgets集成到Python中的JavaScript库,允许用户直接从DataFrame数据创建交互式和灵活的汇总报表。可以进行高效、清晰的数据分析和表示,帮助将数据从Pandas
    的头像 发表于 11-21 16:15 381次阅读
    如何实现<b class='flag-5'>Pandas</b>的<b class='flag-5'>DataFrame</b>转换交互式表格