【python】pyarrow.parquet+pandas:读取及使用parquet文件

QomolangmaH 2024-08-12 17:35:02 阅读 53

文章目录

一、前言1. 所需的库2. 终端指令

二、pyarrow.parquet1. 读取Parquet文件2. 写入Parquet文件3. 对数据进行操作4. 导出数据为csv

三、实战1. 简单读取2. 数据操作(分割feature)3. 迭代方式来处理Parquet文件4. 读取同一文件夹下多个parquet文件

Parquet是一种用于列式存储压缩数据的文件格式,广泛应用于大数据处理和分析中。Python提供了多个库来处理Parquet文件,例如pyarrow和fastparquet。

本文将介绍如何使用pyarrow.parquet+pandas库操作Parquet文件。

一、前言

1. 所需的库

<code>import pyarrow.parquet as pq

import pandas as pd

pyarrow.parquet模块,可以读取和写入Parquet文件,以及进行一系列与Parquet格式相关的操作。例如,可以使用该模块读取Parquet文件中的数据,并转换为pandas DataFrame来进行进一步的分析和处理。同时,也可以使用这个模块将DataFrame的数据保存为Parquet格式。

2. 终端指令

conda create -n DL python==3.11

conda activate DL

conda install pyarrow

pip install pyarrow

二、pyarrow.parquet

当使用pyarrow.parquet模块时,通常的操作包括读取和写入Parquet文件,以及对Parquet文件中的数据进行操作和转换。以下是一些常见的使用方法:

1. 读取Parquet文件

import pyarrow.parquet as pq

parquet_file = pq.ParquetFile('file.parquet')

data = parquet_file.read().to_pandas()

使用pq.ParquetFile打开Parquet文件;使用read().to_pandas()方法将文件中的数据读取为pandas DataFrame

2. 写入Parquet文件

import pandas as pd

import pyarrow as pa

import pyarrow.parquet as pq

df = pd.DataFrame({ 'col1': [1, 2, 3], 'col2': ['a', 'b', 'c']})

table = pa.Table.from_pandas(df)

pq.write_table(table, 'output.parquet')

将pandas DataFrame转换为Arrow的Table格式;使用pq.write_table方法将Table写入为Parquet文件。

parquet_file = pq.ParquetFile('output.parquet')

data = parquet_file.read().to_pandas()

print(data)

在这里插入图片描述

3. 对数据进行操作

<code>import pyarrow.parquet as pq

# 读取Parquet文件

parquet_file = pq.ParquetFile('output.parquet')

data = parquet_file.read().to_pandas()

# 对数据进行筛选和转换

filtered_data = data[data['col1'] > 1] # 筛选出col1大于1的行

print(filtered_data)

transformed_data = filtered_data.assign(col3=filtered_data['col1'] * 2) # 添加一个新列col3,值为col1的两倍

# 打印处理后的数据

print(transformed_data)

在这里插入图片描述

4. 导出数据为csv

<code>import pyarrow.parquet as pq

import pandas as pd

parquet_file = pq.ParquetFile('output.parquet')

data = parquet_file.read().to_pandas()

df = pd.DataFrame(data)

csv_path = './data.csv'

df.to_csv(csv_path)

print(f'数据已保存到 { csv_path}')

在这里插入图片描述

三、实战

1. 简单读取

<code>import pyarrow.parquet as pq

import pandas as pd

parquet_file = pq.ParquetFile('./train_parquet/part-00014-918feee1-1ad5-4b08-8876-4364cc996930-c000.snappy.parquet')

data = parquet_file.read().to_pandas()

df = pd.DataFrame(data)

csv_path = './data2.csv'

df.to_csv(csv_path)

print(f'数据已保存到 { csv_path}')

关于PyCharm调试操作可参照:PyCharm基础调试功能详解

在这里插入图片描述

点击右侧蓝色的<code>View as DataFrame

在这里插入图片描述

如图所示,<code>feature在同一个格内,导出为:

在这里插入图片描述

注意看,省略号<code>...位置真的就是省略号字符,没有数字,即

[0.27058824 0. 0.05882353 ... 0.47843137 0.36862745 0.97647059]

2. 数据操作(分割feature)

import pyarrow.parquet as pq

import pandas as pd

parquet_file = pq.ParquetFile('./train_parquet/part-00014-918feee1-1ad5-4b08-8876-4364cc996930-c000.snappy.parquet')

data = parquet_file.read().to_pandas()

# 将feature列中的列表拆分成单独的特征值

split_features = data['feature'].apply(lambda x: pd.Series(x))

# 将拆分后的特征添加到DataFrame中

data = pd.concat([data, split_features], axis=1)

print(data.head(2))

# 删除原始的feature列

data = data.drop('feature', axis=1)

# 保存到csv文件

csv_path = './data1.csv'

data.to_csv(csv_path, index=False)

print(f'数据已保存到 { csv_path}')

调试打开:

在这里插入图片描述

excel打开:

在这里插入图片描述

文件大小对比

在这里插入图片描述

部分内容援引自博客:使用python打开parquet文件

3. 迭代方式来处理Parquet文件

如果Parquet文件非常大,可能会占用大量的内存。在处理大型数据时,建议使用迭代的方式来处理Parquet文件,以减少内存的占用。以下是一种更加内存友好的方式来处理Parquet文件:

<code>import pyarrow.parquet as pq

import pandas as pd

import time

start_time = time.time() # 记录开始时间

# 使用迭代器迭代读取Parquet文件中的数据

data_iterator = pq.ParquetFile(

'./train_parquet/part-00014-918feee1-1ad5-4b08-8876-4364cc996930-c000.snappy.parquet').iter_batches(batch_size=100)

# 初始化空的DataFrame用于存储数据

data = pd.DataFrame()

# 逐批读取数据并进行处理

for batch in data_iterator:

# 将RecordBatch转换为Pandas DataFrame

df_batch = batch.to_pandas()

# 将feature列中的列表拆分成单独的特征值

split_features = df_batch['feature'].apply(lambda x: pd.Series(x))

# 将拆分后的特征添加到DataFrame中

df_batch = pd.concat([df_batch, split_features], axis=1)

# 将处理后的数据追加到DataFrame中

data = data._append(df_batch, ignore_index=True)

# 删除原始的feature列

data = data.drop('feature', axis=1)

# 保存到csv文件

csv_path = './data3.csv'

data.to_csv(csv_path, index=False)

end_time = time.time() # 记录结束时间

print(f'数据已保存到 { csv_path}')

print(f'总运行时间: { end_time - start_time} 秒')

输出:

数据已保存到 ./data3.csv

总运行时间: 4.251184940338135 秒

4. 读取同一文件夹下多个parquet文件

import os

import pyarrow.parquet as pq

import pandas as pd

import time

start_time = time.time() # 记录开始时间

folder_path = './train_parquet/'

parquet_files = [f for f in os.listdir(folder_path) if f.endswith('.parquet')]

# 初始化空的DataFrame用于存储数据

data = pd.DataFrame()

# 逐个读取Parquet文件中的数据并进行处理

for file in parquet_files:

file_path = os.path.join(folder_path, file)

data_iterator = pq.ParquetFile(file_path).iter_batches(batch_size=1024)

for batch in data_iterator:

# 将RecordBatch转换为Pandas DataFrame

df_batch = batch.to_pandas()

# 将feature列中的列表拆分成单独的特征值

split_features = df_batch['feature'].apply(lambda x: pd.Series(x))

# 将拆分后的特征添加到DataFrame中

df_batch = pd.concat([df_batch, split_features], axis=1)

# 将处理后的数据追加到DataFrame中

data = data._append(df_batch, ignore_index=True)

# 删除原始的feature列

data = data.drop('feature', axis=1)

# 保存到csv文件

csv_path = './data.csv'

data.to_csv(csv_path, index=False)

end_time = time.time() # 记录结束时间

print(f'数据已保存到 { csv_path}')

print(f'总运行时间: { end_time - start_time} 秒')



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。