PyArrow: Incrementally using ParquetWriter without keeping entire dataset in memory (large than memory parquet files)(PyArrow:递增地使用ParquetWriter,而无需将整个数据集保存在内存中(大于内存拼接文件))
问题描述
我正在尝试将一个较大的拼图文件写入磁盘(大于内存)。我天真地认为我可以聪明地使用ParquetWriter和WRITE_TABLE递增地写入文件,比如(POC):
但是,即使I正在生成块(在我的例子中类似于10,000行)并使用write_table
,它仍然将整个数据集保留在内存中。
原来ParquetWriter将整个数据集保留在内存中,同时以增量方式写入磁盘。
有没有什么办法可以强制ParquetWriter不将整个数据集保存在内存中,或者有充分的理由根本不可能这样做?
推荐答案
根据Arrow bug report中的分析,这可能是由元数据集合导致的,而元数据集合只能在文件关闭时刷新。
这篇关于PyArrow:递增地使用ParquetWriter,而无需将整个数据集保存在内存中(大于内存拼接文件)的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!