有效地将许多大型 CSV 文件中的 XYZ 坐标排序到小图块中

Posted

技术标签:

【中文标题】有效地将许多大型 CSV 文件中的 XYZ 坐标排序到小图块中【英文标题】:Effectively order XYZ coordinates from many huge CSV files into small tiles 【发布时间】:2016-04-12 02:14:09 【问题描述】:

我的问题和目标

我有许多包含数十亿个 XYZ 坐标的巨大 (1-10GB) CSV 文件。我需要将它们插入到规则网格中,相当有效(不需要在超级计算机上花费数周的计算时间)。

我的方法:

在处理几个较小的文件时,我将所有文件都加载到一个 Pandas 数据帧中:

file_names = [files for files in os.listdir(my_path) if files.endswith(".csv")]  
data_list = []
for file_name in file_names:    
  df = pd.read_csv(my_path + "\\" + file_name, header=None, names=["x","y","z"], dtype=np.float32)
  data_list.append(df)    
frame = pd.concat(data_list)

之后,我得到 frame[x].min() 等坐标的最小值/最大值,并计算我想将数据分解为以简化插值的图块范围:

tile_extents = [min_x - (min_x%tile_size), max_x - (max_x%tile_size) + tile_size, min_y - (min_y%tile_size), max_y - (max_y%tile_size) + tile_size]
for i in range(int((tile_extents[1]-tile_extents[0])/tile_size)):
  for j in range(int((tile_extents[3]-tile_extents[2])/tile_size)):
    current_tile_extent = [tile_extents[0]+i*tile_size, tile_extents[0]+i*tile_size+tile_size, tile_extents[2]+j*tile_size, tile_extents[2]+j*tile_size+tile_size]
    current_frame = frame[(frame["x"]>current_tile_extent[0]) & (frame["x"]<current_tile_extent[1]) & (frame["y"]>current_tile_extent[2]) & (frame["y"]<current_tile_extent[3])]

我可以将其保存到 CSV 文件中,然后在这些小子集上运行插值。 但是如果我有 100GB 或更多的 XYZ 坐标,我该怎么办?如何订购它以便我可以将它们保存到图块中?

【问题讨论】:

您找到解决已删除question 的方法了吗? @jezrael 是的,谢谢,经过更好的搜索,我意识到它是重复的,并且已经在这里回答了 【参考方案1】:

pandas.read_csv() 可以分块工作(参见chunksize 参数)。

以下代码首先读取所有文件以查找 xy 的最小值和最大值,然后计算切片并为每个切片创建一个文件 (tiles\i,j.csv)。然后,它再次读取所有文件,这次将行写入适当的切片文件。 请务必根据您的需要调整chunksize

我用一些假数据对此进行了测试,看起来不错:

import os
import numpy as np
import pandas as pd

def get_df_in_chunks(file_names, **kwargs):
    """Read all files in chunks."""
    # Set default chunk size if not specified.
    kwargs['chunksize'] = kwargs.get('chunksize', 100000)
    for file_name in file_names:
        df = pd.read_csv(file_name, **kwargs)
        yield from iter(df)

my_path = '.'
file_names = [my_path + "\\" + file for file in os.listdir(my_path) if file.endswith(".csv")]
print('file_names: '.format(file_names))

# Read all files to determine the global min and max values.
min_x = +np.inf
max_x = -np.inf
min_y = +np.inf
max_y = -np.inf
for chunk in get_df_in_chunks(file_names, header=None, dtype=np.float32,
                              usecols=["x","y"], names=["x","y"]):
    print('  - chunk: '.format(chunk.shape))
    min_x = min(min_x, chunk["x"].min())
    max_x = max(max_x, chunk["x"].max())
    min_y = min(min_y, chunk["y"].min())
    max_y = max(max_y, chunk["y"].max())
print("x min/max:", min_x, max_x)
print("y min/max:", min_y, max_y)

# Calculate tile extents.
tile_size = 1.5
tile_limits = [min_x - (min_x%tile_size),
               max_x - (max_x%tile_size) + tile_size,
               min_y - (min_y%tile_size),
               max_y - (max_y%tile_size) + tile_size]
print("tile_size:", tile_size)
print("tile_limits:", tile_limits)

if not os.path.exists(my_path + "\\tiles"):
    os.mkdir(my_path + "\\tiles")

tile_files = []
try:
    # Open all tile files.
    for i in range(int(round(tile_limits[1]-tile_limits[0])/tile_size)):
        for j in range(int(round(tile_limits[3]-tile_limits[2])/tile_size)):
            tile_extent = [tile_limits[0] + i*tile_size,
                           tile_limits[0] + i*tile_size + tile_size,
                           tile_limits[2] + j*tile_size,
                           tile_limits[2] + j*tile_size + tile_size]
            f = open(my_path + "\\tiles\\,.csv".format(i,j), 'w')
            tile_files.append((f, tile_extent))

    for chunk in get_df_in_chunks(file_names, header=None, dtype=np.float32,
                                  usecols=["x","y","z"], names=["x","y","z"]):
        # For each tile, write all relevant rows into the corresponding tile file.
        for f, tile_extent in tile_files:
            # Option 1: boolean condition.
            frame = chunk[(chunk["x"] >= tile_extent[0]) &
                          (chunk["x"] <  tile_extent[1]) &
                          (chunk["y"] >= tile_extent[2]) &
                          (chunk["y"] <  tile_extent[3])]
            # Option 2: query using numexpr. Could be faster, but wasn't in my test.
            #frame = chunk.query('x >=  & x <  & y >=  & y < '.format(*tile_extent))

            ##print('file:  tile_extent:  frame: shape='.format(f.name, tile_extent, frame.shape))
            frame.to_csv(f, header=None, index=False)
finally:
    # Close all tile files.
    for f, _ in tile_files:
        f.close()

【讨论】:

还有一个问题:行选择条件 ((chunk["x"] &gt;= current_tile_extent[0]) &amp; ... &amp; ... &amp; ...) 不包括 xy 的上限,用于 ij 最大的图块。因此,如果这些最大值是 tile_size 的精确倍数,则不会包含 x == max_xy == max_y 的数据点。最简单的解决方案是增加 max_xmax_y,但根据它们的大小,添加 1.0 可能会下溢,而乘以 1.0001 则不适用于非正数和无穷大。 哇,完整的代码。没想到,非常感谢。现在我正在考虑分块读取,但事实证明,即使没有分块,我的电脑也能够读取文件,无论如何,如果某些文件太大,分块读取仍然更安全。我不明白的是,这段代码是否意味着我所有的 100GB 到 1TB 数据将立即加载到内存中?我不敢尝试:) 在我的 XYZ 剪辑代码中,我使用的每个图块范围实际上将区域扩展了五分之一,以确保我此时使用的插值方法(三角测量)将覆盖整个原始图块范围,所以没有担心 x == max_x 或 y == max_y。谢谢。 不客气。不,您的数据不会立即加载;此代码使用分块。看看get_df_in_chunks() 在查找最小值/最大值以及写入切片文件时如何使用? 我将代码更新为只读取所有文件两次。实际上,这是一个简单的改变。 -- 不过,您可以通过压缩输出和输入文件来获得更快的速度。不要忘记调整chunksize

以上是关于有效地将许多大型 CSV 文件中的 XYZ 坐标排序到小图块中的主要内容,如果未能解决你的问题,请参考以下文章

有效地将最后 'n' 行 CSV 读入 DataFrame

如何从 Perl 快速访问许多大型 CSV 文件中的数据?

如何有效地将大型数据框拆分为多个拼花文件?

在 C# 中有效地将数据插入 MySQL 中的多个表中

连接大型 CSV 文件中单词的最有效方法:pandas 还是 Python 标准库? [复制]

如何有效地将数据附加到 C 中的 HDF5 表?