您提供的链接可以很好地存储框架。逐列表示仅指定data_columns = True。它将单独处理这些列,并提出问题。
诊断
store = pd.HDFStore('test0.h5','w')In [31]: for chunk in pd.read_csv('Train.csv', chunksize=10000): ....: store.append('df', chunk, index=False, data_columns=True)在生产中,您可能希望将data_columns限制为要查询的列(也可以为None,在这种情况下,您只能在索引/列上查询)
更新:
您可能会遇到另一个问题。read_csv根据每个块中看到的内容来转换dtypes,因此,如果块大小为10,000,则追加操作将失败,因为块1和2在某些列中具有看似整数的数据,然后在块3中您具有一些NaN,所以它是因为浮点数。预先指定dtype,使用较大的块大小,或运行两次操作以确保块之间的dtype。
我已经更新pytables.py在这种情况下有一个更有用的异常(以及告诉您列是否包含不兼容的数据)
感谢您的举报!



