数据库
首页 > 数据库> > python-将大量csv文件导入PostgreSQL数据库的有效方法

python-将大量csv文件导入PostgreSQL数据库的有效方法

作者:互联网

我看到了很多将CSV导入PostgreSQL数据库的示例,但是我需要的是将500,000 CSV导入单个PostgreSQL数据库的有效方法.每个CSV都超过500KB(因此总计约272GB的数据).

CSV的格式相同,没有重复的记录(数据是通过原始数据源以编程方式生成的).我一直在搜索,并将继续在线搜索选项,但是对于以最有效的方式完成此操作的任何指导,我将不胜感激.我确实有使用Python的经验,但是会深入研究其他任何合适的解决方案.

谢谢!

解决方法:

如果您先阅读PostgreSQL guide “Populating a Database”,则会看到一些建议:

>在单个事务中加载数据.
>尽可能使用COPY.
>在加载数据之前删除索引,外键约束等,然后再恢复它们.

PostgreSQL的COPY statement已经支持CSV格式:

COPY table (column1, column2, ...) FROM '/path/to/data.csv' WITH (FORMAT CSV)

因此,似乎最好不要使用Python,或者仅使用Python生成所需的COPY语句序列.

标签:python,csv,import,postgresql-9-1
来源: https://codeday.me/bug/20191010/1887848.html