将非常大的数据集导入arangoDB时出错

mwecs4sa  于 2022-12-09  发布在  Go
关注(0)|答案(1)|浏览(164)

我试图通过arangoimp导入一个巨大的数据集到ArangoDB。它大约有5500万条边。我已经增加了wal.logfiles的大小(--wal.logfile-size从32 k增加到1024 k)。这解决了上一个错误。但是现在我得到了以下错误:

WARNING {collector} got unexpected error in MMFilesCollectorThread::collect: no journal
ERROR cannot create datafile '/usr/local/var/lib/arangodb3/databases/database-1/collection-2088918365-385765492/temp-2153337069.db': Too many open files

导入语句为:arangoimp --file links_de.csv --type csv --collection links
有没有办法让arangoimp工作得更迭代一些,比如做块之类的?我会很复杂地把CSV分成一些部分,因为它的大小...
多谢了!

nmpmafwu

nmpmafwu1#

我终于解决了:Too many open files是提示。你需要提高打开文件句柄的限制。所以在unix / mac操作系统上启动arango之前,运行ulimit -n 16384或更高版本来提高这个shell会话的限制。之后导入仍然需要几个小时,但对我来说是有效的。你也可以在arango中增加集合的日志大小来减少所需的文件句柄数。
另请参见:ArangoDB Too many open files

相关问题