我试图通过arangoimp导入一个巨大的数据集到ArangoDB。它大约有5500万条边。我已经增加了wal.logfiles的大小(--wal.logfile-size从32 k增加到1024 k)。这解决了上一个错误。但是现在我得到了以下错误:
WARNING {collector} got unexpected error in MMFilesCollectorThread::collect: no journal
ERROR cannot create datafile '/usr/local/var/lib/arangodb3/databases/database-1/collection-2088918365-385765492/temp-2153337069.db': Too many open files
导入语句为:arangoimp --file links_de.csv --type csv --collection links
有没有办法让arangoimp工作得更迭代一些,比如做块之类的?我会很复杂地把CSV分成一些部分,因为它的大小...
多谢了!
1条答案
按热度按时间nmpmafwu1#
我终于解决了:
Too many open files
是提示。你需要提高打开文件句柄的限制。所以在unix / mac操作系统上启动arango之前,运行ulimit -n 16384
或更高版本来提高这个shell会话的限制。之后导入仍然需要几个小时,但对我来说是有效的。你也可以在arango中增加集合的日志大小来减少所需的文件句柄数。另请参见:ArangoDB Too many open files