couchdb mapReduce超时(当数据库很大时)

bq3bfh9z  于 2022-12-09  发布在  CouchDB
关注(0)|答案(1)|浏览(185)

详细信息:

  • Apache CouchDB版本3.1.1
  • 大约5GB的twitter数据被转储到分区中

Map reduce函数我已经写好了:

{
 "_id": "_design/Info",
 "_rev": "13-c943aaf3b77b970f4e787be600dd240e",
 "views": {
   "trial-view": {
     "map": "function (doc) {\n  emit(doc.account_name, 1);\n}",
     "reduce": "_count"
   }
 },
 "language": "javascript",
 "options": {
   "partitioned": true
 }
}

当我在postman中尝试以下命令时:
请输入以下信息<server_ip>:
我收到以下错误:

{
    "error": "timeout",
    "reason": "The request could not be processed in a reasonable amount of time."
}

请帮助我如何在如此庞大的数据上应用mapReduce?

omqzjyyz

omqzjyyz1#

所以,在意识到我的错误后,我想到了回答我自己的问题。答案很简单。只是需要更多的时间,因为索引需要很多时间。你可以看到元数据来查看被索引的数据库数据。

相关问题