按照以下步骤生成错误:
1. Configure the large amount of data (around 4 GB or more than 50 millions of records)
2. Give proper data-config.xml file for indexing the data from remote database server.
3. During indexing the data into solr from SQL SERVER 2010, at the half way unplug the
network cable and see the status in solr. e.g.
localhost:8083/solr/core1/dataimport?command=status
or
localhost:8083/solr/core1/dataimport
4. Pass few seconds then again plug back the cable.
5. You can clearly see that there is just only "Time Elapsed" parameter increase.
"Total Rows Fetched" & "Total Documents Processed" remains same for infinite time.
6. You can regenerate this for small data also.
7. Work around is you need to restart the solr. (But this is not good solution)
注意:这是一个非常重要的问题,因为很多组织没有使用这个有价值的
产品只是因为这个数据库无限连接的问题。解决方案可以是:强制中止数据索引或提供强制中止索引的机制。希望你们知道中止命令也不起作用。
2条答案
按热度按时间dpiehjr41#
来自Solr文档(http://wiki.apache.org/solr/DataImportHandler)
通过点击URL http://:/solr/dataimport?命令=中止。
我刚刚检查了DIH的源代码,并执行了中止命令
dddzy1tm2#
问得好!
你可以从chrome的网络标签中获取网址。
1.转到数据端口并选择自动刷新状态复选框
1.在开发工具中打开网络选项卡,您应该会看到一个状态请求
1.复制其中一个url并用
abort
替换status
从
https://solr.yourdomain.com/solr/%3Ccollectionname%3E/dataimport?_=1685514143962&command=status&indent=on&wt=json
到
https://solr.yourdomain.com/solr/%3Ccollectionname%3E/dataimport?_=1685514143962&command=abort&indent=on&wt=json