spark cassandra连接器,将重试次数限制到死掉的cassandra节点

hyrbngr7  于 2021-06-10  发布在  Cassandra
关注(0)|答案(0)|浏览(239)

@这里:我们在kuberenetes中运行cassandra,并使用spark cassandra连接器,我们面临的问题是kubernetes pod重启,cassandra ip更改
无论何时从工作日志中发生cassandra ip更改(cassandra restart),我们都会将旧ip视为关闭,将新替换的ip视为新添加的节点,并使用正确的pod\u ip连接到新pod,这是正确的,但问题是,我们也会看到连接仍将连接到旧pod\u ip,并且仍在尝试旧的死pod\u ip

com.datastax.driver.core.Host.STATES: Defuncting Connection[/100.96.1.4:9042-1, inFlight=0, closed=false] because: [/100.96.1.4:9042] Cannot connect
com.datastax.driver.core.exceptions.TransportException: [/100.96.1.4:9042] Cannot connect

我可以设置任何spark cassandra连接器重试次数,以限制对死区节点的重试次数我只在spark worker日志中看到此警告任何与我们可以在spark cassandra连接器中配置的java驱动程序中的策略类似的重连策略?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题