节点大小是否有最佳实践?
我们目前正在运行一个3节点集群,rf=3。我们的货物:
Datacenter: datacenter-prod
===========================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
-- Address Load Tokens Owns (effective) Host ID Rack
UN 10.164.0.23 7.55 GiB 256 100.0% e7e2a38a-d4f3-4758-a345-73fcffe26035 rack1
UN 10.164.0.24 7.61 GiB 256 100.0% 0c18b8e4-5ca2-4fb5-9e8c-663b74909fbb rack1
UN 10.164.0.58 7.61 GiB 256 100.0% 547c0746-72a8-4fec-812a-8b926d2426ae rack1
节点只运行cassandra。磁盘使用情况如下:
root@cassandra-1:/# df -h
Filesystem Size Used Avail Use% Mounted on
overlay 99G 20G 75G 22% /
tmpfs 64M 0 64M 0% /dev
tmpfs 3.7G 0 3.7G 0% /sys/fs/cgroup
shm 64M 0 64M 0% /dev/shm
/dev/sda1 99G 20G 75G 22% /etc/hosts
tmpfs 3.7G 0 3.7G 0% /proc/acpi
tmpfs 3.7G 0 3.7G 0% /sys/firmware
所以每个节点都使用了分配的100g中的20g。
当我们走向100gb大关时,我们该怎么办?
我们应该增加更多的磁盘空间还是增加更多的节点?
我记得在崩溃/恢复操作的情况下,最好使用小节点。
为了重新平衡磁盘使用,我们需要添加多少节点和哪个射频?
1条答案
按热度按时间6vl6ewon1#
这并不是一个简单的规则,但数据大小为1 tb通常是一个很好的选择。这种数据大小与至少16GB(或32GB内存以保持安全)很好,最重要的是,使用SSD(而不是旋转磁盘)。
请记住,如果您想坚持最佳做法,由于压缩,对于1 tb的数据负载,您应该有2 tb的总磁盘大小。