**已关闭。**此问题为not about programming or software development。目前不接受回答。
此问题似乎与a specific programming problem, a software algorithm, or software tools primarily used by programmers无关。如果您认为此问题与another Stack Exchange site的主题相关,可以发表评论,说明在何处可以回答此问题。
上个月关门了。
Improve this question的
我在Kubernetes 1.18中设置了RookIO 1.4
集群,每个集群上有3个节点分配了1TB的存储空间。创建集群后,当我运行ceph status
集群时,集群状态显示为HEALTH_WARN
和mon c is low on available space
。
还没有存储数据。为什么可用空间不足?如何清除此错误?
[root@rook-ceph-tools-6bdcd78654-sfjvl /]# ceph status
cluster:
id: ad42764d-aa28-4da5-a828-2d87205aff08
health: HEALTH_WARN
mon c is low on available space
services:
mon: 3 daemons, quorum a,b,c (age 37m)
mgr: a(active, since 36m)
osd: 3 osds: 3 up (since 37m), 3 in (since 37m)
data:
pools: 1 pools, 1 pgs
objects: 0 objects, 0 B
usage: 3.0 GiB used, 3.6 TiB / 3.6 TiB avail
pgs: 1 active+clean
字符串
所有三个节点具有相同大小的存储:
sdb 8:16 0 1.2T 0 disk
└─ceph--a6cd601d--7584--4b1f--bf82--48c95437f351-osd--data--ae1bc856--8ded--4b1e--8c87--30ca0f0959a3 253:3 0 1.2T 0 lvm
sdb 8:16 0 1.2T 0 disk
└─ceph--ccaf7144--d6a0--441c--bcd5--6a09d056bd7a-osd--data--36a9b28c--7207--400a--936b--edfb3255ce0b 253:3 0 1.2T 0 lvm
sdb 8:16 0 1.2T 0 disk
└─ceph--53e9b8a9--8925--4b21--a6ea--f8e17a322d5c-osd--data--6b1e779c--a18a--4e4d--960e--73ca9473d02f 253:3 0 1.2T 0 lvm
型
谢谢SR
3条答案
按热度按时间ivqmmu1c1#
此警报针对的是通常存储在
/var/lib/ceph/mon
中的监视器磁盘空间。此路径存储在与OSD块设备无关的根文件系统中。当此路径的可用空间小于30%时会引发此警告(请参阅mon_data_avail_warn
,默认值为30)。您可以将其更改为忽略警报或调整该路径的大小,以便为其RocksDB数据提供更多空间。2izufjch2#
正如Seena所解释的,这是因为可用空间小于30%,在这种情况下,您可以通过以下命令压缩mon数据。
字符串
还有另一种方法可以触发mon的数据压缩,将mon配置添加到ceph.conf,然后重新启动mon。
型
zaqlnxep3#
正如其他人之前所说,这是因为您的节点容量,
那些部署了
mons
的节点都是满的。以下是实际的解决方案:
crictl
工具在
/etc/crictl.yaml
中为crictl
创建配置文件:字符串
然后运行下面的命令:
型
它保存了很多空间,磨损也消失了。
此外,您可以将此命令放在Cronfile中,以便偶尔自动清理节点。