aws集群中kubectl资源分配不足

o2gm4chl  于 2021-06-10  发布在  Cassandra
关注(0)|答案(1)|浏览(297)

我是Kubernetes的新手,我面临着一个我不明白的问题。我在aws中创建了一个4节点集群,1个管理节点(t2.medium)和3个普通节点(c4.xlarge),并使用kubeadm将它们成功地连接在一起。
然后我尝试使用这个yaml部署三个cassandra副本,但是pod状态没有离开pending状态;当我这样做时:

kubectl describe pods cassandra-0

我明白了

0/4 nodes are available: 1 node(s) had taints that the pod didn't tolerate, 3 Insufficient memory.

我不明白为什么,因为机器应该足够强大,以应付这些吊舱,我没有部署任何其他吊舱。我不确定这是否意味着什么,但当我执行:

kubectl describe nodes

我看到这个信息:

Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)

因此,我的问题是,为什么会发生这种情况,我如何才能解决它。
谢谢你的关注

ugmeyewa

ugmeyewa1#

每个节点跟踪请求的ram总量( resources.requests.memory )分配给它的所有吊舱。不能超过机器的总容量。我会再次检查你没有其他的豆荚。你应该在电视上看到 kubectl describe node .

相关问题