- 已关闭。**此问题为not about programming or software development。目前不接受答案。
此问题似乎与a specific programming problem, a software algorithm, or software tools primarily used by programmers无关。如果您认为此问题与another Stack Exchange site相关,您可以留下评论,说明在何处可以找到此问题的答案。
4天前关闭。
机构群体在4天前审核了是否重新开放此问题,并将其关闭:
原始关闭原因未解决
Improve this question
在我的GCE Kubernetes集群上,我无法再创建pod。
Warning FailedScheduling pod (www.caveconditions.com-f1be467e31c7b00bc983fbe5efdbb8eb-438ef) failed to fit in any node
fit failure on node (gke-prod-cluster-default-pool-b39c7f0c-c0ug): Insufficient CPU
查看该节点的已分配统计信息
Non-terminated Pods: (8 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
default dev.caveconditions.com-n80z8 100m (10%) 0 (0%) 0 (0%) 0 (0%)
default lamp-cnmrc 100m (10%) 0 (0%) 0 (0%) 0 (0%)
default mongo-2-h59ly 200m (20%) 0 (0%) 0 (0%) 0 (0%)
default www.caveconditions.com-tl7pa 100m (10%) 0 (0%) 0 (0%) 0 (0%)
kube-system fluentd-cloud-logging-gke-prod-cluster-default-pool-b39c7f0c-c0ug 100m (10%) 0 (0%) 200Mi (5%) 200Mi (5%)
kube-system kube-dns-v17-qp5la 110m (11%) 110m (11%) 120Mi (3%) 220Mi (5%)
kube-system kube-proxy-gke-prod-cluster-default-pool-b39c7f0c-c0ug 100m (10%) 0 (0%) 0 (0%) 0 (0%)
kube-system kubernetes-dashboard-v1.1.0-orphh 100m (10%) 100m (10%) 50Mi (1%) 50Mi (1%)
Allocated resources:
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md)
CPU Requests CPU Limits Memory Requests Memory Limits
------------ ---------- --------------- -------------
910m (91%) 210m (21%) 370Mi (9%) 470Mi (12%)
当然,我已经分配了91%的资源,不能再分配10%。但是,是否不可能过度使用资源?
服务器的CPU平均使用率约为10
如果我不能使用更多的资源,那将是一种耻辱。
5条答案
按热度按时间luaexgnf1#
我最近遇到了同样的问题,经过一些研究,我发现GKE有一个默认的
LimitRange
,CPU请求限制设置为100m
,这可以通过运行kubectl get limitrange -o=yaml
来检查。这个限制适用于每个容器。例如,如果您有一个4核节点,并且假设您的每个POD将创建2个容器,则只允许创建约20个POD。
这里的“修复”是更改默认的
LimitRange
,设置您自己的限制,然后删除旧的pod,以便使用更新的值重新创建它们,或者在创建pod时直接设置它们的限制。一些阅读材料:
https://kubernetes.io/docs/tasks/configure-pod-container/assign-cpu-resource/#specify-a-cpu-request-and-a-cpu-limit
https://kubernetes.io/docs/tasks/administer-cluster/manage-resources/cpu-default-namespace/#create-a-limitrange-and-a-pod
https://kubernetes.io/docs/concepts/configuration/manage-compute-resources-container/#how-pods-with-resource-limits-are-run
https://cloud.google.com/blog/products/gcp/kubernetes-best-practices-resource-requests-and-limits
z6psavjg2#
我在尝试部署到集群时遇到了同样的问题。在我的情况下,为我的应用程序的测试分支自动创建了不需要的pod。要诊断该问题,我需要执行以下操作:
kubectl get po
kubectl describe po
-对于其中一个现有pod,用于检查它正在哪个节点上运行kubectl get nodes
kubectl describe node
-查看现有机架正在使用的节点的CPU使用情况,如下所示:然后,可以使用以下命令删除不需要的pod:
kubectl get deployments
kubectl delete deployment ....
-我需要删除的单元的部署名称。一旦我删除了足够多的未使用的pod,我就可以部署新的pod。
v9tzhpje3#
是的,目前不支持过量使用。它在计划中的改进http://kubernetes.io/docs/user-guide/compute-resources中。github的相关问题:https://github.com/kubernetes/kubernetes/issues/168
附言:理论上你可以定义自定义节点容量,但我不确定。
qnzebej04#
对我来说,在不同的名称空间(而不是
default
)中创建所有部署和服务解决了这个问题。jecbmhm35#
**TL;DR(如果使用限制和请求):**降低CPU请求和/或限制。
内容:
在我的情况下,我管理的CPU和内存非常接近极限,下面是我一段时间后的发现。
假设我有如下的:
node-1
的节点,CPU/A = 2000百万处理器和内存/A = 7827字节app-1
的应用程序,我想部署与Helm,采取所有理论上可用的。看下面的截图,名字是轻微审查的原因,但你看到的大图片。
在我的例子中,我用一些
resources.limits.cpu
、resources.limits.memory
、resources.requests.cpu
、resources.requests.memory
配置app-1
,其中resources.limits.cpu
最初设置为1000m
。具体发生了什么:
所以
node-1
不仅运行app-1
,还运行其他3个额外的应用程序来做其他事情。从上到下,CPU请求的总和是100m + 0 + 250m + 1 (1000m) = 1350m
(也可以在下面的资源分配中找到)。看起来不错,但如果我想部署另一个版本的
app-1
,该怎么办?在这种情况下,我必须删除旧版本并重新创建它。在某些情况下,这可能是可以接受的,但当我想部署一个更新到
app-1
与Helm在我的情况下(helm更新将删除旧的Pod,并开始一个新的提醒你)没有采取旧的下来第一,然后我会得到 * CPU不足的错误 *。这是因为kube-scheduler“可能”会执行以下操作。它会获取您之前的CPU值,并将其添加到您要部署的新
app-1
的限制中。理论上,使CPU请求“超出请求的限制”。换句话说,在另一个Pod关闭之前,它会在很短的时间内执行1350 m + 1 (1000m) = 2350m
。这就是问题所在,因为它超出了2000m
的初始限制。溶液:
这种情况下的解决方案是将CPU请求设置为一个较小的数字,可能仅为
500m
,这样初始值为100m + 0 + 250m + 500m = 850m
,当它执行加法时,仅为100m + 0 + 250m + 500m + 500m = 1350m
,仍低于2000m
的硬限制。helm将删除旧的Pod,使整个请求CPU使用率恢复到850m
,但有一个非常短的跨度,它总结了其余部分。