升级到AKS v. 1.24(网络类型:Azure CNI),发现kube-system
pod占用了大部分IP空间,留给应用部署的IP非常少。
例如,下面是在其中一个虚拟机上运行的kube-system
pod:
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
kube-system ama-logs-m5rrq 2/2 Running 0 25d 10.65.197.16 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system ama-logs-rs-c4f77bf75-cpvgl 1/1 Running 0 25d 10.65.197.24 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system azure-ip-masq-agent-rcc7m 1/1 Running 0 25d 10.65.197.15 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system azure-npm-lg7f6 1/1 Running 0 25d 10.65.197.15 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system cloud-node-manager-h7w25 1/1 Running 0 25d 10.65.197.15 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system coredns-59b6bf8b4f-bp9nb 1/1 Running 0 25d 10.65.197.17 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system csi-azurefile-node-bdpwc 3/3 Running 0 8d 10.65.197.15 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system konnectivity-agent-85c86bd7ff-wsj5k 1/1 Running 0 25d 10.65.197.23 aks-agentpool-45621317-vmss00000b <none> <none>
kube-system kube-proxy-hzxhl 1/1 Running 0 8h 10.65.197.15 aks-agentpool-45621317-vmss00000b <none> <none>
由于我们部署到专用网络,这正在成为一个挑战,不断提供更大的网络,并不断增加每个IP的最大pod。
你知道怎么才能腾出一些空间吗?
1条答案
按热度按时间yrefmtwq1#
如果使用Azure CNI插件创建AKS群集,则Kubernetes群集中的所有Pod都使用我们为AKS群集创建的虚拟网络的IP部分。
所有群集节点和pod都将成为群集子网(10.224.0.0/16)的一部分。因此,如果我们在AKS群集上托管1000个pod,它将从VNET的子网中选择1000个IP。请检查以下pod IP详细信息:
所有服务都将从服务CDIR获取IP。请检查下面的服务IP:
配置后,交叉检查AKS联网中的联网详细信息。
AKS集群〉网络:
azure-cni-overlay-plugin
处于预览状态,并且在美国中西部和美国东部地区可用。AKS成功配置后,用户可以在网络选项卡中查看网络详细信息。
Kubenet网络插件的AKS群集的默认值如下:
这里,当pod在集群中创建时,它会从Pod CIDR中选择IP。这是Azure-CNI和Kubenet插件之间的主要区别。
Pod CIDR是指IP的逻辑分组,它不属于我们在AKS群集期间创建的VNet。
检查下面分配给Pod的IP。它将与Pod CIDR范围匹配:
确保Pod CIDR范围不能与网络中的任何其他IP重叠。Kubenet网络插件也使用路由表。
如果用户需要更灵活地控制IP地址空间,请选择Azure-cli-overlay。但它处于预览状态,不建议用于生产工作负载。
蓝色-CNI-覆盖图参考:azure-CNI-overlay network