在《 混沌工程之 ChaosBlade-Operator 使用之模拟 POD 丢包场景》中,我们提到过一次丢包场景的模拟了,但是不同的混沌工具,是否有不同的实现方式呢?
今天我们来玩一个 ChaosMesh 的网络丢包,看一下有没有新鲜的玩意。
前面的环境部分,我就不再重复了,你可以去看下前面的文章,如果不出意外,我们的环境都是不会改变的。
所以我们现在就直接进入操作步骤。
yaml 文件配置:
[root@s5 ChaosMesh]# cat network-loss.yaml
apiVersion: chaos-mesh.org/v1alpha1
kind: NetworkChaos
metadata:
name: network-loss-example
namespace: chaos
spec:
action: loss
mode: one
selector:
labelSelectors:
"k8s.kuboard.cn/name": "svc-7dmall"
loss:
loss: "25"
correlation: "25"
duration: "10s"
scheduler:
cron: '@every 15s'
界面配置:
不管是用 yaml 文件配置试验案例,还是在界面上配置,其效果一样。
如果是用 yaml 文件配置的,直接执行下面的命令即可。
[root@s5 ChaosMesh]# kubectl apply -f network-loss.yaml -n chaos
networkchaos.chaos-mesh.org/network-loss-example created
[root@s5 ChaosMesh]#
如果是在界面配置的,提交成功之后即开始执行。
-- 进入容器,执行ping命令
[root@svc-7dmall-664d59f75b-whtvc /]# ping 10.100.220.96
PING 10.100.220.96 (10.100.220.96) 56(84) bytes of data.
64 bytes from 10.100.220.96: icmp_seq=1 ttl=62 time=0.612 ms
64 bytes from 10.100.220.96: icmp_seq=2 ttl=62 time=0.269 ms
64 bytes from 10.100.220.96: icmp_seq=3 ttl=62 time=0.236 ms
64 bytes from 10.100.220.96: icmp_seq=4 ttl=62 time=0.279 ms
^C
--- 10.100.220.96 ping statistics ---
5 packets transmitted, 4 received, 20% packet loss, time 4000ms
rtt min/avg/max/mdev = 0.236/0.349/0.612/0.152 ms
[root@svc-7dmall-664d59f75b-whtvc /]#
-- 查看队列
[root@svc-7dmall-664d59f75b-whtvc /]# tc qdisc ls dev eth0
qdisc netem 1: root refcnt 2 limit 1000 loss 25% 25%
[root@svc-7dmall-664d59f75b-whtvc /]#
从上面的结果来看,丢包确实产生了。并且也和 chaosblade-operator 的逻辑一样是用 tc 命令在 qdisc 上模拟了丢包动作。看来没有新花样。
如果对tc不了解的,可以看下我以前的这篇文章《Linux 网络故障模拟工具TC》。
对混沌工具的理解一定要达到理解原理的程度,才不会迷糊。如果你知道了这个原理的话,不用混沌工具,手工也能做混沌案例。
-- 删除试验案例
[root@s5 ChaosMesh]# kubectl delete -f network-loss.yaml -n chaos
networkchaos.chaos-mesh.org "network-loss-example" deleted
[root@s5 ChaosMesh]#
-- 进入容器,查看队列
[root@svc-7dmall-664d59f75b-whtvc /]# tc qdisc ls dev eth0
qdisc noqueue 0: root refcnt 2
[root@svc-7dmall-664d59f75b-whtvc /]#
如果容器的原始 image 没有 tc 命令怎么办?
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/zuozewei/article/details/121078762
内容来源于网络,如有侵权,请联系作者删除!