导读 | 大家可能都知道 kubectl 其实没有 restart pod 这个,这个主要是由于在 k8s 中pod 的管理属于rs 等控制器,并不需要运维手动维护,但有时候,我们修改了configmap 的配置文件后,希望重启pod 加载配置,此时就需要 “重启” Pod。 |
大家可能都知道 kubectl 其实没有 restart pod 这个,这个主要是由于在 k8s 中pod 的管理属于rs 等控制器,并不需要运维手动维护,但有时候,我们修改了configmap 的配置文件后,希望重启pod 加载配置,此时就需要 “重启” Pod。这里说的“重启”是加了引号的,准确地来说,是重建pod,给用户的感觉是重启。
下面介绍六种k8s 里面重启pod的方式
这个命令是比较推荐的,通过
kubectl rollout restart deployment-n
便可以重建这个deployment下的 pod,和滚动升级类似,并不会一次性杀死Pod,比较平滑。
这种方法相对来说,比较粗放,我们可以先将副本调成 0
kubectl scale deployment-n --replicas=0
然后再改回目的副本数
kubectl scale deployment-n --replicas=10
这个我就不解释了
kubectl delete pod-n
还是多说一句,此时优雅删除的效果还是有的。再多说一句,直接删 rs 效果也挺好。
这种方法是通过更新Pod ,从触发k8s pod 的更新
kubectl get pod-n -o yaml | kubectl replace --force -f -
通过 设置环境变量,其实也是更新pod spec 从而触发滚动升级。
kubectl set env deployment-n DEPLOY_DATE="$(date)"
只不过这里通过kubectl 命令行,当我们通过API 更新pod spec 后一样会触发滚动升级
这种方法就是在容器里面 kill 1 号进程。
kubectl exec -it-c --/bin/sh -c "kill 1"
但是但是但是,重要的话说三遍,它有个局限,必须要求你的 1 号进程要 捕获 TERM 信号,否则在容器里面是杀不死自己的,这个在之前的文章已经介绍过了。
原文来自:
本文地址://q13zd.cn/kubectl-restart-pod.html编辑:清蒸github,审核员:逄增宝
Linux命令大全:
Linux系统大全: