导读 大家可能都知道 kubectl 其实没有 restart pod 这个,这个主要是由于在 k8s 中pod 的管理属于rs 等控制器,并不需要运维手动维护,但有时候,我们修改了configmap 的配置文件后,希望重启pod 加载配置,此时就需要 “重启” Pod。

大家可能都知道 kubectl 其实没有 restart pod 这个,这个主要是由于在 k8s 中pod 的管理属于rs 等控制器,并不需要运维手动维护,但有时候,我们修改了configmap 的配置文件后,希望重启pod 加载配置,此时就需要 “重启” Pod。这里说的“重启”是加了引号的,准确地来说,是重建pod,给用户的感觉是重启。

下面介绍六种k8s 里面重启pod的方式

方法一:kubectl rollout restart

这个命令是比较推荐的,通过

kubectl rollout restart deployment  -n 

便可以重建这个deployment下的 pod,和滚动升级类似,并不会一次性杀死Pod,比较平滑。

方法二:kubectl scale

这种方法相对来说,比较粗放,我们可以先将副本调成 0

kubectl scale deployment  -n  --replicas=0

然后再改回目的副本数

kubectl scale deployment  -n  --replicas=10
方法三: kubectl delete pod

这个我就不解释了

kubectl delete pod  -n 

还是多说一句,此时优雅删除的效果还是有的。再多说一句,直接删 rs 效果也挺好。

方法四:kubectl replace

这种方法是通过更新Pod ,从触发k8s pod 的更新

kubectl get pod  -n  -o yaml | kubectl replace --force -f -
方法五:kubectl set env

通过 设置环境变量,其实也是更新pod spec 从而触发滚动升级。

kubectl set env deployment  -n  DEPLOY_DATE="$(date)"

只不过这里通过kubectl 命令行,当我们通过API 更新pod spec 后一样会触发滚动升级

方法六: kill 1

这种方法就是在容器里面 kill 1 号进程。

kubectl exec -it  -c  --/bin/sh -c "kill 1"

但是但是但是,重要的话说三遍,它有个局限,必须要求你的 1 号进程要 捕获 TERM 信号,否则在容器里面是杀不死自己的,这个在之前的文章已经介绍过了。

原文来自:

本文地址://q13zd.cn/kubectl-restart-pod.html编辑:清蒸github,审核员:逄增宝

Linux命令大全:

Linux系统大全:

红帽认证RHCE考试心得: