我有一个kubernetes集群,一切正常。 一段时间后,我drain工作节点,并重新设置了它,然后再把它加入主节点,但
#kubectl get nodes
NAME STATUS ROLES AGE VERSION
ubuntu Ready master 159m v1.14.0
ubuntu1 Ready,SchedulingDisabled <none> 125m v1.14.0
ubuntu2 Ready,SchedulingDisabled <none> 96m v1.14.0
我该怎么办?
要防止新的pod调度到某个节点,可以使用:
kubectl cordon <node-name>
这样该节点处于
Ready,SchedulingDisabled(不可调度)
的状态。恢复调度:
kubectl uncordon <node-name>
参考来自:Kubernetes Node的隔离与恢复
感谢!
你的答案