Helm: kube-system tiller-deploy-f9b8476d-zkln4 всегда ожидает неудачного планирования

Созданный на 6 июн. 2018  ·  3Комментарии  ·  Источник: helm/helm


как это исправить?

Вывод helm version :
Клиент: & version.Version {SemVer: "v2.9.1", GitCommit: "20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState: "clean"}

Вывод kubectl version :
Версия клиента: version.Info {Major: «1», Minor: «10», GitVersion: «v1.10.3», GitCommit: «2bba0127d85d5a46ab4b778548be28623b32d0b0», GitTreeState: «clean», BuildDate: «2018-05-21T09: 17 39Z ", GoVersion:" go1.9.3 ", компилятор:" gc ", платформа:" linux / amd64 "}
Версия сервера: version.Info {Major: «1», Minor: «10», GitVersion: «v1.10.3», GitCommit: «2bba0127d85d5a46ab4b778548be28623b32d0b0», GitTreeState: «clean», BuildDate: «2018-05-21T09: 37Z ", GoVersion:" go1.9.3 ", компилятор:" gc ", платформа:" linux / amd64 "}

Облачный провайдер / платформа (AKS, GKE, Minikube и т. Д.):
Minikube

kubectl -n kube-system описать pod tiller-deploy-f9b8476d-zkln4

Имя: tiller-deploy-f9b8476d-zkln4
Пространство имен: kube-system
Узел:
Ярлыки: app = helm
name = культиватор
pod-template-hash = 95640328
Аннотации:
Статус: ожидание
IP:
Контролируется: ReplicaSet / tiller-deploy-f9b8476d
Контейнеры:
культиватор:
Изображение: gcr.io/kubernetes-helm/ tiller : v2.9.1
Порты: 44134 / TCP, 44135 / TCP
Порты хоста: 0 / TCP, 0 / TCP
Живучесть: http-get http: //: 44135 / liveness delay = 1s timeout = 1s period = 10s # success = 1 # failure = 3
Готовность: http-get http: //: 44135 / readiness delay = 1s timeout = 1s period = 10s # success = 1 # failure = 3
Среда:
TILLER_NAMESPACE: система кубов
TILLER_HISTORY_MAX: 0
Крепления:
/var/run/secrets/kubernetes.io/serviceaccount из default-token-skl9j (ro)
Условия:
Тип Статус
PodScheduled False
Объемы:
по умолчанию-токен-skl9j:
Тип: Секрет (том, заполненный секретом)
SecretName: по умолчанию-токен-skl9j
Необязательно: false
Класс QoS: BestEffort
Селекторы узлов:
Допуски: node.kubernetes.io/not- ready: NoExecute на 300
node.kubernetes.io/un достижимо: NoExecute на 300
События:
Тип Причина Возраст из сообщения
---- ------ ---- ---- -------
Предупреждение FailedScheduling Доступны 2 м (x91 более 28 м) узлов планировщика по умолчанию 0/1: 1 узел (а) имел загрязнения, которые не переносились модулем.

questiosupport

Самый полезный комментарий

разрешить мастеру запускать поды:
kubectl taint nodes --all node-role.kubernetes.io/master-

Все 3 Комментарий

Не уверен, но ваш узел указывает, что он недоступен, поэтому он не может планировать поды.

разрешить мастеру запускать поды:
kubectl taint nodes --all node-role.kubernetes.io/master-

Спасибо ! Оно работает

Была ли эта страница полезной?
0 / 5 - 0 рейтинги