Helm: kube-system tiller-deploy-f9b8476d-zkln4 toujours en attente en cas d'échec de la planification

Créé le 6 juin 2018  ·  3Commentaires  ·  Source: helm/helm


Comment régler ceci?

Sortie de helm version :
Client: & version.Version {SemVer: "v2.9.1", GitCommit: "20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState: "clean"}

Sortie de kubectl version :
Version du client: version.Info {Major: "1", Minor: "10", GitVersion: "v1.10.3", GitCommit: "2bba0127d85d5a46ab4b778548be28623b32d0b0", GitTreeState: "clean", BuildDate: "2018-05-21T09: 17: 39Z ", GoVersion:" go1.9.3 ", Compilateur:" gc ", Plate-forme:" linux / amd64 "}
Version du serveur: version.Info {Major: "1", Minor: "10", GitVersion: "v1.10.3", GitCommit: "2bba0127d85d5a46ab4b778548be28623b32d0b0", GitTreeState: "clean", BuildDate: "2018-05-21T09: 05: 37Z ", GoVersion:" go1.9.3 ", Compilateur:" gc ", Plate-forme:" linux / amd64 "}

Fournisseur / plate-forme de cloud (AKS, GKE, Minikube, etc.):
Minikube

kubectl -n kube-system describe pod tiller-deploy-f9b8476d-zkln4

Nom: tiller-deploy-f9b8476d-zkln4
Espace de noms: kube-system
Nœud:
Libellés: app = helm
nom = motoculteur
pod-template-hash = 95640328
Annotations:
Statut: En attente
IP:
Contrôlé par: ReplicaSet / tiller-deploy-f9b8476d
Conteneurs:
taller:
Image: gcr.io/kubernetes-helm/ tiller: v2.9.1
Ports: 44134 / TCP, 44135 / TCP
Ports d'hôte: 0 / TCP, 0 / TCP
Liveness: http-get http: //: 44135 / liveness delay = 1s timeout = 1s period = 10s # success = 1 # failure = 3
Préparation: http-get http: //: 44135 / délai de préparation = 1 s timeout = 1 s période = 10 s # succès = 1 # échec = 3
Environnement:
TILLER_NAMESPACE: système kube
TILLER_HISTORY_MAX: 0
Montures:
/var/run/secrets/kubernetes.io/serviceaccount de default-token-skl9j (ro)
Conditions:
Statut du type
PodScheduled False
Volumes:
jeton par défaut skl9j:
Type: Secret (un volume rempli par un Secret)
Nom secret: jeton par défaut skl9j
Facultatif: faux
Classe QoS: BestEffort
Sélecteurs de nœuds:
Tolérances: node.kubernetes.io/not- ready: NoExecute pendant
node.kubernetes.io/un accessible: NoExecute pendant
Événements:
Tapez la raison Âge à partir du message
---- ------ ---- ---- -------
Warning FailedScheduling 2 m (x91 sur 28 m) nœuds par défaut du programmateur 0/1 sont disponibles: 1 nœud (s) présentait des taches que le pod ne tolérait pas.

questiosupport

Commentaire le plus utile

autoriser le maître à exécuter des pods:
kubectl taint nodes --all node-role.kubernetes.io/master-

Tous les 3 commentaires

Pas sûr, mais votre nœud indique qu'il est inaccessible et qu'il ne peut donc pas planifier de pods.

autoriser le maître à exécuter des pods:
kubectl taint nodes --all node-role.kubernetes.io/master-

Merci beaucoup ! Ça marche

Cette page vous a été utile?
0 / 5 - 0 notes