Helm: kube-system tiller-deploy-f9b8476d-zkln4 steht aufgrund fehlgeschlagener Planung immer aus

Erstellt am 6. Juni 2018  ·  3Kommentare  ·  Quelle: helm/helm


Wie kann man das beheben?

Ausgabe von helm version :
Client: & version.Version {SemVer: "v2.9.1", GitCommit: "20adb27c7c5868466912eebdf6664e7390ebe710", GitTreeState: "clean"}

Ausgabe von kubectl version :
Client-Version: version.Info {Major: "1", Minor: "10", GitVersion: "v1.10.3", GitCommit: "2bba0127d85d5a46ab4b778548be28623b32d0b0", GitTreeState: "clean", BuildDate: "2018-05-21T09: 17: 39Z ", GoVersion:" go1.9.3 ", Compiler:" gc ", Plattform:" linux / amd64 "}
Serverversion: version.Info {Major: "1", Minor: "10", GitVersion: "v1.10.3", GitCommit: "2bba0127d85d5a46ab4b778548be28623b32d0b0", GitTreeState: "clean", BuildDate: "2018-05-21T09: 05: 37Z ", GoVersion:" go1.9.3 ", Compiler:" gc ", Plattform:" linux / amd64 "}

Cloud-Anbieter / Plattform (AKS, GKE, Minikube usw.):
Minikube

kubectl -n kube-system beschreiben pod tiller-deploy-f9b8476d-zkln4

Name: tiller-deploy-f9b8476d-zkln4
Namespace: kube-system
Knoten:
Labels: App = Helm
Name = Pinne
pod-template-hash = 95640328
Anmerkungen:
Status: Ausstehend
IP:
Kontrolliert von: ReplicaSet / tiller-deploy-f9b8476d
Behälter:
Pinne:
Bild: gcr.io/kubernetes-helm/ Pinne: v2.9.1
Ports: 44134 / TCP, 44135 / TCP
Host-Ports: 0 / TCP, 0 / TCP
Liveness: http-get http: //: 44135 / Liveness Delay = 1s Timeout = 1s Periode = 10s # Erfolg = 1 # Fehler = 3
Bereitschaft: http-get http: //: 44135 / Bereitschaftsverzögerung = 1s Zeitüberschreitung = 1s Zeitraum = 10s # Erfolg = 1 # Fehler = 3
Umgebung:
TILLER_NAMESPACE: Würfelsystem
TILLER_HISTORY_MAX: 0
Anschlüsse:
/var/run/secrets/kubernetes.io/serviceaccount von default-token-skl9j (ro)
Bedingungen:
Typ Status
PodScheduled False
Bände:
default-token-skl9j:
Typ: Secret (ein Volume, das von einem Secret gefüllt wird)
SecretName: default-token-skl9j
Optional: falsch
QoS-Klasse: BestEffort
Knotenselektoren:
Toleranzen: node.kubernetes.io/not- ready: NoExecute für 300s
node.kubernetes.io/un erreichbar: NoExecute für 300s
Veranstaltungen:
Geben Sie Grund Alter aus Nachricht ein
---- ------ ---- ---- -------
Warnung FailedScheduling 2m (x91 über 28m) Standard-Scheduler 0/1 Knoten sind verfügbar: 1 Knoten hatten Fehler, die der Pod nicht tolerierte.

questiosupport

Hilfreichster Kommentar

Erlaube dem Master, Pods auszuführen:
kubectl taint nodes --all node-role.kubernetes.io/master-

Alle 3 Kommentare

Nicht sicher, aber Ihr Knoten zeigt an, dass er nicht erreichbar ist, daher kann er keine Pods planen.

Erlaube dem Master, Pods auszuführen:
kubectl taint nodes --all node-role.kubernetes.io/master-

Vielen Dank ! Es klappt

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen