Kubeadm: Kubeadm init blockiert bei "Dies kann eine Minute oder länger dauern, wenn die Bilder der Steuerungsebene gezogen werden müssen

Erstellt am 31. Jan. 2018  ·  67Kommentare  ·  Quelle: kubernetes/kubeadm

Versionen

kubeadm-Version (verwenden Sie kubeadm version ):

Umgebung :

  • Kubernetes-Version (verwenden Sie kubectl version ): v1.9.2
  • Cloud-Anbieter oder Hardwarekonfiguration : Virtual Box
  • OS (zB von /etc/os-release):Ubuntu 16.04.0 LTS (Xeniak Xerus) amd64
  • Kernel (z. B. uname -a ): Linux 4.4.0-62-generisch
  • Andere : kubeadm-Version: v1.9.2: amd64, kubelet-Version: v1.9.2 amd64, kubernetes-cni-Version: 0.6.0-00 amd64, Docker- Version: 17.03.2-ce

Was ist passiert?

Wenn ich versuche, kubeadm init auszuführen, hängt es mit
xx@xx :~$ sudo kubeadm init --kubernetes-version=v1.9.2

[init] Kubernetes-Version verwenden: v1.9.2
[init] Autorisierungsmodi verwenden: [Node RBAC]
[preflight] Durchführung von Preflight-Checks.
[WARNUNG FileExisting-crictl]: Crictl nicht im Systempfad gefunden
[Preflight] Starten des Kubelet-Dienstes
[Zertifikate] Generiertes CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes apiserver-Zertifikat und Schlüssel.
[Zertifikate] Apiserver-Serving-Zertifikat ist signiert für DNS-Namen [kickseed kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] und IPs [10.96.0.1 172.17.41.15]
[Zertifikate] Generiertes apiserver-kubelet-client-Zertifikat und Schlüssel.
[Zertifikate] SA-Schlüssel und öffentlichen Schlüssel generiert.
[Zertifikate] Generiertes Front-Proxy-CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes Front-Proxy-Client-Zertifikat und Schlüssel.
[Zertifikate] Gültige Zertifikate und Schlüssel sind jetzt in „/etc/kubernetes/pki“ vorhanden
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „admin.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „kubelet.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „controller-manager.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „scheduler.conf“
[controlplane] Statisches Pod-Manifest für Komponente kube-apiserver in „/etc/kubernetes/manifests/kube-apiserver.yaml“ geschrieben
[controlplane] Statisches Pod-Manifest für Komponente kube-controller-manager in „/etc/kubernetes/manifests/kube-controller-manager.yaml“ geschrieben
[controlplane] Statisches Pod-Manifest für Komponente kube-scheduler in „/etc/kubernetes/manifests/kube-scheduler.yaml“ geschrieben
[etcd] Statisches Pod-Manifest für eine lokale etcd-Instanz in „/etc/kubernetes/manifests/etcd.yaml“ geschrieben
[init] Warten, bis das Kubelet die Steuerungsebene als statische Pods aus dem Verzeichnis „/etc/kubernetes/manifests“ hochfährt.
[init] Dies kann eine Minute oder länger dauern, wenn die Bilder der Steuerebene gezogen werden müssen.

Dann überprüfe ich das Kubelet-Protokoll:
xx@xx :~$ sudo journalctl -xeu kubelet:
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.280984 28516 remote_runtime.go:92] RunPodSandbox vom Laufzeitdienst fehlgeschlagen: RPC-Fehler: Code = Unbekannt desc = Pulling-Image "gcr.io/google_containers/ fehlgeschlagen" pause-amd64:3.0": Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
Jan 31 14:45:03 kickseed kubelet[28516]: E0131 14:45:03.281317 28516 kuberuntime_sandbox.go:54] CreatePodSandbox for pod "kube-scheduler-kickseed_kube-system(69c12074e336b0dbbd0a1666ce052 error: Unknownrc code) failed = Abrufen des Bildes "gcr.io/google_containers/pause-amd64:3.0" fehlgeschlagen: Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.281580 28516 kuberuntime_manager.go:647] createPodSandbox for pod „kube-scheduler-kickseed_kube-system(69c12074e336b0dbbd0a1666ce052) error: Unknown code“ = 6desrac fehlgeschlagen = Abrufen des Bildes "gcr.io/google_containers/pause-amd64:3.0" fehlgeschlagen: Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
31. Januar 14:45:03 Kickseed Kubeel [28516]: E0131 14: 45: 03.281875 28516 Pod_workers.go: 186] Fehlersynchronisation Pod 69C12074E336B0DBD0A1666CE05226A ("Kube-champer-kickseed_kube-System (69c12074E336B0DBD0A1666CE05226A)"), Überspringen: CreatePodsandBox "für" Kube-scheduler-kickseed_kube-system (69c12074e336b0dbbd0a1666CE05226a) "Mit CreatePodsandSandBoxError:" CreatePodsandBox für Pod \ "Kube-Scheduler-Kickseed_kube-System (69c12074E336B0DBBD0A1666CE05226A) \" Fehlgeschlagen: RPC-Fehler: Code = unbekannt DESC = fehlgeschlagenes Ziehen image \ "gcr.io/google_containers/pause-amd64:3.0\": Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout"
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.380290 28516 event.go:209] Ereignis kann nicht geschrieben werden: 'Patch https://172.17.41.15 :6443/api/v1/namespaces/default /events/kickseed.150ecf46afb098b7: TCP 172.17.41.15:6443 wählen: getsockopt: Verbindung verweigert' (kann nach dem Schlafen erneut versuchen)
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.933783 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:47: Fehler beim Auflisten von *v1. Pod: Holen Sie sich https://172.17.41.15 :6443/api/v1/pods?fieldSelector=spec.nodeName%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.934707 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:03 Kickseed kubelet[28516]: E0131 14:45:03.935921 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.281024 28516 remote_runtime.go:92] RunPodSandbox vom Laufzeitdienst fehlgeschlagen: RPC-Fehler: Code = Unbekannt desc = Pulling-Image "gcr.io/google_containers/ fehlgeschlagen" pause-amd64:3.0": Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.281352 28516 kuberuntime_sandbox.go:54] CreatePodSandbox für Pod „kube-controller-manager-kickseed_kube-system(6546d6faf0b50c9fc6712ce25bee9b6“ Fehler: rc) Fehler: rc) Fehler Unknown desc = Pulling-Image „gcr.io/google_containers/pause-amd64:3.0“ fehlgeschlagen: Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.281634 28516 kuberuntime_manager.go:647] createPodSandbox for pod „kube-controller-manager-kickseed_kube-system(6546d6faf0b50c9fc6712ce25bee9b6cr) error: code Unknown desc = Pulling-Image „gcr.io/google_containers/pause-amd64:3.0“ fehlgeschlagen: Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o timeout
31. Januar 14:45:04 Kickseed Kubeelband [28516]: E0131 14: 45: 04.281938 28516 Pod_workers.go: 186] Error Synchronisierung der Pod 6546D6FAF0B50C9FC6712CE20E9B6CB ("Kube-Controller-Manager-Kickseed_kube-System (6546D6FAF0B50C9FC6712CE20E9B5CB)"), Überspringen: Fehlgeschlagen Für "CreatePodsandBox" für "Kube-Controller-Manager-Kickseed_kube-System (6546D6FAF0B50C9FC6712CE2FAB0B5CB)" Mit CreatePodsandBoxError: "CreatePodsandBox für Pod \" Kube-Controller-Manager-KickSeed_Kube-System (6546D6FAF0B50C9FC6712CEE2FAF0B50C9FC6712CE2E2E9B6CB) \ "Fehlgeschlagen: RPC-Fehler: Code = unbekannt desc = Pulling-Image fehlgeschlagen \"gcr.io/google_containers/pause-amd64:3.0\": Fehlerantwort vom Daemon: Get https://gcr.io/v1/_ping : dial tcp 172.217.6.127:443: i/o Auszeit"
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.934694 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:47: Fehler beim Auflisten von *v1. Pod: Holen Sie sich https://172.17.41.15 :6443/api/v1/pods?fieldSelector=spec.nodeName%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.935613 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:04 Kickseed kubelet[28516]: E0131 14:45:04.936669 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:05 Kickseed kubelet[28516]: W0131 14:45:05.073692 28516 cni.go:171] CNI-Konfiguration kann nicht aktualisiert werden: Keine Netzwerke in /etc/cni/net.d gefunden
Jan 31 14:45:05 kickseed kubelet[28516]: E0131 14:45:05.074106 28516 kubelet.go:2105] Container Runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker : network plugin is not ready: cni config nicht initialisiert
31. Januar 14:45:05 Kickseed kubelet[28516]: E0131 14:45:05.935680 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:47: Fehler beim Auflisten von *v1. Pod: Holen Sie sich https://172.17.41.15 :6443/api/v1/pods?fieldSelector=spec.nodeName%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:05 Kickseed kubelet[28516]: E0131 14:45:05.937423 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:05 Kickseed kubelet[28516]: E0131 14:45:05.937963 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:45:05 Kickseed kubelet[28516]: I0131 14:45:05.974034 28516 kubelet_node_status.go:273] Festlegen der Knotenanmerkung zum Aktivieren/Trennen des Volume-Controllers
31. Januar 14:45:06 Kickseed kubelet[28516]: I0131 14:45:06.802447 28516 kubelet_node_status.go:273] Festlegen der Knotenanmerkung zum Aktivieren/Trennen des Volume-Controllers
31. Januar 14:45:06 Kickseed kubelet[28516]: I0131 14:45:06.804242 28516 kubelet_node_status.go:82] Versuch, Knoten-Kickseed zu registrieren
31. Januar 14:45:06 Kickseed kubelet[28516]: E0131 14:45:06.804778 28516 kubelet_node_status.go:106] Knoten „Kickseed“ kann nicht beim API-Server registriert werden: Post https://172.17.41.15 :6443/api/ v1/nodes: Wählen Sie TCP 172.17.41.15:6443: getsockopt: con

xx@xx :~$ sudo systemctl status kubelet:

kubelet.service - kubelet: Der Kubernetes Node Agent
Geladen: geladen (/lib/systemd/system/kubelet.service; aktiviert; Herstellervoreinstellung: aktiviert)
Drop-In: /etc/systemd/system/kubelet.service.d
└─11-kubeadm.conf, 10-kubeadm1.conf, 90-local-extras.conf
Aktiv: aktiv (laufend) seit Mi 31.01.2018 13:53:46 CST; Vor 49 Minuten
Dokumente: http://kubernetes.io/docs/
Haupt-PID: 28516 (kubelet)
Aufgaben: 13
Speicher: 37,8 MB
CPU: 22.767s
CGroup: /system.slice/kubelet.service
└─28516 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --pod-manifest-path=/etc/kubernetes/ manifestiert --allow-privileged=true --cgroup-driver=cgroupfs --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni /bin --cluster-dns=10.96.0.10 --cluster-domain=cluster.local --authorization-mode=Webhook --client-ca-file=/etc/kubernetes/pki/ca.crt --cadvisor-port =0 --rotate-certificates=true --cert-dir=/var/lib/kubelet/pki --fail-swap-on=false

31. Januar 14:43:17 Kickseed kubelet[28516]: E0131 14:43:17.862590 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:17 Kickseed kubelet[28516]: E0131 14:43:17.863474 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:18 Kickseed kubelet[28516]: E0131 14:43:18.621818 28516 event.go:209] Ereignis kann nicht geschrieben werden: 'Patch https://172.17.41.15 :6443/api/v1/namespaces/default /events/kickseed.150ecf46afb098b7: TCP 172.17.41.15:6443 wählen: getsockopt: Verbindung verweigert' (kann nach dem Schlafen erneut versuchen)
31. Januar 14:43:18 Kickseed kubelet[28516]: E0131 14:43:18.862440 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:47: Fehler beim Auflisten von *v1. Pod: Holen Sie sich https://172.17.41.15 :6443/api/v1/pods?fieldSelector=spec.nodeName%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:18 Kickseed kubelet[28516]: E0131 14:43:18.863379 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:18 Kickseed kubelet[28516]: E0131 14:43:18.864424 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:19 Kickseed kubelet[28516]: E0131 14:43:19.255460 28516 eviction_manager.go:238] Eviction Manager: unerwarteter Fehler: Fehler beim Abrufen von Knoteninformationen: Knoten "Kickseed" nicht gefunden
31. Januar 14:43:19 Kickseed kubelet[28516]: E0131 14:43:19.863266 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/config/apiserver.go:47: Fehler beim Auflisten von *v1. Pod: Holen Sie sich https://172.17.41.15 :6443/api/v1/pods?fieldSelector=spec.nodeName%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:19 Kickseed kubelet[28516]: E0131 14:43:19.864238 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:474: Fehler beim Auflisten von *v1.Node: Holen Sie sich https://172.17.41.15 :6443/api/v1/nodes?fieldSelector=metadata.name%3Dkickseed&limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt
31. Januar 14:43:19 Kickseed kubelet[28516]: E0131 14:43:19.865262 28516 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:465: Fehler beim Auflisten von *v1.Service: Holen Sie sich https://172.17.41.15 :6443/api/v1/services?limit=500&resourceVersion=0: Wählen Sie TCP 172.17.41.15:6443: getsockopt: Verbindung abgelehnt

Einige Docker-Images werden wie folgt aufgelistet:
gcr.io/google_containers/kube-apiserver-amd64:v1.9.2
gcr.io/google_containers/kube-controller-manager-amd64:v1.9.2
gcr.io/google_containers/kube-scheduler-amd64:v1.9.2
gcr.io/google_containers/kube-proxy-amd64:v1.9.2
gcr.io/google_containers/etcd-amd64:3.2.14
gcr.io/google_containers/pause-amd64:3.1
gcr.io/google_containers/kube-dnsmasq-amd64:1.4.1
gcr.io/google_containers/kubernetes-dashboard-amd64:v1.8.2
gcr.io/google_containers/kubedns-amd64:1.9
gcr.io/google_containers/kube-discovery-amd64:1.0
gcr.io/google_containers/exechealthz-amd64:v1.2.0
gcr.io/google_containers/k8s-dns-kube-dns-amd64:1.14.8
gcr.io/google_containers/k8s-dns-dnsmasq-nanny-amd64:1.14.8
gcr.io/google_containers/k8s-dns-sidecar-amd64:1.14.8
gcr.io/google_containers/dnsmasq-metrics-amd64:1.0.1

Was hast du erwartet?

kubeadm init sollte abgeschlossen sein

Wie kann man es reproduzieren (so minimal und genau wie möglich)?

virtualbox mit Ubuntu 16.04 und kubeadm 1.9.2

Gibt es noch etwas, das wir wissen müssen?

areUX lifecyclactive prioritimportant-soon

Hilfreichster Kommentar

https://github.com/kubernetes/kubernetes/issues/59680#issuecomment -364646304
Selinux deaktivieren hat mir geholfen.

Alle 67 Kommentare

Diese oben aufgeführten Docker-Images wurden aus meinem privaten Repository gezogen, bevor "kubeadm init --kubernetes-version v1.9.2" ausgeführt wurde. Aufgrund von GFW kann ich nicht direkt auf gcr.io/google-containers zugreifen.

Selbes Problem hier!

Ich habe das gleiche Problem unter CentOS 7

+1

+1

+1

+1
Server auf Vultr, auch hier hängengeblieben.

+1

+1

+1

Als Notlösung

1/ Erstellen Sie eine Docker-Registrierung auf Ihrem Kubernetes-Master

2/ Deklarieren Sie Ihren Kubernetes-Master als gcr.io in /etc/hosts

3/ Melden Sie sich auf einem Computer mit Internetzugang bei Google Cloud an und laden Sie das Bild herunter
Beispiel:
Gloud Docker -- ziehen Sie gcrio/goole_container/pause-amd64:3.0
Gloud Docker -- save -o /tmp/pause-amd.tar gcrio/goole_container/pause-amd64:3.0

4/ Laden Sie Bilder in eine Docker-Repo-Registrierung hoch
docker load -i /tmp/pause-amd64.tar
Docker-Tag gcr.io/Google_containers/pause-amd64:3.0 yourdoke rregistry:pause-amd64 :3.0
docker push yourdoke registry:pause-amd64 :3.0

5/ Auf Ihrem kebernetes-Master als gcr.io-Docker-Registrierung

Rufen Sie Bilder aus Ihrem Docker-Registrierungsrepository ab
docker pull yourdocke rregistry:pause-amd64 :3.0

Pullen Sie zu Ihrer lokalen gcr.io-Docker-Registrierung
Docker-Tag yourdocke rregistry:pause-amd64 :3.0 gcr.io/google_containers/pause-amd64:3.0
Docker-Push gcr.io/google_containers/pause-amd64:3.0

Laden Sie alle von kubeadm init verwendeten Bilder herunter. Siehe in /etc/kubernetes/manifest/*.yaml

Ist es in 1.9.3 behoben?

+1

+1 - Dies manifestiert sich nur, wenn ich kubeadm init zum zweiten Mal ausführe. Das erste Mal geht ganz gut durch. Ich bin mir nicht sicher, ob beim ersten Durchlauf ein bisschen Zustand vorhanden ist, der mit kubeadm reset nicht richtig bereinigt wird.

+1

centos 7 und ich setze den Proxy in /etc/env und zeige ihn dann als 👎

+1

Selbes Problem hier. Centos7, neueste Kube-Installation (1.9.3), versucht, die Hightower-Dokumentation und die gesamte Kubernetes-Dokumentation. etcd und Flanell funktionieren und leben und sind einsatzbereit. Ich habe die Umgebungsvariable NO_PROXY verwendet, um meine externen IP-Adressen einzufügen, damit keine Proxy-Verbindung zu anderen Verbindungen hergestellt wird, es jedoch nie zu diesem Punkt kommt und die gleichen Fehler wie bei allen anderen oben angezeigt werden.

+1

Ich habe das gleiche Problem, Centos 7, Kubelet v1.9.3;
Aber es scheint, dass die Bilder erfolgreich heruntergeladen wurden,
docker images
gcr.io/google_containers/kube-apiserver-amd64 v1.9.3 360d55f91cbf 4 weeks ago 210.5 MB gcr.io/google_containers/kube-controller-manager-amd64 v1.9.3 83dbda6ee810 4 weeks ago 137.8 MB gcr.io/google_containers/kube-scheduler-amd64 v1.9.3 d3534b539b76 4 weeks ago 62.71 MB gcr.io/google_containers/etcd-amd64 3.1.11 59d36f27cceb 3 months ago 193.9 MB gcr.io/google_containers/pause-amd64 3.0 99e59f495ffa 22 months ago 746.9 kB

Ich habe hier eine CentOS 7-VM und habe sie bereits mit unserem Proxy-Server konfiguriert.
Ich habe die gleiche Meldung über die Zeitüberschreitung erhalten, aber die Docker-Images wurden gezogen und sind betriebsbereit.

Auch ich erlebe das gleiche Problem. Weitere Informationen finden Sie in den Ausgaben und Protokollen.

```[ root@kube01 ~]# kubeadm init
[init] Kubernetes-Version verwenden: v1.9.3
[init] Autorisierungsmodi verwenden: [Node RBAC]
[preflight] Durchführung von Preflight-Checks.
[WARNUNG Hostname]: Hostname „kube01“ konnte nicht erreicht werden
[WARNUNG Hostname]: Hostname „kube01“ sucht kube01 auf 10.10.0.81:53: Server verhält sich schlecht
[WARNUNG FileExisting-crictl]: Crictl nicht im Systempfad gefunden
[Preflight] Starten des Kubelet-Dienstes
[Zertifikate] Generiertes CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes apiserver-Zertifikat und Schlüssel.
[Zertifikate] Apiserver-Bereitstellungszertifikat ist signiert für DNS-Namen [kube01 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] und IPs [10.96.0.1 10.25.123.11]
[Zertifikate] Generiertes apiserver-kubelet-client-Zertifikat und Schlüssel.
[Zertifikate] SA-Schlüssel und öffentlichen Schlüssel generiert.
[Zertifikate] Generiertes Front-Proxy-CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes Front-Proxy-Client-Zertifikat und Schlüssel.
[Zertifikate] Gültige Zertifikate und Schlüssel sind jetzt in „/etc/kubernetes/pki“ vorhanden
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „admin.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „kubelet.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „controller-manager.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „scheduler.conf“
[controlplane] Statisches Pod-Manifest für Komponente kube-apiserver in „/etc/kubernetes/manifests/kube-apiserver.yaml“ geschrieben
[controlplane] Statisches Pod-Manifest für Komponente kube-controller-manager in „/etc/kubernetes/manifests/kube-controller-manager.yaml“ geschrieben
[controlplane] Statisches Pod-Manifest für Komponente kube-scheduler in „/etc/kubernetes/manifests/kube-scheduler.yaml“ geschrieben
[etcd] Statisches Pod-Manifest für eine lokale etcd-Instanz in „/etc/kubernetes/manifests/etcd.yaml“ geschrieben
[init] Warten, bis das Kubelet die Steuerungsebene als statische Pods aus dem Verzeichnis „/etc/kubernetes/manifests“ hochfährt.
[init] Dies kann eine Minute oder länger dauern, wenn die Bilder der Steuerebene gezogen werden müssen.

In the meantime, while watching `docker ps` this is what I see:
***Note:*** Don't mind the length of time that the containers have been up — this is my third attempt and it's always the same.

```CONTAINER ID        IMAGE
              COMMAND                  CREATED              STATUS              PORTS               NAMES
c422b3fd67f9        gcr.io/google_containers/kube-apiserver-amd64<strong i="5">@sha256</strong>:a5382344aa373a90bc87d3baa4eda5402507e8df5b8bfbbad392c4fff715f0
43            "kube-apiserver --req"   About a minute ago   Up About a minute                       k8s_kube-apiserver_kube-apiserver-k
ube01_kube-system_3ff6faac27328cf290a026c08ae0ce75_1
4b30b98bcc24        gcr.io/google_containers/kube-controller-manager-amd64<strong i="6">@sha256</strong>:3ac295ae3e78af5c9f88164ae95097c2d7af03caddf067cb35599
769d0b7251e   "kube-controller-mana"   2 minutes ago        Up 2 minutes                            k8s_kube-controller-manager_kube-co
ntroller-manager-kube01_kube-system_d556d9b8ccdd523a5208b391ca206031_0
71c6505ed125        gcr.io/google_containers/kube-scheduler-amd64<strong i="7">@sha256</strong>:2c17e637c8e4f9202300bd5fc26bc98a7099f49559ca0a8921cf692ffd4a16
75            "kube-scheduler --add"   2 minutes ago        Up 2 minutes                            k8s_kube-scheduler_kube-scheduler-k
ube01_kube-system_6502dddc08d519eb6bbacb5131ad90d0_0
9d01e2de4686        gcr.io/google_containers/pause-amd64:3.0
              "/pause"                 3 minutes ago        Up 2 minutes                            k8s_POD_kube-controller-manager-kub
e01_kube-system_d556d9b8ccdd523a5208b391ca206031_0
7fdaabc7e2a7        gcr.io/google_containers/pause-amd64:3.0
              "/pause"                 3 minutes ago        Up 2 minutes                            k8s_POD_kube-apiserver-kube01_kube-
system_3ff6faac27328cf290a026c08ae0ce75_0
a5a2736e6cd0        gcr.io/google_containers/pause-amd64:3.0
              "/pause"                 3 minutes ago        Up 2 minutes                            k8s_POD_kube-scheduler-kube01_kube-
system_6502dddc08d519eb6bbacb5131ad90d0_0
ea82cd3a27da        gcr.io/google_containers/pause-amd64:3.0
              "/pause"                 3 minutes ago        Up 2 minutes                            k8s_POD_etcd-kube01_kube-system_727
8f85057e8bf5cb81c9f96d3b25320_0

LOG -AUSGABE FÜR gcr.io/google_containers/kube-apiserver-amd64@sha256 :a5382344aa373a90bc87d3baa4eda5402507e8df5b8bfbbad392c4fff715f043

I0309 19:59:29.570990       1 server.go:121] Version: v1.9.3
I0309 19:59:29.756611       1 feature_gate.go:190] feature gates: map[Initializers:true]
I0309 19:59:29.756680       1 initialization.go:90] enabled Initializers feature as part of admission plugin setup
I0309 19:59:29.760396       1 master.go:225] Using reconciler: master-count
W0309 19:59:29.789648       1 genericapiserver.go:342] Skipping API batch/v2alpha1 because it has no resources.
W0309 19:59:29.796731       1 genericapiserver.go:342] Skipping API rbac.authorization.k8s.io/v1alpha1 because it has no resources.
W0309 19:59:29.797445       1 genericapiserver.go:342] Skipping API storage.k8s.io/v1alpha1 because it has no resources.
W0309 19:59:29.804841       1 genericapiserver.go:342] Skipping API admissionregistration.k8s.io/v1alpha1 because it has no resources.
[restful] 2018/03/09 19:59:29 log.go:33: [restful/swagger] listing is available at https://10.25.123.11:6443/swaggerapi
[restful] 2018/03/09 19:59:29 log.go:33: [restful/swagger] https://10.25.123.11:6443/swaggerui/ is mapped to folder /swagger-ui/
[restful] 2018/03/09 19:59:30 log.go:33: [restful/swagger] listing is available at https://10.25.123.11:6443/swaggerapi
[restful] 2018/03/09 19:59:30 log.go:33: [restful/swagger] https://10.25.123.11:6443/swaggerui/ is mapped to folder /swagger-ui/
I0309 19:59:32.393800       1 serve.go:89] Serving securely on [::]:6443
I0309 19:59:32.393854       1 apiservice_controller.go:112] Starting APIServiceRegistrationController
I0309 19:59:32.393866       1 cache.go:32] Waiting for caches to sync for APIServiceRegistrationController controller
I0309 19:59:32.393965       1 controller.go:84] Starting OpenAPI AggregationController
I0309 19:59:32.393998       1 crdregistration_controller.go:110] Starting crd-autoregister controller
I0309 19:59:32.394012       1 controller_utils.go:1019] Waiting for caches to sync for crd-autoregister controller
I0309 19:59:32.394034       1 customresource_discovery_controller.go:152] Starting DiscoveryController
I0309 19:59:32.394057       1 naming_controller.go:274] Starting NamingConditionController
I0309 19:59:32.393855       1 crd_finalizer.go:242] Starting CRDFinalizer
I0309 19:59:32.394786       1 available_controller.go:262] Starting AvailableConditionController
I0309 19:59:32.394815       1 cache.go:32] Waiting for caches to sync for AvailableConditionController controller
I0309 20:00:06.434318       1 trace.go:76] Trace[12318713]: "Create /api/v1/nodes" (started: 2018-03-09 19:59:32.431463052 +0000 UTC m=+2.986431803) (total time: 34.002792758s):
Trace[12318713]: [4.00201898s] [4.001725343s] About to store object in database
Trace[12318713]: [34.002792758s] [30.000773778s] END
E0309 20:00:32.406206       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.LimitRange: the server was unable to return a response in the time allotted, but may still be processing the request (get limitranges)
E0309 20:00:32.406339       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.Secret: the server was unable to return a response in the time allotted, but may still be processing the request (get secrets)
E0309 20:00:32.406342       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/kube-aggregator/pkg/client/informers/internalversion/factory.go:73: Failed to list *apiregistration.APIService: the server was unable to return a response in the time allotted, but may still be processing the request (get apiservices.apiregistration.k8s.io)
E0309 20:00:32.408094       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.Pod: the server was unable to return a response in the time allotted, but may still be processing the request (get pods)
E0309 20:00:32.415692       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.PersistentVolume: the server was unable to return a response in the time allotted, but may still be processing the request (get persistentvolumes)
E0309 20:00:32.415818       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/apiextensions-apiserver/pkg/client/informers/internalversion/factory.go:73: Failed to list *apiextensions.CustomResourceDefinition: the server was unable to return a response in the time allotted, but may still be processing the request (get customresourcedefinitions.apiextensions.k8s.io)
E0309 20:00:32.415862       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *rbac.ClusterRoleBinding: the server was unable to return a response in the time allotted, but may still be processing the request (get clusterrolebindings.rbac.authorization.k8s.io)
E0309 20:00:32.415946       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Namespace: the server was unable to return a response in the time allotted, but may still be processing the request (get namespaces)
E0309 20:00:32.416029       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.ResourceQuota: the server was unable to return a response in the time allotted, but may still be processing the request (get resourcequotas)
E0309 20:00:32.416609       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *rbac.ClusterRole: the server was unable to return a response in the time allotted, but may still be processing the request (get clusterroles.rbac.authorization.k8s.io)
E0309 20:00:32.416684       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *rbac.RoleBinding: the server was unable to return a response in the time allotted, but may still be processing the request (get rolebindings.rbac.authorization.k8s.io)
E0309 20:00:32.420305       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Endpoints: the server was unable to return a response in the time allotted, but may still be processing the request (get endpoints)
E0309 20:00:32.440196       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *storage.StorageClass: the server was unable to return a response in the time allotted, but may still be processing the request (get storageclasses.storage.k8s.io)
E0309 20:00:32.440403       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: the server was unable to return a response in the time allotted, but may still be processing the request (get services)
E0309 20:00:32.448018       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *core.ServiceAccount: the server was unable to return a response in the time allotted, but may still be processing the request (get serviceaccounts)
E0309 20:00:32.448376       1 reflector.go:205] k8s.io/kubernetes/pkg/client/informers/informers_generated/internalversion/factory.go:85: Failed to list *rbac.Role: the server was unable to return a response in the time allotted, but may still be processing the request (get roles.rbac.authorization.k8s.io)
E0309 20:00:33.395988       1 storage_rbac.go:175] unable to initialize clusterroles: the server was unable to return a response in the time allotted, but may still be processing the request (get clusterroles.rbac.authorization.k8s.io)
I0309 20:00:43.455564       1 trace.go:76] Trace[375160879]: "Create /api/v1/nodes" (started: 2018-03-09 20:00:13.454506587 +0000 UTC m=+44.009475397) (total time: 30.001008377s):
Trace[375160879]: [30.001008377s] [30.000778516s] END

=============================================== ====================

LOG -AUSGABE FÜR gcr.io/google_containers/kube-controller-manager-amd64@sha256 :3ac295ae3e78af5c9f88164ae95097c2d7af03caddf067cb35599769d0b7251e

I0309 19:51:35.248083       1 controllermanager.go:108] Version: v1.9.3
I0309 19:51:35.257251       1 leaderelection.go:174] attempting to acquire leader lease...
E0309 19:51:38.310839       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:41.766358       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:46.025824       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:49.622916       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:52.675648       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:55.697734       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:51:59.348765       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:01.508487       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:03.886473       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:06.120356       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:08.844772       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:12.083789       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:16.038882       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:18.555388       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:21.471034       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:24.236724       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:27.363968       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:30.045776       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:32.751626       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:36.383923       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:38.910958       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:41.400748       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:44.268909       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:47.640891       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:51.713420       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:54.419154       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:52:57.134430       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:00.942903       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:03.440586       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:07.518362       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:53:12.968927       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:16.228760       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:18.299005       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:20.681915       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:24.141874       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:28.484775       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:30.678092       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:34.107654       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:36.251647       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:39.914756       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:42.641017       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:45.058876       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:48.359511       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:51.667554       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:54.338101       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:53:57.357894       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:00.633504       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:03.244353       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:05.923510       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:09.817627       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:12.688349       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:16.803954       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:19.519269       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:23.668226       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:25.903217       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:30.248639       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:32.428029       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:34.962675       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:38.598370       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:41.179039       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:43.927574       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:54:48.190961       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:51.974141       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:55.898687       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:54:59.653210       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:02.094737       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:05.125275       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:09.280324       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:12.920886       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:17.272605       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:21.488182       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:23.708198       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:26.893696       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:31.121014       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:35.414628       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:38.252001       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:41.912479       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:45.621133       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:48.976244       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:52.537317       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:55.863737       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:55:59.682009       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:02.653432       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:04.968939       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:09.336478       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:56:13.488850       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:56:16.262967       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:56:22.685928       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:26.235497       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:28.442915       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:32.051827       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:35.547277       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:38.437120       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:41.007877       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:44.295081       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:46.746424       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:49.321870       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:52.831866       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:55.138333       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:56:57.815491       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:00.802112       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:03.848363       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:07.350593       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:10.672982       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:14.171660       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:17.923995       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:21.919624       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:23.923165       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:27.692006       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:30.654447       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:33.851703       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:57:37.302382       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:40.286552       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:42.358940       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:44.364982       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:46.372569       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:50.571683       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:53.988093       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:57:57.648006       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:01.607961       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:05.717138       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:08.819600       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:12.262314       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:14.327626       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:18.359683       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:20.961212       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:24.503457       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:27.099581       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:29.518623       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:32.943210       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:36.900236       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:40.567479       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:42.642410       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:45.938839       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:50.282483       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:54.086558       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:58:56.794469       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:00.604370       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:02.968978       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:05.825551       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:09.824458       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:12.383249       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:15.891164       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:59:19.088375       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:59:21.305063       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:59:23.366258       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:59:26.308481       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: Get https://10.25.123.11:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:59:32.440045       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:36.673744       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:40.049109       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:43.463730       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:46.454431       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:49.782639       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:52.964468       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 19:59:57.265527       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:01.181219       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:03.441468       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:07.324053       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:10.269835       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:12.584906       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:15.042928       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:18.820764       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:22.392476       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:24.630702       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:27.881904       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:30.123513       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:32.490088       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:34.675420       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:37.433904       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:39.819475       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"
E0309 20:00:42.152164       1 leaderelection.go:224] error retrieving resource lock kube-system/kube-controller-manager: endpoints "kube-controller-manager" is forbidden: User "system:kube-controller-manager" cannot get endpoints in the namespace "kube-system"

=============================================== ====================

LOG -AUSGABE FÜR gcr.io/google_containers/kube-scheduler-amd64@sha256 :2c17e637c8e4f9202300bd5fc26bc98a7099f49559ca0a8921cf692ffd4a1675

W0309 19:51:34.800737       1 server.go:159] WARNING: all flags than --config are deprecated. Please begin using a config file ASAP.
I0309 19:51:34.812848       1 server.go:551] Version: v1.9.3
I0309 19:51:34.817093       1 server.go:570] starting healthz server on 127.0.0.1:10251
E0309 19:51:34.818028       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: Get https://10.25.123.11:6443/apis/policy/v1beta1/poddisruptionbudgets?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.818279       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: Get https://10.25.123.11:6443/api/v1/pods?fieldSelector=spec.schedulerName%3Ddefault-scheduler%2Cstatus.phase%21%3DFailed%2Cstatus.phase%21%3DSucceeded&limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.818346       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: Get https://10.25.123.11:6443/api/v1/persistentvolumeclaims?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.818408       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: Get https://10.25.123.11:6443/apis/apps/v1beta1/statefulsets?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.819028       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: Get https://10.25.123.11:6443/api/v1/services?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.819386       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: Get https://10.25.123.11:6443/api/v1/nodes?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.820217       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: Get https://10.25.123.11:6443/apis/extensions/v1beta1/replicasets?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.820659       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: Get https://10.25.123.11:6443/api/v1/persistentvolumes?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:34.821783       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: Get https://10.25.123.11:6443/api/v1/replicationcontrollers?limit=500&resourceVersion=0: dial tcp 10.25.123.11:6443: getsockopt: connection refused
E0309 19:51:38.320455       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:38.329101       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:38.329733       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:38.332670       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:38.332707       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:38.332734       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:38.334248       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:38.334568       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:38.334594       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:39.322884       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:39.331726       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:39.333093       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:39.335939       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:39.335988       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:39.336229       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:39.336514       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:39.337881       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:39.338784       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:40.323869       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:40.332910       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:40.334120       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:40.337188       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:40.338218       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:40.339267       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:40.340635       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:40.342035       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:40.343070       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:41.325987       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:41.334782       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:41.336320       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:41.338996       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:41.339923       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:41.340904       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:41.342304       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:41.343675       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:41.344622       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:42.328038       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:42.336744       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:42.338239       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:42.340719       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:42.341878       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:42.342835       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:42.344100       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:42.345231       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:42.346405       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:43.330230       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:43.338706       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:43.339941       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:43.342476       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:43.343584       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:43.344615       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:43.345792       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:43.346976       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:43.348050       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:44.332307       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:44.340659       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:44.341607       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:44.344223       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:44.345380       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:44.346247       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0309 19:51:44.347536       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0309 19:51:44.348664       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0309 19:51:44.349648       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0309 19:51:45.334228       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0309 19:51:45.342638       1 reflector.go:205] k8s.io/kubernetes/plugin/cmd/kube-scheduler/app/server.go:590: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0309 19:51:45.343460       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0309 19:51:45.345969       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0309 19:51:45.347140       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0309 19:51:45.348176       1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:86: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope

=============================================== ====================

LOG-AUSGABE FÜR gcr.io/google_containers/pause-amd64:3.0

=============================================== ====================

LOG-AUSGABE FÜR gcr.io/google_containers/pause-amd64:3.0

=============================================== ====================

LOG-AUSGABE FÜR gcr.io/google_containers/pause-amd64:3.0

=============================================== ====================

LOG-AUSGABE FÜR gcr.io/google_containers/pause-amd64:3.0

=============================================== ====================

+1
Aktualisieren:
Nachdem ich alles durchgesehen hatte, was ich konnte (ich bin ein bisschen neu bei k8s), fand ich schließlich heraus, dass kubectl describe pod -n kube-system kube-dns-<sha> zeigte, dass der virtuelle Server, auf dem ich installierte, nur 1 CPU hatte und der kube-dns nicht fällig gestartet wurde zu Mangel an CPUs. Seltsamerweise zeigte das kubectl logs pod -n kube-system kube-dns-<sha> diese Information nicht.

Es funktionierte nach einer Neuinstallation des Betriebssystems (da ein Neustart nach der Installation von kubeadm dazu führt, dass der k8s-Master nicht ordnungsgemäß startet).
(Entschuldigung, dass ich vergessen habe, die Ausgabe zu erfassen)

+1

Ich hatte das gleiche Problem, abgebrochen und reset und dann das gleiche init wie zuvor, aber mit --apiserver-advertise-address=<my_host_public_ip_address> - und es hat funktioniert.

https://github.com/kubernetes/kubernetes/issues/59680#issuecomment -364646304
Selinux deaktivieren hat mir geholfen.

Ein Downgrade auf 1.8.10 hat das Problem für mich behoben.

+1

+1

Dasselbe Problem hier mit v1.9.3 auf Ubuntu 16.04 (kein Selinux)

+1 gleiches Problem

Gleiches Problem mit v1.10 auf Ubuntu 16.04 auf arm64.

gleiches Problem mit v1.10 auf Ubuntu 16.04 auf arm64 (kein Selinux)

Überprüfen Sie die Anzahl der CPUs, die Sie auf der von Ihnen installierten Hadware haben - 2 sind auf dem Master erforderlich, um sie zu installieren, wie ich oben vor etwas mehr als 3 Wochen geschrieben habe.

@bbruun Die verwendete Hardware ist: https://www.pine64.org/?page_id=1491 also 4 Kerne und sie werden richtig als solche erkannt. An der Hardware sollte es dann nicht liegen. Aber trotzdem danke für den Tipp. Vielleicht verwendet @qxing3 aber nicht die gleiche Hardware ...

@farfeduc , es war die Straßensperre, auf die ich gestoßen bin, mehrere Versuche hintereinander mit der Neuinstallation meiner virtuellen Maschine, um die Installation zu testen und k8s kennenzulernen, aber es ist ein Problem, verwendbare Protokolle aus dem System zu bekommen, und ich habe versucht, sie von überall her zu bekommen, wo ich konnte bis ich eine Meldung bekam, dass nicht genügend CPUs verfügbar sind. Jetzt habe ich 3 Udoo x86 Ultras gekauft, um einen kleinen Cluster zu betreiben, um zu Hause zusammen mit der Arbeit zu spielen, wo wir etwas größere Instanzen verwenden :-)

@bbruun Ich habe 2 CPUs für meine virtuelle Maschine konfiguriert, trotzdem danke für den Tipp.

/zuweisen @liztio

+1

+1 v1.10.0

+1 v1.10.0 und 1.10.1

+1

Interessanterweise finde ich Deltas, je nachdem, wo ich sie einsetze. Ich hoffe, dass ich Zeit finde, um weiter zu forschen, aber bisher weiß ich das. Wenn ich meinen Mac/VMware Fusion verwende und CentOS 7-VMs ausführe, kann ich kubeadm 1.8 mit vollem Erfolg verwenden. Ich habe v1.9 oder v1.10 nie dazu gebracht, lokal zu arbeiten. Wenn ich jedoch CentOS 7-Images bei Digital Ocean verwende, kann ich v1.8.x, v1.10.0 und v1.10.1 erfolgreich ausführen; v1.9 scheint aus irgendeinem Grund "nur abzuhängen". Jetzt geht es also darum, in die feinen Deltas zwischen den beiden Umgebungen einzudringen, um herauszufinden, was den Schalter umlegt. Ich weiß, dass die Kernel-/Patch-Level übereinstimmen, ebenso wie die Docker-Engines usw. DO installiert Cloud-Init-Sachen, meine lokalen VMs nicht und so weiter und so weiter. Nicht trivial herauszufinden, was anders ist. Ich ging so weit, zu versuchen, die Festplattengrößen anzupassen (ich dachte, eine kleinere Festplatte könnte irgendwo einen Fehler verbergen, aber auch das beseitigt haben).

In allen Fällen hat das Abrufen der Bilder immer funktioniert, es geht nur darum, den API-Dienst dazu zu bringen, zu reagieren und nicht alle paar Minuten zu recyceln, wenn es fehlschlägt.

Grüße,

Sie können auf https://docs.docker.com/config/daemon/systemd/#httphttps -proxy verweisen, um den Proxy für den Docker-Daemon festzulegen.

+1 Läuft auf HypriotOS auf Raspberry PI 3

Ich konnte es zum Laufen bringen, indem ich v1.9.6 anstelle der letzten Version installierte.
Es funktioniert also normal mit v1.9.6, schlägt aber mit v1.10.0 und v1.10.1 auf Ubuntu 16.04 auf arm64 auf Sopine-Boards fehl.

Ich habe das gleiche Problem auf Raspberry Pi 3, HypriotOS. Ein Downgrade auf 1.9.7-00 hat bei mir auch funktioniert.

+1, kubeadm v1.10.1, Himbeer-Pi 3b, hypriotOS

In meinem Fall stellte ich fest, dass der etcd-Container gestartet und dann mit einem Fehler beendet wurde, und dies führte dazu, dass kubeadm init hängen blieb und schließlich eine Zeitüberschreitung aufwies.

Um zu überprüfen, ob Sie das stört, führen Sie docker ps -a aus und überprüfen Sie den Status des etcd-Containers. Wenn es nicht läuft, überprüfen Sie die Protokolle für den etcd-Container ( docker logs <container-id> ) und sehen Sie nach, ob es sich darüber beschwert, dass es nicht möglich ist, sich an eine Adresse zu binden. Siehe diesen Problembericht: https://github.com/kubernetes/kubernetes/issues/57709

Das Problem, das ich gerade erwähnt habe, hat eine Problemumgehung, aber stellen Sie sicher, dass Sie zuerst darauf stoßen.

Stellen Sie sicher, dass Ihre Firewall eingehenden Datenverkehr auf 6443

Wenn Sie beispielsweise Ubuntu verwenden, führen Sie ufw status aus, um zu sehen, ob es aktiviert ist

Dann ufw allow 6443 um den Port zu öffnen

Ist es möglich, die Bilder unten aufzulisten, und wir ziehen sie manuell per Proxy, dann initieren Sie die kubeadm erneut.
wird es funktionieren?
Weil wir in China sind, weißt du, die GFW.
Und ich bin neu bei k8s und stecke hier fest, als ich auf centos7 eingerichtet habe.

@thanch2n vielen Dank. Ich werde es versuchen.

Ich habe einen Proxy zum Docker hinzugefügt, mit diesem scheinen die Bilder alle bereits heruntergeladen worden zu sein, aber immer noch hängen zu bleiben "[init] Dies könnte eine Minute oder länger dauern, wenn die Bilder der Steuerungsebene gezogen werden müssen.".

listen Sie die automatisch gezogenen Bilder unten auf.

k8s.gcr.io/kube-apiserver-amd64 v1.10.2 e774f647e259 vor 2 Wochen 225 MB
k8s.gcr.io/kube-scheduler-amd64 v1.10.2 0dcb3dea0db1 vor 2 Wochen 50,4 MB
k8s.gcr.io/kube-controller-manager-amd64 v1.10.2 f3fcd0775c4e vor 2 Wochen 148 MB
k8s.gcr.io/etcd-amd64 3.1.12 52920ad46f5b vor 2 Monaten 193 MB
k8s.gcr.io/pause-amd64 3.1 da86e6ba6ca1 vor 4 Monaten 742 kB

Ich habe so viel Zeit damit verbracht, das herauszufinden. Ich habe ufw deaktiviert, Selinux ausgeschaltet, sichergestellt, dass die IP-Weiterleitung aktiviert ist und auch /proc/sys/net/bridge/bridge-nf-call-iptables auf 1 gesetzt ist. Nichts schien das Problem zu lösen.

Schließlich entschied ich mich für ein Downgrade und dann für ein Upgrade.

sudo apt-get -y --allow-downgrades install kubectl=1.5.3-00 kubelet=1.5.3-00 kubernetes-cni=0.3.0.1-07a8a2-00 und

curl -Lo /tmp/old-kubeadm.deb https://apt.k8s.io/pool/kubeadm_1.6.0-alpha.0.2074-a092d8e0f95f52-00_amd64_0206dba536f698b5777c7d210444a8ace18f48e045ab78687327631c6c694f42.deb

von 1.10 downgraden und dann eben

sudo apt-get -y install kubectl kubelet kubernetes-cni kubeadm

Etcd wurde neu gestartet und der API-Server hatte eine Zeitüberschreitung. Nach einiger Zeit startet der API-Server neu und beschwert sich, dass er keine Verbindung herstellen kann. Gibt es eine Möglichkeit, die Protokollierung auf DEBUG-Ebene zu aktivieren? Jetzt sicher, was dies verursacht. Aber es funktioniert jetzt. Ich würde das auf jeden Fall gerne reproduzieren und beheben.

Ich habe den Grund, warum ich hängengeblieben bin.
Ich führe es in VMware aus und habe 1 GB RAM, k8s benötigt mindestens 2 GB RAM.
Gibt es eine Möglichkeit, eine Benachrichtigung dazu hinzuzufügen?

+1 kubeadm 1.10.2 auf CentOS 7
4 GB RAM 2 CPUs

+1 kubeadm 1.10.1 auf Debian Stretch (go1.9.3) auf einer HyperV-VM mit 6 GB RAM und 1 VCPU...

Es hatte in der Vergangenheit gut funktioniert, da ich den Cluster viele Male neu generiert hatte ...

Habe versucht, in HyperV auf 2 VCPUs umzuschalten, nichts ändert sich.

+1 !

+1. kubeadm 1.10.1, Debian-Stretch. Vorher gearbeitet

Festgestellt, dass wir mit Docker 1.13.1 auf Centos 7 Probleme mit dem Speichertreiber gesehen haben. Docker-Protokolle zeigten „readlink /var/lib/docker/overlay2/l: ungültiges Argument“. Der Wechsel zu Docker 18.03.1-ce scheint dieses Problem zu lösen und kubeadm init hängt nicht mehr.

Ich hatte das gleiche Problem. Es stellte sich heraus, dass etcd den Hostnamen des Linux-Rechners (somedomain.example.com) zog, auf einem DNS-Server danach suchte, eine Antwort für die Wildcard-Domain (*.example.com) fand und versuchte, sich an die zurückgegebene IP-Adresse statt an die zu binden apiserver-Advertise-Adresse.

Es gab eine Reihe von Korrekturen für das Pre-Pull sowie die Pivot-Timeout-Erkennung, sodass dieses Problem geschlossen wird.

+1

Versuchte die Standardmethode, k8sadmin die Bilder herunterziehen zu lassen, viele Male versucht, dann die Bilder gezogen, zurückgesetzt, versucht, die Fehler zu ignorieren, immer fehlgeschlagen.

pi@master-node-001 :~ $ sudo kubeadm reset
[reset] WARNUNG: Änderungen, die von „kubeadm init“ oder „kubeadm join“ an diesem Host vorgenommen wurden, werden rückgängig gemacht.
[preflight] Durchführung von Preflight-Checks
[reset] stoppt den Kubelet-Dienst
[reset] Unmounten von gemounteten Verzeichnissen in „/var/lib/kubelet“
[reset] Inhalt von Stateful-Verzeichnissen löschen: [/var/lib/kubelet /etc/cni/net.d /var/lib/dockershim /var/run/kubernetes /var/lib/etcd]
[reset] Inhalt von Konfigurationsverzeichnissen löschen: [/etc/kubernetes/manifests /etc/kubernetes/pki]
[reset] Löschen von Dateien: [/etc/kubernetes/admin.conf /etc/kubernetes/kubelet.conf /etc/kubernetes/bootstrap-kubelet.conf /etc/kubernetes/controller-manager.conf /etc/kubernetes/scheduler. conf]
pi@master-node-001 :~ $ kubeadm config images pull
[config/images] k8s.gcr.io/kube- apiserver:v1.12.2 gezogen
[config/images] Pulled k8s.gcr.io/kube-controller-manager:v1.12.2
[config/images] k8s.gcr.io/kube-scheduler:v1.12.2 gezogen
[config/images] Pulled k8s.gcr.io/kube-proxy:v1.12.2
[config/images] Gezogenes k8s.gcr.io/ pause:3.1
[config/images] k8s.gcr.io/etcd:3.2.24 gezogen
[config/images] k8s.gcr.io/coredns:1.2.2 gezogen
pi@master-node-001 :~ $ sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all
[init] mit Kubernetes-Version: v1.12.2
[preflight] Durchführung von Preflight-Checks
[preflight/images] Abrufen von Images, die zum Einrichten eines Kubernetes-Clusters erforderlich sind
[Preflight/Bilder] Dies kann je nach Geschwindigkeit Ihrer Internetverbindung ein oder zwei Minuten dauern
[preflight/images] Sie können diese Aktion auch vorher mit „kubeadm config images pull“ ausführen.
[kubelet] Kubelet-Umgebungsdatei mit Flags in die Datei „/var/lib/kubelet/kubeadm-flags.env“ schreiben
[kubelet] Kubelet-Konfiguration in Datei „/var/lib/kubelet/config.yaml“ schreiben
[Preflight] Aktivieren des Kubelet-Dienstes
[Zertifikate] Generiertes etcd/ca-Zertifikat und Schlüssel.
[Zertifikate] Generiertes apiserver-etcd-client-Zertifikat und Schlüssel.
[Zertifikate] Generiertes etcd/Server-Zertifikat und Schlüssel.
[Zertifikate] etcd/serverserving cert ist signiert für DNS-Namen [master-node-001 localhost] und IPs [127.0.0.1 ::1]
[Zertifikate] Generiertes etcd/Peer-Zertifikat und Schlüssel.
[Zertifikate] Etcd/Peer-Serving-Zertifikat ist signiert für DNS-Namen [master-node-001 localhost] und IPs [192.168.0.100 127.0.0.1 ::1]
[Zertifikate] Generiertes etcd/healthcheck-client-Zertifikat und Schlüssel.
[Zertifikate] Generiertes CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes apiserver-Zertifikat und Schlüssel.
[Zertifikate] Apiserver-Serving-Zertifikat ist signiert für DNS-Namen [master-node-001 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] und IPs [10.96.0.1 192.168.0.100]
[Zertifikate] Generiertes apiserver-kubelet-client-Zertifikat und Schlüssel.
[Zertifikate] Generiertes Front-Proxy-CA-Zertifikat und Schlüssel.
[Zertifikate] Generiertes Front-Proxy-Client-Zertifikat und Schlüssel.
[Zertifikate] gültige Zertifikate und Schlüssel existieren jetzt in „/etc/kubernetes/pki“
[Zertifikate] SA-Schlüssel und öffentlichen Schlüssel generiert.
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „/etc/kubernetes/admin.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „/etc/kubernetes/kubelet.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „/etc/kubernetes/controller-manager.conf“
[kubeconfig] KubeConfig-Datei auf Festplatte geschrieben: „/etc/kubernetes/scheduler.conf“
[controlplane] hat das statische Pod-Manifest für die Komponente kube-apiserver in „/etc/kubernetes/manifests/kube-apiserver.yaml“ geschrieben.
[controlplane] hat das statische Pod-Manifest für die Komponente kube-controller-manager in „/etc/kubernetes/manifests/kube-controller-manager.yaml“ geschrieben.
[controlplane] hat das statische Pod-Manifest für die Komponente kube-scheduler in „/etc/kubernetes/manifests/kube-scheduler.yaml“ geschrieben.
[etcd] Statisches Pod-Manifest für eine lokale etcd-Instanz in „/etc/kubernetes/manifests/etcd.yaml“ geschrieben
[init] wartet darauf, dass das Kubelet die Steuerungsebene als statische Pods aus dem Verzeichnis „/etc/kubernetes/manifests“ hochfährt
[init] Dies kann eine Minute oder länger dauern, wenn die Bilder der Steuerebene gezogen werden müssen

Leider ist ein Fehler aufgetreten:
Zeitüberschreitung beim Warten auf die Bedingung

Dieser Fehler wird wahrscheinlich verursacht durch:
- Das Kubelet läuft nicht
- Das Kubelet ist aufgrund einer Fehlkonfiguration des Knotens in irgendeiner Weise fehlerhaft (erforderliche cgroups deaktiviert)

Wenn Sie sich auf einem systemd-betriebenen System befinden, können Sie versuchen, den Fehler mit den folgenden Befehlen zu beheben:
- 'systemctl status kubelet'
- 'journalctl -xeu kubelet'

Darüber hinaus kann eine Komponente der Steuerungsebene abgestürzt oder beendet worden sein, als sie von der Containerlaufzeit gestartet wurde.
Listen Sie zur Fehlerbehebung alle Container mit Ihrer bevorzugten Container-Laufzeit-CLI auf, z. B. Docker.
Hier ist ein Beispiel, wie Sie alle Kubernetes-Container auflisten können, die im Docker ausgeführt werden:
- 'docker ps -a | grep kube | grep -v Pause'
Sobald Sie den fehlerhaften Container gefunden haben, können Sie seine Protokolle überprüfen mit:
- 'Docker-Protokolle CONTAINERID'
konnte einen Kubernetes-Cluster nicht initialisieren
pi@master-node-001 :~ $ Docker-Bilder
REPOSITORY-TAG-BILD-ID ERSTELLTE GRÖSSE
k8s.gcr.io/kube-controller-manager v1.12.2 4bc6cae738d8 vor 7 Tagen 146MB
k8s.gcr.io/kube-apiserver v1.12.2 8bfe044a05e1 vor 7 Tagen 177 MB
k8s.gcr.io/kube-scheduler v1.12.2 3abf5566fec1 vor 7 Tagen 52MB
k8s.gcr.io/kube-proxy v1.12.2 328ef67ca54f vor 7 Tagen 84,5 MB
k8s.gcr.io/kube-proxy v1.12.1 8c06fbe56458 vor 3 Wochen 84,7 MB
k8s.gcr.io/kube-controller-manager v1.12.1 5de943380295 vor 3 Wochen 146MB
k8s.gcr.io/kube-scheduler v1.12.1 1fbc2e4cd378 vor 3 Wochen 52MB
k8s.gcr.io/kube-apiserver v1.12.1 ab216fe6acf6 vor 3 Wochen 177 MB
k8s.gcr.io/etcd 3.2.24 e7a8884c8443 vor 5 Wochen 222MB
k8s.gcr.io/coredns 1.2.2 ab0805b0de94 vor 2 Monaten 33,4 MB
k8s.gcr.io/kube-scheduler v1.11.0 0e4a34a3b0e6 vor 4 Monaten 56,8 MB
k8s.gcr.io/kube-controller-manager v1.11.0 55b70b420785 vor 4 Monaten 155 MB
k8s.gcr.io/etcd 3.2.18 b8df3b177be2 vor 6 Monaten 219MB
k8s.gcr.io/pause 3.1 e11a8cbeda86 vor 10 Monaten 374kB
pi@master-node-001 :~ $ h | grep kubectl
-bash: h: Befehl nicht gefunden
pi@master-node-001 :~ $ Geschichte | grep kubectl
9 kubectl-Pods-Liste
10 kubectl-Listen-Pods
11 kubectl --Hilfe
12 kubectl get pods -o wide
14 kubectl get pods -o wide
32 Std. | grep kubectl
33 Geschichte | grep kubectl
pi@master-node-001 :~ $ !12
kubectl get pods -o wide
Es kann keine Verbindung zum Server hergestellt werden: net/http: Zeitüberschreitung beim TLS-Handshake
pi@master-node-001 :~ $ Geschichte | grep pause
17 docker-ps -a | grep kube | grep -v Pause
35 Geschichte | grep pause
pi@master-node-001 :~ $ !17
docker ps -a | grep kube | grep -v Pause
41623613679e 8bfe044a05e1 "kube-apiserver --au…" vor 29 Sekunden Nach oben 14 Sekunden k8s_kube-apiserver_kube-apiserver-master-node-001_kube-system_1ec53f8ef96c76af95c78c809252f05c_3
0870760b9ea0 8bfe044a05e1 "kube-apiserver --au…" vor 2 Minuten Beendet (0) vor 33 Sekunden k8s_kube-apiserver_kube-apiserver-master-node-001_kube-system_1ec53f8ef96c76af95c78c809252f05c_2
c60d65fab8a7 3abf5566fec1 "kube-scheduler --ad…" vor 6 Minuten nach oben 5 Minuten k8s_kube-scheduler_kube-scheduler-master-node-001_kube-system_ee7b1077c61516320f4273309e9b4690_0
26c58f6c68e9 e7a8884c8443 "etcd --advertise-cl…" vor 6 Minuten Nach oben 5 Minuten k8s_etcd_etcd-master-node-001_kube-system_d01dcc7fc79b875a52f01e26432e6745_0
65546081ca77 4bc6cae738d8 "kube-controller-man…" vor 6 Minuten nach oben 5 Minuten k8s_kube-controller-manager_kube-controller-manager-master-node-001_kube-system_07e19bc9fea1626927c12244604bdb2f_0
pi@master-node-001 :~ $ kubectl get pods -o wide
^C
pi@master-node-001 :~ $ sudo reboot
Verbindung zu 192.168.0.100 vom entfernten Host geschlossen.
Verbindung zu 192.168.0.100 geschlossen.
karl@karl-PL62-7RC :~$ ping 192.168.0.100
PING 192.168.0.100 (192.168.0.100) 56(84) Datenbytes.
^C
--- 192.168.0.100 Ping-Statistiken ---
2 Pakete gesendet, 0 empfangen, 100 % Paketverlust, Zeit 1015 ms

karl@karl-PL62-7RC :~$ ssh [email protected]
ssh_exchange_identification: lesen: Verbindungsrücksetzung durch Peer
karl@karl-PL62-7RC :~$ ssh [email protected]
[email protected] 's Passwort:
Linux master-node-001 4.14.71-v7+ #1145 SMP Fr Sep 21 15:38:35 BST 2018 armv7l

Die im Debian GNU/Linux-System enthaltenen Programme sind freie Software;
die genauen Vertriebsbedingungen für jedes Programm sind im beschrieben
einzelne Dateien in /usr/share/doc/*/copyright.

Debian GNU/Linux kommt mit ABSOLUT KEINER GARANTIE, soweit
nach geltendem Recht zulässig.
Letzter Login: Mi 31. Okt 21:36:13 2018
pi@master-node-001 :~ $ kubectl get pods -o wide
Die Verbindung zum Server 192.168.0.100:6443 wurde abgelehnt - haben Sie den richtigen Host oder Port angegeben?
pi@master-node-001 :~ $ sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all
[init] mit Kubernetes-Version: v1.12.2
[preflight] Durchführung von Preflight-Checks
[WARNUNG FileAvailable--etc-kubernetes-manifests-kube-apiserver.yaml]: /etc/kubernetes/manifests/kube-apiserver.yaml ist bereits vorhanden
[WARNUNG FileAvailable--etc-kubernetes-manifests-kube-controller-manager.yaml]: /etc/kubernetes/manifests/kube-controller-manager.yaml ist bereits vorhanden
[WARNUNG FileAvailable--etc-kubernetes-manifests-kube-scheduler.yaml]: /etc/kubernetes/manifests/kube-scheduler.yaml ist bereits vorhanden
[WARNUNG FileAvailable--etc-kubernetes-manifests-etcd.yaml]: /etc/kubernetes/manifests/etcd.yaml ist bereits vorhanden
[WARNUNG Port-10250]: Port 10250 wird verwendet
[WARNUNG DirAvailable--var-lib-etcd]: /var/lib/etcd ist nicht leer
[preflight/images] Abrufen von Images, die zum Einrichten eines Kubernetes-Clusters erforderlich sind
[Preflight/Bilder] Dies kann je nach Geschwindigkeit Ihrer Internetverbindung ein oder zwei Minuten dauern
[preflight/images] Sie können diese Aktion auch vorher mit „kubeadm config images pull“ ausführen.
[kubelet] Kubelet-Umgebungsdatei mit Flags in die Datei „/var/lib/kubelet/kubeadm-flags.env“ schreiben
[kubelet] Kubelet-Konfiguration in Datei „/var/lib/kubelet/config.yaml“ schreiben
[Preflight] Aktivieren des Kubelet-Dienstes
[Zertifikate] Verwenden des vorhandenen etcd/Peer-Zertifikats und -Schlüssels.
[Zertifikate] Verwenden des vorhandenen Zertifikats und Schlüssels von apiserver-etcd-client.
[Zertifikate] Verwenden des vorhandenen etcd/Server-Zertifikats und -Schlüssels.
[Zertifikate] Verwenden des vorhandenen etcd/healthcheck-client-Zertifikats und -Schlüssels.
[Zertifikate] Verwenden des vorhandenen apiserver-Zertifikats und -Schlüssels.
[Zertifikate] Verwenden des vorhandenen apiserver-kubelet-client-Zertifikats und -Schlüssels.
[Zertifikate] Verwenden des vorhandenen Front-Proxy-Client-Zertifikats und -Schlüssels.
[Zertifikate] gültige Zertifikate und Schlüssel existieren jetzt in „/etc/kubernetes/pki“
[Zertifikate] Verwenden des vorhandenen sa-Schlüssels.
[kubeconfig] Vorhandene aktuelle KubeConfig-Datei verwenden: „/etc/kubernetes/admin.conf“
[kubeconfig] Vorhandene aktuelle KubeConfig-Datei verwenden: „/etc/kubernetes/kubelet.conf“
[kubeconfig] Vorhandene aktuelle KubeConfig-Datei verwenden: „/etc/kubernetes/controller-manager.conf“
[kubeconfig] Vorhandene aktuelle KubeConfig-Datei verwenden: „/etc/kubernetes/scheduler.conf“
[controlplane] hat das statische Pod-Manifest für die Komponente kube-apiserver in „/etc/kubernetes/manifests/kube-apiserver.yaml“ geschrieben.
[controlplane] hat das statische Pod-Manifest für die Komponente kube-controller-manager in „/etc/kubernetes/manifests/kube-controller-manager.yaml“ geschrieben.
[controlplane] hat das statische Pod-Manifest für die Komponente kube-scheduler in „/etc/kubernetes/manifests/kube-scheduler.yaml“ geschrieben.
[etcd] Statisches Pod-Manifest für eine lokale etcd-Instanz in „/etc/kubernetes/manifests/etcd.yaml“ geschrieben
[init] wartet darauf, dass das Kubelet die Steuerungsebene als statische Pods aus dem Verzeichnis „/etc/kubernetes/manifests“ hochfährt
[init] Dies kann eine Minute oder länger dauern, wenn die Bilder der Steuerebene gezogen werden müssen

Leider ist ein Fehler aufgetreten:
Zeitüberschreitung beim Warten auf die Bedingung

Dieser Fehler wird wahrscheinlich verursacht durch:
- Das Kubelet läuft nicht
- Das Kubelet ist aufgrund einer Fehlkonfiguration des Knotens in irgendeiner Weise fehlerhaft (erforderliche cgroups deaktiviert)

Wenn Sie sich auf einem systemd-betriebenen System befinden, können Sie versuchen, den Fehler mit den folgenden Befehlen zu beheben:
- 'systemctl status kubelet'
- 'journalctl -xeu kubelet'

Darüber hinaus kann eine Komponente der Steuerungsebene abgestürzt oder beendet worden sein, als sie von der Containerlaufzeit gestartet wurde.
Listen Sie zur Fehlerbehebung alle Container mit Ihrer bevorzugten Container-Laufzeit-CLI auf, z. B. Docker.
Hier ist ein Beispiel, wie Sie alle Kubernetes-Container auflisten können, die im Docker ausgeführt werden:
- 'docker ps -a | grep kube | grep -v Pause'
Sobald Sie den fehlerhaften Container gefunden haben, können Sie seine Protokolle überprüfen mit:
- 'Docker-Protokolle CONTAINERID'
konnte einen Kubernetes-Cluster nicht initialisieren

13 sudo kubeadm init --token-ttl=0
14 kubectl get pods -o wide
15 sudo kubeadm zurückgesetzt
16 sudo kubeadm init --token-ttl=0
17 docker-ps -a | grep kube | grep -v Pause
18 kubeadm-Konfigurationsimages ziehen --kubernetes-version=v1.11.0
19 sudo kubeadm zurückgesetzt
20 Verlauf > Notizen.txt
21 weitere Notizen.txt
22 sudo-Neustart
23 Liste der kubeadm-Konfigurationsbilder
24 kubeadm-Konfigurationsimages ziehen --kubernetes-version=v1.11.0
25 sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all
26 kubeadm-Konfigurations-Images ziehen
27 sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all
28 kubeadm-Konfigurations-Images ziehen
29 sudo kubeadm zurückgesetzt
30 kubeadm-Konfigurationsimages ziehen
31 sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all
32 Docker-Images
33 Std. | grep kubectl
34 Geschichte | grep kubectl
35 kubectl erhalten Pods -o breit
36 Geschichte | grep pause
37 docker-ps -a | grep kube | grep -v Pause
38 kubectl bekommt Pods -o wide
39 sudo-Neustart
40 kubectl get pods -o wide
41 sudo kubeadm init --token-ttl=0 --ignore-preflight-errors=all

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen