рдмрдЧ рд░рд┐рдкреЛрд░реНрдЯ
apt-get update/upgrade
рдареАрдХ рдмрд╛рджредkubeadm init --pod-network-cidr=10.244.0.0/16
ред рдФрд░ рдлрд┐рд░ рд╕реБрдЭрд╛рдП рдЧрдП рдЖрджреЗрд╢реЛрдВ рдХреЛ рдирд┐рд╖реНрдкрд╛рджрд┐рдд рдХрд┐рдпрд╛редsysctl net.bridge.bridge-nf-call-iptables=1
редwget https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
редvim kube-flannel.yml
, amd64
рдХреЛ arm64
рдмрджрд▓реЗрдВkubectl apply -f kube-flannel.yml
редkubectl get pods --all-namespaces
:NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-ls44z 1/1 Running 0 20m
kube-system coredns-78fcdf6894-njnnt 1/1 Running 0 20m
kube-system etcd-devstats.team.io 1/1 Running 0 20m
kube-system kube-apiserver-devstats.team.io 1/1 Running 0 20m
kube-system kube-controller-manager-devstats.team.io 1/1 Running 0 20m
kube-system kube-flannel-ds-v4t8s 1/1 Running 0 13m
kube-system kube-proxy-5825g 1/1 Running 0 20m
kube-system kube-scheduler-devstats.team.io 1/1 Running 0 20m
рдлрд┐рд░ kubeadm init
рдЖрдЙрдЯрдкреБрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рджреЛ AMD64 рдиреЛрдбреНрд╕ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реЛ рдЧрдП:
рдкрд╣рд▓рд╛ рдиреЛрдб:
[preflight] running pre-flight checks
[WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs:{} ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{}]
you can solve this problem with following methods:
1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support
I0802 10:26:49.987467 16652 kernel_validator.go:81] Validating kernel version
I0802 10:26:49.987709 16652 kernel_validator.go:96] Validating kernel config
[WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "cncftest.io" as an annotation
This node has joined the cluster:
* Certificate signing request was sent to master and a response
was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the master to see this node join the cluster.
рджреВрд╕рд░рд╛ рдиреЛрдб:
[preflight] running pre-flight checks
[WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{} ip_vs:{}]
you can solve this problem with following methods:
1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support
I0802 10:26:58.913060 38617 kernel_validator.go:81] Validating kernel version
I0802 10:26:58.913222 38617 kernel_validator.go:96] Validating kernel config
[WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "devstats.cncf.io" as an annotation
This node has joined the cluster:
* Certificate signing request was sent to master and a response
was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the master to see this node join the cluster.
рд▓реЗрдХрд┐рди рдорд╛рд╕реНрдЯрд░ рдкрд░ kubectl get nodes
:
NAME STATUS ROLES AGE VERSION
cncftest.io NotReady <none> 7m v1.11.1
devstats.cncf.io NotReady <none> 7m v1.11.1
devstats.team.io Ready master 21m v1.11.1
рдФрд░ рдлрд┐рд░: kubectl describe nodes
(рдорд╛рд╕реНрдЯрд░ рд╣реИ devstats.team.io
, рдиреЛрдбреНрд╕ рд╣реИрдВ: cncftest.io
рдФрд░ devstats.cncf.io
):
Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=cncftest.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:26:53 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.205.79
Hostname: cncftest.io
Capacity:
cpu: 48
ephemeral-storage: 459266000Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264047752Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 423259544900
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263945352Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 4C4C4544-0052-3310-804A-B7C04F4E4432
Boot ID: d87670d9-251e-42a5-90c5-5d63059f03ab
Kernel Version: 4.15.0-22-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.1.0/24
Non-terminated Pods: (0 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 0 (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 8m kubelet, cncftest.io Starting kubelet.
Normal NodeHasSufficientDisk 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 8m kubelet, cncftest.io Updated Node Allocatable limit across pods
Name: devstats.cncf.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.cncf.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:27:00 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.78.47
Hostname: devstats.cncf.io
Capacity:
cpu: 48
ephemeral-storage: 142124052Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264027220Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 130981526107
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263924820Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 00000000-0000-0000-0000-0CC47AF37CF2
Boot ID: f257b606-5da2-43fd-8782-0aa4484037f4
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.2.0/24
Non-terminated Pods: (0 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 0 (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 7m kubelet, devstats.cncf.io Starting kubelet.
Normal NodeHasSufficientDisk 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 7m kubelet, devstats.cncf.io Updated Node Allocatable limit across pods
Name: devstats.team.io
Roles: master
Labels: beta.kubernetes.io/arch=arm64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.team.io
node-role.kubernetes.io/master=
Annotations: flannel.alpha.coreos.com/backend-data={"VtepMAC":"9a:7f:81:2c:4e:16"}
flannel.alpha.coreos.com/backend-type=vxlan
flannel.alpha.coreos.com/kube-subnet-manager=true
flannel.alpha.coreos.com/public-ip=147.75.97.234
kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:12:56 +0000
Taints: node-role.kubernetes.io/master:NoSchedule
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready True Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:21:07 +0000 KubeletReady kubelet is posting ready status. AppArmor enabled
Addresses:
InternalIP: 147.75.97.234
Hostname: devstats.team.io
Capacity:
cpu: 96
ephemeral-storage: 322988584Ki
hugepages-2Mi: 0
memory: 131731468Ki
pods: 110
Allocatable:
cpu: 96
ephemeral-storage: 297666278522
hugepages-2Mi: 0
memory: 131629068Ki
pods: 110
System Info:
Machine ID: 5eaa89a81ff348399284bb4cb016ffd7
System UUID: 10000000-FAC5-FFFF-A81D-FC15B4970493
Boot ID: 43b920e3-34e7-4de3-aa6c-8b5c525363ff
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: arm64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.0.0/24
Non-terminated Pods: (8 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system coredns-78fcdf6894-ls44z 100m (0%) 0 (0%) 70Mi (0%) 170Mi (0%)
kube-system coredns-78fcdf6894-njnnt 100m (0%) 0 (0%) 70Mi (0%) 170Mi (0%)
kube-system etcd-devstats.team.io 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-apiserver-devstats.team.io 250m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-controller-manager-devstats.team.io 200m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-flannel-ds-v4t8s 100m (0%) 100m (0%) 50Mi (0%) 50Mi (0%)
kube-system kube-proxy-5825g 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-scheduler-devstats.team.io 100m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 850m (0%) 100m (0%)
memory 190Mi (0%) 390Mi (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 23m kubelet, devstats.team.io Starting kubelet.
Normal NodeAllocatableEnforced 23m kubelet, devstats.team.io Updated Node Allocatable limit across pods
Normal NodeHasSufficientPID 23m (x5 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientPID
Normal NodeHasSufficientDisk 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasNoDiskPressure
Normal Starting 21m kube-proxy, devstats.team.io Starting kube-proxy.
Normal NodeReady 13m kubelet, devstats.team.io Node devstats.team.io status is now: NodeReady
рдХреБрдмреЗрджрдо рд╕рдВрд╕реНрдХрд░рдг ( kubeadm version
):
kubeadm version: &version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:50:16Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
рдкрд░реНрдпрд╛рд╡рд░рдг :
kubectl version
):Client Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:53:20Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
Server Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:43:26Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
uname -a
: Linux devstats.team.io 4.15.0-20-рдЬреЗрдиреЗрд░рд┐рдХ #21-рдЙрдмрдВрдЯреВ SMP рдордВрдЧрд▓ рдЕрдкреНрд░реИрд▓ 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU/LinuxNAME="Ubuntu"
VERSION="18.04.1 LTS (Bionic Beaver)"
ID=ubuntu
ID_LIKE=debian
PRETTY_NAME="Ubuntu 18.04.1 LTS"
VERSION_ID="18.04"
HOME_URL="https://www.ubuntu.com/"
SUPPORT_URL="https://help.ubuntu.com/"
BUG_REPORT_URL="https://bugs.launchpad.net/ubuntu/"
PRIVACY_POLICY_URL="https://www.ubuntu.com/legal/terms-and-policies/privacy-policy"
VERSION_CODENAME=bionic
UBUNTU_CODENAME=bionic
lsb_release -a
:No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 18.04.1 LTS
Release: 18.04
Codename: bionic
uname -a
): Linux devstats.team.io 4.15.0-20-generic #21-Ubuntu SMP Tue Apr 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
docker version
:docker version
Client:
Version: 17.12.1-ce
API version: 1.35
Go version: go1.10.1
Git commit: 7390fc6
Built: Wed Apr 18 01:26:37 2018
OS/Arch: linux/arm64
Server:
Engine:
Version: 17.12.1-ce
API version: 1.35 (minimum version 1.12)
Go version: go1.10.1
Git commit: 7390fc6
Built: Wed Feb 28 17:46:05 2018
OS/Arch: linux/arm64
Experimental: false
рд╕рдЯреАрдХ рддреНрд░реБрдЯрд┐ рдпрд╣ рдкреНрд░рддреАрдд рд╣реЛрддреА рд╣реИ:
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
рдиреЛрдб рдкрд░: cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
# Note: This dropin only works with kubeadm and kubelet v1.11+
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
# This is a file that "kubeadm init" and "kubeadm join" generates at runtime, populating the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably, the user should use
# the .NodeRegistration.KubeletExtraArgs object in the configuration files instead. KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/default/kubelet
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS
рдЗрд╕ рдзрд╛рдЧреЗ рд╕реЗ (рд╡рд╣рд╛рдВ KUBELET_NETWORK_ARGS
рдирд╣реАрдВ)ред
journalctl -xe
:Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: W0802 10:44:51.040663 38796 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: E0802 10:44:51.040876 38796 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ /etc/cni/net.d
рдореМрдЬреВрдж рд╣реИ, рд▓реЗрдХрд┐рди рдЦрд╛рд▓реА рд╣реИред
рд╕рднреА рдиреЛрдбреНрд╕ Ready
рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИрдВред
рдмрд╕ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ рд╕реЗ рдЪрд░рдгреЛрдВ рдХрд╛ рдкрд╛рд▓рди рдХрд░реЗрдВред 3 рдмрд╛рд░ рдХреЛрд╢рд┐рд╢ рдХреА рдФрд░ рдпрд╣ рд╣рд░ рд╕рдордп рд╣реЛрддрд╛ рд╣реИред
рдорд╛рд╕реНрдЯрд░ ARM64 рд╣реИ, 2 рдиреЛрдб AMD64 рд╣реИрдВред
рдорд╛рд╕реНрдЯрд░ рдФрд░ рдПрдХ рдиреЛрдб рдПрдореНрд╕реНрдЯрд░реНрдбрдо рдореЗрдВ рд╣реИ рдФрд░ рджреВрд╕рд░рд╛ рдиреЛрдб рдпреВрдПрд╕рдП рдореЗрдВ рд╣реИред
рдореИрдВ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдкреЙрдбреНрд╕ рдЪрд▓рд╛рдиреЗ рдХреЗ рд▓рд┐рдП kubectl taint nodes --all node-role.kubernetes.io/master-
рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХрддрд╛ рд╣реВрдВ, рд▓реЗрдХрд┐рди рдпрд╣ рдХреЛрдИ рд╕рдорд╛рдзрд╛рди рдирд╣реАрдВ рд╣реИред рдореИрдВ рдХрд╛рдо рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡рд╛рд╕реНрддрд╡рд┐рдХ рдмрд╣реБ-рдиреЛрдб рдХреНрд▓рд╕реНрдЯрд░ рд░рдЦрдирд╛ рдЪрд╛рд╣рддрд╛ рд╣реВрдВред
@lukaszgryglicki
рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдиреЛрдбреНрд╕ рдХреЛ рдлрд▓рд╛рд▓реИрди рдирд╣реАрдВ рдорд┐рд▓ рд░рд╣рд╛ рд╣реИ рдХреНрдпреЛрдВрдХрд┐ рд╡реЗ amd64
рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдкрд░ рд╣реИрдВ
Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
рддрдерд╛
Name: devstats.team.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
рдореИрдВ рдлрд▓рд╛рд▓реИрди рдХрд╛ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮ рдирд╣реАрдВ рд╣реВрдВ, рд▓реЗрдХрд┐рди рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдорд┐рд╢реНрд░рд┐рдд рдкреНрд▓реЗрдЯрдлреЙрд░реНрдо рдХреЗ рд╕рд╛рде рдкрд░реНрдпрд╛рд╡рд░рдг рдореЗрдВ рдЗрд╕реЗ рдХреИрд╕реЗ рдХрд╛рдо рдХрд░рдирд╛ рд╣реИ, рдЗрд╕рдХреЗ рд▓рд┐рдП рдЖрдкрдХреЛ рдЙрддреНрдкрд╛рдж рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг рдХреА рдЬрд╛рдВрдЪ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП
рдпрд╣ рдПрдХ рдЕрдЪреНрдЫрд╛ рдореБрджреНрджрд╛ рд╣реИ, рд▓реЗрдХрд┐рди рддреНрд░реБрдЯрд┐ рд╕рдВрджреЗрд╢ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ - рдпрд╣ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдЕрд╕рдВрдмрдВрдзрд┐рдд рд▓рдЧрддрд╛ рд╣реИред
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ /etc/cni/net.d
рдореЗрдВ рдХреБрдЫ CNI рдХреЙрдиреНрдлрд╝рд┐рдЧ рдлрд╝рд╛рдЗрд▓реЗрдВ рдЧрд╛рдпрдм рд╣реИрдВ, рд▓реЗрдХрд┐рди рдХреНрдпреЛрдВ?
рдореИрдВ рдЕрдм рдЕрд▓рдЧ-рдЕрд▓рдЧ рдбреЙрдХрдЯрд░ 18.03ce
рдХреЛрд╢рд┐рд╢ рдХрд░ рд░рд╣рд╛ рд╣реВрдВ рдЬреИрд╕рд╛ рдХрд┐ рд╕реНрд▓реИрдХ рдЪреИрдирд▓ рдкрд░ рд╕реБрдЭрд╛рдпрд╛ рдЧрдпрд╛ рд╣реИ (17.03 рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рд╕реБрдЭрд╛рдпрд╛ рдЧрдпрд╛ рдерд╛, рд▓реЗрдХрд┐рди рдЙрдмрдВрдЯреВ 18.04 рдХреЗ рд▓рд┐рдП рдХреЛрдИ 17.03 рдирд╣реАрдВ рд╣реИ)ред
рдЖрд░реНрдХ рдирд╛рдо рд╡рд╛рд▓реЗ рд▓реЗрдмрд▓ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдореЗрд▓ рдирд╣реАрдВ рдЦрд╛рддреЗред рд▓реЗрдХрд┐рди рдЕрдЧрд▓рд╛ рд▓реЗрдмрд▓ beta.kubernetes.io/os=linux
рд╕рднреА 3 рд╕рд░реНрд╡рд░реЛрдВ рдкрд░ рд╕рдорд╛рди рд╣реИред
рдбреЙрдХрд░ 18.03ce рдХреЗ рд╕рд╛рде рднреА рдРрд╕рд╛ рд╣реА рд╣реЛрддрд╛ рд╣реИред рдореБрдЭреЗ рдХреЛрдИ рдЕрдВрддрд░ рдирд╣реАрдВ рджрд┐рдЦ рд░рд╣рд╛ рд╣реИ, рдпрд╣ рдПрдХ рдбреЙрдХрдЯрд░ рдореБрджреНрджреЗ рдХреА рддрд░рд╣ рдирд╣реАрдВ рджрд┐рдЦ рд░рд╣рд╛ рд╣реИред рдпрд╣ рдХреБрдЫ рд╕реАрдПрдирдЖрдИ рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рд╕рдорд╕реНрдпрд╛ рдХреА рддрд░рд╣ рджрд┐рдЦрддрд╛ рд╣реИред
@lukaszgryglicki
рдирдорд╕реНрддреЗ,
рдорд╛рд╕реНрдЯрд░: рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 96 рдХреЛрд░, рдПрдЖрд░рдПрдо 64, 128 рдЬреА рд░реИрдо, рд╕реНрд╡реИрдк рдмрдВрджред
рдиреЛрдбреНрд╕ (2): рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 48 рдХреЛрд░, AMD64, 256G RAM, рд╕реНрд╡реИрдк рдЯреНрдпреВрдиреНрдб x 2ред
рдпреЗ рдХреБрдЫ _nice_ рдЪрд╢реНрдорд╛ рд╣реИрдВред
рдЬрд┐рд╕ рддрд░рд╣ рд╕реЗ рдореИрдВ рдЪреАрдЬреЛрдВ рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдХрд░рддрд╛ рд╣реВрдВ рд╡рд╣ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рд╣реИ - рдЕрдЧрд░ рдХреБрдЫ рдмреБрдирд╛рдИ рдХреЗ рд╕рд╛рде рдХрд╛рдо рдирд╣реАрдВ рдХрд░рддрд╛ рд╣реИ, рддреЛ рдореИрдВ рдлрд▓рд╛рд▓реИрди рдФрд░ рджреВрд╕рд░реА рддрд░рдл рдХреЛрд╢рд┐рд╢ рдХрд░рддрд╛ рд╣реВрдВред
рддреЛ рдХреГрдкрдпрд╛ рдмреБрдирд╛рдИ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░реЗрдВ рдФрд░ рдпрджрд┐ рдЖрдкрдХрд╛ рд╕реАрдПрдирдЖрдИ рд╕реЗрдЯрдЕрдк рдЗрд╕рдХреЗ рд╕рд╛рде рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ, рддреЛ рдпрд╣ рд╕реАрдПрдирдЖрдИ рдкреНрд▓рдЧрдЗрди рд╕реЗ рд╕рдВрдмрдВрдзрд┐рдд рд╣реИред
рдЬрдмрдХрд┐ kubeadm рдЯреАрдо рдкреНрд▓рдЧрдЗрдиреНрд╕ рдФрд░ рдРрдбрдСрди рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддреА рд╣реИ, рд╣рдо рдЖрдорддреМрд░ рдкрд░ рдореБрджреНрджреЛрдВ рдХреЛ рдЙрдирдХреЗ рд╕рдВрдмрдВрдзрд┐рдд рдЕрдиреБрд░рдХреНрд╖рдХреЛрдВ рдХреЛ рд╕реМрдВрдкрддреЗ рд╣реИрдВ рдХреНрдпреЛрдВрдХрд┐ рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рд╕рдм рдХреБрдЫ рд╕рдВрднрд╛рд▓рдиреЗ рдХреЗ рд▓рд┐рдП рдмреИрдВрдбрд╡рд┐рдбреНрде рдирд╣реАрдВ рд╣реИред
рдЬрд╝рд░реВрд░, рдореИрдВрдиреЗ рдХреБрдЫ рдкреБрдирд░рд╛рд╡реГрддреНрддрд┐рдпреЛрдВ рдкрд╣рд▓реЗ рдмреБрдирд╛рдИ рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИред рдпрд╣ рдПрдХ рдХрдВрдЯреЗрдирд░ рдкреБрдирд░рд╛рд░рдВрдн рд▓реВрдк рдореЗрдВ рд╕рдорд╛рдкреНрдд рд╣реБрдЖред
рдЕрдм рдбреЙрдХрд░ рдореБрджреНрджреЗ рдХреЛ рдмрд╛рд╣рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбреЙрдХрд░ 17.03 рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░реЗрдВрдЧреЗ (17.03 рдХреЛ рдмрд╣реБрдд рдЕрдЪреНрдЫреА рддрд░рд╣ рд╕реЗ рд╕рдорд░реНрдерд┐рдд рдорд╛рдирд╛ рдЬрд╛рддрд╛ рд╣реИ)ред
рддреЛ рдпрд╣ рдХреЛрдИ рдбреЙрдХрд░ рдореБрджреНрджрд╛ рдирд╣реАрдВ рд╣реИред 17.03 рдХреЛ рд╡рд╣реА:
Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: W0802 14:21:51.406786 21714 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: E0802 14:21:51.407074 21714 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
now will try weave net as suggested on the issue
рдореИрдВ рдЕрднреА рдмреБрдирд╛рдИ рдХреА рдХреЛрд╢рд┐рд╢ рдХрд░реВрдВрдЧрд╛ рдФрд░ рдпрд╣рд╛рдВ рдкрд░рд┐рдгрд╛рдо рдкреЛрд╕реНрдЯ рдХрд░реВрдВрдЧрд╛ред
рддреЛ, рдореИрдВрдиреЗ weave net
рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИ рдФрд░ рдпрд╣ рдХрд╛рдо рдирд╣реАрдВ рдХрд░ рд░рд╣рд╛ рд╣реИ:
рдорд╛рд╕реНрдЯрд░ рдкрд░: kubectl get nodes
:
NAME STATUS ROLES AGE VERSION
cncftest.io NotReady <none> 5s v1.11.1
devstats.cncf.io NotReady <none> 12s v1.11.1
devstats.team.io NotReady master 7m v1.11.1
kubectl describe nodes
(рд╡рд╣реА рд╕реАрдПрдирдЖрдИ рд╕рдВрдмрдВрдзрд┐рдд рддреНрд░реБрдЯрд┐, рд▓реЗрдХрд┐рди рдЕрдм рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рднреА):Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=cncftest.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:39:56 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.205.79
Hostname: cncftest.io
Capacity:
cpu: 48
ephemeral-storage: 459266000Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264047752Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 423259544900
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263945352Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 4C4C4544-0052-3310-804A-B7C04F4E4432
Boot ID: d87670d9-251e-42a5-90c5-5d63059f03ab
Kernel Version: 4.15.0-22-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.3.2
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (1 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system weave-net-wwjrr 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 20m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 1m kubelet, cncftest.io Starting kubelet.
Normal NodeHasSufficientDisk 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 1m kubelet, cncftest.io Updated Node Allocatable limit across pods
Name: devstats.cncf.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.cncf.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:39:49 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.78.47
Hostname: devstats.cncf.io
Capacity:
cpu: 48
ephemeral-storage: 142124052Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264027220Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 130981526107
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263924820Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 00000000-0000-0000-0000-0CC47AF37CF2
Boot ID: f257b606-5da2-43fd-8782-0aa4484037f4
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.3.2
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (1 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system weave-net-2fsrf 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 20m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 1m kubelet, devstats.cncf.io Starting kubelet.
Normal NodeHasSufficientDisk 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 1m kubelet, devstats.cncf.io Updated Node Allocatable limit across pods
Name: devstats.team.io
Roles: master
Labels: beta.kubernetes.io/arch=arm64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.team.io
node-role.kubernetes.io/master=
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:32:14 +0000
Taints: node-role.kubernetes.io/master:NoSchedule
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.97.234
Hostname: devstats.team.io
Capacity:
cpu: 96
ephemeral-storage: 322988584Ki
hugepages-2Mi: 0
memory: 131731468Ki
pods: 110
Allocatable:
cpu: 96
ephemeral-storage: 297666278522
hugepages-2Mi: 0
memory: 131629068Ki
pods: 110
System Info:
Machine ID: 5eaa89a81ff348399284bb4cb016ffd7
System UUID: 10000000-FAC5-FFFF-A81D-FC15B4970493
Boot ID: 43b920e3-34e7-4de3-aa6c-8b5c525363ff
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: arm64
Container Runtime Version: docker://17.9.0
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (6 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system etcd-devstats.team.io 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-apiserver-devstats.team.io 250m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-controller-manager-devstats.team.io 200m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-proxy-69qnb 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-scheduler-devstats.team.io 100m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system weave-net-j9f5m 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 570m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 10m kubelet, devstats.team.io Starting kubelet.
Normal NodeAllocatableEnforced 10m kubelet, devstats.team.io Updated Node Allocatable limit across pods
Normal NodeHasSufficientPID 10m (x5 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientPID
Normal NodeHasSufficientDisk 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasNoDiskPressure
Normal Starting 8m kube-proxy, devstats.team.io Starting kube-proxy.
journalctl -xe
рдорд╛рд╕реНрдЯрд░ рдкрд░:Aug 02 14:42:18 devstats.team.io dockerd[44020]: time="2018-08-02T14:42:18.330999189Z" level=warning msg="Unknown healthcheck type 'NONE' (expected 'CMD') in container 283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.079835 56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080312 56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080677 56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:19 devstats.team.io kubelet[56340]: E0802 14:42:19.080815 56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:21 devstats.team.io kubelet[56340]: W0802 14:42:21.867690 56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:21 devstats.team.io kubelet[56340]: E0802 14:42:21.868005 56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.259681 56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260359 56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260833 56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.260984 56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:26 devstats.team.io kubelet[56340]: W0802 14:42:26.870675 56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.871316 56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
kubectl get po --all-namespaces
:NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-g8wzs 0/1 Pending 0 12m
kube-system coredns-78fcdf6894-tzs8n 0/1 Pending 0 12m
kube-system etcd-devstats.team.io 1/1 Running 0 12m
kube-system kube-apiserver-devstats.team.io 1/1 Running 0 12m
kube-system kube-controller-manager-devstats.team.io 1/1 Running 0 12m
kube-system kube-proxy-69qnb 1/1 Running 0 12m
kube-system kube-scheduler-devstats.team.io 1/1 Running 0 12m
kube-system weave-net-2fsrf 1/2 CrashLoopBackOff 5 5m
kube-system weave-net-j9f5m 1/2 CrashLoopBackOff 6 8m
kube-system weave-net-wwjrr 1/2 CrashLoopBackOff 5 4m
kubectl describe po --all-namespaces
:Name: coredns-78fcdf6894-g8wzs
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-jw4mv:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-jw4mv
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 8m (x32 over 13m) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
Warning FailedScheduling 3m (x48 over 5m) default-scheduler 0/3 nodes are available: 3 node(s) were not ready.
Name: coredns-78fcdf6894-tzs8n
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-jw4mv:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-jw4mv
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 8m (x32 over 13m) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
Warning FailedScheduling 3m (x47 over 5m) default-scheduler 0/3 nodes are available: 3 node(s) were not ready.
Name: etcd-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=etcd
tier=control-plane
Annotations: kubernetes.io/config.hash=cc73514fbc25558d566fe49661f006a0
kubernetes.io/config.mirror=cc73514fbc25558d566fe49661f006a0
kubernetes.io/config.seen=2018-08-02T14:31:13.654147902Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
etcd:
Container ID: docker://254c88b154393778ef7b1ead2aaaa0acb120ffb76d911f140172da3323f1f1e3
Image: k8s.gcr.io/etcd-arm64:3.2.18
Image ID: docker-pullable://k8s.gcr.io/etcd-arm64<strong i="13">@sha256</strong>:f0b7368ebb28e6226ab3b4dbce4b5c6d77dab7b5f6579b08fd645c00f7b100ff
Port: <none>
Host Port: <none>
Command:
etcd
--advertise-client-urls=https://127.0.0.1:2379
--cert-file=/etc/kubernetes/pki/etcd/server.crt
--client-cert-auth=true
--data-dir=/var/lib/etcd
--initial-advertise-peer-urls=https://127.0.0.1:2380
--initial-cluster=devstats.team.io=https://127.0.0.1:2380
--key-file=/etc/kubernetes/pki/etcd/server.key
--listen-client-urls=https://127.0.0.1:2379
--listen-peer-urls=https://127.0.0.1:2380
--name=devstats.team.io
--peer-cert-file=/etc/kubernetes/pki/etcd/peer.crt
--peer-client-cert-auth=true
--peer-key-file=/etc/kubernetes/pki/etcd/peer.key
--peer-trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
--snapshot-count=10000
--trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Liveness: exec [/bin/sh -ec ETCDCTL_API=3 etcdctl --endpoints=https://[127.0.0.1]:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/healthcheck-client.crt --key=/etc/kubernetes/pki/etcd/healthcheck-client.key get foo] delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/kubernetes/pki/etcd from etcd-certs (rw)
/var/lib/etcd from etcd-data (rw)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
etcd-data:
Type: HostPath (bare host directory volume)
Path: /var/lib/etcd
HostPathType: DirectoryOrCreate
etcd-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki/etcd
HostPathType: DirectoryOrCreate
QoS Class: BestEffort
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-apiserver-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-apiserver
tier=control-plane
Annotations: kubernetes.io/config.hash=1f7835a47425009200d38bf94c337ab3
kubernetes.io/config.mirror=1f7835a47425009200d38bf94c337ab3
kubernetes.io/config.seen=2018-08-02T14:31:13.639443247Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-apiserver:
Container ID: docker://22b73993b141faebe6b4aab727d2235abb3422a17b60bc1be6c749c260e39f67
Image: k8s.gcr.io/kube-apiserver-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-apiserver-arm64<strong i="14">@sha256</strong>:bca1933fa25fc7f890700f6aebd572c6f8351f7bc89d2e4f2c44a63649e3fccf
Port: <none>
Host Port: <none>
Command:
kube-apiserver
--authorization-mode=Node,RBAC
--advertise-address=147.75.97.234
--allow-privileged=true
--client-ca-file=/etc/kubernetes/pki/ca.crt
--disable-admission-plugins=PersistentVolumeLabel
--enable-admission-plugins=NodeRestriction
--enable-bootstrap-token-auth=true
--etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt
--etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt
--etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key
--etcd-servers=https://127.0.0.1:2379
--insecure-port=0
--kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt
--kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key
--kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
--proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt
--proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key
--requestheader-allowed-names=front-proxy-client
--requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt
--requestheader-extra-headers-prefix=X-Remote-Extra-
--requestheader-group-headers=X-Remote-Group
--requestheader-username-headers=X-Remote-User
--secure-port=6443
--service-account-key-file=/etc/kubernetes/pki/sa.pub
--service-cluster-ip-range=10.96.0.0/12
--tls-cert-file=/etc/kubernetes/pki/apiserver.crt
--tls-private-key-file=/etc/kubernetes/pki/apiserver.key
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 250m
Liveness: http-get https://147.75.97.234:6443/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/ca-certificates from etc-ca-certificates (ro)
/etc/kubernetes/pki from k8s-certs (ro)
/etc/ssl/certs from ca-certs (ro)
/usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
/usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
k8s-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki
HostPathType: DirectoryOrCreate
ca-certs:
Type: HostPath (bare host directory volume)
Path: /etc/ssl/certs
HostPathType: DirectoryOrCreate
usr-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/share/ca-certificates
HostPathType: DirectoryOrCreate
usr-local-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/local/share/ca-certificates
HostPathType: DirectoryOrCreate
etc-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /etc/ca-certificates
HostPathType: DirectoryOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-controller-manager-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-controller-manager
tier=control-plane
Annotations: kubernetes.io/config.hash=5d26a7fba3c17c9fa8969a466d6a0f1d
kubernetes.io/config.mirror=5d26a7fba3c17c9fa8969a466d6a0f1d
kubernetes.io/config.seen=2018-08-02T14:31:13.646000889Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-controller-manager:
Container ID: docker://5182bf5c7c63f9507e6319a2c3fb5698dc827ea9b591acbb071cb39c4ea445ea
Image: k8s.gcr.io/kube-controller-manager-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-controller-manager-arm64<strong i="15">@sha256</strong>:7fa0b0242c13fcaa63bff3b4cde32d30ce18422505afa8cb4c0f19755148b612
Port: <none>
Host Port: <none>
Command:
kube-controller-manager
--address=127.0.0.1
--cluster-signing-cert-file=/etc/kubernetes/pki/ca.crt
--cluster-signing-key-file=/etc/kubernetes/pki/ca.key
--controllers=*,bootstrapsigner,tokencleaner
--kubeconfig=/etc/kubernetes/controller-manager.conf
--leader-elect=true
--root-ca-file=/etc/kubernetes/pki/ca.crt
--service-account-private-key-file=/etc/kubernetes/pki/sa.key
--use-service-account-credentials=true
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 200m
Liveness: http-get http://127.0.0.1:10252/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/ca-certificates from etc-ca-certificates (ro)
/etc/kubernetes/controller-manager.conf from kubeconfig (ro)
/etc/kubernetes/pki from k8s-certs (ro)
/etc/ssl/certs from ca-certs (ro)
/usr/libexec/kubernetes/kubelet-plugins/volume/exec from flexvolume-dir (rw)
/usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
/usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
usr-local-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/local/share/ca-certificates
HostPathType: DirectoryOrCreate
etc-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /etc/ca-certificates
HostPathType: DirectoryOrCreate
k8s-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki
HostPathType: DirectoryOrCreate
ca-certs:
Type: HostPath (bare host directory volume)
Path: /etc/ssl/certs
HostPathType: DirectoryOrCreate
kubeconfig:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/controller-manager.conf
HostPathType: FileOrCreate
flexvolume-dir:
Type: HostPath (bare host directory volume)
Path: /usr/libexec/kubernetes/kubelet-plugins/volume/exec
HostPathType: DirectoryOrCreate
usr-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/share/ca-certificates
HostPathType: DirectoryOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-proxy-69qnb
Namespace: kube-system
Priority: 2000001000
PriorityClassName: system-node-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:32:25 +0000
Labels: controller-revision-hash=2718475167
k8s-app=kube-proxy
pod-template-generation=1
Annotations: scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Controlled By: DaemonSet/kube-proxy
Containers:
kube-proxy:
Container ID: docker://12fb2a4a8af025604e46783aa87d084bdc681365317c8dac278a583646a8ad1c
Image: k8s.gcr.io/kube-proxy-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-proxy-arm64<strong i="16">@sha256</strong>:c61f4e126ec75dedce3533771c67eb7c1266cacaac9ae770e045a9bec9c9dc32
Port: <none>
Host Port: <none>
Command:
/usr/local/bin/kube-proxy
--config=/var/lib/kube-proxy/config.conf
State: Running
Started: Thu, 02 Aug 2018 14:32:26 +0000
Ready: True
Restart Count: 0
Environment: <none>
Mounts:
/lib/modules from lib-modules (ro)
/run/xtables.lock from xtables-lock (rw)
/var/lib/kube-proxy from kube-proxy (rw)
/var/run/secrets/kubernetes.io/serviceaccount from kube-proxy-token-4q6rl (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
kube-proxy:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: kube-proxy
Optional: false
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
kube-proxy-token-4q6rl:
Type: Secret (a volume populated by a Secret)
SecretName: kube-proxy-token-4q6rl
Optional: false
QoS Class: BestEffort
Node-Selectors: beta.kubernetes.io/arch=arm64
Tolerations:
CriticalAddonsOnly
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulled 13m kubelet, devstats.team.io Container image "k8s.gcr.io/kube-proxy-arm64:v1.11.1" already present on machine
Normal Created 13m kubelet, devstats.team.io Created container
Normal Started 13m kubelet, devstats.team.io Started container
Name: kube-scheduler-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-scheduler
tier=control-plane
Annotations: kubernetes.io/config.hash=6e1c1eb822c75df4cec74cac9992eea9
kubernetes.io/config.mirror=6e1c1eb822c75df4cec74cac9992eea9
kubernetes.io/config.seen=2018-08-02T14:31:13.651239565Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-scheduler:
Container ID: docker://0b8018a7d0c2cb2dc64d9364dea5cea8047b0688c4ecb287dba8bebf9ab011a3
Image: k8s.gcr.io/kube-scheduler-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-scheduler-arm64<strong i="17">@sha256</strong>:28ab99ab78c7945a4e20d9369682e626b671ba49e2d4101b1754019effde10d2
Port: <none>
Host Port: <none>
Command:
kube-scheduler
--address=127.0.0.1
--kubeconfig=/etc/kubernetes/scheduler.conf
--leader-elect=true
State: Running
Started: Thu, 02 Aug 2018 14:31:14 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 100m
Liveness: http-get http://127.0.0.1:10251/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/kubernetes/scheduler.conf from kubeconfig (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
kubeconfig:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/scheduler.conf
HostPathType: FileOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: weave-net-2fsrf
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: devstats.cncf.io/147.75.78.47
Start Time: Thu, 02 Aug 2018 14:39:49 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.78.47
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://e8f5c3b702166a15212ab9576696aa7a1a0cb5b94e9cba1451fc9cc2b1d1382d
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="18">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:43:04 +0000
Finished: Thu, 02 Aug 2018 14:43:05 +0000
Ready: False
Restart Count: 5
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://1cfd16507d6d9e1744bfc354af62301fb8678af12ace34113121a40ca93b6113
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="19">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:39:58 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 5m kubelet, devstats.cncf.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 5m kubelet, devstats.cncf.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 5m kubelet, devstats.cncf.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 5m kubelet, devstats.cncf.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 5m kubelet, devstats.cncf.io Created container
Normal Started 5m kubelet, devstats.cncf.io Started container
Normal Created 5m (x4 over 5m) kubelet, devstats.cncf.io Created container
Normal Started 5m (x4 over 5m) kubelet, devstats.cncf.io Started container
Normal Pulled 5m (x3 over 5m) kubelet, devstats.cncf.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Warning BackOff 56s (x27 over 5m) kubelet, devstats.cncf.io Back-off restarting failed container
Name: weave-net-j9f5m
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:36:11 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.97.234
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="20">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:42:18 +0000
Finished: Thu, 02 Aug 2018 14:42:18 +0000
Ready: False
Restart Count: 6
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://3cd49dbca669ac83db95ebf943ed0053281fa5082f7fa403a56e30091eaec36b
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="21">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:36:31 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 9m kubelet, devstats.team.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 9m kubelet, devstats.team.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 9m kubelet, devstats.team.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 9m kubelet, devstats.team.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 9m kubelet, devstats.team.io Created container
Normal Started 9m kubelet, devstats.team.io Started container
Normal Created 8m (x4 over 9m) kubelet, devstats.team.io Created container
Normal Started 8m (x4 over 9m) kubelet, devstats.team.io Started container
Normal Pulled 8m (x3 over 9m) kubelet, devstats.team.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Warning BackOff 4m (x26 over 9m) kubelet, devstats.team.io Back-off restarting failed container
Name: weave-net-wwjrr
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: cncftest.io/147.75.205.79
Start Time: Thu, 02 Aug 2018 14:39:57 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.205.79
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://d0d1dccfe0a1f57bce652e30d5df210a9b232dd71fe6be1340c8bd5617e1ce11
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="22">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:43:16 +0000
Finished: Thu, 02 Aug 2018 14:43:16 +0000
Ready: False
Restart Count: 5
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://e2c15578719788110131a4be3653a077441338b0f61f731add9dadaadfc11655
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="23">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:40:09 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 5m kubelet, cncftest.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 5m kubelet, cncftest.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 5m kubelet, cncftest.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 5m kubelet, cncftest.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 5m kubelet, cncftest.io Created container
Normal Started 5m kubelet, cncftest.io Started container
Normal Created 4m (x4 over 5m) kubelet, cncftest.io Created container
Normal Pulled 4m (x3 over 5m) kubelet, cncftest.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Normal Started 4m (x4 over 5m) kubelet, cncftest.io Started container
Warning BackOff 44s (x27 over 5m) kubelet, cncftest.io Back-off restarting failed container
kubectl --v=8 logs --namespace=kube-system weave-net-2fsrf --all-containers=true
:I0802 14:49:02.034473 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.036654 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.044546 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.062906 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.063710 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf
I0802 14:49:02.063753 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.063791 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.063828 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.236764 64396 round_trippers.go:408] Response Status: 200 OK in 172 milliseconds
I0802 14:49:02.236870 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.236907 64396 round_trippers.go:414] Content-Type: application/json
I0802 14:49:02.236944 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
I0802 14:49:02.237363 64396 request.go:897] Response Body: {"kind":"Pod","apiVersion":"v1","metadata":{"name":"weave-net-2fsrf","generateName":"weave-net-","namespace":"kube-system","selfLink":"/api/v1/namespaces/kube-system/pods/weave-net-2fsrf","uid":"e8b2dfe9-9661-11e8-8ca9-fc15b4970491","resourceVersion":"1625","creationTimestamp":"2018-08-02T14:39:49Z","labels":{"controller-revision-hash":"332195524","name":"weave-net","pod-template-generation":"1"},"ownerReferences":[{"apiVersion":"apps/v1","kind":"DaemonSet","name":"weave-net","uid":"66e82a46-9661-11e8-8ca9-fc15b4970491","controller":true,"blockOwnerDeletion":true}]},"spec":{"volumes":[{"name":"weavedb","hostPath":{"path":"/var/lib/weave","type":""}},{"name":"cni-bin","hostPath":{"path":"/opt","type":""}},{"name":"cni-bin2","hostPath":{"path":"/home","type":""}},{"name":"cni-conf","hostPath":{"path":"/etc","type":""}},{"name":"dbus","hostPath":{"path":"/var/lib/dbus","type":""}},{"name":"lib-modules","hostPath":{"path":"/lib/modules","type":""}},{"name":"xtables-lock","hostPath":{"path":"/run/xtables.lock","ty [truncated 4212 chars]
I0802 14:49:02.261076 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.262803 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave
I0802 14:49:02.262844 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.262882 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.262919 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.275703 64396 round_trippers.go:408] Response Status: 200 OK in 12 milliseconds
I0802 14:49:02.275743 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.275779 64396 round_trippers.go:414] Content-Type: text/plain
I0802 14:49:02.275815 64396 round_trippers.go:414] Content-Length: 69
I0802 14:49:02.275850 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
Network 10.32.0.0/12 overlaps with existing route 10.0.0.0/8 on host
I0802 14:49:02.278054 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.279649 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave-npc
I0802 14:49:02.279691 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.279728 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.279765 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.293271 64396 round_trippers.go:408] Response Status: 200 OK in 13 milliseconds
I0802 14:49:02.293321 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.293358 64396 round_trippers.go:414] Content-Type: text/plain
I0802 14:49:02.293394 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
INFO: 2018/08/02 14:39:58.198716 Starting Weaveworks NPC 2.4.0; node name "devstats.cncf.io"
INFO: 2018/08/02 14:39:58.198969 Serving /metrics on :6781
Thu Aug 2 14:39:58 2018 <5> ulogd.c:843 building new pluginstance stack: 'log1:NFLOG,base1:BASE,pcap1:PCAP'
DEBU: 2018/08/02 14:39:58.294002 Got list of ipsets: []
ERROR: logging before flag.Parse: E0802 14:40:28.338474 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338475 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338474 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.339275 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.340235 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.341457 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.340117 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.341216 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.342131 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.342657 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343322 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343396 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.343714 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.344561 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.346722 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.344468 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.345385 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.347275 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.345226 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.346184 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.347875 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347016 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347523 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.350821 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.347826 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.348883 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.351365 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.348662 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.349573 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.352012 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.349429 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.350420 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.352714 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.351213 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.352074 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.355261 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352128 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352949 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.355929 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.352903 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.353844 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.356576 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.353994 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.354564 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.357281 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.355515 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.356603 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.359533 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.356372 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.357453 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.360401 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
рддреЛ, рд╕рдВрдХреНрд╖реЗрдк рдореЗрдВред Ubuntu 18.04 рдкрд░ рдХреЗрд╡рд▓ рд╕рд┐рдВрдЧрд▓ рдорд╛рд╕реНрдЯрд░ рдФрд░ рд╕рд┐рдВрдЧрд▓ рд╡рд░реНрдХрд░ рдиреЛрдб рдХреЗ рд╕рд╛рде Kubernetes рдХреНрд▓рд╕реНрдЯрд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдирд╛ рдЕрд╕рдВрднрд╡ рд╣реИред
рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдирд╡реАрдирддрдо LTS Ubuntu рдкрд░ kubeadm рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ k8s рдХреЛ рдЪрд░рдг-рджрд░-рдЪрд░рдг рд╕реЗрдЯ рдХрд░рдиреЗ рдХрд╛ рдПрдХ рдЗрдВрд╕реНрдЯреЙрд▓реЗрд╢рди рдирд┐рд░реНрджреЗрд╢ рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдПред
рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ 18.04 рдиреЗ рдбреЙрдХрд░ рдХреЗ рдмрдВрдбрд▓ рдФрд░ systemd-resolved
рджреЛрдиреЛрдВ рдХреЗ рд╕рдВрджрд░реНрдн рдореЗрдВ рддреЛрдбрд╝ рджрд┐рдпрд╛ред
рддреЛ рд╣рд╛рдБ, рд╡рд╣рд╛рдБ рдХреЗ рд╣рд░ рдПрдХ рдбрд┐рд╕реНрдЯреНрд░реЛ рдлреНрд▓реЗрд╡рд░ рдХреЗ рд▓рд┐рдП рдЧрд╛рдЗрдб рд▓рд┐рдЦрдирд╛ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХрдард┐рди рд╣реИ рдФрд░ рд╣рдо рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдЗрдиреНрд╣реЗрдВ рдХреБрд╢рд▓рддрд╛ рд╕реЗ рдмрдирд╛рдП рдирд╣реАрдВ рд░рдЦ рд╕рдХрддреЗ рд╣реИрдВред
рдЬрдмрдХрд┐ рдХреБрдмреЗрджрдо рдпрд╣рд╛рдБ рдХрд╛ рдЕрдЧреНрд░рднрд╛рдЧ рд╣реИ, рдпрд╣ рдореБрджреНрджрд╛ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХреБрдмреЗрджрдо рд╕реЗ рд╣реА рдЕрд╕рдВрдмрдВрдзрд┐рдд рд╣реЛ рд╕рдХрддрд╛ рд╣реИред
рдХреБрдЫ рд╕рд╡рд╛рд▓:
kubeadm join/init
рд╢реБрд░реВ рдХрд░рддреЗ рд╣реИрдВ рддреЛ /var/lib/kubelet/kubeadm-flags.env
рдХреА рд╕рд╛рдордЧреНрд░реА рдХреНрдпрд╛ рд╣реЛрддреА рд╣реИ?journalctl -xeu kubelet
рдХреА рдПрдХрдорд╛рддреНрд░ рджрд┐рд▓рдЪрд╕реНрдк рд╕рд╛рдордЧреНрд░реА рд╣реИрдВ? рдХреНрдпрд╛ рд╡рд╣ рдХреЗрд╡рд▓ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рд╣реИ - рджреВрд╕рд░реЛрдВ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдХреНрдпрд╛? рдЖрдк рдЗрдиреНрд╣реЗрдВ рдЧреАрдердм рдЧрд┐рд╕реНрдЯ рдпрд╛ http://pastebin.com рдореЗрдВ рдбрдВрдк рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ, рдореЗрд░реЗ рд▓рд┐рдП рднреА рджреЗрдЦреЗрдВредKUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
рдиреЛрдб (cncftest.io, amd64):
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
рдиреЛрдб (devstats.cncf.io, amd64):
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
рдкреЗрд╕реНрдЯрдмрд┐рдиреНрд╕: рдорд╛рд╕реНрдЯрд░ , рдиреЛрдб ред
рдЗрд╕рд▓рд┐рдП, рдореИрдВрдиреЗ amd64 рд╣реЛрд╕реНрдЯ рдкрд░ рдорд╛рд╕реНрдЯрд░ kubeadm init
рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рд╣реИ рдФрд░ weave net
рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИ рдФрд░ рдкрд░рд┐рдгрд╛рдо рдмрд┐рд▓реНрдХреБрд▓ рд╡реИрд╕рд╛ рд╣реА рд╣реИ рдЬреИрд╕рд╛ рдХрд┐ arm64 рд╣реЛрд╕реНрдЯ рдкрд░ рдЗрд╕реЗ рдЖрдЬрд╝рдорд╛рддреЗ рд╕рдордп:
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
рдПрдХ рдЫреЛрдЯреА рд╕реА рдкреНрд░рдЧрддрд┐ рд╣реИред
рдореИрдВрдиреЗ amd64 рдкрд░ рдорд╛рд╕реНрдЯрд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдлрд┐рд░ amd64 рдкрд░ рдПрдХ рдиреЛрдб рднреАред рд╕рдм рдареАрдХ рдХрд╛рдо рдХрд┐рдпрд╛ред
рдореИрдВрдиреЗ arm64 рдиреЛрдб рдЬреЛрдбрд╝рд╛ рд╣реИ рдФрд░ рдЕрдм рдореЗрд░реЗ рдкрд╛рд╕ рд╣реИ:
рдорд╛рд╕реНрдЯрд░ amd64: рддреИрдпрд╛рд░
рдиреЛрдб amd64: рддреИрдпрд╛рд░
рдиреЛрдб arm64: рддреИрдпрд╛рд░ рдирд╣реАрдВ: runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
flannel
рдиреЗрдЯ рдкреНрд▓рдЧрдЗрди рд╡рд┐рднрд┐рдиреНрди рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рдмреАрдЪ рдмрд╛рдд рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛ рд╣реИ рдФрд░ arm64 рдХреЛ рдорд╛рд╕реНрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рдмрд┐рд▓реНрдХреБрд▓ рднреА рдЗрд╕реНрддреЗрдорд╛рд▓ рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИредruntime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
рдХреЛрдИ рд╕реБрдЭрд╛рд╡ рдореБрдЭреЗ рдХреНрдпрд╛ рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП? рдореБрдЭреЗ рдЗрд╕рдХреА рд░рд┐рдкреЛрд░реНрдЯ рдХрд╣рд╛рдВ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП? рдореЗрд░реЗ рдкрд╛рд╕ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА 2 рдиреЛрдбреНрд╕ рдХреНрд▓рд╕реНрдЯрд░ (рдорд╛рд╕реНрдЯрд░ рдФрд░ рдиреЛрдб amd64) рд╣реИ, рд▓реЗрдХрд┐рди рдореИрдВ рдЗрд╕ рд╕рдорд╕реНрдпрд╛ рдХреЛ рд╣рд▓ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░рдирд╛ рдЪрд╛рд╣рддрд╛ рд╣реВрдВ рддрд╛рдХрд┐ рдХреЛрдИ рднреА рдХрд┐рд╕реА рднреА рдЖрд░реНрдХ рдиреЛрдб рдХреЗ рд╕рд╛рде рдХрд┐рд╕реА рднреА рдЖрд░реНрдХ рдорд╛рд╕реНрдЯрд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХреЗ, рдмрд╕ OOTBред
@lukaszgryglicki
kube-flannel.yml
рдХреЗрд╡рд▓ рдПрдХ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рд▓рд┐рдП рдлрд▓рд╛рд▓реИрди рдХрдВрдЯреЗрдирд░ рдХреЛ рддреИрдирд╛рдд рдХрд░рддрд╛ рд╣реИред рдпрд╣реА рдХрд╛рд░рдг рд╣реИ рдХрд┐ рд╡рд┐рднрд┐рдиреНрди рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рд╡рд╛рд▓реЗ рдиреЛрдбреНрд╕ рдкрд░ cni рдкреНрд▓рдЧрдЗрди рд╢реБрд░реВ рдирд╣реАрдВ рд╣реЛрддрд╛ рд╣реИ рдФрд░ рдиреЛрдб рдХрднреА рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реЛрддрд╛ рд╣реИ
рдореИрдВрдиреЗ рдЕрдкрдиреЗ рдЖрдк рд╕реЗ рдХрднреА рдХреЛрд╢рд┐рд╢ рдирд╣реАрдВ рдХреА, рд▓реЗрдХрд┐рди рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдЖрдк рдЪреАрдЬреЛрдВ рдХреЛ рдорд┐рд▓рд╛рдиреЗ рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдЕрд▓рдЧ-рдЕрд▓рдЧ рджрд╛рдЧреЛрдВ (рдФрд░ рдирд╛рдореЛрдВ) рдХреЗ рд╕рд╛рде рджреЛ рд╣реИрдХ рдХрд┐рдП рдЧрдП рдлрд▓рд╛рд▓реИрди рдореИрдирд┐рдлреЗрд╕реНрдЯ рдХреЛ рддреИрдирд╛рдд рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ, рд▓реЗрдХрд┐рди рдлрд┐рд░ рд╕реЗ рдореЗрд░рд╛ рд╕реБрдЭрд╛рд╡ рд▓реЛрдЧреЛрдВ рдХреЛ рдлрд▓рд╛рд▓реИрди рд╕реЗ рдкреВрдЫрдирд╛ рд╣реИ рдХрд┐ рдХреНрдпрд╛ рдпрд╣ рдХреИрд╕реЗ рдХрд░рдирд╛ рд╣реИ рдЗрд╕рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА рдирд┐рд░реНрджреЗрд╢ рд╣реИрдВ .
рд▓реЗрдХрд┐рди рдореИрдВрдиреЗ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ рдореЗрдВ рд╕реБрдЭрд╛рдП рдЧрдП рдЕрдиреБрд╕рд╛рд░ arm64 рдкрд░ рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХреЛ рдЯреНрд╡рд┐рдХ рдХрд┐рдпрд╛ рд╣реИред amd64
рдХреЛ arm64
рдмрджрд▓рд╛ рдЧрдпрд╛ред
рддреЛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдореИрдВ flannell
рд▓рд┐рдП рдПрдХ рдореБрджреНрджрд╛ рдмрдирд╛рдКрдВ рдФрд░ рдЗрд╕ рдзрд╛рдЧреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд▓рд┐рдВрдХ рдкреЗрд╕реНрдЯ рдХрд░реВрдВред
рдФрд░ рдЕрдм рдХреНрдпреЛрдВ wave net
рдПрдХ рд╣реА cni рд╕рдВрдмрдВрдзрд┐рдд рдмрдЧ рдХреЗ рд╕рд╛рде рджреЛрдиреЛрдВ рдореЗрд╣рд░рд╛рдмреЛрдВ рдкрд░ рд╡рд┐рдлрд▓ рд░рд╣рддрд╛ рд╣реИ? рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ weave
рд▓рд┐рдП рднреА рдХреЛрдИ рд╕рдорд╕реНрдпрд╛ рдмрдирд╛рдПрдВ рдФрд░ рдЗрд╕ рдереНрд░реЗрдб рд╕реЗ рд▓рд┐рдВрдХ рднреА рдХрд░реЗрдВ?
@lukaszgryglicki
рдЬрдм рдЖрдк рдмрд╛рдВрд╣ рдХреЗ рд▓рд┐рдП kube-flannel.yml
рдШреБрдорд╛рддреЗ рд╣реИрдВ, рддреЛ рдпрд╣ рдПрдПрдордбреА рдорд╢реАрдиреЛрдВ рдкрд░ рдХрд╛рдо рдХрд░рдирд╛ рдмрдВрдж рдХрд░ рджреЗрддрд╛ рд╣реИ... рдпрд╣реА рдХрд╛рд░рдг рд╣реИ рдХрд┐ рдореИрдВ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛ рд░рд╣рд╛ рд╣реВрдВ рдХрд┐ 2 рдЕрдЪреНрдЫреА рддрд░рд╣ рд╕реЗ рдореБрдбрд╝реЗ рд╣реБрдП рдореИрдирд┐рдлрд╝реЗрд╕реНрдЯ, рдПрдХ рдЖрд░реНрдо рдХреЗ рд▓рд┐рдП рдФрд░ рдПрдХ рдПрдПрдордбреА рдХреЗ рд▓рд┐рдП, рдЖрдкрдХреА рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред
рдФрд░ рдЕрдм рдЬрдм рдореИрдВ рд╕реЛрдЪрддрд╛ рд╣реВрдВ, рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдЖрдкрдХреЛ рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рдбреЗрдореЙрди рд╕реЗрдЯ рдХреЗ рд╕рд╛рде рднреА рдпрд╣реА рд╕рдорд╕реНрдпрд╛ рдареАрдХ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП, рд▓реЗрдХрд┐рди рдореИрдВ рдЕрдм рдЗрд╕рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдХреНрд╖рдорд╛ рдХрд░реЗрдВ
рдЖрдкрдХреЗ рдкрд╛рд╕ рдмреБрдирд╛рдИ рдХреА рд╕рдорд╕реНрдпрд╛ рдХреЗ рд▓рд┐рдП рдореЗрд░реЗ рдкрд╛рд╕ рдкрд░реНрдпрд╛рдкреНрдд рдЬрд╛рдирдХрд╛рд░реА рдирд╣реАрдВ рд╣реИред рдПрдХ рд╕рдорд╕реНрдпрд╛ рдпрд╣ рд╣реЛ рд╕рдХрддреА рд╣реИ рдХрд┐ рдмреБрдирд╛рдИ --pod-network-cidr=10.244.0.0/16
рд╕рд╛рде рдХрд╛рдо рдирд╣реАрдВ рдХрд░рддреА рд╣реИ, рд▓реЗрдХрд┐рди рд╢реБрд░реБрдЖрддреА рдореБрджреНрджреЗ рдкрд░ рд╡рд╛рдкрд╕ рдЬрд╛рдХрд░, рдореИрдВ рдЪреВрд▓реНрд╣рд╛ рд╕реЗ рдирд╣реАрдВ рдЬрд╛рдирддрд╛ рдХрд┐ рдмреБрдирд╛рдИ рдорд┐рд╢реНрд░рд┐рдд рдкреНрд▓реЗрдЯрдлрд╛рд░реНрдореЛрдВ рдкрд░ рдмреЙрдХреНрд╕ рд╕реЗ рдмрд╛рд╣рд░ рдХрд╛рдо рдХрд░рддреА рд╣реИ рдпрд╛ рдирд╣реАрдВред
рддреЛ рдореБрдЭреЗ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рджреЛ рдЕрд▓рдЧ-рдЕрд▓рдЧ рдореИрдирд┐рдлреЗрд╕реНрдЯ рддреИрдирд╛рдд рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП, рд╣реИ рдирд╛? рдХреЛрдИ рдлрд░реНрдХ рдирд╣реАрдВ рдкрдбрд╝рддрд╛ рдЕрдЧрд░ рдорд╛рд╕реНрдЯрд░ arm64 рдпрд╛ amd64 рд╣реЛрддрд╛ рд╣реИ, рд╣реИ рдирд╛? рдХреНрдпрд╛ рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЕрдкрдиреЗ рдФрд░ рдиреЛрдбреНрд╕ рдкрд░ рд╕рд╣реА рдЖрд░реНрдХ рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЛ рд╕рдВрднрд╛рд▓рдирд╛ рдЪрд╛рд╣рд┐рдП?
рд╕реБрдирд┐рд╢реНрдЪрд┐рдд рдирд╣реАрдВ рд╣реИ рдХрд┐ рдЖрдкрдХрд╛ рдпрд╣рд╛рдБ рдХреНрдпрд╛ рдорддрд▓рдм рд╣реИ:
And now that I think of, might be you should fix the same issue with kube-proxy daemon set as well, but I can't test this now, sorry
рдореИрдВрдиреЗ --pod-network-cidr=10.244.0.0/16
рд▓рд┐рдП weave
ред рдореИрдВрдиреЗ рдХреЗрд╡рд▓ kubeadm init
ред
рдореИрдВрдиреЗ рдХреЗрд╡рд▓ рдлрд▓рд╛рд▓реИрди рдкреНрд░рдпрд╛рд╕реЛрдВ рдХреЗ рд▓рд┐рдП --pod-network-cidr=10.244.0.0/16
рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИред рдЬреИрд╕рд╛ рдХрд┐ рдбреЙрдХреНрд╕ рдХрд╣рддреЗ рд╣реИрдВред
cc @luxas - рдореИрдВрдиреЗ рджреЗрдЦрд╛ рд╣реИ рдХрд┐ рдЖрдкрдиреЗ рдмрд╣реБ-рдЖрд░реНрдХ k8s рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдХреБрдЫ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рдмрдирд╛рдП рд╣реИрдВ, рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдЖрдкрдХреЗ рдкрд╛рд╕ рдХреБрдЫ рдкреНрд░рддрд┐рдХреНрд░рд┐рдпрд╛ рд╣реЛ?
@lukasredynk
рд╣рд╛рдБ, рддреЛ рдпрд╣ рдПрдХ рдХрдЯреНрдЯрд░ рдореБрджреНрджрд╛ рд╣реИ, рдкреБрд╖реНрдЯрд┐ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред
рдЖрдЗрдП рдпрд╣рд╛рдВ рдлрд▓рд╛рд▓реИрди рдкрд░ рдзреНрдпрд╛рди рджреЗрдВ рдХреНрдпреЛрдВрдХрд┐ рдмреБрдирд╛рдИ рдХрд╛ рдореБрджреНрджрд╛ рд╕реНрдкрд░реНрд╢рд░реЗрдЦрд╛ рдЬреИрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИред
рд╕рдВрджрд░реНрдн рдХреЗ рд▓рд┐рдП @luxas рджреНрд╡рд╛рд░рд╛ рдЗрд╕реЗ рджреЗрдЦреЗрдВ, рдпрджрд┐ рдЗрд╕реЗ рдкрд╣рд▓реЗ рд╕реЗ рдирд╣реАрдВ рджреЗрдЦрд╛ рдЧрдпрд╛ рд╣реИ:
https://github.com/luxas/kubeadm-workshop
рдХреНрдпрд╛ рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЕрдкрдиреЗ рдФрд░ рдиреЛрдбреНрд╕ рдкрд░ рд╕рд╣реА рдЖрд░реНрдХ рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЛ рд╕рдВрднрд╛рд▓рдирд╛ рдЪрд╛рд╣рд┐рдП?
_it should_ рд▓реЗрдХрд┐рди рдЬреЛ рдореИрдирд┐рдлреЗрд╕реНрдЯ рдЖрдк рдбрд╛рдЙрдирд▓реЛрдб рдХрд░ рд░рд╣реЗ рд╣реИрдВ рд╡рд╣ "рдореЛрдЯрд╛" рдирд╣реАрдВ рд╣реИ:
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
рдЬрд╣рд╛рдВ рддрдХ тАЛтАЛтАЛтАЛрдореИрдВ рд╕рдордЭрддрд╛ рд╣реВрдВ рдХрд┐ рдХрдЯреНрдЯрд░ рджрд╛рдЧреЛрдВ рдХрд╛ рдкреНрд░рдЪрд╛рд░ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕реЗ рдкреНрд░рддреНрдпреЗрдХ рдиреЛрдб (?) рдкрд░ kubectl
рд╕рд╛рде рдареАрдХ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИред
рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ "рд╡рд╕рд╛" рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╣реИ рдФрд░ рдпрд╣рд╛рдВ рдЬреЛрдбрд╝рд╛ рдЧрдпрд╛ рдерд╛:
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca
рд╕рдВрдмрдВрдзрд┐рдд рдореБрджреНрджрд╛ / рдЬрдирд╕рдВрдкрд░реНрдХ:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989
рдореЗрд░реА рдзрд╛рд░рдгрд╛ рдпрд╣ рд╣реИ рдХрд┐ рдпрд╣ рдЦреВрди рдмрд╣ рд░рд╣рд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рд╣реЛрдЧрд╛:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
рдЗрд╕рд▓рд┐рдП рдХреНрд▓рд╕реНрдЯрд░ рдХреЛ рдиреАрдЪреЗ рд▓рд╛рдПрдВ рдФрд░ рдЗрд╕реЗ рдЖрдЬрдорд╛рдПрдВ рдФрд░ рдЖрд╢рд╛ рдХрд░реЗрдВ рдХрд┐ рдпрд╣ рдХрд╛рдо рдХрд░реЗрдЧрд╛ред
рд╣рдорд╛рд░реЗ рд╕реАрдПрдирдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдХреЛ рдПрдХ рдЯрдХреНрдХрд░ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрдЧреА, рдлрд┐рд░ рднреА рдРрд╕рд╛ рддрдм рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдП рдЬрдм flannel-next
рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПред
рдареАрдХ рд╣реИ, рд╕рдкреНрддрд╛рд╣рд╛рдВрдд рдХреЗ рдмрд╛рдж рдХреЛрд╢рд┐рд╢ рдХрд░реВрдБрдЧрд╛ рдФрд░ рдЕрдкрдиреЗ рдкрд░рд┐рдгрд╛рдо рдпрд╣рд╛рдБ рдкреЛрд╕реНрдЯ рдХрд░реВрдБрдЧрд╛ред рдзрдиреНрдпрд╡рд╛рджред
@lukaszgryglicki рд╣рд╛рдп, рдХреНрдпрд╛ рдЖрдкрдХреЛ рдпрд╣ рдирдП рдлрд▓рд╛рд▓реИрди рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рдХрд╛рдо рдХрд░ рд░рд╣рд╛ рд╣реИ?
рдЕрднреА рдирд╣реАрдВ, рдореИрдВ рдЖрдЬ рдХреЛрд╢рд┐рд╢ рдХрд░реВрдБрдЧрд╛ред
рдареАрдХ рд╣реИ рдЕрдВрдд рдореЗрдВ рдХрд╛рдо рдХрд┐рдпрд╛:
root<strong i="6">@devstats</strong>:/root# kubectl get nodes
NAME STATUS ROLES AGE VERSION
cncftest.io Ready <none> 39s v1.11.1
devstats.cncf.io Ready <none> 46s v1.11.1
devstats.team.io Ready master 12m v1.11.1
рдлрд▓рд╛рд▓реИрди master
рд╢рд╛рдЦрд╛ рд╕реЗ рдлреИрдЯ рдореЗрдирдлреЗрд╕реНрдЯ рдиреЗ рдорджрдж рдХреАред
рдзрдиреНрдпрд╡рд╛рдж, рдЗрд╕реЗ рдмрдВрдж рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИред
рд╣рд╛рдп рджреЛрд╕реНрддреЛрдВ, рдореИрдВ рднреА рдРрд╕реА рд╣реА рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реВрдБред
рдореЗрд░реЗ рдкрд╛рд╕ рд░реЗрдбреА рд╕реНрдЯреЗрдЯ рдореЗрдВ рд╡рд░реНрдХрд░ рдиреЛрдбреНрд╕ рд╣реИрдВ, рд▓реЗрдХрд┐рди рдЖрд░реНрдо64 рдкрд░ рдлрд▓рд╛рд▓реИрди рдЗрд╕ рддреНрд░реБрдЯрд┐ рдХреЗ рд╕рд╛рде рдХреНрд░реИрд╢ рд╣реЛрддрд╛ рд░рд╣рддрд╛ рд╣реИ:
1 main.go:232] Failed to create SubnetManager: error retrieving pod spec for 'kube-system/kube-flannel-ds-arm64-m5jfd': Get https://10.96.0.1:443/api/v1/namespaces/kube-system/pods/kube-flannel-ds-arm64-m5jfd: dial tcp 10.96.0.1:443: i/o timeout
@lukasredynk рдХреНрдпрд╛ рдпрд╣ рдЖрдкрдХреЗ рд▓рд┐рдП рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ?
рдХреЛрдИ рдЙрдкрд╛рдп?
рддреНрд░реБрдЯрд┐ рдЕрд▓рдЧ рдкреНрд░рддреАрдд рд╣реЛрддреА рд╣реИ, рд▓реЗрдХрд┐рди рдХреНрдпрд╛ рдЖрдкрдиреЗ рд╡рд╕рд╛ рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИ: https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ?
рдЗрд╕рдореЗрдВ рдХрдИ рдореЗрд╣рд░рд╛рдмреЛрдВ рдХреЗ рд▓рд┐рдП рдореИрдирд┐рдлрд╝реЗрд╕реНрдЯ рд╢рд╛рдорд┐рд▓ рд╣реИрдВред
рд╣рд╛рдБ рдореИрдВ:
рд╕рдорд╕реНрдпрд╛ рдЕрдм рдпрд╣ рдлрд▓рд╛рд▓реИрди рдХрдВрдЯреЗрдирд░ рд╣реИ рдЬреЛ рд╣рд╛рде рдкрд░ рдирд╣реАрдВ рд░рд╣рддрд╛ рд╣реИред :(
рдпрд╣ amd64
рдФрд░ arm64
рдХрд░рддрд╛ рд╣реИ - рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд░рддрд╛ рд╣реИред
рджреБрд░реНрднрд╛рдЧреНрдп рд╕реЗ, рдореИрдВ arm
(32 рдмрд┐рдЯ) рдХреЗ рд╕рд╛рде рдорджрдж рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдореЗрд░реЗ рдкрд╛рд╕ рдХреЛрдИ arm
рдорд╢реАрди рдЙрдкрд▓рдмреНрдз рдирд╣реАрдВ рд╣реИред
рдореИрдВ arm64 рдкрд░ рд╣реВрдВ рд▓реЗрдХрд┐рди рдзрдиреНрдпрд╡рд╛рдж, рдореИрдВ рдЬрд╛рдВрдЪ рдХрд░рдирд╛ рдЬрд╛рд░реА рд░рдЦреВрдВрдЧрд╛ ...
рдУрд╣, рдлрд┐рд░ рдХреНрд╖рдорд╛ рдХрд░реЗрдВ, рдореБрдЭреЗ рд▓рдЧрд╛ рдХрд┐ рдЖрдк рд╣рд╛рде рдкрд░ рд╣реИрдВред
рд╡реИрд╕реЗ рднреА, рдореИрдВ рднреА рдЗрд╕рдХреЗ рд▓рд┐рдП рдХрд╛рдлреА рдирдпрд╛ рд╣реВрдВ, рдЗрд╕рд▓рд┐рдП рдЖрдкрдХреЛ рдЕрдиреНрдп рд▓реЛрдЧреЛрдВ рдХреА рд╕рд╣рд╛рдпрддрд╛ рдХреЗ рд▓рд┐рдП рдкреНрд░рддреАрдХреНрд╖рд╛ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИред
рдХреГрдкрдпрд╛ kubectl describe pods --all-namespace
рдЖрдЙрдЯрдкреБрдЯ рдФрд░ рдЕрдиреНрдп рдХрдорд╛рдВрдб рдХреЗ рд╕рдВрднрд╛рд╡рд┐рдд рдЖрдЙрдЯрдкреБрдЯ рдХреЛ рдкреЗрд╕реНрдЯ рдХрд░реЗрдВ рдЬрд┐рдиреНрд╣реЗрдВ рдореИрдВрдиреЗ рдЗрд╕ рдереНрд░реЗрдб рдореЗрдВ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рд╣реИред рдпрд╣ рдХрд┐рд╕реА рдХреЛ рд╡рд╛рд╕реНрддрд╡рд┐рдХ рд╕рдорд╕реНрдпрд╛ рдХреЛ рдЯреНрд░реИрдХ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░ рд╕рдХрддрд╛ рд╣реИред
рдзрдиреНрдпрд╡рд╛рдж @lukaszgryglicki ,
рдпрд╣ рд╡рд░реНрдгрди рдлрд▓реА рдХрд╛ рдЖрдЙрдЯрдкреБрдЯ рд╣реИ: https://pastebin.com/kBVPYsMd
@lukaszgryglicki
рдЦреБрд╢реА рд╣реИ рдХрд┐ рдпрд╣ рдЕрдВрдд рдореЗрдВ рдХрд╛рдо рдХрд┐рдпрд╛ред
рдореИрдВ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдореЗрдВ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рд╡рд╕рд╛ рдкреНрд░рдХрдЯ рдЙрдкрдпреЛрдЧ рдХрд╛ рджрд╕реНрддрд╛рд╡реЗрдЬреАрдХрд░рдг рдХрд░реВрдВрдЧрд╛, рдХреНрдпреЛрдВрдХрд┐ рдореБрдЭреЗ рдирд╣реАрдВ рдкрддрд╛ рдХрд┐ 0.11.0 рдХрдм рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПрдЧрд╛ред
@ рд▓реАрди15
рдЕрд╕рдлрд▓ рдлрд▓реА рд╕реЗ рдкреНрд░рд╛рд╕рдВрдЧрд┐рдХ:
Warning FailedCreatePodSandBox 3m (x5327 over 7h) kubelet, nanopi-neo-plus2 (combined from similar events): Failed create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "9ddb551d520a757f4f8ff81d1dbfde50a98a5ec65385673a5a49a79e23a3243b" network for pod "arm-test-7894bfffd-njdcc": NetworkPlugin cni failed to set up pod "arm-test-7894bfffd-njdcc_default" network: open /run/flannel/subnet.env: no such file or directory
рдХреНрдпрд╛ рдЖрдк --pod-network-cidr=...
рдЬреЛрдбрд╝ рд░рд╣реЗ рд╣реИрдВ рдЬреЛ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рдЖрд╡рд╢реНрдпрдХ рд╣реИ?
рдЗрд╕ рдЧрд╛рдЗрдб рдХреЛ рднреА рдЖрдЬрдорд╛рдПрдВ:
https://github.com/kubernetes/kubernetes/issues/36575#issuecomment -264622923
@ neolit123 рд╣рд╛рдБ, рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдорд┐рд▓реА: рдлрд▓рд╛рд▓реИрди рдиреЗ рд╡рд░реНрдЪреБрдЕрд▓ рдиреЗрдЯрд╡рд░реНрдХ рдЗрдВрдЯрд░рдлрд╝реЗрд╕ (cni рдФрд░ flannel0) рдирд╣реАрдВ рдмрдирд╛рдпрд╛ред
рдореБрдЭреЗ рдЗрд╕рдХрд╛ рдХрд╛рд░рдг рдирд╣реАрдВ рдкрддрд╛ рдФрд░ рдореИрдВ рдХрдИ рдШрдВрдЯреЛрдВ рдХреЗ рдмрд╛рдж рдЗрд╕реЗ рд╣рд▓ рдХрд░рдиреЗ рдореЗрдВ рд╡рд┐рдлрд▓ рд░рд╣рд╛ред
рдореИрдВрдиреЗ рд╣рд╛рд░ рдорд╛рди рд▓реА рдФрд░ рдЭреБрдВрдб рдореЗрдВ рдЪрд▓рд╛ рдЧрдпрд╛ред
рдареАрдХ рд╣реИ рд╕рдордЭ рдЧрдпрд╛ред рдЙрд╕ рдорд╛рдорд▓реЗ рдореЗрдВ рдореИрдВ рдЗрд╕ рдореБрджреНрджреЗ рдХреЛ рдмрдВрдж рдХрд░ рд░рд╣рд╛ рд╣реВрдБред
рдзрдиреНрдпрд╡рд╛рджред
рдореИрдВ рднреА рдЙрд╕реА рд╕рдорд╕реНрдпрд╛ рдореЗрдВ рднрд╛рдЧ рдЧрдпрд╛, рдФрд░ рдореИрдВрдиреЗ рдкрд╛рдпрд╛ рдХрд┐ рдЪреАрди рдореЗрдВ GFW рдХреЗ рдХрд╛рд░рдг рдиреЛрдб рдЖрд╡рд╢реНрдпрдХ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдирд╣реАрдВ рдЦреАрдВрдЪ рд╕рдХрддрд╛ рд╣реИ, рдЗрд╕рд▓рд┐рдП рдореИрдВ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдореИрдиреНрдпреБрдЕрд▓ рд░реВрдк рд╕реЗ рдЦреАрдВрдЪрддрд╛ рд╣реВрдВ рдФрд░ рдпрд╣ рдареАрдХ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ
рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:
рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:
рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░
рдиреЛрдб02 рддреИрдпрд╛рд░
рдирдорд╕реНрддреЗ,
рдореЗрд░реЗ рдкрд╛рд╕ 1 рдорд╛рд╕реНрдЯрд░ рдФрд░ 2 рдиреЛрдб рд╣реИрдВред рджреВрд╕рд░рд╛ рдиреЛрдб рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рдирд╣реАрдВ рд╣реИред
root@kube1 :~# kubectl рдХреЛ рдиреЛрдбреНрд╕ рдорд┐рд▓рддреЗ рд╣реИрдВ
рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
dockerlab1 рддреИрдпрд╛рд░
kube1 рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 4h12m v1.14.3
рд▓реИрдмрд╕рд░реНрд╡рд░1 рддреИрдпрд╛рд░ рдирд╣реАрдВ
root@kube1 :~# kubectl рдкреЙрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ --all-namespaces
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдлрд┐рд░ рд╕реЗ рд╢реБрд░реВ рд╣реЛрддреА рд╣реИ рдЖрдпреБ
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрди-fb8b8dccf-72llr 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрдиреНрд╕-fb8b8dccf-n9v82 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо etcd-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
kube-system kube-apiserver-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдХрдВрдЯреНрд░реЛрд▓рд░-рдореИрдиреЗрдЬрд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 0/1 рдЗрдирд┐рдЯ: 0/1 0 24 рдореА
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-рдПрдПрдордбреА64-рдЖрд░рдПрд╕рдПрдирдЬреЗ 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-xsj72 1/1 рд░рдирд┐рдВрдЧ 0 4h1m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-7m8jg 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо7рдЬреАрдбреАрд╕реА 0/1 рдХрдВрдЯреЗрдирд░ рдмрдирд╛рдирд╛ 0 24m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-xgq6p 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
root@kube1 :~# Kubectl рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ
рдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рднреВрдорд┐рдХрд╛рдПрдБ:
рд▓реЗрдмрд▓: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
Kubernetes.io/arch=amd64
Kubernetes.io/hostname=labserver1
Kubernetes.io/os=linux
рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдВ: kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock
node.alpha.kubernetes.io/ttl: 0
Volume.kubernetes.io/controller-managed-attach-detach: true
рдирд┐рд░реНрдорд╛рдг рдЯрд╛рдЗрдорд╕реНрдЯреИрдореНрдк: рд╕реВрд░реНрдп, 09 рдЬреВрди 2019 21:03:57 +0800
рджрд╛рдЧ: node.kubernetes.io/not- рддреИрдпрд╛рд░: NoExecute
node.kubernetes.io/not- рддреИрдпрд╛рд░:NoSchedule
рдЕрдирд┐рд░реНрдзрд╛рд░рд┐рдд: рдЕрд╕рддреНрдп
рд╢рд░реНрддреЗрдБ:
рдЯрд╛рдЗрдк рдХрд░реЗрдВ Status LastHeartbeatTime LastTransitionTime рдХрд╛рд░рдг рд╕рдВрджреЗрд╢
-------------------------------------------------------------- -----------
рдореЗрдореЛрд░реАрдкреНрд░реЗрд╢рд░ рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рд╣реИрдореЗрдореЛрд░реА рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рдореЗрдореЛрд░реА рдЙрдкрд▓рдмреНрдз рд╣реИ
DiskPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasNoDiskPressure kubelet рдореЗрдВ рдХреЛрдИ рдбрд┐рд╕реНрдХ рдкреНрд░реЗрд╢рд░ рдирд╣реАрдВ рд╣реИ
PIDPPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasSufficientPID рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд PID рдЙрдкрд▓рдмреНрдз рд╣реИ
рд░реЗрдбреА рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletNotReady рд░рдирдЯрд╛рдЗрдо рдиреЗрдЯрд╡рд░реНрдХ рддреИрдпрд╛рд░ рдирд╣реАрдВ: NetworkReady=рдЧрд▓рдд рдХрд╛рд░рдг: NetworkPluginNotReady рд╕рдВрджреЗрд╢: docker : рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд
рдкрддреЗ:
рдЖрдВрддрд░рд┐рдХ рдЖрдИрдкреА: 172.31.8.125
рд╣реЛрд╕реНрдЯрдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рдХреНрд╖рдорддрд╛:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 18108284Ki
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1122528рдХрд┐
рдлрд▓реА: 110
рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 16688594507
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1020128рдХрд┐
рдлрд▓реА: 110
рд╡реНрдпрд╡рд╕реНрдерд╛ рдХреА рд╕реВрдЪрдирд╛:
рдорд╢реАрди рдЖрдИрдбреА: 292dc4560f9309ccdd72b6935c80e8ec
рд╕рд┐рд╕реНрдЯрдо рдпреВрдпреВрдЖрдИрдбреА: DE4707DF-5516-784A-9B41-588FCDE49369
рдмреВрдЯ рдЖрдИрдбреА: 828d124c-b687-43f6-bffa-6a3e1e6e17e6
рдХрд░реНрдиреЗрд▓ рд╕рдВрд╕реНрдХрд░рдг: 4.4.0-142-рдЬреЗрдиреЗрд░рд┐рдХ
рдУрдПрд╕ рдЫрд╡рд┐: рдЙрдмрдВрдЯреВ 16.04.6 рдПрд▓рдЯреАрдПрд╕
рдСрдкрд░реЗрдЯрд┐рдВрдЧ рд╕рд┐рд╕реНрдЯрдо: рд▓рд┐рдирдХреНрд╕
рд╡рд╛рд╕реНрддреБрдХрд▓рд╛: amd64
рдХрдВрдЯреЗрдирд░ рд░рдирдЯрд╛рдЗрдо рд╕рдВрд╕реНрдХрд░рдг : рдбреЙрдХрдЯрд░: //18.9.6
рдХреНрдпреВрдмрд▓реЗрдЯ рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдкреЙрдбрд╕реАрдЖрдИрдбреАрдЖрд░: 10.244.3.0/24
рдиреЙрди-рдЯрд░реНрдорд┐рдиреЗрдЯреЗрдб рдкреЙрдбреНрд╕: (рдХреБрд▓ 2)
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рд╕реАрдкреАрдпреВ рдЕрдиреБрд░реЛрдз рд╕реАрдкреАрдпреВ рд╕реАрдорд╛ рдореЗрдореЛрд░реА рдЕрдиреБрд░реЛрдз рдореЗрдореЛрд░реА рд╕реАрдорд╛ рдЖрдпреБ
----------------------------------------------------------- ------------------
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 100m (10%) 100m (10%) 50Mi (5%) 50Mi (5%) 25m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо 7 рдЬреАрдбреАрд╕реА 0 (0%) 0 (0%) 0 (0%) 0 (0%) 25 рдореАрдЯрд░
рдЖрд╡рдВрдЯрд┐рдд рд╕рдВрд╕рд╛рдзрди:
(рдХреБрд▓ рд╕реАрдорд╛ 100 рдкреНрд░рддрд┐рд╢рдд рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рд╕рдХрддреА рд╣реИ, рдЕрд░реНрдерд╛рдд, рдЕрддрд┐рдкреНрд░рддрд┐рдмрджреНрдзред)
рд╕рдВрд╕рд╛рдзрди рдЕрдиреБрд░реЛрдз рд╕реАрдорд╛рдПрдВ
----------------------------
рд╕реАрдкреАрдпреВ 100 рдореАрдЯрд░ (10%) 100 рдореАрдЯрд░ (10%)
рдореЗрдореЛрд░реА 50Mi (5%) 50Mi (5%)
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг 0 (0%) 0 (0%)
рдЖрдпреЛрдЬрди:
рд╕рдВрджреЗрд╢ рд╕реЗ рдХрд╛рд░рдг рдЖрдпреБ рдЯрд╛рдЗрдк рдХрд░реЗрдВ
----------------------------------
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп 25 рдореАрдЯрд░ рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░ 1 рдХреНрдпреВрдмрд▓реЗрдЯ рд╢реБрд░реВ рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 25m kubelet, labserver1 рдкреЙрдбреНрд╕ рдореЗрдВ рдЕрджреНрдпрддрди рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд░реВрдЯ@рдХреНрдпреВрдм1 :~#
рдХреГрдкрдпрд╛ рд╕рд╣рд╛рдпрддрд╛ рдХреАрдЬрд┐рдП
рдирдорд╕реНрддреЗ,
рдореЗрд░реЗ рдкрд╛рд╕ 1 рдорд╛рд╕реНрдЯрд░ рдФрд░ 2 рдиреЛрдб рд╣реИрдВред рджреВрд╕рд░рд╛ рдиреЛрдб рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рдирд╣реАрдВ рд╣реИред
root@kube1 :~# kubectl рдХреЛ рдиреЛрдбреНрд╕ рдорд┐рд▓рддреЗ рд╣реИрдВ
рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
dockerlab1 рддреИрдпрд╛рд░ 3h57m v1.14.3
kube1 рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 4h12m v1.14.3
Labserver1 рддреИрдпрд╛рд░ рдирд╣реАрдВ 22m v1.14.3root@kube1 :~# kubectl рдкреЙрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ --all-namespaces
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдлрд┐рд░ рд╕реЗ рд╢реБрд░реВ рд╣реЛрддреА рд╣реИ рдЖрдпреБ
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрди-fb8b8dccf-72llr 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрдиреНрд╕-fb8b8dccf-n9v82 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо etcd-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
kube-system kube-apiserver-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдХрдВрдЯреНрд░реЛрд▓рд░-рдореИрдиреЗрдЬрд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 0/1 рдЗрдирд┐рдЯ: 0/1 0 24 рдореА
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-рдПрдПрдордбреА64-рдЖрд░рдПрд╕рдПрдирдЬреЗ 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-xsj72 1/1 рд░рдирд┐рдВрдЧ 0 4h1m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-7m8jg 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо7рдЬреАрдбреАрд╕реА 0/1 рдХрдВрдЯреЗрдирд░ рдмрдирд╛рдирд╛ 0 24m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-xgq6p 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рд╢реЗрдбреНрдпреВрд▓рд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
root@kube1 :~# Kubectl рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ
рдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рднреВрдорд┐рдХрд╛рдПрдБ:
рд▓реЗрдмрд▓: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
Kubernetes.io/arch=amd64
Kubernetes.io/hostname=labserver1
Kubernetes.io/os=linux
рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдВ: kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock
node.alpha.kubernetes.io/ttl: 0
Volume.kubernetes.io/controller-managed-attach-detach: true
рдирд┐рд░реНрдорд╛рдг рдЯрд╛рдЗрдорд╕реНрдЯреИрдореНрдк: рд╕реВрд░реНрдп, 09 рдЬреВрди 2019 21:03:57 +0800
рджрд╛рдЧ: node.kubernetes.io/not- рддреИрдпрд╛рд░: NoExecute
node.kubernetes.io/not- рддреИрдпрд╛рд░:NoSchedule
рдЕрдирд┐рд░реНрдзрд╛рд░рд┐рдд: рдЕрд╕рддреНрдп
рд╢рд░реНрддреЗрдБ:
рдЯрд╛рдЗрдк рдХрд░реЗрдВ Status LastHeartbeatTime LastTransitionTime рдХрд╛рд░рдг рд╕рдВрджреЗрд╢рдореЗрдореЛрд░реАрдкреНрд░реЗрд╢рд░ рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рд╣реИрдореЗрдореЛрд░реА рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рдореЗрдореЛрд░реА рдЙрдкрд▓рдмреНрдз рд╣реИ
DiskPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasNoDiskPressure kubelet рдореЗрдВ рдХреЛрдИ рдбрд┐рд╕реНрдХ рдкреНрд░реЗрд╢рд░ рдирд╣реАрдВ рд╣реИ
PIDPPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasSufficientPID рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд PID рдЙрдкрд▓рдмреНрдз рд╣реИ
рд░реЗрдбреА рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletNotReady рд░рдирдЯрд╛рдЗрдо рдиреЗрдЯрд╡рд░реНрдХ рддреИрдпрд╛рд░ рдирд╣реАрдВ: NetworkReady=рдЧрд▓рдд рдХрд╛рд░рдг: NetworkPluginNotReady рд╕рдВрджреЗрд╢: docker : рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд
рдкрддреЗ:
рдЖрдВрддрд░рд┐рдХ рдЖрдИрдкреА: 172.31.8.125
рд╣реЛрд╕реНрдЯрдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рдХреНрд╖рдорддрд╛:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 18108284Ki
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1122528рдХрд┐
рдлрд▓реА: 110
рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 16688594507
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1020128рдХрд┐
рдлрд▓реА: 110
рд╡реНрдпрд╡рд╕реНрдерд╛ рдХреА рд╕реВрдЪрдирд╛:
рдорд╢реАрди рдЖрдИрдбреА: 292dc4560f9309ccdd72b6935c80e8ec
рд╕рд┐рд╕реНрдЯрдо рдпреВрдпреВрдЖрдИрдбреА: DE4707DF-5516-784A-9B41-588FCDE49369
рдмреВрдЯ рдЖрдИрдбреА: 828d124c-b687-43f6-bffa-6a3e1e6e17e6
рдХрд░реНрдиреЗрд▓ рд╕рдВрд╕реНрдХрд░рдг: 4.4.0-142-рдЬреЗрдиреЗрд░рд┐рдХ
рдУрдПрд╕ рдЫрд╡рд┐: рдЙрдмрдВрдЯреВ 16.04.6 рдПрд▓рдЯреАрдПрд╕
рдСрдкрд░реЗрдЯрд┐рдВрдЧ рд╕рд┐рд╕реНрдЯрдо: рд▓рд┐рдирдХреНрд╕
рд╡рд╛рд╕реНрддреБрдХрд▓рд╛: amd64
рдХрдВрдЯреЗрдирд░ рд░рдирдЯрд╛рдЗрдо рд╕рдВрд╕реНрдХрд░рдг : рдбреЙрдХрдЯрд░: //18.9.6
рдХреНрдпреВрдмрд▓реЗрдЯ рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдкреЙрдбрд╕реАрдЖрдИрдбреАрдЖрд░: 10.244.3.0/24
рдиреЙрди-рдЯрд░реНрдорд┐рдиреЗрдЯреЗрдб рдкреЙрдбреНрд╕: (рдХреБрд▓ 2)
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рд╕реАрдкреАрдпреВ рдЕрдиреБрд░реЛрдз рд╕реАрдкреАрдпреВ рд╕реАрдорд╛ рдореЗрдореЛрд░реА рдЕрдиреБрд░реЛрдз рдореЗрдореЛрд░реА рд╕реАрдорд╛ рдЖрдпреБрдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 100m (10%) 100m (10%) 50Mi (5%) 50Mi (5%) 25m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо 7 рдЬреАрдбреАрд╕реА 0 (0%) 0 (0%) 0 (0%) 0 (0%) 25 рдореАрдЯрд░
рдЖрд╡рдВрдЯрд┐рдд рд╕рдВрд╕рд╛рдзрди:
(рдХреБрд▓ рд╕реАрдорд╛ 100 рдкреНрд░рддрд┐рд╢рдд рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рд╕рдХрддреА рд╣реИ, рдЕрд░реНрдерд╛рдд, рдЕрддрд┐рдкреНрд░рддрд┐рдмрджреНрдзред)
рд╕рдВрд╕рд╛рдзрди рдЕрдиреБрд░реЛрдз рд╕реАрдорд╛рдПрдВрд╕реАрдкреАрдпреВ 100 рдореАрдЯрд░ (10%) 100 рдореАрдЯрд░ (10%)
рдореЗрдореЛрд░реА 50Mi (5%) 50Mi (5%)
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг 0 (0%) 0 (0%)
рдЖрдпреЛрдЬрди:
рд╕рдВрджреЗрд╢ рд╕реЗ рдХрд╛рд░рдг рдЖрдпреБ рдЯрд╛рдЗрдк рдХрд░реЗрдВрд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп 25 рдореАрдЯрд░ рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░ 1 рдХреНрдпреВрдмрд▓реЗрдЯ рд╢реБрд░реВ рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 25m kubelet, labserver1 рдкреЙрдбреНрд╕ рдореЗрдВ рдЕрджреНрдпрддрди рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд░реВрдЯ@рдХреНрдпреВрдм1 :~#рдХреГрдкрдпрд╛ рд╕рд╣рд╛рдпрддрд╛ рдХреАрдЬрд┐рдП
рд╣рд╛рдп рдЕрдерд┐рд░,
Please check out logs in /var/logs/messages section of your Master node. You can find an actual error in those logs. But here are some general tips.
рдореИрдВред рд╣рдореЗрд╢рд╛ рдкрд╣рд▓реЗ рдЕрдкрдиреЗ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд░реЗрдВред
рджреНрд╡рд┐рддреАрдп рдЙрд╕ рдкрд░ рдбреЙрдХрд░ рдЗрдВрдЬрди рд╕реНрдерд╛рдкрд┐рдд рдХрд░реЗрдВ рдФрд░ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреЛрдЧ рдХреА рдЬрд╛ рд░рд╣реА рд╕рднреА рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВред рдЬрдм рд╕рдм рдХреБрдЫ рдЪрд╛рд▓реВ рд░реВрдк рдореЗрдВ рд╣реЛрдЧрд╛, рддрдм рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рдиреЛрдбреНрд╕ рдЬреЛрдбрд╝реЗрдВред рдпрд╣ рд╕рднреА рдореБрджреНрджреЗ рдХреЛ рд╣рд▓ рдХрд░реЗрдЧрд╛ред рдореИрдВрдиреЗ рдЗрдВрдЯрд░рдиреЗрдЯ рдкрд░ рдХреБрдЫ рд▓реЗрдЦ рджреЗрдЦреЗ, рдЬреЛ рд╕реНрд▓реЗрд╡ рдиреЛрдбреНрд╕ рдХреЛ рд╕рдВрд▓рдЧреНрди рдХрд░рдиреЗ рдХреЗ рдмрд╛рдж рдХреБрдЫ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рд▓рд╛рдиреЗ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░рддреЗ рд╣реИрдВред рд╡рд╣ рдЕрднреНрдпрд╛рд╕ рдХреБрдЫ рдкрд░реЗрд╢рд╛рдиреА рдХрд╛ рдХрд╛рд░рдг рдмрдирддрд╛ рд╣реИред
рд╣рд╛рдп рд╕рджреНрджреАрдХреА164, рдЖрдкрдХреЗ рд╕реБрдЭрд╛рд╡реЛрдВ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред рд╣рд╛рдБ рдЬреИрд╕рд╛ рдХрд┐ рдЖрдкрдиреЗ рдХрд╣рд╛ рдерд╛ рдХрд┐ рдореИрдВрдиреЗ рдХрд▓ рдПрдХ рдФрд░ рдирдпрд╛ рджрд╛рд╕ рдиреЛрдб рддреИрдирд╛рдд рдХрд┐рдпрд╛ рдерд╛ рдФрд░ рдмрд┐рдирд╛ рдХрд┐рд╕реА рд╕рдорд╕реНрдпрд╛ рдХреЗ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реЛрдиреЗ рдореЗрдВ рд╕рдХреНрд╖рдо рдерд╛ред
рдХреНрд╖рдорд╛ рдХрд░реЗрдВ, рдореИрдВ рдорджрдж рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдореЗрд░реЗ рдкрд╛рд╕ рдЕрдм ARM64 рдиреЛрдбреНрд╕ рдирд╣реАрдВ рд╣реИрдВ, рдЕрдм рдореЗрд░реЗ рдкрд╛рд╕ 4 рдиреЛрдб AMD64 рдмреЗрдпрд░-рдореЗрдЯрд▓ рдХреНрд▓рд╕реНрдЯрд░ рд╣реИред
рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА рдЗрд╕рдХреЗ рдХреЙрдиреНрдлрд┐рдЧрд░реЗрд╢рди рдореЗрдВред
"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред
рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА рдЗрд╕рдХреЗ рдХреЙрдиреНрдлрд┐рдЧрд░реЗрд╢рди рдореЗрдВред
"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред
1.15.0 рд╕реЗ V1.16.0 рдореЗрдВ рдЕрдкрдбреЗрдЯ рд╣реЛрдиреЗ рдкрд░ рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред
dGVzdDoxMjPCow
24 рд╕рд┐рддрдВ,, 2019 12:52 рдкрд░, "ronakgpatel" [email protected] рд▓рд┐рдЦрд╛ рд╣реИ:
рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА
рдЗрд╕рдХреА рд╡рд┐рдиреНрдпрд╛рд╕ред"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред
1.15.0 рд╕реЗ V1.16.0 рдореЗрдВ рдЕрдкрдбреЗрдЯ рд╣реЛрдиреЗ рдкрд░ рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред
-
рдЖрдк рдЗрд╕реЗ рдкреНрд░рд╛рдкреНрдд рдХрд░ рд░рд╣реЗ рд╣реИрдВ рдХреНрдпреЛрдВрдХрд┐ рдЖрдкрдиреЗ рдЗрд╕ рдереНрд░реЗрдб рдХреА рд╕рджрд╕реНрдпрддрд╛ рд▓реА рд╣реИред
рдЗрд╕ рдИрдореЗрд▓ рдХрд╛ рд╕реАрдзреЗ рдЙрддреНрддрд░ рджреЗрдВ, рдЗрд╕реЗ GitHub рдкрд░ рджреЗрдЦреЗрдВ
https://github.com/kubernetes/kubeadm/issues/1031?email_source=notifications&email_token=AND2HJTXHB6WSGAE7PSOAJTQLGMKVA5CNFSM4FNQHEHKYY3PNVWWWK3TUL52HS4DFVREXG43VMVBW63#IGOD78N78ZLOZ
рдпрд╛ рдереНрд░реЗрдб рдХреЛ рдореНрдпреВрдЯ рдХрд░реЗрдВ
https://github.com/notifications/unsubscribe-auth/AND2HJXDKQARYKXVY4YLZMDQLGMKVANCNFSM4FNQHEHA
.
рдлрд▓рд╛рд▓реИрди рдмрд╣реБрдд рд╕рдХреНрд░рд┐рдп рд░реВрдк рд╕реЗ рдмрдирд╛рдП рдирд╣реАрдВ рд░рдЦрд╛ рдЬрд╛рддрд╛ рд╣реИред рдореИрдВ рдХреИрд▓рд┐рдХреЛ рдпрд╛ рд╡реАрд╡рдиреЗрдЯ рдХреА рд╕рд▓рд╛рд╣ рджреЗрддрд╛ рд╣реВрдВред
рдлрд▓рд╛рд▓реИрди рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХреЛ рдПрдХ рдлрд┐рдХреНрд╕ рдХреА рдЬрд░реВрд░рдд рдереАред
рдлрд▓рд╛рд▓реИрди рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдмреЗрджрдо рдЧрд╛рдЗрдб рдХреЛ рдЕрднреА рдЕрдкрдбреЗрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛, рджреЗрдЦреЗрдВ:
https://github.com/kubernetes/website/pull/16575/files
рдпрд╣рд╛рдВ рдПрдХ рд╣реА рдореБрджреНрджреЗ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред
Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.ymlред
рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд┐рдпрд╛ред
рдбреЛрдХрд░: рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд
рдкрд╣рд▓реЗ рд╕реЗ рд╣реА рдиреЛрдб рдкрд░ рдбреЙрдХрдЯрд░ рдХреЛ рдкреБрдирд░реНрд╕реНрдерд╛рдкрд┐рдд рдХрд░реЗрдВред
рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд┐рдпрд╛ред
рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:
- Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░ 3h6m v1.14.1
рдиреЛрдб02 рддреИрдпрд╛рд░ 167m v1.14.1
рдмрд╕ рдпрд╣реА рдХрд┐рдпрд╛!
рдореЗрд░реЗ рдкрд╛рд╕ рдПрдХ рдРрд╕рд╛ рд╣реА рдорд╛рдорд▓рд╛ рдерд╛ рдЬрд╣рд╛рдВ рдореИрдВ рд╢реНрд░рдорд┐рдХреЛрдВ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рдкрд╣рд▓реЗ рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рдмрдирд╛ рд░рд╣рд╛ рдерд╛, рдЬрд┐рд╕рдиреЗ /etc/cni/net.d рдХреЛ рдЧрд╛рдпрдм рд░рдЦрд╛ред
рдореИрдВрдиреЗ рдХрд╛рд░реНрдпрдХрд░реНрддрд╛ рдиреЛрдбреНрд╕ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рдХреЗ рдмрд╛рдж рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рдХреЛ рдлрд┐рд░ рд╕реЗ рдирд┐рд╖реНрдкрд╛рджрд┐рдд рдХрд┐рдпрд╛:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
рдирддреАрдЬрддрди, /etc/cni/net.d рдореЗрдВ рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ рдмрдирд╛рдпрд╛ рдЧрдпрд╛ рдерд╛ рдФрд░ рдиреЛрдб рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдореЗрдВ рджрд┐рдЦрд╛рдпрд╛ рдЧрдпрд╛ рдерд╛ред
рдЙрдореНрдореАрдж рд╣реИ рдХрд┐ рдПрдХ рд╣реА рдореБрджреНрджреЗ рдХреЗ рд╕рд╛рде рдХрд┐рд╕реА рдХреА рдорджрдж рдХрд░рддрд╛ рд╣реИред
рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:
- Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░ 3h6m v1.14.1
рдиреЛрдб02 рддреИрдпрд╛рд░ 167m v1.14.1
рдЙрд╕ рдХрдорд╛рдВрдб рдХреЛ рдорд╛рд╕реНрдЯрд░ рдорд╢реАрди рдкрд░ рдЪрд▓рд╛рдПрдВ рдФрд░ рдЕрдм рд╕рдм рдХреБрдЫ рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИред рдзрдиреНрдпрд╡рд╛рдж @saddique164 ред
рд╕рдмрд╕реЗ рддреЗрдЬрд╝ рддрд░реАрдХрд╛ рд╣реИ рдХрд┐ рдпрд╛ рддреЛ AMD64 рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдкрд░ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдореЗрдВ рдлрд▓рд╛рд▓реИрди рдХреЛ рдЬреЛрдбрд╝рд╛ рдЬрд╛рдПред
$ curl https://rawgit.com/coreos/flannel/master/Documentation/kube-flannel.yml \
> kube-flannel.yaml
$ kubectl apply -f kube-flannel.yaml
рдореИрдВ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ 1.18 рд╕рдВрд╕реНрдХрд░рдг рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд░рд╣рд╛ рд╣реВрдВред
рдореИрдВрдиреЗ рдЗрд╕рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛: Kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
/etc/cni/net.d . рдХреЗ рдЕрдВрддрд░реНрдЧрдд рдХреЛрдИ рдлрд╝рд╛рдЗрд▓ рдирд╣реАрдВ рдмрдирд╛рдИ рдЧрдИ рдереА
рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ рдЬрдмрдХрд┐ рджрд╛рд╕ рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рд╣реИрдВ
рдореИрдВ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ 1.18 рд╕рдВрд╕реНрдХрд░рдг рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд░рд╣рд╛ рд╣реВрдВред
рдореИрдВрдиреЗ рдЗрд╕рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛: Kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
/etc/cni/net.d . рдХреЗ рдЕрдВрддрд░реНрдЧрдд рдХреЛрдИ рдлрд╝рд╛рдЗрд▓ рдирд╣реАрдВ рдмрдирд╛рдИ рдЧрдИ рдереА
рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ рдЬрдмрдХрд┐ рджрд╛рд╕ рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рд╣реИрдВ
рдиреЛрдЯ: рдпрд╣ рдХреНрдпреВрдмрд▓реЗрдЯ рдореБрджреНрджрд╛ рдкреНрд░рддреАрдд рд╣реЛрддрд╛ рд╣реИред
Jul 01 11:58:36 master kubelet[17918]: F0701 11:58:36.613864 17918 kubelet.go:1383] Failed to start ContainerManager failed to initialize top level QOS containers: failed to update top level Burstable QOS cgroup : failed to set supported cgroup subsystems for cgroup [kubepods burstable]: failed to find subsystem mount for required subsystem: pids
Jul 01 11:58:36 master systemd[1]: kubelet.service: main process exited, code=exited, status=255/n/a
Jul 01 11:58:36 master systemd[1]: Unit kubelet.service entered failed state.
Jul 01 11:58:36 master systemd[1]: kubelet.service failed.
рдЗрд╕реЗ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдЖрдЬрд╝рдорд╛рдПрдВ:
sed -i 's/cgroup-driver=systemd/cgroup-driver=cgroupfs/g' /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf
рдпрд╣ рд╢реБрд░реВ рд╣реЛрддрд╛ рд╣реИ рдФрд░ рдлрд┐рд░ рд╡рд┐рдлрд▓ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИред
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692341 15525 remote_runtime.go:59] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692358 15525 remote_runtime.go:59] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692381 15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692389 15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692420 15525 remote_image.go:50] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692427 15525 remote_image.go:50] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692435 15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692440 15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692464 15525 kubelet.go:292] Adding pod path: /etc/kubernetes/manifests
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692480 15525 kubelet.go:317] Watching apiserver
Jul 02 10:37:16 master kubelet[15525]: W0702 10:37:16.680313 15525 cni.go:237] Unable to update cni config: no networks found in /etc/cni/net.d
рдЕрдЧрд░ рдЖрдк рджреЗрдЦ рд░рд╣реЗ рд╣реИрдВ рддреЛ рдпрд╣ рдХрд╣ рд░рд╣рд╛ рд╣реИ рдХрд┐ рдХреЛрдИ рдиреЗрдЯрд╡рд░реНрдХ рдирд╣реАрдВ рдорд┐рд▓рд╛ред рдЗрд╕ рдЖрджреЗрд╢ рдХреЛ рдЪрд▓рд╛рдПрдБ рдФрд░ рдкрд░рд┐рдгрд╛рдо рд╕рд╛рдЭрд╛ рдХрд░реЗрдВред
Kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
coredns-75f8564758-92ws7 1/1 Running 0 25h
coredns-75f8564758-z9xn8 1/1 Running 0 25h
kube-flannel-ds-amd64-2j4mw 1/1 Running 0 25h
kube-flannel-ds-amd64-5tmhp 0/1 Pending 0 25h
kube-flannel-ds-amd64-rqwmz 1/1 Running 0 25h
kube-proxy-6v24w 1/1 Running 0 25h
kube-proxy-jgdw7 0/1 Pending 0 25h
kube-proxy-qppnk 1/1 Running 0 25h
рдЗрд╕реЗ рд░рди рдХрд░реЛ
kubectl рд▓реЙрдЧреНрд╕ kube-flannel-ds-amd64-5tmhp -n kube-system
рдЕрдЧрд░ рдХреБрдЫ рдирд╣реАрдВ рдЖрддрд╛ рд╣реИ рддреЛ рдЗрд╕реЗ рдЪрд▓рд╛рдПрдБ:
Kubectl рдкреЙрдб рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-5tmhp -n рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ
рд╕рд░реНрд╡рд░ рд╕реЗ рддреНрд░реБрдЯрд┐: рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ https://10.75.214.124 :10250/containerLogs/kube-system/kube-flannel-ds-amd64-5tmhp/kube-flannel: рдбрд╛рдпрд▓ tcp 10.75.214.124:10250: рдХрдиреЗрдХреНрдЯ рдХрд░реЗрдВ: рдХрдиреЗрдХреНрд╢рди рдЕрд╕реНрд╡реАрдХреГрдд
рдЖрдкрдХреЗ рд▓рд┐рдП рдХрд┐рддрдиреЗ рдиреЛрдб рдЪрд▓ рд░рд╣реЗ рд╣реИрдВ? рдХреНрд▓рд╕реНрдЯрд░ рдореЗрдВ? рдПрдХ рдиреЛрдб рдпрд╣ рд╕рдорд╕реНрдпрд╛ рдХрд░ рд░рд╣рд╛ рд╣реИред рдЗрд╕реЗ рдбреЗрдореЛрдВрд╕реЗрдЯ рдХрд╣рддреЗ рд╣реИрдВред рд╡реЗ рд╣рд░ рдиреЛрдб рдкрд░ рдЪрд▓рддреЗ рд╣реИрдВред рдЖрдкрдХреА рдирд┐рдпрдВрддреНрд░рдг рдпреЛрдЬрдирд╛ рдЗрд╕рд╕реЗ рдЕрдиреБрд░реЛрдз рд╕реНрд╡реАрдХрд╛рд░ рдирд╣реАрдВ рдХрд░ рд░рд╣реА рд╣реИред рддреЛ рдореИрдВ рдЖрдкрдХреЛ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рдЪрд░рдгреЛрдВ рдХрд╛ рдкрд╛рд▓рди рдХрд░рдиреЗ рдХрд╛ рд╕реБрдЭрд╛рд╡ рджреВрдВрдЧрд╛ред
рдпрд╣ рдкреНрд░рдХреНрд░рд┐рдпрд╛ рдХрд╛рдо рдХрд░реЗрдЧреАред
Kubectl рдиреЛрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ:
NAME STATUS ROLES AGE VERSION
master NotReady master 26h v1.18.5
slave1 Ready <none> 26h v1.18.5
slave2 Ready <none> 26h v1.18.5
рдореИрдВрдиреЗ рдЖрдкрдХреЗ рджреНрд╡рд╛рд░рд╛ рдмрддрд╛рдП рдЧрдП рдЪрд░рдгреЛрдВ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд┐рдпрд╛:
рдореБрдЭреЗ рдпрд╣реА рдорд┐рд▓рддрд╛ рд╣реИред
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[kubelet-check] Initial timeout of 40s passed.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
Unfortunately, an error has occurred:
timed out waiting for the condition
This error is likely caused by:
- The kubelet is not running
- The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled)
If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands:
- 'systemctl status kubelet'
- 'journalctl -xeu kubelet'
Additionally, a control plane component may have crashed or exited when started by the container runtime.
To troubleshoot, list all containers using your preferred container runtimes CLI.
Here is one example how you may list all Kubernetes containers running in docker:
- 'docker ps -a | grep kube | grep -v pause'
Once you have found the failing container, you can inspect its logs with:
- 'docker logs CONTAINERID'
error execution phase wait-control-plane: couldn't initialize a Kubernetes cluster
To see the stack trace of this error execute with --v=5 or higher
рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЫреЛрдбрд╝рдХрд░ рд╕рднреА рдиреЛрдбреНрд╕ рдХреЛ рд╣рдЯрд╛ рджреЗрдВ рдФрд░ рдЙрд╕ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд░реЗрдВред рдЬрдм рдпрд╣ рдмрдирдХрд░ рддреИрдпрд╛рд░ рд╣реЛ рдЬрд╛рдП рддреЛ рдФрд░реЛрдВ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рдХреЗ рд▓рд┐рдП рдЬрд╛рдПрдВред
рдбреНрд░реЗрдирд┐рдВрдЧ рдиреЛрдбреНрд╕ рдФрд░ рдлрд┐рд░ kubeadm рд░реАрд╕реЗрдЯ рдФрд░ init рдорджрдж рдирд╣реАрдВ рдХрд░рддрд╛ рд╣реИред рдХреНрд▓рд╕реНрдЯрд░ рдмрд╛рдж рдореЗрдВ рдкреНрд░рд╛рд░рдВрдн рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред
рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рдпрд╣ рдереА рдХрд┐ рдХреНрд▓рд╕реНрдЯрд░ рдмрдирдиреЗ рдХреЗ рдмрд╛рдж рдореИрдВ рд╣реЛрд╕реНрдЯрдирд╛рдо рдЕрдкрдбреЗрдЯ рдХрд░ рд░рд╣рд╛ рдерд╛ред рдРрд╕рд╛ рдХрд░рдиреЗ рд╕реЗ, рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдЧреБрд░реБ рдХреЛ рдкрддрд╛ рдирд╣реАрдВ рдерд╛ рдХрд┐ рд╡рд╣ рдЧреБрд░реБ рд╣реИред
рдореИрдВ рдЕрднреА рднреА рдЪрд▓ рд░рд╣рд╛ рд╣реВрдБ:
sudo hostname $(curl 169.254.169.254/latest/meta-data/hostname)
рд▓реЗрдХрд┐рди рдЕрдм рдореИрдВ рдЗрд╕реЗ рдХреНрд▓рд╕реНрдЯрд░ рдЖрд░рдВрднреАрдХрд░рдг рд╕реЗ рдкрд╣рд▓реЗ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ
рд╕рдмрд╕реЗ рдЙрдкрдпреЛрдЧреА рдЯрд┐рдкреНрдкрдгреА
@lukasredynk
рд╣рд╛рдБ, рддреЛ рдпрд╣ рдПрдХ рдХрдЯреНрдЯрд░ рдореБрджреНрджрд╛ рд╣реИ, рдкреБрд╖реНрдЯрд┐ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред
рдЖрдЗрдП рдпрд╣рд╛рдВ рдлрд▓рд╛рд▓реИрди рдкрд░ рдзреНрдпрд╛рди рджреЗрдВ рдХреНрдпреЛрдВрдХрд┐ рдмреБрдирд╛рдИ рдХрд╛ рдореБрджреНрджрд╛ рд╕реНрдкрд░реНрд╢рд░реЗрдЦрд╛ рдЬреИрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИред
рд╕рдВрджрд░реНрдн рдХреЗ рд▓рд┐рдП @luxas рджреНрд╡рд╛рд░рд╛ рдЗрд╕реЗ рджреЗрдЦреЗрдВ, рдпрджрд┐ рдЗрд╕реЗ рдкрд╣рд▓реЗ рд╕реЗ рдирд╣реАрдВ рджреЗрдЦрд╛ рдЧрдпрд╛ рд╣реИ:
https://github.com/luxas/kubeadm-workshop
_it should_ рд▓реЗрдХрд┐рди рдЬреЛ рдореИрдирд┐рдлреЗрд╕реНрдЯ рдЖрдк рдбрд╛рдЙрдирд▓реЛрдб рдХрд░ рд░рд╣реЗ рд╣реИрдВ рд╡рд╣ "рдореЛрдЯрд╛" рдирд╣реАрдВ рд╣реИ:
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
рдЬрд╣рд╛рдВ рддрдХ тАЛтАЛтАЛтАЛрдореИрдВ рд╕рдордЭрддрд╛ рд╣реВрдВ рдХрд┐ рдХрдЯреНрдЯрд░ рджрд╛рдЧреЛрдВ рдХрд╛ рдкреНрд░рдЪрд╛рд░ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕реЗ рдкреНрд░рддреНрдпреЗрдХ рдиреЛрдб (?) рдкрд░
kubectl
рд╕рд╛рде рдареАрдХ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИредрдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ "рд╡рд╕рд╛" рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╣реИ рдФрд░ рдпрд╣рд╛рдВ рдЬреЛрдбрд╝рд╛ рдЧрдпрд╛ рдерд╛:
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca
рд╕рдВрдмрдВрдзрд┐рдд рдореБрджреНрджрд╛ / рдЬрдирд╕рдВрдкрд░реНрдХ:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989
рдореЗрд░реА рдзрд╛рд░рдгрд╛ рдпрд╣ рд╣реИ рдХрд┐ рдпрд╣ рдЦреВрди рдмрд╣ рд░рд╣рд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рд╣реЛрдЧрд╛:
рдЗрд╕рд▓рд┐рдП рдХреНрд▓рд╕реНрдЯрд░ рдХреЛ рдиреАрдЪреЗ рд▓рд╛рдПрдВ рдФрд░ рдЗрд╕реЗ рдЖрдЬрдорд╛рдПрдВ рдФрд░ рдЖрд╢рд╛ рдХрд░реЗрдВ рдХрд┐ рдпрд╣ рдХрд╛рдо рдХрд░реЗрдЧрд╛ред
рд╣рдорд╛рд░реЗ рд╕реАрдПрдирдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдХреЛ рдПрдХ рдЯрдХреНрдХрд░ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрдЧреА, рдлрд┐рд░ рднреА рдРрд╕рд╛ рддрдм рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдП рдЬрдм
flannel-next
рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПред