Kubeadm: рд░рдирдЯрд╛рдЗрдо рдиреЗрдЯрд╡рд░реНрдХ рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: NetworkReady=рдЧрд▓рдд рдХрд╛рд░рдг: NetworkPluginNotReady рд╕рдВрджреЗрд╢: docker: рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config uninitialized

рдХреЛ рдирд┐рд░реНрдорд┐рдд 2 рдЕрдЧре░ 2018  ┬╖  65рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ  ┬╖  рд╕реНрд░реЛрдд: kubernetes/kubeadm

рдХреНрдпрд╛ рдпрд╣ рдмрдЧ рд░рд┐рдкреЛрд░реНрдЯ рдпрд╛ рд╕реБрд╡рд┐рдзрд╛ рдЕрдиреБрд░реЛрдз рд╣реИ?

рдмрдЧ рд░рд┐рдкреЛрд░реНрдЯ

  • рдореИрдВрдиреЗ рдЗрд╕ рдЧрд╛рдЗрдб рдХрд╛ рдкрд╛рд▓рди тАЛтАЛрдХрд┐рдпрд╛ рд╣реИред
  • рдореИрдВрдиреЗ 96 CPU ARM64 рд╕рд░реНрд╡рд░ рдкрд░ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рд╣реИред
  • рдУрдПрд╕ рдЙрдмрдВрдЯреВ 18.04 рдПрд▓рдЯреАрдПрд╕ рд╣реИред apt-get update/upgrade рдареАрдХ рдмрд╛рджред
  • рдкреНрд░рдпреБрдХреНрдд kubeadm init --pod-network-cidr=10.244.0.0/16 ред рдФрд░ рдлрд┐рд░ рд╕реБрдЭрд╛рдП рдЧрдП рдЖрджреЗрд╢реЛрдВ рдХреЛ рдирд┐рд╖реНрдкрд╛рджрд┐рдд рдХрд┐рдпрд╛ред
  • рдЪрдпрдирд┐рдд рдлрд▓рд╛рд▓реИрди рдкреЙрдб-рдиреЗрдЯрд╡рд░реНрдХ:

    • sysctl net.bridge.bridge-nf-call-iptables=1 ред

    • wget https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml ред

    • vim kube-flannel.yml , amd64 рдХреЛ arm64 рдмрджрд▓реЗрдВ

    • kubectl apply -f kube-flannel.yml ред

    • kubectl get pods --all-namespaces :

NAMESPACE     NAME                                       READY     STATUS    RESTARTS   AGE
kube-system   coredns-78fcdf6894-ls44z                   1/1       Running   0          20m
kube-system   coredns-78fcdf6894-njnnt                   1/1       Running   0          20m
kube-system   etcd-devstats.team.io                      1/1       Running   0          20m
kube-system   kube-apiserver-devstats.team.io            1/1       Running   0          20m
kube-system   kube-controller-manager-devstats.team.io   1/1       Running   0          20m
kube-system   kube-flannel-ds-v4t8s                      1/1       Running   0          13m
kube-system   kube-proxy-5825g                           1/1       Running   0          20m
kube-system   kube-scheduler-devstats.team.io            1/1       Running   0          20m

рдлрд┐рд░ kubeadm init рдЖрдЙрдЯрдкреБрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рджреЛ AMD64 рдиреЛрдбреНрд╕ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реЛ рдЧрдП:
рдкрд╣рд▓рд╛ рдиреЛрдб:

[preflight] running pre-flight checks
    [WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs:{} ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{}]
you can solve this problem with following methods:
 1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support

I0802 10:26:49.987467   16652 kernel_validator.go:81] Validating kernel version
I0802 10:26:49.987709   16652 kernel_validator.go:96] Validating kernel config
    [WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "cncftest.io" as an annotation

This node has joined the cluster:
* Certificate signing request was sent to master and a response
  was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the master to see this node join the cluster.

рджреВрд╕рд░рд╛ рдиреЛрдб:

[preflight] running pre-flight checks
    [WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{} ip_vs:{}]
you can solve this problem with following methods:
 1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support

I0802 10:26:58.913060   38617 kernel_validator.go:81] Validating kernel version
I0802 10:26:58.913222   38617 kernel_validator.go:96] Validating kernel config
    [WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "devstats.cncf.io" as an annotation

This node has joined the cluster:
* Certificate signing request was sent to master and a response
  was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the master to see this node join the cluster.

рд▓реЗрдХрд┐рди рдорд╛рд╕реНрдЯрд░ рдкрд░ kubectl get nodes :

NAME               STATUS     ROLES     AGE       VERSION
cncftest.io        NotReady   <none>    7m        v1.11.1
devstats.cncf.io   NotReady   <none>    7m        v1.11.1
devstats.team.io   Ready      master    21m       v1.11.1

рдФрд░ рдлрд┐рд░: kubectl describe nodes (рдорд╛рд╕реНрдЯрд░ рд╣реИ devstats.team.io , рдиреЛрдбреНрд╕ рд╣реИрдВ: cncftest.io рдФрд░ devstats.cncf.io ):

Name:               cncftest.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=cncftest.io
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 10:26:53 +0000
Taints:             <none>
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:26:52 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:26:52 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:26:52 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:26:52 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:26:52 +0000   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
  InternalIP:  147.75.205.79
  Hostname:    cncftest.io
Capacity:
 cpu:                48
 ephemeral-storage:  459266000Ki
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             264047752Ki
 pods:               110
Allocatable:
 cpu:                48
 ephemeral-storage:  423259544900
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             263945352Ki
 pods:               110
System Info:
 Machine ID:                 d1c2fc94ee6d41ca967c4d43504af50c
 System UUID:                4C4C4544-0052-3310-804A-B7C04F4E4432
 Boot ID:                    d87670d9-251e-42a5-90c5-5d63059f03ab
 Kernel Version:             4.15.0-22-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               amd64
 Container Runtime Version:  docker://17.12.1-ce
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
PodCIDR:                     10.244.1.0/24
Non-terminated Pods:         (0 in total)
  Namespace                  Name    CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----    ------------  ----------  ---------------  -------------
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests  Limits
  --------  --------  ------
  cpu       0 (0%)    0 (0%)
  memory    0 (0%)    0 (0%)
Events:
  Type    Reason                   Age              From                  Message
  ----    ------                   ----             ----                  -------
  Normal  Starting                 8m               kubelet, cncftest.io  Starting kubelet.
  Normal  NodeHasSufficientDisk    8m (x2 over 8m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  8m (x2 over 8m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    8m (x2 over 8m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasNoDiskPressure
  Normal  NodeHasSufficientPID     8m (x2 over 8m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientPID
  Normal  NodeAllocatableEnforced  8m               kubelet, cncftest.io  Updated Node Allocatable limit across pods


Name:               devstats.cncf.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=devstats.cncf.io
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 10:27:00 +0000
Taints:             <none>
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:27:00 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:27:00 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:27:00 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:27:00 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Thu, 02 Aug 2018 10:34:51 +0000   Thu, 02 Aug 2018 10:27:00 +0000   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
  InternalIP:  147.75.78.47
  Hostname:    devstats.cncf.io
Capacity:
 cpu:                48
 ephemeral-storage:  142124052Ki
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             264027220Ki
 pods:               110
Allocatable:
 cpu:                48
 ephemeral-storage:  130981526107
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             263924820Ki
 pods:               110
System Info:
 Machine ID:                 d1c2fc94ee6d41ca967c4d43504af50c
 System UUID:                00000000-0000-0000-0000-0CC47AF37CF2
 Boot ID:                    f257b606-5da2-43fd-8782-0aa4484037f4
 Kernel Version:             4.15.0-20-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               amd64
 Container Runtime Version:  docker://17.12.1-ce
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
PodCIDR:                     10.244.2.0/24
Non-terminated Pods:         (0 in total)
  Namespace                  Name    CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----    ------------  ----------  ---------------  -------------
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests  Limits
  --------  --------  ------
  cpu       0 (0%)    0 (0%)
  memory    0 (0%)    0 (0%)
Events:
  Type    Reason                   Age   From                       Message
  ----    ------                   ----  ----                       -------
  Normal  Starting                 7m    kubelet, devstats.cncf.io  Starting kubelet.
  Normal  NodeHasSufficientDisk    7m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  7m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    7m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasNoDiskPressure
  Normal  NodeHasSufficientPID     7m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientPID
  Normal  NodeAllocatableEnforced  7m    kubelet, devstats.cncf.io  Updated Node Allocatable limit across pods


Name:               devstats.team.io
Roles:              master
Labels:             beta.kubernetes.io/arch=arm64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=devstats.team.io
                    node-role.kubernetes.io/master=
Annotations:        flannel.alpha.coreos.com/backend-data={"VtepMAC":"9a:7f:81:2c:4e:16"}
                    flannel.alpha.coreos.com/backend-type=vxlan
                    flannel.alpha.coreos.com/kube-subnet-manager=true
                    flannel.alpha.coreos.com/public-ip=147.75.97.234
                    kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 10:12:56 +0000
Taints:             node-role.kubernetes.io/master:NoSchedule
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 10:34:49 +0000   Thu, 02 Aug 2018 10:12:56 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 10:34:49 +0000   Thu, 02 Aug 2018 10:12:56 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 10:34:49 +0000   Thu, 02 Aug 2018 10:12:56 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 10:34:49 +0000   Thu, 02 Aug 2018 10:12:56 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            True    Thu, 02 Aug 2018 10:34:49 +0000   Thu, 02 Aug 2018 10:21:07 +0000   KubeletReady                 kubelet is posting ready status. AppArmor enabled
Addresses:
  InternalIP:  147.75.97.234
  Hostname:    devstats.team.io
Capacity:
 cpu:                96
 ephemeral-storage:  322988584Ki
 hugepages-2Mi:      0
 memory:             131731468Ki
 pods:               110
Allocatable:
 cpu:                96
 ephemeral-storage:  297666278522
 hugepages-2Mi:      0
 memory:             131629068Ki
 pods:               110
System Info:
 Machine ID:                 5eaa89a81ff348399284bb4cb016ffd7
 System UUID:                10000000-FAC5-FFFF-A81D-FC15B4970493
 Boot ID:                    43b920e3-34e7-4de3-aa6c-8b5c525363ff
 Kernel Version:             4.15.0-20-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               arm64
 Container Runtime Version:  docker://17.12.1-ce
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
PodCIDR:                     10.244.0.0/24
Non-terminated Pods:         (8 in total)
  Namespace                  Name                                        CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----                                        ------------  ----------  ---------------  -------------
  kube-system                coredns-78fcdf6894-ls44z                    100m (0%)     0 (0%)      70Mi (0%)        170Mi (0%)
  kube-system                coredns-78fcdf6894-njnnt                    100m (0%)     0 (0%)      70Mi (0%)        170Mi (0%)
  kube-system                etcd-devstats.team.io                       0 (0%)        0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-apiserver-devstats.team.io             250m (0%)     0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-controller-manager-devstats.team.io    200m (0%)     0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-flannel-ds-v4t8s                       100m (0%)     100m (0%)   50Mi (0%)        50Mi (0%)
  kube-system                kube-proxy-5825g                            0 (0%)        0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-scheduler-devstats.team.io             100m (0%)     0 (0%)      0 (0%)           0 (0%)
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests    Limits
  --------  --------    ------
  cpu       850m (0%)   100m (0%)
  memory    190Mi (0%)  390Mi (0%)
Events:
  Type    Reason                   Age                From                          Message
  ----    ------                   ----               ----                          -------
  Normal  Starting                 23m                kubelet, devstats.team.io     Starting kubelet.
  Normal  NodeAllocatableEnforced  23m                kubelet, devstats.team.io     Updated Node Allocatable limit across pods
  Normal  NodeHasSufficientPID     23m (x5 over 23m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientPID
  Normal  NodeHasSufficientDisk    23m (x6 over 23m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  23m (x6 over 23m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    23m (x6 over 23m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasNoDiskPressure
  Normal  Starting                 21m                kube-proxy, devstats.team.io  Starting kube-proxy.
  Normal  NodeReady                13m                kubelet, devstats.team.io     Node devstats.team.io status is now: NodeReady

рд╕рдВрд╕реНрдХрд░рдгреЛрдВ

рдХреБрдмреЗрджрдо рд╕рдВрд╕реНрдХрд░рдг ( kubeadm version ):

kubeadm version: &version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:50:16Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}

рдкрд░реНрдпрд╛рд╡рд░рдг :

  • рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рд╕рдВрд╕реНрдХрд░рдг ( kubectl version ):
Client Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:53:20Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
Server Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:43:26Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
  • рдХреНрд▓рд╛рдЙрдб рдкреНрд░рджрд╛рддрд╛ рдпрд╛ рд╣рд╛рд░реНрдбрд╡реЗрдпрд░ рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди :
  • рдорд╛рд╕реНрдЯрд░: рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 96 рдХреЛрд░, рдПрдЖрд░рдПрдо 64, 128 рдЬреА рд░реИрдо, рд╕реНрд╡реИрдк рдмрдВрджред
  • рдиреЛрдбреНрд╕ (2): рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 48 рдХреЛрд░, AMD64, 256G RAM, рд╕реНрд╡реИрдк рдЯреНрдпреВрдиреНрдб x 2ред
  • uname -a : Linux devstats.team.io 4.15.0-20-рдЬреЗрдиреЗрд░рд┐рдХ #21-рдЙрдмрдВрдЯреВ SMP рдордВрдЧрд▓ рдЕрдкреНрд░реИрд▓ 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
  • OS (рдЬреИрд╕реЗ /etc/os-release рд╕реЗ):
NAME="Ubuntu"
VERSION="18.04.1 LTS (Bionic Beaver)"
ID=ubuntu
ID_LIKE=debian
PRETTY_NAME="Ubuntu 18.04.1 LTS"
VERSION_ID="18.04"
HOME_URL="https://www.ubuntu.com/"
SUPPORT_URL="https://help.ubuntu.com/"
BUG_REPORT_URL="https://bugs.launchpad.net/ubuntu/"
PRIVACY_POLICY_URL="https://www.ubuntu.com/legal/terms-and-policies/privacy-policy"
VERSION_CODENAME=bionic
UBUNTU_CODENAME=bionic
  • lsb_release -a :
No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 18.04.1 LTS
Release:    18.04
Codename:   bionic
  • рдХрд░реНрдиреЗрд▓ (рдЬреИрд╕реЗ uname -a ): Linux devstats.team.io 4.15.0-20-generic #21-Ubuntu SMP Tue Apr 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
  • рдЕрдиреНрдп : docker version :
docker version
Client:
 Version:   17.12.1-ce
 API version:   1.35
 Go version:    go1.10.1
 Git commit:    7390fc6
 Built: Wed Apr 18 01:26:37 2018
 OS/Arch:   linux/arm64

Server:
 Engine:
  Version:  17.12.1-ce
  API version:  1.35 (minimum version 1.12)
  Go version:   go1.10.1
  Git commit:   7390fc6
  Built:    Wed Feb 28 17:46:05 2018
  OS/Arch:  linux/arm64
  Experimental: false

рдХреНрдпрд╛ рд╣реБрдЖ?

рд╕рдЯреАрдХ рддреНрд░реБрдЯрд┐ рдпрд╣ рдкреНрд░рддреАрдд рд╣реЛрддреА рд╣реИ:

runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

рдиреЛрдб рдкрд░: cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

# Note: This dropin only works with kubeadm and kubelet v1.11+
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
# This is a file that "kubeadm init" and "kubeadm join" generates at runtime, populating the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably, the user should use
# the .NodeRegistration.KubeletExtraArgs object in the configuration files instead. KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/default/kubelet
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS

рдЗрд╕ рдзрд╛рдЧреЗ рд╕реЗ (рд╡рд╣рд╛рдВ KUBELET_NETWORK_ARGS рдирд╣реАрдВ)ред

  • рдиреЛрдб рдкрд░ journalctl -xe :
Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: W0802 10:44:51.040663   38796 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: E0802 10:44:51.040876   38796 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ /etc/cni/net.d рдореМрдЬреВрдж рд╣реИ, рд▓реЗрдХрд┐рди рдЦрд╛рд▓реА рд╣реИред

рдЖрдкрдХреЛ рдХреНрдпрд╛ рд╣реЛрдиреЗ рдХреА рдЙрдореНрдореАрдж рдереА?

рд╕рднреА рдиреЛрдбреНрд╕ Ready рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИрдВред

рдЗрд╕реЗ рдХреИрд╕реЗ рдкреБрди: рдкреЗрд╢ рдХрд░реЗрдВ (рдЬрд┐рддрдирд╛ рд╕рдВрднрд╡ рд╣реЛ рдЙрддрдирд╛ рдиреНрдпреВрдирддрдо рдФрд░ рд╕рдЯреАрдХ)?

рдмрд╕ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ рд╕реЗ рдЪрд░рдгреЛрдВ рдХрд╛ рдкрд╛рд▓рди рдХрд░реЗрдВред 3 рдмрд╛рд░ рдХреЛрд╢рд┐рд╢ рдХреА рдФрд░ рдпрд╣ рд╣рд░ рд╕рдордп рд╣реЛрддрд╛ рд╣реИред

рд╣рдореЗрдВ рдФрд░ рдХреБрдЫ рдЬрд╛рдирдиреЗ рдХреА рдЬрд░реВрд░рдд рд╣реИ?

рдорд╛рд╕реНрдЯрд░ ARM64 рд╣реИ, 2 рдиреЛрдб AMD64 рд╣реИрдВред
рдорд╛рд╕реНрдЯрд░ рдФрд░ рдПрдХ рдиреЛрдб рдПрдореНрд╕реНрдЯрд░реНрдбрдо рдореЗрдВ рд╣реИ рдФрд░ рджреВрд╕рд░рд╛ рдиреЛрдб рдпреВрдПрд╕рдП рдореЗрдВ рд╣реИред

рдореИрдВ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдкреЙрдбреНрд╕ рдЪрд▓рд╛рдиреЗ рдХреЗ рд▓рд┐рдП kubectl taint nodes --all node-role.kubernetes.io/master- рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХрддрд╛ рд╣реВрдВ, рд▓реЗрдХрд┐рди рдпрд╣ рдХреЛрдИ рд╕рдорд╛рдзрд╛рди рдирд╣реАрдВ рд╣реИред рдореИрдВ рдХрд╛рдо рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд╡рд╛рд╕реНрддрд╡рд┐рдХ рдмрд╣реБ-рдиреЛрдб рдХреНрд▓рд╕реНрдЯрд░ рд░рдЦрдирд╛ рдЪрд╛рд╣рддрд╛ рд╣реВрдВред

areecosystem prioritawaiting-more-evidence

рд╕рдмрд╕реЗ рдЙрдкрдпреЛрдЧреА рдЯрд┐рдкреНрдкрдгреА

@lukasredynk

рд╣рд╛рдБ, рддреЛ рдпрд╣ рдПрдХ рдХрдЯреНрдЯрд░ рдореБрджреНрджрд╛ рд╣реИ, рдкреБрд╖реНрдЯрд┐ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред
рдЖрдЗрдП рдпрд╣рд╛рдВ рдлрд▓рд╛рд▓реИрди рдкрд░ рдзреНрдпрд╛рди рджреЗрдВ рдХреНрдпреЛрдВрдХрд┐ рдмреБрдирд╛рдИ рдХрд╛ рдореБрджреНрджрд╛ рд╕реНрдкрд░реНрд╢рд░реЗрдЦрд╛ рдЬреИрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИред

рд╕рдВрджрд░реНрдн рдХреЗ рд▓рд┐рдП @luxas рджреНрд╡рд╛рд░рд╛ рдЗрд╕реЗ рджреЗрдЦреЗрдВ, рдпрджрд┐ рдЗрд╕реЗ рдкрд╣рд▓реЗ рд╕реЗ рдирд╣реАрдВ рджреЗрдЦрд╛ рдЧрдпрд╛ рд╣реИ:
https://github.com/luxas/kubeadm-workshop

рдХреНрдпрд╛ рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЕрдкрдиреЗ рдФрд░ рдиреЛрдбреНрд╕ рдкрд░ рд╕рд╣реА рдЖрд░реНрдХ рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЛ рд╕рдВрднрд╛рд▓рдирд╛ рдЪрд╛рд╣рд┐рдП?

_it should_ рд▓реЗрдХрд┐рди рдЬреЛ рдореИрдирд┐рдлреЗрд╕реНрдЯ рдЖрдк рдбрд╛рдЙрдирд▓реЛрдб рдХрд░ рд░рд╣реЗ рд╣реИрдВ рд╡рд╣ "рдореЛрдЯрд╛" рдирд╣реАрдВ рд╣реИ:
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml

рдЬрд╣рд╛рдВ рддрдХ тАЛтАЛтАЛтАЛрдореИрдВ рд╕рдордЭрддрд╛ рд╣реВрдВ рдХрд┐ рдХрдЯреНрдЯрд░ рджрд╛рдЧреЛрдВ рдХрд╛ рдкреНрд░рдЪрд╛рд░ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕реЗ рдкреНрд░рддреНрдпреЗрдХ рдиреЛрдб (?) рдкрд░ kubectl рд╕рд╛рде рдареАрдХ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИред

рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ "рд╡рд╕рд╛" рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╣реИ рдФрд░ рдпрд╣рд╛рдВ рдЬреЛрдбрд╝рд╛ рдЧрдпрд╛ рдерд╛:
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca

рд╕рдВрдмрдВрдзрд┐рдд рдореБрджреНрджрд╛ / рдЬрдирд╕рдВрдкрд░реНрдХ:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989

рдореЗрд░реА рдзрд╛рд░рдгрд╛ рдпрд╣ рд╣реИ рдХрд┐ рдпрд╣ рдЦреВрди рдмрд╣ рд░рд╣рд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рд╣реЛрдЧрд╛:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

рдЗрд╕рд▓рд┐рдП рдХреНрд▓рд╕реНрдЯрд░ рдХреЛ рдиреАрдЪреЗ рд▓рд╛рдПрдВ рдФрд░ рдЗрд╕реЗ рдЖрдЬрдорд╛рдПрдВ рдФрд░ рдЖрд╢рд╛ рдХрд░реЗрдВ рдХрд┐ рдпрд╣ рдХрд╛рдо рдХрд░реЗрдЧрд╛ред
рд╣рдорд╛рд░реЗ рд╕реАрдПрдирдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдХреЛ рдПрдХ рдЯрдХреНрдХрд░ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрдЧреА, рдлрд┐рд░ рднреА рдРрд╕рд╛ рддрдм рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдП рдЬрдм flannel-next рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПред

рд╕рднреА 65 рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ

@lukaszgryglicki
рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдиреЛрдбреНрд╕ рдХреЛ рдлрд▓рд╛рд▓реИрди рдирд╣реАрдВ рдорд┐рд▓ рд░рд╣рд╛ рд╣реИ рдХреНрдпреЛрдВрдХрд┐ рд╡реЗ amd64 рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдкрд░ рд╣реИрдВ

Name:               cncftest.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux

рддрдерд╛

Name:               devstats.team.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux

рдореИрдВ рдлрд▓рд╛рд▓реИрди рдХрд╛ рд╡рд┐рд╢реЗрд╖рдЬреНрдЮ рдирд╣реАрдВ рд╣реВрдВ, рд▓реЗрдХрд┐рди рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдорд┐рд╢реНрд░рд┐рдд рдкреНрд▓реЗрдЯрдлреЙрд░реНрдо рдХреЗ рд╕рд╛рде рдкрд░реНрдпрд╛рд╡рд░рдг рдореЗрдВ рдЗрд╕реЗ рдХреИрд╕реЗ рдХрд╛рдо рдХрд░рдирд╛ рд╣реИ, рдЗрд╕рдХреЗ рд▓рд┐рдП рдЖрдкрдХреЛ рдЙрддреНрдкрд╛рдж рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реАрдХрд░рдг рдХреА рдЬрд╛рдВрдЪ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП

рдпрд╣ рдПрдХ рдЕрдЪреНрдЫрд╛ рдореБрджреНрджрд╛ рд╣реИ, рд▓реЗрдХрд┐рди рддреНрд░реБрдЯрд┐ рд╕рдВрджреЗрд╢ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ - рдпрд╣ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдЕрд╕рдВрдмрдВрдзрд┐рдд рд▓рдЧрддрд╛ рд╣реИред

runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ /etc/cni/net.d рдореЗрдВ рдХреБрдЫ CNI рдХреЙрдиреНрдлрд╝рд┐рдЧ рдлрд╝рд╛рдЗрд▓реЗрдВ рдЧрд╛рдпрдм рд╣реИрдВ, рд▓реЗрдХрд┐рди рдХреНрдпреЛрдВ?
рдореИрдВ рдЕрдм рдЕрд▓рдЧ-рдЕрд▓рдЧ рдбреЙрдХрдЯрд░ 18.03ce рдХреЛрд╢рд┐рд╢ рдХрд░ рд░рд╣рд╛ рд╣реВрдВ рдЬреИрд╕рд╛ рдХрд┐ рд╕реНрд▓реИрдХ рдЪреИрдирд▓ рдкрд░ рд╕реБрдЭрд╛рдпрд╛ рдЧрдпрд╛ рд╣реИ (17.03 рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рд╕реБрдЭрд╛рдпрд╛ рдЧрдпрд╛ рдерд╛, рд▓реЗрдХрд┐рди рдЙрдмрдВрдЯреВ 18.04 рдХреЗ рд▓рд┐рдП рдХреЛрдИ 17.03 рдирд╣реАрдВ рд╣реИ)ред

рдЖрд░реНрдХ рдирд╛рдо рд╡рд╛рд▓реЗ рд▓реЗрдмрд▓ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдореЗрд▓ рдирд╣реАрдВ рдЦрд╛рддреЗред рд▓реЗрдХрд┐рди рдЕрдЧрд▓рд╛ рд▓реЗрдмрд▓ beta.kubernetes.io/os=linux рд╕рднреА 3 рд╕рд░реНрд╡рд░реЛрдВ рдкрд░ рд╕рдорд╛рди рд╣реИред

рдбреЙрдХрд░ 18.03ce рдХреЗ рд╕рд╛рде рднреА рдРрд╕рд╛ рд╣реА рд╣реЛрддрд╛ рд╣реИред рдореБрдЭреЗ рдХреЛрдИ рдЕрдВрддрд░ рдирд╣реАрдВ рджрд┐рдЦ рд░рд╣рд╛ рд╣реИ, рдпрд╣ рдПрдХ рдбреЙрдХрдЯрд░ рдореБрджреНрджреЗ рдХреА рддрд░рд╣ рдирд╣реАрдВ рджрд┐рдЦ рд░рд╣рд╛ рд╣реИред рдпрд╣ рдХреБрдЫ рд╕реАрдПрдирдЖрдИ рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рд╕рдорд╕реНрдпрд╛ рдХреА рддрд░рд╣ рджрд┐рдЦрддрд╛ рд╣реИред

@lukaszgryglicki
рдирдорд╕реНрддреЗ,

рдорд╛рд╕реНрдЯрд░: рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 96 рдХреЛрд░, рдПрдЖрд░рдПрдо 64, 128 рдЬреА рд░реИрдо, рд╕реНрд╡реИрдк рдмрдВрджред
рдиреЛрдбреНрд╕ (2): рдмреЗрдпрд░ рдореЗрдЯрд▓ рд╕рд░реНрд╡рд░ 48 рдХреЛрд░, AMD64, 256G RAM, рд╕реНрд╡реИрдк рдЯреНрдпреВрдиреНрдб x 2ред

рдпреЗ рдХреБрдЫ _nice_ рдЪрд╢реНрдорд╛ рд╣реИрдВред

рдЬрд┐рд╕ рддрд░рд╣ рд╕реЗ рдореИрдВ рдЪреАрдЬреЛрдВ рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдХрд░рддрд╛ рд╣реВрдВ рд╡рд╣ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рд╣реИ - рдЕрдЧрд░ рдХреБрдЫ рдмреБрдирд╛рдИ рдХреЗ рд╕рд╛рде рдХрд╛рдо рдирд╣реАрдВ рдХрд░рддрд╛ рд╣реИ, рддреЛ рдореИрдВ рдлрд▓рд╛рд▓реИрди рдФрд░ рджреВрд╕рд░реА рддрд░рдл рдХреЛрд╢рд┐рд╢ рдХрд░рддрд╛ рд╣реВрдВред

рддреЛ рдХреГрдкрдпрд╛ рдмреБрдирд╛рдИ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░реЗрдВ рдФрд░ рдпрджрд┐ рдЖрдкрдХрд╛ рд╕реАрдПрдирдЖрдИ рд╕реЗрдЯрдЕрдк рдЗрд╕рдХреЗ рд╕рд╛рде рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ, рддреЛ рдпрд╣ рд╕реАрдПрдирдЖрдИ рдкреНрд▓рдЧрдЗрди рд╕реЗ рд╕рдВрдмрдВрдзрд┐рдд рд╣реИред

рдЬрдмрдХрд┐ kubeadm рдЯреАрдо рдкреНрд▓рдЧрдЗрдиреНрд╕ рдФрд░ рдРрдбрдСрди рдХрд╛ рд╕рдорд░реНрдерди рдХрд░рддреА рд╣реИ, рд╣рдо рдЖрдорддреМрд░ рдкрд░ рдореБрджреНрджреЛрдВ рдХреЛ рдЙрдирдХреЗ рд╕рдВрдмрдВрдзрд┐рдд рдЕрдиреБрд░рдХреНрд╖рдХреЛрдВ рдХреЛ рд╕реМрдВрдкрддреЗ рд╣реИрдВ рдХреНрдпреЛрдВрдХрд┐ рд╣рдорд╛рд░реЗ рдкрд╛рд╕ рд╕рдм рдХреБрдЫ рд╕рдВрднрд╛рд▓рдиреЗ рдХреЗ рд▓рд┐рдП рдмреИрдВрдбрд╡рд┐рдбреНрде рдирд╣реАрдВ рд╣реИред

рдЬрд╝рд░реВрд░, рдореИрдВрдиреЗ рдХреБрдЫ рдкреБрдирд░рд╛рд╡реГрддреНрддрд┐рдпреЛрдВ рдкрд╣рд▓реЗ рдмреБрдирд╛рдИ рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИред рдпрд╣ рдПрдХ рдХрдВрдЯреЗрдирд░ рдкреБрдирд░рд╛рд░рдВрдн рд▓реВрдк рдореЗрдВ рд╕рдорд╛рдкреНрдд рд╣реБрдЖред
рдЕрдм рдбреЙрдХрд░ рдореБрджреНрджреЗ рдХреЛ рдмрд╛рд╣рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдбреЙрдХрд░ 17.03 рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░реЗрдВрдЧреЗ (17.03 рдХреЛ рдмрд╣реБрдд рдЕрдЪреНрдЫреА рддрд░рд╣ рд╕реЗ рд╕рдорд░реНрдерд┐рдд рдорд╛рдирд╛ рдЬрд╛рддрд╛ рд╣реИ)ред

рддреЛ рдпрд╣ рдХреЛрдИ рдбреЙрдХрд░ рдореБрджреНрджрд╛ рдирд╣реАрдВ рд╣реИред 17.03 рдХреЛ рд╡рд╣реА:

Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: W0802 14:21:51.406786   21714 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: E0802 14:21:51.407074   21714 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
now will try weave net as suggested on the issue

рдореИрдВ рдЕрднреА рдмреБрдирд╛рдИ рдХреА рдХреЛрд╢рд┐рд╢ рдХрд░реВрдВрдЧрд╛ рдФрд░ рдпрд╣рд╛рдВ рдкрд░рд┐рдгрд╛рдо рдкреЛрд╕реНрдЯ рдХрд░реВрдВрдЧрд╛ред

рддреЛ, рдореИрдВрдиреЗ weave net рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИ рдФрд░ рдпрд╣ рдХрд╛рдо рдирд╣реАрдВ рдХрд░ рд░рд╣рд╛ рд╣реИ:
рдорд╛рд╕реНрдЯрд░ рдкрд░: kubectl get nodes :

NAME               STATUS     ROLES     AGE       VERSION
cncftest.io        NotReady   <none>    5s        v1.11.1
devstats.cncf.io   NotReady   <none>    12s       v1.11.1
devstats.team.io   NotReady   master    7m        v1.11.1
  • kubectl describe nodes (рд╡рд╣реА рд╕реАрдПрдирдЖрдИ рд╕рдВрдмрдВрдзрд┐рдд рддреНрд░реБрдЯрд┐, рд▓реЗрдХрд┐рди рдЕрдм рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рднреА):
Name:               cncftest.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=cncftest.io
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 14:39:56 +0000
Taints:             <none>
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 14:40:58 +0000   Thu, 02 Aug 2018 14:39:56 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 14:40:58 +0000   Thu, 02 Aug 2018 14:39:56 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 14:40:58 +0000   Thu, 02 Aug 2018 14:39:56 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 14:40:58 +0000   Thu, 02 Aug 2018 14:39:56 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Thu, 02 Aug 2018 14:40:58 +0000   Thu, 02 Aug 2018 14:39:56 +0000   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
  InternalIP:  147.75.205.79
  Hostname:    cncftest.io
Capacity:
 cpu:                48
 ephemeral-storage:  459266000Ki
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             264047752Ki
 pods:               110
Allocatable:
 cpu:                48
 ephemeral-storage:  423259544900
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             263945352Ki
 pods:               110
System Info:
 Machine ID:                 d1c2fc94ee6d41ca967c4d43504af50c
 System UUID:                4C4C4544-0052-3310-804A-B7C04F4E4432
 Boot ID:                    d87670d9-251e-42a5-90c5-5d63059f03ab
 Kernel Version:             4.15.0-22-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               amd64
 Container Runtime Version:  docker://17.3.2
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
Non-terminated Pods:         (1 in total)
  Namespace                  Name               CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----               ------------  ----------  ---------------  -------------
  kube-system                weave-net-wwjrr    20m (0%)      0 (0%)      0 (0%)           0 (0%)
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests  Limits
  --------  --------  ------
  cpu       20m (0%)  0 (0%)
  memory    0 (0%)    0 (0%)
Events:
  Type    Reason                   Age              From                  Message
  ----    ------                   ----             ----                  -------
  Normal  Starting                 1m               kubelet, cncftest.io  Starting kubelet.
  Normal  NodeHasSufficientDisk    1m (x2 over 1m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  1m (x2 over 1m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    1m (x2 over 1m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasNoDiskPressure
  Normal  NodeHasSufficientPID     1m (x2 over 1m)  kubelet, cncftest.io  Node cncftest.io status is now: NodeHasSufficientPID
  Normal  NodeAllocatableEnforced  1m               kubelet, cncftest.io  Updated Node Allocatable limit across pods


Name:               devstats.cncf.io
Roles:              <none>
Labels:             beta.kubernetes.io/arch=amd64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=devstats.cncf.io
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 14:39:49 +0000
Taints:             <none>
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 14:40:59 +0000   Thu, 02 Aug 2018 14:39:49 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 14:40:59 +0000   Thu, 02 Aug 2018 14:39:49 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 14:40:59 +0000   Thu, 02 Aug 2018 14:39:49 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 14:40:59 +0000   Thu, 02 Aug 2018 14:39:49 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Thu, 02 Aug 2018 14:40:59 +0000   Thu, 02 Aug 2018 14:39:49 +0000   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
  InternalIP:  147.75.78.47
  Hostname:    devstats.cncf.io
Capacity:
 cpu:                48
 ephemeral-storage:  142124052Ki
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             264027220Ki
 pods:               110
Allocatable:
 cpu:                48
 ephemeral-storage:  130981526107
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             263924820Ki
 pods:               110
System Info:
 Machine ID:                 d1c2fc94ee6d41ca967c4d43504af50c
 System UUID:                00000000-0000-0000-0000-0CC47AF37CF2
 Boot ID:                    f257b606-5da2-43fd-8782-0aa4484037f4
 Kernel Version:             4.15.0-20-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               amd64
 Container Runtime Version:  docker://17.3.2
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
Non-terminated Pods:         (1 in total)
  Namespace                  Name               CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----               ------------  ----------  ---------------  -------------
  kube-system                weave-net-2fsrf    20m (0%)      0 (0%)      0 (0%)           0 (0%)
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests  Limits
  --------  --------  ------
  cpu       20m (0%)  0 (0%)
  memory    0 (0%)    0 (0%)
Events:
  Type    Reason                   Age   From                       Message
  ----    ------                   ----  ----                       -------
  Normal  Starting                 1m    kubelet, devstats.cncf.io  Starting kubelet.
  Normal  NodeHasSufficientDisk    1m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  1m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    1m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasNoDiskPressure
  Normal  NodeHasSufficientPID     1m    kubelet, devstats.cncf.io  Node devstats.cncf.io status is now: NodeHasSufficientPID
  Normal  NodeAllocatableEnforced  1m    kubelet, devstats.cncf.io  Updated Node Allocatable limit across pods


Name:               devstats.team.io
Roles:              master
Labels:             beta.kubernetes.io/arch=arm64
                    beta.kubernetes.io/os=linux
                    kubernetes.io/hostname=devstats.team.io
                    node-role.kubernetes.io/master=
Annotations:        kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
                    node.alpha.kubernetes.io/ttl=0
                    volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp:  Thu, 02 Aug 2018 14:32:14 +0000
Taints:             node-role.kubernetes.io/master:NoSchedule
Unschedulable:      false
Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 02 Aug 2018 14:40:56 +0000   Thu, 02 Aug 2018 14:32:07 +0000   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 02 Aug 2018 14:40:56 +0000   Thu, 02 Aug 2018 14:32:07 +0000   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 02 Aug 2018 14:40:56 +0000   Thu, 02 Aug 2018 14:32:07 +0000   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 02 Aug 2018 14:40:56 +0000   Thu, 02 Aug 2018 14:32:07 +0000   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Thu, 02 Aug 2018 14:40:56 +0000   Thu, 02 Aug 2018 14:32:07 +0000   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
  InternalIP:  147.75.97.234
  Hostname:    devstats.team.io
Capacity:
 cpu:                96
 ephemeral-storage:  322988584Ki
 hugepages-2Mi:      0
 memory:             131731468Ki
 pods:               110
Allocatable:
 cpu:                96
 ephemeral-storage:  297666278522
 hugepages-2Mi:      0
 memory:             131629068Ki
 pods:               110
System Info:
 Machine ID:                 5eaa89a81ff348399284bb4cb016ffd7
 System UUID:                10000000-FAC5-FFFF-A81D-FC15B4970493
 Boot ID:                    43b920e3-34e7-4de3-aa6c-8b5c525363ff
 Kernel Version:             4.15.0-20-generic
 OS Image:                   Ubuntu 18.04.1 LTS
 Operating System:           linux
 Architecture:               arm64
 Container Runtime Version:  docker://17.9.0
 Kubelet Version:            v1.11.1
 Kube-Proxy Version:         v1.11.1
Non-terminated Pods:         (6 in total)
  Namespace                  Name                                        CPU Requests  CPU Limits  Memory Requests  Memory Limits
  ---------                  ----                                        ------------  ----------  ---------------  -------------
  kube-system                etcd-devstats.team.io                       0 (0%)        0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-apiserver-devstats.team.io             250m (0%)     0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-controller-manager-devstats.team.io    200m (0%)     0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-proxy-69qnb                            0 (0%)        0 (0%)      0 (0%)           0 (0%)
  kube-system                kube-scheduler-devstats.team.io             100m (0%)     0 (0%)      0 (0%)           0 (0%)
  kube-system                weave-net-j9f5m                             20m (0%)      0 (0%)      0 (0%)           0 (0%)
Allocated resources:
  (Total limits may be over 100 percent, i.e., overcommitted.)
  Resource  Requests   Limits
  --------  --------   ------
  cpu       570m (0%)  0 (0%)
  memory    0 (0%)     0 (0%)
Events:
  Type    Reason                   Age                From                          Message
  ----    ------                   ----               ----                          -------
  Normal  Starting                 10m                kubelet, devstats.team.io     Starting kubelet.
  Normal  NodeAllocatableEnforced  10m                kubelet, devstats.team.io     Updated Node Allocatable limit across pods
  Normal  NodeHasSufficientPID     10m (x5 over 10m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientPID
  Normal  NodeHasSufficientDisk    10m (x6 over 10m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientDisk
  Normal  NodeHasSufficientMemory  10m (x6 over 10m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasSufficientMemory
  Normal  NodeHasNoDiskPressure    10m (x6 over 10m)  kubelet, devstats.team.io     Node devstats.team.io status is now: NodeHasNoDiskPressure
  Normal  Starting                 8m                 kube-proxy, devstats.team.io  Starting kube-proxy.
  • journalctl -xe рдорд╛рд╕реНрдЯрд░ рдкрд░:
Aug 02 14:42:18 devstats.team.io dockerd[44020]: time="2018-08-02T14:42:18.330999189Z" level=warning msg="Unknown healthcheck type 'NONE' (expected 'CMD') in container 283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.079835   56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080312   56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080677   56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:19 devstats.team.io kubelet[56340]: E0802 14:42:19.080815   56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:21 devstats.team.io kubelet[56340]: W0802 14:42:21.867690   56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:21 devstats.team.io kubelet[56340]: E0802 14:42:21.868005   56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.259681   56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260359   56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260833   56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.260984   56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:26 devstats.team.io kubelet[56340]: W0802 14:42:26.870675   56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.871316   56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
  • kubectl get po --all-namespaces :
NAMESPACE     NAME                                       READY     STATUS             RESTARTS   AGE
kube-system   coredns-78fcdf6894-g8wzs                   0/1       Pending            0          12m
kube-system   coredns-78fcdf6894-tzs8n                   0/1       Pending            0          12m
kube-system   etcd-devstats.team.io                      1/1       Running            0          12m
kube-system   kube-apiserver-devstats.team.io            1/1       Running            0          12m
kube-system   kube-controller-manager-devstats.team.io   1/1       Running            0          12m
kube-system   kube-proxy-69qnb                           1/1       Running            0          12m
kube-system   kube-scheduler-devstats.team.io            1/1       Running            0          12m
kube-system   weave-net-2fsrf                            1/2       CrashLoopBackOff   5          5m
kube-system   weave-net-j9f5m                            1/2       CrashLoopBackOff   6          8m
kube-system   weave-net-wwjrr                            1/2       CrashLoopBackOff   5          4m
  • kubectl describe po --all-namespaces :
Name:               coredns-78fcdf6894-g8wzs
Namespace:          kube-system
Priority:           0
PriorityClassName:  <none>
Node:               <none>
Labels:             k8s-app=kube-dns
                    pod-template-hash=3497892450
Annotations:        <none>
Status:             Pending
IP:                 
Controlled By:      ReplicaSet/coredns-78fcdf6894
Containers:
  coredns:
    Image:       k8s.gcr.io/coredns:1.1.3
    Ports:       53/UDP, 53/TCP, 9153/TCP
    Host Ports:  0/UDP, 0/TCP, 0/TCP
    Args:
      -conf
      /etc/coredns/Corefile
    Limits:
      memory:  170Mi
    Requests:
      cpu:        100m
      memory:     70Mi
    Liveness:     http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
    Environment:  <none>
    Mounts:
      /etc/coredns from config-volume (ro)
      /var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
  Type           Status
  PodScheduled   False 
Volumes:
  config-volume:
    Type:      ConfigMap (a volume populated by a ConfigMap)
    Name:      coredns
    Optional:  false
  coredns-token-jw4mv:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  coredns-token-jw4mv
    Optional:    false
QoS Class:       Burstable
Node-Selectors:  <none>
Tolerations:     CriticalAddonsOnly
                 node-role.kubernetes.io/master:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type     Reason            Age                From               Message
  ----     ------            ----               ----               -------
  Warning  FailedScheduling  8m (x32 over 13m)  default-scheduler  0/1 nodes are available: 1 node(s) were not ready.
  Warning  FailedScheduling  3m (x48 over 5m)   default-scheduler  0/3 nodes are available: 3 node(s) were not ready.


Name:               coredns-78fcdf6894-tzs8n
Namespace:          kube-system
Priority:           0
PriorityClassName:  <none>
Node:               <none>
Labels:             k8s-app=kube-dns
                    pod-template-hash=3497892450
Annotations:        <none>
Status:             Pending
IP:                 
Controlled By:      ReplicaSet/coredns-78fcdf6894
Containers:
  coredns:
    Image:       k8s.gcr.io/coredns:1.1.3
    Ports:       53/UDP, 53/TCP, 9153/TCP
    Host Ports:  0/UDP, 0/TCP, 0/TCP
    Args:
      -conf
      /etc/coredns/Corefile
    Limits:
      memory:  170Mi
    Requests:
      cpu:        100m
      memory:     70Mi
    Liveness:     http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
    Environment:  <none>
    Mounts:
      /etc/coredns from config-volume (ro)
      /var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
  Type           Status
  PodScheduled   False 
Volumes:
  config-volume:
    Type:      ConfigMap (a volume populated by a ConfigMap)
    Name:      coredns
    Optional:  false
  coredns-token-jw4mv:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  coredns-token-jw4mv
    Optional:    false
QoS Class:       Burstable
Node-Selectors:  <none>
Tolerations:     CriticalAddonsOnly
                 node-role.kubernetes.io/master:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type     Reason            Age                From               Message
  ----     ------            ----               ----               -------
  Warning  FailedScheduling  8m (x32 over 13m)  default-scheduler  0/1 nodes are available: 1 node(s) were not ready.
  Warning  FailedScheduling  3m (x47 over 5m)   default-scheduler  0/3 nodes are available: 3 node(s) were not ready.


Name:               etcd-devstats.team.io
Namespace:          kube-system
Priority:           2000000000
PriorityClassName:  system-cluster-critical
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:31:13 +0000
Labels:             component=etcd
                    tier=control-plane
Annotations:        kubernetes.io/config.hash=cc73514fbc25558d566fe49661f006a0
                    kubernetes.io/config.mirror=cc73514fbc25558d566fe49661f006a0
                    kubernetes.io/config.seen=2018-08-02T14:31:13.654147902Z
                    kubernetes.io/config.source=file
                    scheduler.alpha.kubernetes.io/critical-pod=
Status:             Running
IP:                 147.75.97.234
Containers:
  etcd:
    Container ID:  docker://254c88b154393778ef7b1ead2aaaa0acb120ffb76d911f140172da3323f1f1e3
    Image:         k8s.gcr.io/etcd-arm64:3.2.18
    Image ID:      docker-pullable://k8s.gcr.io/etcd-arm64<strong i="13">@sha256</strong>:f0b7368ebb28e6226ab3b4dbce4b5c6d77dab7b5f6579b08fd645c00f7b100ff
    Port:          <none>
    Host Port:     <none>
    Command:
      etcd
      --advertise-client-urls=https://127.0.0.1:2379
      --cert-file=/etc/kubernetes/pki/etcd/server.crt
      --client-cert-auth=true
      --data-dir=/var/lib/etcd
      --initial-advertise-peer-urls=https://127.0.0.1:2380
      --initial-cluster=devstats.team.io=https://127.0.0.1:2380
      --key-file=/etc/kubernetes/pki/etcd/server.key
      --listen-client-urls=https://127.0.0.1:2379
      --listen-peer-urls=https://127.0.0.1:2380
      --name=devstats.team.io
      --peer-cert-file=/etc/kubernetes/pki/etcd/peer.crt
      --peer-client-cert-auth=true
      --peer-key-file=/etc/kubernetes/pki/etcd/peer.key
      --peer-trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
      --snapshot-count=10000
      --trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
    State:          Running
      Started:      Thu, 02 Aug 2018 14:31:15 +0000
    Ready:          True
    Restart Count:  0
    Liveness:       exec [/bin/sh -ec ETCDCTL_API=3 etcdctl --endpoints=https://[127.0.0.1]:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/healthcheck-client.crt --key=/etc/kubernetes/pki/etcd/healthcheck-client.key get foo] delay=15s timeout=15s period=10s #success=1 #failure=8
    Environment:    <none>
    Mounts:
      /etc/kubernetes/pki/etcd from etcd-certs (rw)
      /var/lib/etcd from etcd-data (rw)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  etcd-data:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/etcd
    HostPathType:  DirectoryOrCreate
  etcd-certs:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/kubernetes/pki/etcd
    HostPathType:  DirectoryOrCreate
QoS Class:         BestEffort
Node-Selectors:    <none>
Tolerations:       :NoExecute
Events:            <none>


Name:               kube-apiserver-devstats.team.io
Namespace:          kube-system
Priority:           2000000000
PriorityClassName:  system-cluster-critical
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:31:13 +0000
Labels:             component=kube-apiserver
                    tier=control-plane
Annotations:        kubernetes.io/config.hash=1f7835a47425009200d38bf94c337ab3
                    kubernetes.io/config.mirror=1f7835a47425009200d38bf94c337ab3
                    kubernetes.io/config.seen=2018-08-02T14:31:13.639443247Z
                    kubernetes.io/config.source=file
                    scheduler.alpha.kubernetes.io/critical-pod=
Status:             Running
IP:                 147.75.97.234
Containers:
  kube-apiserver:
    Container ID:  docker://22b73993b141faebe6b4aab727d2235abb3422a17b60bc1be6c749c260e39f67
    Image:         k8s.gcr.io/kube-apiserver-arm64:v1.11.1
    Image ID:      docker-pullable://k8s.gcr.io/kube-apiserver-arm64<strong i="14">@sha256</strong>:bca1933fa25fc7f890700f6aebd572c6f8351f7bc89d2e4f2c44a63649e3fccf
    Port:          <none>
    Host Port:     <none>
    Command:
      kube-apiserver
      --authorization-mode=Node,RBAC
      --advertise-address=147.75.97.234
      --allow-privileged=true
      --client-ca-file=/etc/kubernetes/pki/ca.crt
      --disable-admission-plugins=PersistentVolumeLabel
      --enable-admission-plugins=NodeRestriction
      --enable-bootstrap-token-auth=true
      --etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt
      --etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt
      --etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key
      --etcd-servers=https://127.0.0.1:2379
      --insecure-port=0
      --kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt
      --kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key
      --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
      --proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt
      --proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key
      --requestheader-allowed-names=front-proxy-client
      --requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt
      --requestheader-extra-headers-prefix=X-Remote-Extra-
      --requestheader-group-headers=X-Remote-Group
      --requestheader-username-headers=X-Remote-User
      --secure-port=6443
      --service-account-key-file=/etc/kubernetes/pki/sa.pub
      --service-cluster-ip-range=10.96.0.0/12
      --tls-cert-file=/etc/kubernetes/pki/apiserver.crt
      --tls-private-key-file=/etc/kubernetes/pki/apiserver.key
    State:          Running
      Started:      Thu, 02 Aug 2018 14:31:15 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:        250m
    Liveness:     http-get https://147.75.97.234:6443/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
    Environment:  <none>
    Mounts:
      /etc/ca-certificates from etc-ca-certificates (ro)
      /etc/kubernetes/pki from k8s-certs (ro)
      /etc/ssl/certs from ca-certs (ro)
      /usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
      /usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  k8s-certs:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/kubernetes/pki
    HostPathType:  DirectoryOrCreate
  ca-certs:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/ssl/certs
    HostPathType:  DirectoryOrCreate
  usr-share-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/share/ca-certificates
    HostPathType:  DirectoryOrCreate
  usr-local-share-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/local/share/ca-certificates
    HostPathType:  DirectoryOrCreate
  etc-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/ca-certificates
    HostPathType:  DirectoryOrCreate
QoS Class:         Burstable
Node-Selectors:    <none>
Tolerations:       :NoExecute
Events:            <none>


Name:               kube-controller-manager-devstats.team.io
Namespace:          kube-system
Priority:           2000000000
PriorityClassName:  system-cluster-critical
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:31:13 +0000
Labels:             component=kube-controller-manager
                    tier=control-plane
Annotations:        kubernetes.io/config.hash=5d26a7fba3c17c9fa8969a466d6a0f1d
                    kubernetes.io/config.mirror=5d26a7fba3c17c9fa8969a466d6a0f1d
                    kubernetes.io/config.seen=2018-08-02T14:31:13.646000889Z
                    kubernetes.io/config.source=file
                    scheduler.alpha.kubernetes.io/critical-pod=
Status:             Running
IP:                 147.75.97.234
Containers:
  kube-controller-manager:
    Container ID:  docker://5182bf5c7c63f9507e6319a2c3fb5698dc827ea9b591acbb071cb39c4ea445ea
    Image:         k8s.gcr.io/kube-controller-manager-arm64:v1.11.1
    Image ID:      docker-pullable://k8s.gcr.io/kube-controller-manager-arm64<strong i="15">@sha256</strong>:7fa0b0242c13fcaa63bff3b4cde32d30ce18422505afa8cb4c0f19755148b612
    Port:          <none>
    Host Port:     <none>
    Command:
      kube-controller-manager
      --address=127.0.0.1
      --cluster-signing-cert-file=/etc/kubernetes/pki/ca.crt
      --cluster-signing-key-file=/etc/kubernetes/pki/ca.key
      --controllers=*,bootstrapsigner,tokencleaner
      --kubeconfig=/etc/kubernetes/controller-manager.conf
      --leader-elect=true
      --root-ca-file=/etc/kubernetes/pki/ca.crt
      --service-account-private-key-file=/etc/kubernetes/pki/sa.key
      --use-service-account-credentials=true
    State:          Running
      Started:      Thu, 02 Aug 2018 14:31:15 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:        200m
    Liveness:     http-get http://127.0.0.1:10252/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
    Environment:  <none>
    Mounts:
      /etc/ca-certificates from etc-ca-certificates (ro)
      /etc/kubernetes/controller-manager.conf from kubeconfig (ro)
      /etc/kubernetes/pki from k8s-certs (ro)
      /etc/ssl/certs from ca-certs (ro)
      /usr/libexec/kubernetes/kubelet-plugins/volume/exec from flexvolume-dir (rw)
      /usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
      /usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  usr-local-share-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/local/share/ca-certificates
    HostPathType:  DirectoryOrCreate
  etc-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/ca-certificates
    HostPathType:  DirectoryOrCreate
  k8s-certs:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/kubernetes/pki
    HostPathType:  DirectoryOrCreate
  ca-certs:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/ssl/certs
    HostPathType:  DirectoryOrCreate
  kubeconfig:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/kubernetes/controller-manager.conf
    HostPathType:  FileOrCreate
  flexvolume-dir:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/libexec/kubernetes/kubelet-plugins/volume/exec
    HostPathType:  DirectoryOrCreate
  usr-share-ca-certificates:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/share/ca-certificates
    HostPathType:  DirectoryOrCreate
QoS Class:         Burstable
Node-Selectors:    <none>
Tolerations:       :NoExecute
Events:            <none>


Name:               kube-proxy-69qnb
Namespace:          kube-system
Priority:           2000001000
PriorityClassName:  system-node-critical
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:32:25 +0000
Labels:             controller-revision-hash=2718475167
                    k8s-app=kube-proxy
                    pod-template-generation=1
Annotations:        scheduler.alpha.kubernetes.io/critical-pod=
Status:             Running
IP:                 147.75.97.234
Controlled By:      DaemonSet/kube-proxy
Containers:
  kube-proxy:
    Container ID:  docker://12fb2a4a8af025604e46783aa87d084bdc681365317c8dac278a583646a8ad1c
    Image:         k8s.gcr.io/kube-proxy-arm64:v1.11.1
    Image ID:      docker-pullable://k8s.gcr.io/kube-proxy-arm64<strong i="16">@sha256</strong>:c61f4e126ec75dedce3533771c67eb7c1266cacaac9ae770e045a9bec9c9dc32
    Port:          <none>
    Host Port:     <none>
    Command:
      /usr/local/bin/kube-proxy
      --config=/var/lib/kube-proxy/config.conf
    State:          Running
      Started:      Thu, 02 Aug 2018 14:32:26 +0000
    Ready:          True
    Restart Count:  0
    Environment:    <none>
    Mounts:
      /lib/modules from lib-modules (ro)
      /run/xtables.lock from xtables-lock (rw)
      /var/lib/kube-proxy from kube-proxy (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from kube-proxy-token-4q6rl (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  kube-proxy:
    Type:      ConfigMap (a volume populated by a ConfigMap)
    Name:      kube-proxy
    Optional:  false
  xtables-lock:
    Type:          HostPath (bare host directory volume)
    Path:          /run/xtables.lock
    HostPathType:  FileOrCreate
  lib-modules:
    Type:          HostPath (bare host directory volume)
    Path:          /lib/modules
    HostPathType:  
  kube-proxy-token-4q6rl:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  kube-proxy-token-4q6rl
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  beta.kubernetes.io/arch=arm64
Tolerations:     
                 CriticalAddonsOnly
                 node.kubernetes.io/disk-pressure:NoSchedule
                 node.kubernetes.io/memory-pressure:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute
                 node.kubernetes.io/unreachable:NoExecute
Events:
  Type    Reason   Age   From                       Message
  ----    ------   ----  ----                       -------
  Normal  Pulled   13m   kubelet, devstats.team.io  Container image "k8s.gcr.io/kube-proxy-arm64:v1.11.1" already present on machine
  Normal  Created  13m   kubelet, devstats.team.io  Created container
  Normal  Started  13m   kubelet, devstats.team.io  Started container


Name:               kube-scheduler-devstats.team.io
Namespace:          kube-system
Priority:           2000000000
PriorityClassName:  system-cluster-critical
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:31:13 +0000
Labels:             component=kube-scheduler
                    tier=control-plane
Annotations:        kubernetes.io/config.hash=6e1c1eb822c75df4cec74cac9992eea9
                    kubernetes.io/config.mirror=6e1c1eb822c75df4cec74cac9992eea9
                    kubernetes.io/config.seen=2018-08-02T14:31:13.651239565Z
                    kubernetes.io/config.source=file
                    scheduler.alpha.kubernetes.io/critical-pod=
Status:             Running
IP:                 147.75.97.234
Containers:
  kube-scheduler:
    Container ID:  docker://0b8018a7d0c2cb2dc64d9364dea5cea8047b0688c4ecb287dba8bebf9ab011a3
    Image:         k8s.gcr.io/kube-scheduler-arm64:v1.11.1
    Image ID:      docker-pullable://k8s.gcr.io/kube-scheduler-arm64<strong i="17">@sha256</strong>:28ab99ab78c7945a4e20d9369682e626b671ba49e2d4101b1754019effde10d2
    Port:          <none>
    Host Port:     <none>
    Command:
      kube-scheduler
      --address=127.0.0.1
      --kubeconfig=/etc/kubernetes/scheduler.conf
      --leader-elect=true
    State:          Running
      Started:      Thu, 02 Aug 2018 14:31:14 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:        100m
    Liveness:     http-get http://127.0.0.1:10251/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
    Environment:  <none>
    Mounts:
      /etc/kubernetes/scheduler.conf from kubeconfig (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  kubeconfig:
    Type:          HostPath (bare host directory volume)
    Path:          /etc/kubernetes/scheduler.conf
    HostPathType:  FileOrCreate
QoS Class:         Burstable
Node-Selectors:    <none>
Tolerations:       :NoExecute
Events:            <none>


Name:               weave-net-2fsrf
Namespace:          kube-system
Priority:           0
PriorityClassName:  <none>
Node:               devstats.cncf.io/147.75.78.47
Start Time:         Thu, 02 Aug 2018 14:39:49 +0000
Labels:             controller-revision-hash=332195524
                    name=weave-net
                    pod-template-generation=1
Annotations:        <none>
Status:             Running
IP:                 147.75.78.47
Controlled By:      DaemonSet/weave-net
Containers:
  weave:
    Container ID:  docker://e8f5c3b702166a15212ab9576696aa7a1a0cb5b94e9cba1451fc9cc2b1d1382d
    Image:         weaveworks/weave-kube:2.4.0
    Image ID:      docker-pullable://weaveworks/weave-kube<strong i="18">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
    Port:          <none>
    Host Port:     <none>
    Command:
      /home/weave/launch.sh
    State:          Waiting
      Reason:       CrashLoopBackOff
    Last State:     Terminated
      Reason:       Error
      Exit Code:    1
      Started:      Thu, 02 Aug 2018 14:43:04 +0000
      Finished:     Thu, 02 Aug 2018 14:43:05 +0000
    Ready:          False
    Restart Count:  5
    Requests:
      cpu:     10m
    Liveness:  http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /host/etc from cni-conf (rw)
      /host/home from cni-bin2 (rw)
      /host/opt from cni-bin (rw)
      /host/var/lib/dbus from dbus (rw)
      /lib/modules from lib-modules (rw)
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
      /weavedb from weavedb (rw)
  weave-npc:
    Container ID:   docker://1cfd16507d6d9e1744bfc354af62301fb8678af12ace34113121a40ca93b6113
    Image:          weaveworks/weave-npc:2.4.0
    Image ID:       docker-pullable://weaveworks/weave-npc<strong i="19">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
    Port:           <none>
    Host Port:      <none>
    State:          Running
      Started:      Thu, 02 Aug 2018 14:39:58 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:  10m
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             False 
  ContainersReady   False 
  PodScheduled      True 
Volumes:
  weavedb:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/weave
    HostPathType:  
  cni-bin:
    Type:          HostPath (bare host directory volume)
    Path:          /opt
    HostPathType:  
  cni-bin2:
    Type:          HostPath (bare host directory volume)
    Path:          /home
    HostPathType:  
  cni-conf:
    Type:          HostPath (bare host directory volume)
    Path:          /etc
    HostPathType:  
  dbus:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/dbus
    HostPathType:  
  lib-modules:
    Type:          HostPath (bare host directory volume)
    Path:          /lib/modules
    HostPathType:  
  xtables-lock:
    Type:          HostPath (bare host directory volume)
    Path:          /run/xtables.lock
    HostPathType:  FileOrCreate
  weave-net-token-blz79:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  weave-net-token-blz79
    Optional:    false
QoS Class:       Burstable
Node-Selectors:  <none>
Tolerations:     :NoSchedule
                 node.kubernetes.io/disk-pressure:NoSchedule
                 node.kubernetes.io/memory-pressure:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute
                 node.kubernetes.io/unreachable:NoExecute
Events:
  Type     Reason   Age                From                       Message
  ----     ------   ----               ----                       -------
  Normal   Pulling  5m                 kubelet, devstats.cncf.io  pulling image "weaveworks/weave-kube:2.4.0"
  Normal   Pulled   5m                 kubelet, devstats.cncf.io  Successfully pulled image "weaveworks/weave-kube:2.4.0"
  Normal   Pulling  5m                 kubelet, devstats.cncf.io  pulling image "weaveworks/weave-npc:2.4.0"
  Normal   Pulled   5m                 kubelet, devstats.cncf.io  Successfully pulled image "weaveworks/weave-npc:2.4.0"
  Normal   Created  5m                 kubelet, devstats.cncf.io  Created container
  Normal   Started  5m                 kubelet, devstats.cncf.io  Started container
  Normal   Created  5m (x4 over 5m)    kubelet, devstats.cncf.io  Created container
  Normal   Started  5m (x4 over 5m)    kubelet, devstats.cncf.io  Started container
  Normal   Pulled   5m (x3 over 5m)    kubelet, devstats.cncf.io  Container image "weaveworks/weave-kube:2.4.0" already present on machine
  Warning  BackOff  56s (x27 over 5m)  kubelet, devstats.cncf.io  Back-off restarting failed container


Name:               weave-net-j9f5m
Namespace:          kube-system
Priority:           0
PriorityClassName:  <none>
Node:               devstats.team.io/147.75.97.234
Start Time:         Thu, 02 Aug 2018 14:36:11 +0000
Labels:             controller-revision-hash=332195524
                    name=weave-net
                    pod-template-generation=1
Annotations:        <none>
Status:             Running
IP:                 147.75.97.234
Controlled By:      DaemonSet/weave-net
Containers:
  weave:
    Container ID:  docker://283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb
    Image:         weaveworks/weave-kube:2.4.0
    Image ID:      docker-pullable://weaveworks/weave-kube<strong i="20">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
    Port:          <none>
    Host Port:     <none>
    Command:
      /home/weave/launch.sh
    State:          Waiting
      Reason:       CrashLoopBackOff
    Last State:     Terminated
      Reason:       Error
      Exit Code:    1
      Started:      Thu, 02 Aug 2018 14:42:18 +0000
      Finished:     Thu, 02 Aug 2018 14:42:18 +0000
    Ready:          False
    Restart Count:  6
    Requests:
      cpu:     10m
    Liveness:  http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /host/etc from cni-conf (rw)
      /host/home from cni-bin2 (rw)
      /host/opt from cni-bin (rw)
      /host/var/lib/dbus from dbus (rw)
      /lib/modules from lib-modules (rw)
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
      /weavedb from weavedb (rw)
  weave-npc:
    Container ID:   docker://3cd49dbca669ac83db95ebf943ed0053281fa5082f7fa403a56e30091eaec36b
    Image:          weaveworks/weave-npc:2.4.0
    Image ID:       docker-pullable://weaveworks/weave-npc<strong i="21">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
    Port:           <none>
    Host Port:      <none>
    State:          Running
      Started:      Thu, 02 Aug 2018 14:36:31 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:  10m
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             False 
  ContainersReady   False 
  PodScheduled      True 
Volumes:
  weavedb:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/weave
    HostPathType:  
  cni-bin:
    Type:          HostPath (bare host directory volume)
    Path:          /opt
    HostPathType:  
  cni-bin2:
    Type:          HostPath (bare host directory volume)
    Path:          /home
    HostPathType:  
  cni-conf:
    Type:          HostPath (bare host directory volume)
    Path:          /etc
    HostPathType:  
  dbus:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/dbus
    HostPathType:  
  lib-modules:
    Type:          HostPath (bare host directory volume)
    Path:          /lib/modules
    HostPathType:  
  xtables-lock:
    Type:          HostPath (bare host directory volume)
    Path:          /run/xtables.lock
    HostPathType:  FileOrCreate
  weave-net-token-blz79:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  weave-net-token-blz79
    Optional:    false
QoS Class:       Burstable
Node-Selectors:  <none>
Tolerations:     :NoSchedule
                 node.kubernetes.io/disk-pressure:NoSchedule
                 node.kubernetes.io/memory-pressure:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute
                 node.kubernetes.io/unreachable:NoExecute
Events:
  Type     Reason   Age               From                       Message
  ----     ------   ----              ----                       -------
  Normal   Pulling  9m                kubelet, devstats.team.io  pulling image "weaveworks/weave-kube:2.4.0"
  Normal   Pulled   9m                kubelet, devstats.team.io  Successfully pulled image "weaveworks/weave-kube:2.4.0"
  Normal   Pulling  9m                kubelet, devstats.team.io  pulling image "weaveworks/weave-npc:2.4.0"
  Normal   Pulled   9m                kubelet, devstats.team.io  Successfully pulled image "weaveworks/weave-npc:2.4.0"
  Normal   Created  9m                kubelet, devstats.team.io  Created container
  Normal   Started  9m                kubelet, devstats.team.io  Started container
  Normal   Created  8m (x4 over 9m)   kubelet, devstats.team.io  Created container
  Normal   Started  8m (x4 over 9m)   kubelet, devstats.team.io  Started container
  Normal   Pulled   8m (x3 over 9m)   kubelet, devstats.team.io  Container image "weaveworks/weave-kube:2.4.0" already present on machine
  Warning  BackOff  4m (x26 over 9m)  kubelet, devstats.team.io  Back-off restarting failed container


Name:               weave-net-wwjrr
Namespace:          kube-system
Priority:           0
PriorityClassName:  <none>
Node:               cncftest.io/147.75.205.79
Start Time:         Thu, 02 Aug 2018 14:39:57 +0000
Labels:             controller-revision-hash=332195524
                    name=weave-net
                    pod-template-generation=1
Annotations:        <none>
Status:             Running
IP:                 147.75.205.79
Controlled By:      DaemonSet/weave-net
Containers:
  weave:
    Container ID:  docker://d0d1dccfe0a1f57bce652e30d5df210a9b232dd71fe6be1340c8bd5617e1ce11
    Image:         weaveworks/weave-kube:2.4.0
    Image ID:      docker-pullable://weaveworks/weave-kube<strong i="22">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
    Port:          <none>
    Host Port:     <none>
    Command:
      /home/weave/launch.sh
    State:          Waiting
      Reason:       CrashLoopBackOff
    Last State:     Terminated
      Reason:       Error
      Exit Code:    1
      Started:      Thu, 02 Aug 2018 14:43:16 +0000
      Finished:     Thu, 02 Aug 2018 14:43:16 +0000
    Ready:          False
    Restart Count:  5
    Requests:
      cpu:     10m
    Liveness:  http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /host/etc from cni-conf (rw)
      /host/home from cni-bin2 (rw)
      /host/opt from cni-bin (rw)
      /host/var/lib/dbus from dbus (rw)
      /lib/modules from lib-modules (rw)
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
      /weavedb from weavedb (rw)
  weave-npc:
    Container ID:   docker://e2c15578719788110131a4be3653a077441338b0f61f731add9dadaadfc11655
    Image:          weaveworks/weave-npc:2.4.0
    Image ID:       docker-pullable://weaveworks/weave-npc<strong i="23">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
    Port:           <none>
    Host Port:      <none>
    State:          Running
      Started:      Thu, 02 Aug 2018 14:40:09 +0000
    Ready:          True
    Restart Count:  0
    Requests:
      cpu:  10m
    Environment:
      HOSTNAME:   (v1:spec.nodeName)
    Mounts:
      /run/xtables.lock from xtables-lock (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             False 
  ContainersReady   False 
  PodScheduled      True 
Volumes:
  weavedb:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/weave
    HostPathType:  
  cni-bin:
    Type:          HostPath (bare host directory volume)
    Path:          /opt
    HostPathType:  
  cni-bin2:
    Type:          HostPath (bare host directory volume)
    Path:          /home
    HostPathType:  
  cni-conf:
    Type:          HostPath (bare host directory volume)
    Path:          /etc
    HostPathType:  
  dbus:
    Type:          HostPath (bare host directory volume)
    Path:          /var/lib/dbus
    HostPathType:  
  lib-modules:
    Type:          HostPath (bare host directory volume)
    Path:          /lib/modules
    HostPathType:  
  xtables-lock:
    Type:          HostPath (bare host directory volume)
    Path:          /run/xtables.lock
    HostPathType:  FileOrCreate
  weave-net-token-blz79:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  weave-net-token-blz79
    Optional:    false
QoS Class:       Burstable
Node-Selectors:  <none>
Tolerations:     :NoSchedule
                 node.kubernetes.io/disk-pressure:NoSchedule
                 node.kubernetes.io/memory-pressure:NoSchedule
                 node.kubernetes.io/not-ready:NoExecute
                 node.kubernetes.io/unreachable:NoExecute
Events:
  Type     Reason   Age                From                  Message
  ----     ------   ----               ----                  -------
  Normal   Pulling  5m                 kubelet, cncftest.io  pulling image "weaveworks/weave-kube:2.4.0"
  Normal   Pulled   5m                 kubelet, cncftest.io  Successfully pulled image "weaveworks/weave-kube:2.4.0"
  Normal   Pulling  5m                 kubelet, cncftest.io  pulling image "weaveworks/weave-npc:2.4.0"
  Normal   Pulled   5m                 kubelet, cncftest.io  Successfully pulled image "weaveworks/weave-npc:2.4.0"
  Normal   Created  5m                 kubelet, cncftest.io  Created container
  Normal   Started  5m                 kubelet, cncftest.io  Started container
  Normal   Created  4m (x4 over 5m)    kubelet, cncftest.io  Created container
  Normal   Pulled   4m (x3 over 5m)    kubelet, cncftest.io  Container image "weaveworks/weave-kube:2.4.0" already present on machine
  Normal   Started  4m (x4 over 5m)    kubelet, cncftest.io  Started container
  Warning  BackOff  44s (x27 over 5m)  kubelet, cncftest.io  Back-off restarting failed container
  • kubectl --v=8 logs --namespace=kube-system weave-net-2fsrf --all-containers=true :
I0802 14:49:02.034473   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.036654   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.044546   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.062906   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.063710   64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf
I0802 14:49:02.063753   64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.063791   64396 round_trippers.go:393]     Accept: application/json, */*
I0802 14:49:02.063828   64396 round_trippers.go:393]     User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.236764   64396 round_trippers.go:408] Response Status: 200 OK in 172 milliseconds
I0802 14:49:02.236870   64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.236907   64396 round_trippers.go:414]     Content-Type: application/json
I0802 14:49:02.236944   64396 round_trippers.go:414]     Date: Thu, 02 Aug 2018 14:49:02 GMT
I0802 14:49:02.237363   64396 request.go:897] Response Body: {"kind":"Pod","apiVersion":"v1","metadata":{"name":"weave-net-2fsrf","generateName":"weave-net-","namespace":"kube-system","selfLink":"/api/v1/namespaces/kube-system/pods/weave-net-2fsrf","uid":"e8b2dfe9-9661-11e8-8ca9-fc15b4970491","resourceVersion":"1625","creationTimestamp":"2018-08-02T14:39:49Z","labels":{"controller-revision-hash":"332195524","name":"weave-net","pod-template-generation":"1"},"ownerReferences":[{"apiVersion":"apps/v1","kind":"DaemonSet","name":"weave-net","uid":"66e82a46-9661-11e8-8ca9-fc15b4970491","controller":true,"blockOwnerDeletion":true}]},"spec":{"volumes":[{"name":"weavedb","hostPath":{"path":"/var/lib/weave","type":""}},{"name":"cni-bin","hostPath":{"path":"/opt","type":""}},{"name":"cni-bin2","hostPath":{"path":"/home","type":""}},{"name":"cni-conf","hostPath":{"path":"/etc","type":""}},{"name":"dbus","hostPath":{"path":"/var/lib/dbus","type":""}},{"name":"lib-modules","hostPath":{"path":"/lib/modules","type":""}},{"name":"xtables-lock","hostPath":{"path":"/run/xtables.lock","ty [truncated 4212 chars]
I0802 14:49:02.261076   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.262803   64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave
I0802 14:49:02.262844   64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.262882   64396 round_trippers.go:393]     Accept: application/json, */*
I0802 14:49:02.262919   64396 round_trippers.go:393]     User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.275703   64396 round_trippers.go:408] Response Status: 200 OK in 12 milliseconds
I0802 14:49:02.275743   64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.275779   64396 round_trippers.go:414]     Content-Type: text/plain
I0802 14:49:02.275815   64396 round_trippers.go:414]     Content-Length: 69
I0802 14:49:02.275850   64396 round_trippers.go:414]     Date: Thu, 02 Aug 2018 14:49:02 GMT
Network 10.32.0.0/12 overlaps with existing route 10.0.0.0/8 on host
I0802 14:49:02.278054   64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.279649   64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave-npc
I0802 14:49:02.279691   64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.279728   64396 round_trippers.go:393]     Accept: application/json, */*
I0802 14:49:02.279765   64396 round_trippers.go:393]     User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.293271   64396 round_trippers.go:408] Response Status: 200 OK in 13 milliseconds
I0802 14:49:02.293321   64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.293358   64396 round_trippers.go:414]     Content-Type: text/plain
I0802 14:49:02.293394   64396 round_trippers.go:414]     Date: Thu, 02 Aug 2018 14:49:02 GMT
INFO: 2018/08/02 14:39:58.198716 Starting Weaveworks NPC 2.4.0; node name "devstats.cncf.io"
INFO: 2018/08/02 14:39:58.198969 Serving /metrics on :6781
Thu Aug  2 14:39:58 2018 <5> ulogd.c:843 building new pluginstance stack: 'log1:NFLOG,base1:BASE,pcap1:PCAP'
DEBU: 2018/08/02 14:39:58.294002 Got list of ipsets: []
ERROR: logging before flag.Parse: E0802 14:40:28.338474   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338475   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338474   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.339275   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.340235   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.341457   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.340117   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.341216   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.342131   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.342657   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343322   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343396   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.343714   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.344561   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.346722   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.344468   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.345385   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.347275   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.345226   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.346184   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.347875   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347016   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347523   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.350821   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.347826   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.348883   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.351365   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.348662   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.349573   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.352012   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.349429   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.350420   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.352714   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.351213   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.352074   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.355261   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352128   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352949   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.355929   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.352903   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.353844   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.356576   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.353994   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.354564   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.357281   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.355515   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.356603   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.359533   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.356372   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.357453   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.360401   30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout

рддреЛ, рд╕рдВрдХреНрд╖реЗрдк рдореЗрдВред Ubuntu 18.04 рдкрд░ рдХреЗрд╡рд▓ рд╕рд┐рдВрдЧрд▓ рдорд╛рд╕реНрдЯрд░ рдФрд░ рд╕рд┐рдВрдЧрд▓ рд╡рд░реНрдХрд░ рдиреЛрдб рдХреЗ рд╕рд╛рде Kubernetes рдХреНрд▓рд╕реНрдЯрд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдирд╛ рдЕрд╕рдВрднрд╡ рд╣реИред
рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдирд╡реАрдирддрдо LTS Ubuntu рдкрд░ kubeadm рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ k8s рдХреЛ рдЪрд░рдг-рджрд░-рдЪрд░рдг рд╕реЗрдЯ рдХрд░рдиреЗ рдХрд╛ рдПрдХ рдЗрдВрд╕реНрдЯреЙрд▓реЗрд╢рди рдирд┐рд░реНрджреЗрд╢ рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдПред

рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ 18.04 рдиреЗ рдбреЙрдХрд░ рдХреЗ рдмрдВрдбрд▓ рдФрд░ systemd-resolved рджреЛрдиреЛрдВ рдХреЗ рд╕рдВрджрд░реНрдн рдореЗрдВ рддреЛрдбрд╝ рджрд┐рдпрд╛ред
рддреЛ рд╣рд╛рдБ, рд╡рд╣рд╛рдБ рдХреЗ рд╣рд░ рдПрдХ рдбрд┐рд╕реНрдЯреНрд░реЛ рдлреНрд▓реЗрд╡рд░ рдХреЗ рд▓рд┐рдП рдЧрд╛рдЗрдб рд▓рд┐рдЦрдирд╛ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХрдард┐рди рд╣реИ рдФрд░ рд╣рдо рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдЗрдиреНрд╣реЗрдВ рдХреБрд╢рд▓рддрд╛ рд╕реЗ рдмрдирд╛рдП рдирд╣реАрдВ рд░рдЦ рд╕рдХрддреЗ рд╣реИрдВред

рдЬрдмрдХрд┐ рдХреБрдмреЗрджрдо рдпрд╣рд╛рдБ рдХрд╛ рдЕрдЧреНрд░рднрд╛рдЧ рд╣реИ, рдпрд╣ рдореБрджреНрджрд╛ рд╡рд╛рд╕реНрддрд╡ рдореЗрдВ рдХреБрдмреЗрджрдо рд╕реЗ рд╣реА рдЕрд╕рдВрдмрдВрдзрд┐рдд рд╣реЛ рд╕рдХрддрд╛ рд╣реИред

рдХреБрдЫ рд╕рд╡рд╛рд▓:

  • рдХреНрдпрд╛ рдЖрдк рд╣рд╛рд▓ рдХреЗ рдХреБрдмреЗрд░рдиреЗрдЯ рд╕рдВрд╕реНрдХрд░рдгреЛрдВ рдХреЗ рд╕рд╛рде рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ amd64 + arm64 рдХреНрд▓рд╕реНрдЯрд░ рдЪрд▓рд╛ рд░рд╣реЗ рд╣реИрдВ?
  • рдореБрдЭреЗ рдЖрд╢реНрдЪрд░реНрдп рд╣реИ рдХрд┐ рдпрд╣ рдПрдХ рдкреНрд░реЙрдХреНрд╕реА рдореБрджреНрджрд╛ рд╣реИред рдкреНрд░реЙрдХреНрд╕реА рдХреЗ рдкреАрдЫреЗ рдиреЛрдбреНрд╕ рд╣реИрдВ?
  • рдЬрдм рдЖрдк 3 рдиреЛрдбреНрд╕ рдкрд░ kubeadm join/init рд╢реБрд░реВ рдХрд░рддреЗ рд╣реИрдВ рддреЛ /var/lib/kubelet/kubeadm-flags.env рдХреА рд╕рд╛рдордЧреНрд░реА рдХреНрдпрд╛ рд╣реЛрддреА рд╣реИ?
  • рдХреНрдпрд╛ рд╡реЗ journalctl -xeu kubelet рдХреА рдПрдХрдорд╛рддреНрд░ рджрд┐рд▓рдЪрд╕реНрдк рд╕рд╛рдордЧреНрд░реА рд╣реИрдВ? рдХреНрдпрд╛ рд╡рд╣ рдХреЗрд╡рд▓ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рд╣реИ - рджреВрд╕рд░реЛрдВ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдХреНрдпрд╛? рдЖрдк рдЗрдиреНрд╣реЗрдВ рдЧреАрдердм рдЧрд┐рд╕реНрдЯ рдпрд╛ http://pastebin.com рдореЗрдВ рдбрдВрдк рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ, рдореЗрд░реЗ рд▓рд┐рдП рднреА рджреЗрдЦреЗрдВред
  • рдХреНрдпрд╛ рдЖрдк рд╣рд╛рд▓ рдХреЗ рдХреБрдмреЗрд░рдиреЗрдЯ рд╕рдВрд╕реНрдХрд░рдгреЛрдВ рдХреЗ рд╕рд╛рде рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ amd64 + arm64 рдХреНрд▓рд╕реНрдЯрд░ рдЪрд▓рд╛ рд░рд╣реЗ рд╣реИрдВ? рдирд╣реАрдВ, рдпрд╣ рдореЗрд░реА рдкрд╣рд▓реА рдХреЛрд╢рд┐рд╢ рд╣реИ, рд▓реЗрдХрд┐рди рдореИрдВ amd64 рд╣реЛрд╕реНрдЯ рдкрд░ рдорд╛рд╕реНрдЯрд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░реВрдВрдЧрд╛ рдФрд░ arm64 рд╕рдВрдмрдВрдзрд┐рдд рд╕рдорд╕реНрдпрд╛ рдХреЛ рдмрд╛рд╣рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рдЕрдиреНрдп amd64 рд╣реЛрд╕реНрдЯ рдХреЗ рд╕рд╛рде рдПрдХ рдиреЛрдб
  • рдореБрдЭреЗ рдЖрд╢реНрдЪрд░реНрдп рд╣реИ рдХрд┐ рдпрд╣ рдПрдХ рдкреНрд░реЙрдХреНрд╕реА рдореБрджреНрджрд╛ рд╣реИред рдкреНрд░реЙрдХреНрд╕реА рдХреЗ рдкреАрдЫреЗ рдиреЛрдбреНрд╕ рд╣реИрдВ? рдХреЛрдИ рдкреНрд░реЙрдХреНрд╕реА рдирд╣реАрдВ, рд╕рднреА 3 рд╕рд░реНрд╡рд░реЛрдВ рдореЗрдВ рд╕реНрдерд┐рд░ рдЖрдИрдкреА рд╣реИрдВ
  • /var/lib/kubelet/kubeadm-flags.env рдХреА рд╕рд╛рдордЧреНрд░реА рдХреНрдпрд╛ рд╣реИ рдЬрдм рдЖрдкрдХрд╛ kubeadm 3 рдиреЛрдбреНрд╕ рдкрд░ рдЬреЙрдЗрди/рдЗрдирд┐рдЯ рдХрд░рддрд╛ рд╣реИ?
    рдорд╛рд╕реНрдЯрд░ (devstats.team.io, arm64):
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf

рдиреЛрдб (cncftest.io, amd64):

KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf

рдиреЛрдб (devstats.cncf.io, amd64):

KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
  • рдХреНрдпрд╛ рдпреЗ journalctl -xeu kubelet рдХреА рдПрдХрдорд╛рддреНрд░ рджрд┐рд▓рдЪрд╕реНрдк рд╕рд╛рдордЧреНрд░реА рд╣реИрдВ? рдХреНрдпрд╛ рд╡рд╣ рдХреЗрд╡рд▓ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рд╣реИ - рджреВрд╕рд░реЛрдВ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдХреНрдпрд╛? рдЖрдк рдЗрдиреНрд╣реЗрдВ рдЧреАрдердм рдЧрд┐рд╕реНрдЯ рдпрд╛ http://pastebin.com рдореЗрдВ рдбрдВрдк рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ, рдореЗрд░реЗ рд▓рд┐рдП рднреА рджреЗрдЦреЗрдВред

рдкреЗрд╕реНрдЯрдмрд┐рдиреНрд╕: рдорд╛рд╕реНрдЯрд░ , рдиреЛрдб ред

рдЗрд╕рд▓рд┐рдП, рдореИрдВрдиреЗ amd64 рд╣реЛрд╕реНрдЯ рдкрд░ рдорд╛рд╕реНрдЯрд░ kubeadm init рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рд╣реИ рдФрд░ weave net рдХреА рдХреЛрд╢рд┐рд╢ рдХреА рд╣реИ рдФрд░ рдкрд░рд┐рдгрд╛рдо рдмрд┐рд▓реНрдХреБрд▓ рд╡реИрд╕рд╛ рд╣реА рд╣реИ рдЬреИрд╕рд╛ рдХрд┐ arm64 рд╣реЛрд╕реНрдЯ рдкрд░ рдЗрд╕реЗ рдЖрдЬрд╝рдорд╛рддреЗ рд╕рдордп:

  • рдмреИрдХ-рдСрдлрд╝ рдкреБрдирд░рд╛рд░рдВрдн рд╡рд┐рдлрд▓ рдХрдВрдЯреЗрдирд░
  • runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

рдПрдХ рдЫреЛрдЯреА рд╕реА рдкреНрд░рдЧрддрд┐ рд╣реИред
рдореИрдВрдиреЗ amd64 рдкрд░ рдорд╛рд╕реНрдЯрд░ рд╕реНрдерд╛рдкрд┐рдд рдХрд┐рдпрд╛ рд╣реИ рдФрд░ рдлрд┐рд░ amd64 рдкрд░ рдПрдХ рдиреЛрдб рднреАред рд╕рдм рдареАрдХ рдХрд╛рдо рдХрд┐рдпрд╛ред
рдореИрдВрдиреЗ arm64 рдиреЛрдб рдЬреЛрдбрд╝рд╛ рд╣реИ рдФрд░ рдЕрдм рдореЗрд░реЗ рдкрд╛рд╕ рд╣реИ:
рдорд╛рд╕реНрдЯрд░ amd64: рддреИрдпрд╛рд░
рдиреЛрдб amd64: рддреИрдпрд╛рд░
рдиреЛрдб arm64: рддреИрдпрд╛рд░ рдирд╣реАрдВ: runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

  • рддреЛ рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ flannel рдиреЗрдЯ рдкреНрд▓рдЧрдЗрди рд╡рд┐рднрд┐рдиреНрди рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рдмреАрдЪ рдмрд╛рдд рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛ рд╣реИ рдФрд░ arm64 рдХреЛ рдорд╛рд╕реНрдЯрд░ рдХреЗ рд░реВрдк рдореЗрдВ рдмрд┐рд▓реНрдХреБрд▓ рднреА рдЗрд╕реНрддреЗрдорд╛рд▓ рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИред
  • рд╡реЗрд╡ рдиреЗрдЯ рдкреНрд▓рдЧрдЗрди рдмрд┐рд▓реНрдХреБрд▓ рднреА рдХрд╛рдо рдирд╣реАрдВ рдХрд░ рд░рд╣рд╛ рд╣реИ (рдмрд┐рдирд╛ рдиреЛрдбреНрд╕ рдЬреЛрдбрд╝реЗ рднреА)ред рдорд╛рд╕реНрдЯрд░ рд╣рдореЗрд╢рд╛ NotReady рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реЛрддрд╛ рд╣реИ, рднрд▓реЗ рд╣реА рдЖрд░реНрдХ amd64 рдпрд╛ arm64 рд╣реЛред
  • рдЙрди рд╕рднреА рдорд╛рдорд▓реЛрдВ рдореЗрдВ 'NotReady' рдХрд╛ рдХрд╛рд░рдг рд╣рдореЗрд╢рд╛ рдПрдХ рд╣реА рд╣реЛрддрд╛ рд╣реИ: runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

рдХреЛрдИ рд╕реБрдЭрд╛рд╡ рдореБрдЭреЗ рдХреНрдпрд╛ рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП? рдореБрдЭреЗ рдЗрд╕рдХреА рд░рд┐рдкреЛрд░реНрдЯ рдХрд╣рд╛рдВ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП? рдореЗрд░реЗ рдкрд╛рд╕ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА 2 рдиреЛрдбреНрд╕ рдХреНрд▓рд╕реНрдЯрд░ (рдорд╛рд╕реНрдЯрд░ рдФрд░ рдиреЛрдб amd64) рд╣реИ, рд▓реЗрдХрд┐рди рдореИрдВ рдЗрд╕ рд╕рдорд╕реНрдпрд╛ рдХреЛ рд╣рд▓ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░рдирд╛ рдЪрд╛рд╣рддрд╛ рд╣реВрдВ рддрд╛рдХрд┐ рдХреЛрдИ рднреА рдХрд┐рд╕реА рднреА рдЖрд░реНрдХ рдиреЛрдб рдХреЗ рд╕рд╛рде рдХрд┐рд╕реА рднреА рдЖрд░реНрдХ рдорд╛рд╕реНрдЯрд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд╕рдХреЗ, рдмрд╕ OOTBред

@lukaszgryglicki
kube-flannel.yml рдХреЗрд╡рд▓ рдПрдХ рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдХреЗ рд▓рд┐рдП рдлрд▓рд╛рд▓реИрди рдХрдВрдЯреЗрдирд░ рдХреЛ рддреИрдирд╛рдд рдХрд░рддрд╛ рд╣реИред рдпрд╣реА рдХрд╛рд░рдг рд╣реИ рдХрд┐ рд╡рд┐рднрд┐рдиреНрди рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рд╡рд╛рд▓реЗ рдиреЛрдбреНрд╕ рдкрд░ cni рдкреНрд▓рдЧрдЗрди рд╢реБрд░реВ рдирд╣реАрдВ рд╣реЛрддрд╛ рд╣реИ рдФрд░ рдиреЛрдб рдХрднреА рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реЛрддрд╛ рд╣реИ

рдореИрдВрдиреЗ рдЕрдкрдиреЗ рдЖрдк рд╕реЗ рдХрднреА рдХреЛрд╢рд┐рд╢ рдирд╣реАрдВ рдХреА, рд▓реЗрдХрд┐рди рдореБрдЭреЗ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдЖрдк рдЪреАрдЬреЛрдВ рдХреЛ рдорд┐рд▓рд╛рдиреЗ рд╕реЗ рдмрдЪрдиреЗ рдХреЗ рд▓рд┐рдП рдЕрд▓рдЧ-рдЕрд▓рдЧ рджрд╛рдЧреЛрдВ (рдФрд░ рдирд╛рдореЛрдВ) рдХреЗ рд╕рд╛рде рджреЛ рд╣реИрдХ рдХрд┐рдП рдЧрдП рдлрд▓рд╛рд▓реИрди рдореИрдирд┐рдлреЗрд╕реНрдЯ рдХреЛ рддреИрдирд╛рдд рдХрд░ рд╕рдХрддреЗ рд╣реИрдВ, рд▓реЗрдХрд┐рди рдлрд┐рд░ рд╕реЗ рдореЗрд░рд╛ рд╕реБрдЭрд╛рд╡ рд▓реЛрдЧреЛрдВ рдХреЛ рдлрд▓рд╛рд▓реИрди рд╕реЗ рдкреВрдЫрдирд╛ рд╣реИ рдХрд┐ рдХреНрдпрд╛ рдпрд╣ рдХреИрд╕реЗ рдХрд░рдирд╛ рд╣реИ рдЗрд╕рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдкрд╣рд▓реЗ рд╕реЗ рд╣реА рдирд┐рд░реНрджреЗрд╢ рд╣реИрдВ .

рд▓реЗрдХрд┐рди рдореИрдВрдиреЗ рдЯреНрдпреВрдЯреЛрд░рд┐рдпрд▓ рдореЗрдВ рд╕реБрдЭрд╛рдП рдЧрдП рдЕрдиреБрд╕рд╛рд░ arm64 рдкрд░ рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХреЛ рдЯреНрд╡рд┐рдХ рдХрд┐рдпрд╛ рд╣реИред amd64 рдХреЛ arm64 рдмрджрд▓рд╛ рдЧрдпрд╛ред
рддреЛ рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдореИрдВ flannell рд▓рд┐рдП рдПрдХ рдореБрджреНрджрд╛ рдмрдирд╛рдКрдВ рдФрд░ рдЗрд╕ рдзрд╛рдЧреЗ рдХреЗ рд▓рд┐рдП рдПрдХ рд▓рд┐рдВрдХ рдкреЗрд╕реНрдЯ рдХрд░реВрдВред

рдФрд░ рдЕрдм рдХреНрдпреЛрдВ wave net рдПрдХ рд╣реА cni рд╕рдВрдмрдВрдзрд┐рдд рдмрдЧ рдХреЗ рд╕рд╛рде рджреЛрдиреЛрдВ рдореЗрд╣рд░рд╛рдмреЛрдВ рдкрд░ рд╡рд┐рдлрд▓ рд░рд╣рддрд╛ рд╣реИ? рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ weave рд▓рд┐рдП рднреА рдХреЛрдИ рд╕рдорд╕реНрдпрд╛ рдмрдирд╛рдПрдВ рдФрд░ рдЗрд╕ рдереНрд░реЗрдб рд╕реЗ рд▓рд┐рдВрдХ рднреА рдХрд░реЗрдВ?

@lukaszgryglicki
рдЬрдм рдЖрдк рдмрд╛рдВрд╣ рдХреЗ рд▓рд┐рдП kube-flannel.yml рдШреБрдорд╛рддреЗ рд╣реИрдВ, рддреЛ рдпрд╣ рдПрдПрдордбреА рдорд╢реАрдиреЛрдВ рдкрд░ рдХрд╛рдо рдХрд░рдирд╛ рдмрдВрдж рдХрд░ рджреЗрддрд╛ рд╣реИ... рдпрд╣реА рдХрд╛рд░рдг рд╣реИ рдХрд┐ рдореИрдВ рдЕрдиреБрдорд╛рди рд▓рдЧрд╛ рд░рд╣рд╛ рд╣реВрдВ рдХрд┐ 2 рдЕрдЪреНрдЫреА рддрд░рд╣ рд╕реЗ рдореБрдбрд╝реЗ рд╣реБрдП рдореИрдирд┐рдлрд╝реЗрд╕реНрдЯ, рдПрдХ рдЖрд░реНрдо рдХреЗ рд▓рд┐рдП рдФрд░ рдПрдХ рдПрдПрдордбреА рдХреЗ рд▓рд┐рдП, рдЖрдкрдХреА рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рдорд╛рдзрд╛рди рдХрд░ рд╕рдХрддреЗ рд╣реИрдВред

рдФрд░ рдЕрдм рдЬрдм рдореИрдВ рд╕реЛрдЪрддрд╛ рд╣реВрдВ, рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдЖрдкрдХреЛ рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рдбреЗрдореЙрди рд╕реЗрдЯ рдХреЗ рд╕рд╛рде рднреА рдпрд╣реА рд╕рдорд╕реНрдпрд╛ рдареАрдХ рдХрд░рдиреА рдЪрд╛рд╣рд┐рдП, рд▓реЗрдХрд┐рди рдореИрдВ рдЕрдм рдЗрд╕рдХрд╛ рдкрд░реАрдХреНрд╖рдг рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдХреНрд╖рдорд╛ рдХрд░реЗрдВ


рдЖрдкрдХреЗ рдкрд╛рд╕ рдмреБрдирд╛рдИ рдХреА рд╕рдорд╕реНрдпрд╛ рдХреЗ рд▓рд┐рдП рдореЗрд░реЗ рдкрд╛рд╕ рдкрд░реНрдпрд╛рдкреНрдд рдЬрд╛рдирдХрд╛рд░реА рдирд╣реАрдВ рд╣реИред рдПрдХ рд╕рдорд╕реНрдпрд╛ рдпрд╣ рд╣реЛ рд╕рдХрддреА рд╣реИ рдХрд┐ рдмреБрдирд╛рдИ --pod-network-cidr=10.244.0.0/16 рд╕рд╛рде рдХрд╛рдо рдирд╣реАрдВ рдХрд░рддреА рд╣реИ, рд▓реЗрдХрд┐рди рд╢реБрд░реБрдЖрддреА рдореБрджреНрджреЗ рдкрд░ рд╡рд╛рдкрд╕ рдЬрд╛рдХрд░, рдореИрдВ рдЪреВрд▓реНрд╣рд╛ рд╕реЗ рдирд╣реАрдВ рдЬрд╛рдирддрд╛ рдХрд┐ рдмреБрдирд╛рдИ рдорд┐рд╢реНрд░рд┐рдд рдкреНрд▓реЗрдЯрдлрд╛рд░реНрдореЛрдВ рдкрд░ рдмреЙрдХреНрд╕ рд╕реЗ рдмрд╛рд╣рд░ рдХрд╛рдо рдХрд░рддреА рд╣реИ рдпрд╛ рдирд╣реАрдВред

рддреЛ рдореБрдЭреЗ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рджреЛ рдЕрд▓рдЧ-рдЕрд▓рдЧ рдореИрдирд┐рдлреЗрд╕реНрдЯ рддреИрдирд╛рдд рдХрд░рдирд╛ рдЪрд╛рд╣рд┐рдП, рд╣реИ рдирд╛? рдХреЛрдИ рдлрд░реНрдХ рдирд╣реАрдВ рдкрдбрд╝рддрд╛ рдЕрдЧрд░ рдорд╛рд╕реНрдЯрд░ arm64 рдпрд╛ amd64 рд╣реЛрддрд╛ рд╣реИ, рд╣реИ рдирд╛? рдХреНрдпрд╛ рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЕрдкрдиреЗ рдФрд░ рдиреЛрдбреНрд╕ рдкрд░ рд╕рд╣реА рдЖрд░реНрдХ рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЛ рд╕рдВрднрд╛рд▓рдирд╛ рдЪрд╛рд╣рд┐рдП?
рд╕реБрдирд┐рд╢реНрдЪрд┐рдд рдирд╣реАрдВ рд╣реИ рдХрд┐ рдЖрдкрдХрд╛ рдпрд╣рд╛рдБ рдХреНрдпрд╛ рдорддрд▓рдм рд╣реИ:

And now that I think of, might be you should fix the same issue with kube-proxy daemon set as well, but I can't test this now, sorry

рдореИрдВрдиреЗ --pod-network-cidr=10.244.0.0/16 рд▓рд┐рдП weave ред рдореИрдВрдиреЗ рдХреЗрд╡рд▓ kubeadm init ред
рдореИрдВрдиреЗ рдХреЗрд╡рд▓ рдлрд▓рд╛рд▓реИрди рдкреНрд░рдпрд╛рд╕реЛрдВ рдХреЗ рд▓рд┐рдП --pod-network-cidr=10.244.0.0/16 рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИред рдЬреИрд╕рд╛ рдХрд┐ рдбреЙрдХреНрд╕ рдХрд╣рддреЗ рд╣реИрдВред

cc @luxas - рдореИрдВрдиреЗ рджреЗрдЦрд╛ рд╣реИ рдХрд┐ рдЖрдкрдиреЗ рдмрд╣реБ-рдЖрд░реНрдХ k8s рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдХреБрдЫ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝ рдмрдирд╛рдП рд╣реИрдВ, рд╣реЛ рд╕рдХрддрд╛ рд╣реИ рдХрд┐ рдЖрдкрдХреЗ рдкрд╛рд╕ рдХреБрдЫ рдкреНрд░рддрд┐рдХреНрд░рд┐рдпрд╛ рд╣реЛ?

@lukasredynk

рд╣рд╛рдБ, рддреЛ рдпрд╣ рдПрдХ рдХрдЯреНрдЯрд░ рдореБрджреНрджрд╛ рд╣реИ, рдкреБрд╖реНрдЯрд┐ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред
рдЖрдЗрдП рдпрд╣рд╛рдВ рдлрд▓рд╛рд▓реИрди рдкрд░ рдзреНрдпрд╛рди рджреЗрдВ рдХреНрдпреЛрдВрдХрд┐ рдмреБрдирд╛рдИ рдХрд╛ рдореБрджреНрджрд╛ рд╕реНрдкрд░реНрд╢рд░реЗрдЦрд╛ рдЬреИрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИред

рд╕рдВрджрд░реНрдн рдХреЗ рд▓рд┐рдП @luxas рджреНрд╡рд╛рд░рд╛ рдЗрд╕реЗ рджреЗрдЦреЗрдВ, рдпрджрд┐ рдЗрд╕реЗ рдкрд╣рд▓реЗ рд╕реЗ рдирд╣реАрдВ рджреЗрдЦрд╛ рдЧрдпрд╛ рд╣реИ:
https://github.com/luxas/kubeadm-workshop

рдХреНрдпрд╛ рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЕрдкрдиреЗ рдФрд░ рдиреЛрдбреНрд╕ рдкрд░ рд╕рд╣реА рдЖрд░реНрдХ рдкрд░рд┐рдирд┐рдпреЛрдЬрди рдХреЛ рд╕рдВрднрд╛рд▓рдирд╛ рдЪрд╛рд╣рд┐рдП?

_it should_ рд▓реЗрдХрд┐рди рдЬреЛ рдореИрдирд┐рдлреЗрд╕реНрдЯ рдЖрдк рдбрд╛рдЙрдирд▓реЛрдб рдХрд░ рд░рд╣реЗ рд╣реИрдВ рд╡рд╣ "рдореЛрдЯрд╛" рдирд╣реАрдВ рд╣реИ:
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml

рдЬрд╣рд╛рдВ рддрдХ тАЛтАЛтАЛтАЛрдореИрдВ рд╕рдордЭрддрд╛ рд╣реВрдВ рдХрд┐ рдХрдЯреНрдЯрд░ рджрд╛рдЧреЛрдВ рдХрд╛ рдкреНрд░рдЪрд╛рд░ рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕реЗ рдкреНрд░рддреНрдпреЗрдХ рдиреЛрдб (?) рдкрд░ kubectl рд╕рд╛рде рдареАрдХ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИред

рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ "рд╡рд╕рд╛" рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╣реИ рдФрд░ рдпрд╣рд╛рдВ рдЬреЛрдбрд╝рд╛ рдЧрдпрд╛ рдерд╛:
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca

рд╕рдВрдмрдВрдзрд┐рдд рдореБрджреНрджрд╛ / рдЬрдирд╕рдВрдкрд░реНрдХ:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989

рдореЗрд░реА рдзрд╛рд░рдгрд╛ рдпрд╣ рд╣реИ рдХрд┐ рдпрд╣ рдЦреВрди рдмрд╣ рд░рд╣рд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдЗрд╕рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдирд╛ рд╣реЛрдЧрд╛:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

рдЗрд╕рд▓рд┐рдП рдХреНрд▓рд╕реНрдЯрд░ рдХреЛ рдиреАрдЪреЗ рд▓рд╛рдПрдВ рдФрд░ рдЗрд╕реЗ рдЖрдЬрдорд╛рдПрдВ рдФрд░ рдЖрд╢рд╛ рдХрд░реЗрдВ рдХрд┐ рдпрд╣ рдХрд╛рдо рдХрд░реЗрдЧрд╛ред
рд╣рдорд╛рд░реЗ рд╕реАрдПрдирдЖрдИ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдХреЛ рдПрдХ рдЯрдХреНрдХрд░ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрдЧреА, рдлрд┐рд░ рднреА рдРрд╕рд╛ рддрдм рд╣реЛрдирд╛ рдЪрд╛рд╣рд┐рдП рдЬрдм flannel-next рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПред

рдареАрдХ рд╣реИ, рд╕рдкреНрддрд╛рд╣рд╛рдВрдд рдХреЗ рдмрд╛рдж рдХреЛрд╢рд┐рд╢ рдХрд░реВрдБрдЧрд╛ рдФрд░ рдЕрдкрдиреЗ рдкрд░рд┐рдгрд╛рдо рдпрд╣рд╛рдБ рдкреЛрд╕реНрдЯ рдХрд░реВрдБрдЧрд╛ред рдзрдиреНрдпрд╡рд╛рджред

@lukaszgryglicki рд╣рд╛рдп, рдХреНрдпрд╛ рдЖрдкрдХреЛ рдпрд╣ рдирдП рдлрд▓рд╛рд▓реИрди рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ рдХрд╛рдо рдХрд░ рд░рд╣рд╛ рд╣реИ?

рдЕрднреА рдирд╣реАрдВ, рдореИрдВ рдЖрдЬ рдХреЛрд╢рд┐рд╢ рдХрд░реВрдБрдЧрд╛ред

рдареАрдХ рд╣реИ рдЕрдВрдд рдореЗрдВ рдХрд╛рдо рдХрд┐рдпрд╛:

root<strong i="6">@devstats</strong>:/root# kubectl get nodes
NAME               STATUS    ROLES     AGE       VERSION
cncftest.io        Ready     <none>    39s       v1.11.1
devstats.cncf.io   Ready     <none>    46s       v1.11.1
devstats.team.io   Ready     master    12m       v1.11.1

рдлрд▓рд╛рд▓реИрди master рд╢рд╛рдЦрд╛ рд╕реЗ рдлреИрдЯ рдореЗрдирдлреЗрд╕реНрдЯ рдиреЗ рдорджрдж рдХреАред
рдзрдиреНрдпрд╡рд╛рдж, рдЗрд╕реЗ рдмрдВрдж рдХрд┐рдпрд╛ рдЬрд╛ рд╕рдХрддрд╛ рд╣реИред

рд╣рд╛рдп рджреЛрд╕реНрддреЛрдВ, рдореИрдВ рднреА рдРрд╕реА рд╣реА рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реВрдБред
рдореЗрд░реЗ рдкрд╛рд╕ рд░реЗрдбреА рд╕реНрдЯреЗрдЯ рдореЗрдВ рд╡рд░реНрдХрд░ рдиреЛрдбреНрд╕ рд╣реИрдВ, рд▓реЗрдХрд┐рди рдЖрд░реНрдо64 рдкрд░ рдлрд▓рд╛рд▓реИрди рдЗрд╕ рддреНрд░реБрдЯрд┐ рдХреЗ рд╕рд╛рде рдХреНрд░реИрд╢ рд╣реЛрддрд╛ рд░рд╣рддрд╛ рд╣реИ:
1 main.go:232] Failed to create SubnetManager: error retrieving pod spec for 'kube-system/kube-flannel-ds-arm64-m5jfd': Get https://10.96.0.1:443/api/v1/namespaces/kube-system/pods/kube-flannel-ds-arm64-m5jfd: dial tcp 10.96.0.1:443: i/o timeout
@lukasredynk рдХреНрдпрд╛ рдпрд╣ рдЖрдкрдХреЗ рд▓рд┐рдП рдХрд╛рдо рдХрд░рддрд╛ рд╣реИ?

рдХреЛрдИ рдЙрдкрд╛рдп?

рддреНрд░реБрдЯрд┐ рдЕрд▓рдЧ рдкреНрд░рддреАрдд рд╣реЛрддреА рд╣реИ, рд▓реЗрдХрд┐рди рдХреНрдпрд╛ рдЖрдкрдиреЗ рд╡рд╕рд╛ рдореЗрдирд┐рдлреЗрд╕реНрдЯ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд┐рдпрд╛ рд╣реИ: https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ?
рдЗрд╕рдореЗрдВ рдХрдИ рдореЗрд╣рд░рд╛рдмреЛрдВ рдХреЗ рд▓рд┐рдП рдореИрдирд┐рдлрд╝реЗрд╕реНрдЯ рд╢рд╛рдорд┐рд▓ рд╣реИрдВред

рд╣рд╛рдБ рдореИрдВ:
image

рд╕рдорд╕реНрдпрд╛ рдЕрдм рдпрд╣ рдлрд▓рд╛рд▓реИрди рдХрдВрдЯреЗрдирд░ рд╣реИ рдЬреЛ рд╣рд╛рде рдкрд░ рдирд╣реАрдВ рд░рд╣рддрд╛ рд╣реИред :(

рдпрд╣ amd64 рдФрд░ arm64 рдХрд░рддрд╛ рд╣реИ - рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд░рддрд╛ рд╣реИред
рджреБрд░реНрднрд╛рдЧреНрдп рд╕реЗ, рдореИрдВ arm (32 рдмрд┐рдЯ) рдХреЗ рд╕рд╛рде рдорджрдж рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдореЗрд░реЗ рдкрд╛рд╕ рдХреЛрдИ arm рдорд╢реАрди рдЙрдкрд▓рдмреНрдз рдирд╣реАрдВ рд╣реИред

рдореИрдВ arm64 рдкрд░ рд╣реВрдВ рд▓реЗрдХрд┐рди рдзрдиреНрдпрд╡рд╛рдж, рдореИрдВ рдЬрд╛рдВрдЪ рдХрд░рдирд╛ рдЬрд╛рд░реА рд░рдЦреВрдВрдЧрд╛ ...

рдУрд╣, рдлрд┐рд░ рдХреНрд╖рдорд╛ рдХрд░реЗрдВ, рдореБрдЭреЗ рд▓рдЧрд╛ рдХрд┐ рдЖрдк рд╣рд╛рде рдкрд░ рд╣реИрдВред
рд╡реИрд╕реЗ рднреА, рдореИрдВ рднреА рдЗрд╕рдХреЗ рд▓рд┐рдП рдХрд╛рдлреА рдирдпрд╛ рд╣реВрдВ, рдЗрд╕рд▓рд┐рдП рдЖрдкрдХреЛ рдЕрдиреНрдп рд▓реЛрдЧреЛрдВ рдХреА рд╕рд╣рд╛рдпрддрд╛ рдХреЗ рд▓рд┐рдП рдкреНрд░рддреАрдХреНрд╖рд╛ рдХрд░рдиреЗ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реИред
рдХреГрдкрдпрд╛ kubectl describe pods --all-namespace рдЖрдЙрдЯрдкреБрдЯ рдФрд░ рдЕрдиреНрдп рдХрдорд╛рдВрдб рдХреЗ рд╕рдВрднрд╛рд╡рд┐рдд рдЖрдЙрдЯрдкреБрдЯ рдХреЛ рдкреЗрд╕реНрдЯ рдХрд░реЗрдВ рдЬрд┐рдиреНрд╣реЗрдВ рдореИрдВрдиреЗ рдЗрд╕ рдереНрд░реЗрдб рдореЗрдВ рдкреЛрд╕реНрдЯ рдХрд┐рдпрд╛ рд╣реИред рдпрд╣ рдХрд┐рд╕реА рдХреЛ рд╡рд╛рд╕реНрддрд╡рд┐рдХ рд╕рдорд╕реНрдпрд╛ рдХреЛ рдЯреНрд░реИрдХ рдХрд░рдиреЗ рдореЗрдВ рдорджрдж рдХрд░ рд╕рдХрддрд╛ рд╣реИред

рдзрдиреНрдпрд╡рд╛рдж @lukaszgryglicki ,
рдпрд╣ рд╡рд░реНрдгрди рдлрд▓реА рдХрд╛ рдЖрдЙрдЯрдкреБрдЯ рд╣реИ: https://pastebin.com/kBVPYsMd

@lukaszgryglicki
рдЦреБрд╢реА рд╣реИ рдХрд┐ рдпрд╣ рдЕрдВрдд рдореЗрдВ рдХрд╛рдо рдХрд┐рдпрд╛ред
рдореИрдВ рджрд╕реНрддрд╛рд╡реЗрдЬрд╝реЛрдВ рдореЗрдВ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рд╡рд╕рд╛ рдкреНрд░рдХрдЯ рдЙрдкрдпреЛрдЧ рдХрд╛ рджрд╕реНрддрд╛рд╡реЗрдЬреАрдХрд░рдг рдХрд░реВрдВрдЧрд╛, рдХреНрдпреЛрдВрдХрд┐ рдореБрдЭреЗ рдирд╣реАрдВ рдкрддрд╛ рдХрд┐ 0.11.0 рдХрдм рдЬрд╛рд░реА рдХрд┐рдпрд╛ рдЬрд╛рдПрдЧрд╛ред

@ рд▓реАрди15

рдЕрд╕рдлрд▓ рдлрд▓реА рд╕реЗ рдкреНрд░рд╛рд╕рдВрдЧрд┐рдХ:

  Warning  FailedCreatePodSandBox  3m (x5327 over 7h)  kubelet, nanopi-neo-plus2  (combined from similar events): Failed create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "9ddb551d520a757f4f8ff81d1dbfde50a98a5ec65385673a5a49a79e23a3243b" network for pod "arm-test-7894bfffd-njdcc": NetworkPlugin cni failed to set up pod "arm-test-7894bfffd-njdcc_default" network: open /run/flannel/subnet.env: no such file or directory

рдХреНрдпрд╛ рдЖрдк --pod-network-cidr=... рдЬреЛрдбрд╝ рд░рд╣реЗ рд╣реИрдВ рдЬреЛ рдлрд▓рд╛рд▓реИрди рдХреЗ рд▓рд┐рдП рдЖрд╡рд╢реНрдпрдХ рд╣реИ?

рдЗрд╕ рдЧрд╛рдЗрдб рдХреЛ рднреА рдЖрдЬрдорд╛рдПрдВ:
https://github.com/kubernetes/kubernetes/issues/36575#issuecomment -264622923

@ neolit123 рд╣рд╛рдБ, рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдорд┐рд▓реА: рдлрд▓рд╛рд▓реИрди рдиреЗ рд╡рд░реНрдЪреБрдЕрд▓ рдиреЗрдЯрд╡рд░реНрдХ рдЗрдВрдЯрд░рдлрд╝реЗрд╕ (cni рдФрд░ flannel0) рдирд╣реАрдВ рдмрдирд╛рдпрд╛ред
рдореБрдЭреЗ рдЗрд╕рдХрд╛ рдХрд╛рд░рдг рдирд╣реАрдВ рдкрддрд╛ рдФрд░ рдореИрдВ рдХрдИ рдШрдВрдЯреЛрдВ рдХреЗ рдмрд╛рдж рдЗрд╕реЗ рд╣рд▓ рдХрд░рдиреЗ рдореЗрдВ рд╡рд┐рдлрд▓ рд░рд╣рд╛ред
рдореИрдВрдиреЗ рд╣рд╛рд░ рдорд╛рди рд▓реА рдФрд░ рдЭреБрдВрдб рдореЗрдВ рдЪрд▓рд╛ рдЧрдпрд╛ред

рдареАрдХ рд╣реИ рд╕рдордЭ рдЧрдпрд╛ред рдЙрд╕ рдорд╛рдорд▓реЗ рдореЗрдВ рдореИрдВ рдЗрд╕ рдореБрджреНрджреЗ рдХреЛ рдмрдВрдж рдХрд░ рд░рд╣рд╛ рд╣реВрдБред
рдзрдиреНрдпрд╡рд╛рджред

рдореИрдВ рднреА рдЙрд╕реА рд╕рдорд╕реНрдпрд╛ рдореЗрдВ рднрд╛рдЧ рдЧрдпрд╛, рдФрд░ рдореИрдВрдиреЗ рдкрд╛рдпрд╛ рдХрд┐ рдЪреАрди рдореЗрдВ GFW рдХреЗ рдХрд╛рд░рдг рдиреЛрдб рдЖрд╡рд╢реНрдпрдХ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдирд╣реАрдВ рдЦреАрдВрдЪ рд╕рдХрддрд╛ рд╣реИ, рдЗрд╕рд▓рд┐рдП рдореИрдВ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдореИрдиреНрдпреБрдЕрд▓ рд░реВрдк рд╕реЗ рдЦреАрдВрдЪрддрд╛ рд╣реВрдВ рдФрд░ рдпрд╣ рдареАрдХ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ

рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:

  1. Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:

рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░3h6m v1.14.1
рдиреЛрдб02 рддреИрдпрд╛рд░167m v1.14.1

рдирдорд╕реНрддреЗ,

рдореЗрд░реЗ рдкрд╛рд╕ 1 рдорд╛рд╕реНрдЯрд░ рдФрд░ 2 рдиреЛрдб рд╣реИрдВред рджреВрд╕рд░рд╛ рдиреЛрдб рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рдирд╣реАрдВ рд╣реИред

root@kube1 :~# kubectl рдХреЛ рдиреЛрдбреНрд╕ рдорд┐рд▓рддреЗ рд╣реИрдВ
рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
dockerlab1 рддреИрдпрд╛рд░3h57m v1.14.3
kube1 рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 4h12m v1.14.3
рд▓реИрдмрд╕рд░реНрд╡рд░1 рддреИрдпрд╛рд░ рдирд╣реАрдВ22m v1.14.3


root@kube1 :~# kubectl рдкреЙрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ --all-namespaces
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдлрд┐рд░ рд╕реЗ рд╢реБрд░реВ рд╣реЛрддреА рд╣реИ рдЖрдпреБ
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрди-fb8b8dccf-72llr 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрдиреНрд╕-fb8b8dccf-n9v82 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо etcd-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
kube-system kube-apiserver-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдХрдВрдЯреНрд░реЛрд▓рд░-рдореИрдиреЗрдЬрд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 0/1 рдЗрдирд┐рдЯ: 0/1 0 24 рдореА
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-рдПрдПрдордбреА64-рдЖрд░рдПрд╕рдПрдирдЬреЗ 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-xsj72 1/1 рд░рдирд┐рдВрдЧ 0 4h1m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-7m8jg 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо7рдЬреАрдбреАрд╕реА 0/1 рдХрдВрдЯреЗрдирд░ рдмрдирд╛рдирд╛ 0 24m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-xgq6p 1/1 рд░рдирд┐рдВрдЧ 0 4h13m

рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рд╢реЗрдбреНрдпреВрд▓рд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m

root@kube1 :~# Kubectl рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ
рдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рднреВрдорд┐рдХрд╛рдПрдБ:
рд▓реЗрдмрд▓: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
Kubernetes.io/arch=amd64
Kubernetes.io/hostname=labserver1
Kubernetes.io/os=linux
рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдВ: kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock
node.alpha.kubernetes.io/ttl: 0
Volume.kubernetes.io/controller-managed-attach-detach: true
рдирд┐рд░реНрдорд╛рдг рдЯрд╛рдЗрдорд╕реНрдЯреИрдореНрдк: рд╕реВрд░реНрдп, 09 рдЬреВрди 2019 21:03:57 +0800
рджрд╛рдЧ: node.kubernetes.io/not- рддреИрдпрд╛рд░: NoExecute
node.kubernetes.io/not- рддреИрдпрд╛рд░:NoSchedule
рдЕрдирд┐рд░реНрдзрд╛рд░рд┐рдд: рдЕрд╕рддреНрдп
рд╢рд░реНрддреЗрдБ:
рдЯрд╛рдЗрдк рдХрд░реЗрдВ Status LastHeartbeatTime LastTransitionTime рдХрд╛рд░рдг рд╕рдВрджреЗрд╢
-------------------------------------------------------------- -----------
рдореЗрдореЛрд░реАрдкреНрд░реЗрд╢рд░ рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рд╣реИрдореЗрдореЛрд░реА рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рдореЗрдореЛрд░реА рдЙрдкрд▓рдмреНрдз рд╣реИ
DiskPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasNoDiskPressure kubelet рдореЗрдВ рдХреЛрдИ рдбрд┐рд╕реНрдХ рдкреНрд░реЗрд╢рд░ рдирд╣реАрдВ рд╣реИ
PIDPPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasSufficientPID рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд PID рдЙрдкрд▓рдмреНрдз рд╣реИ
рд░реЗрдбреА рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletNotReady рд░рдирдЯрд╛рдЗрдо рдиреЗрдЯрд╡рд░реНрдХ рддреИрдпрд╛рд░ рдирд╣реАрдВ: NetworkReady=рдЧрд▓рдд рдХрд╛рд░рдг: NetworkPluginNotReady рд╕рдВрджреЗрд╢: docker : рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд
рдкрддреЗ:
рдЖрдВрддрд░рд┐рдХ рдЖрдИрдкреА: 172.31.8.125
рд╣реЛрд╕реНрдЯрдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рдХреНрд╖рдорддрд╛:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 18108284Ki
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1122528рдХрд┐
рдлрд▓реА: 110
рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 16688594507
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1020128рдХрд┐
рдлрд▓реА: 110
рд╡реНрдпрд╡рд╕реНрдерд╛ рдХреА рд╕реВрдЪрдирд╛:
рдорд╢реАрди рдЖрдИрдбреА: 292dc4560f9309ccdd72b6935c80e8ec
рд╕рд┐рд╕реНрдЯрдо рдпреВрдпреВрдЖрдИрдбреА: DE4707DF-5516-784A-9B41-588FCDE49369
рдмреВрдЯ рдЖрдИрдбреА: 828d124c-b687-43f6-bffa-6a3e1e6e17e6
рдХрд░реНрдиреЗрд▓ рд╕рдВрд╕реНрдХрд░рдг: 4.4.0-142-рдЬреЗрдиреЗрд░рд┐рдХ
рдУрдПрд╕ рдЫрд╡рд┐: рдЙрдмрдВрдЯреВ 16.04.6 рдПрд▓рдЯреАрдПрд╕
рдСрдкрд░реЗрдЯрд┐рдВрдЧ рд╕рд┐рд╕реНрдЯрдо: рд▓рд┐рдирдХреНрд╕
рд╡рд╛рд╕реНрддреБрдХрд▓рд╛: amd64
рдХрдВрдЯреЗрдирд░ рд░рдирдЯрд╛рдЗрдо рд╕рдВрд╕реНрдХрд░рдг : рдбреЙрдХрдЯрд░: //18.9.6
рдХреНрдпреВрдмрд▓реЗрдЯ рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдкреЙрдбрд╕реАрдЖрдИрдбреАрдЖрд░: 10.244.3.0/24
рдиреЙрди-рдЯрд░реНрдорд┐рдиреЗрдЯреЗрдб рдкреЙрдбреНрд╕: (рдХреБрд▓ 2)
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рд╕реАрдкреАрдпреВ рдЕрдиреБрд░реЛрдз рд╕реАрдкреАрдпреВ рд╕реАрдорд╛ рдореЗрдореЛрд░реА рдЕрдиреБрд░реЛрдз рдореЗрдореЛрд░реА рд╕реАрдорд╛ рдЖрдпреБ
----------------------------------------------------------- ------------------
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 100m (10%) 100m (10%) 50Mi (5%) 50Mi (5%) 25m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо 7 рдЬреАрдбреАрд╕реА 0 (0%) 0 (0%) 0 (0%) 0 (0%) 25 рдореАрдЯрд░
рдЖрд╡рдВрдЯрд┐рдд рд╕рдВрд╕рд╛рдзрди:
(рдХреБрд▓ рд╕реАрдорд╛ 100 рдкреНрд░рддрд┐рд╢рдд рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рд╕рдХрддреА рд╣реИ, рдЕрд░реНрдерд╛рдд, рдЕрддрд┐рдкреНрд░рддрд┐рдмрджреНрдзред)
рд╕рдВрд╕рд╛рдзрди рдЕрдиреБрд░реЛрдз рд╕реАрдорд╛рдПрдВ
----------------------------
рд╕реАрдкреАрдпреВ 100 рдореАрдЯрд░ (10%) 100 рдореАрдЯрд░ (10%)
рдореЗрдореЛрд░реА 50Mi (5%) 50Mi (5%)
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг 0 (0%) 0 (0%)
рдЖрдпреЛрдЬрди:
рд╕рдВрджреЗрд╢ рд╕реЗ рдХрд╛рд░рдг рдЖрдпреБ рдЯрд╛рдЗрдк рдХрд░реЗрдВ
----------------------------------
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп 25 рдореАрдЯрд░ рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░ 1 рдХреНрдпреВрдмрд▓реЗрдЯ рд╢реБрд░реВ рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 25m kubelet, labserver1 рдкреЙрдбреНрд╕ рдореЗрдВ рдЕрджреНрдпрддрди рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд░реВрдЯ@рдХреНрдпреВрдм1 :~#

рдХреГрдкрдпрд╛ рд╕рд╣рд╛рдпрддрд╛ рдХреАрдЬрд┐рдП

рдирдорд╕реНрддреЗ,

рдореЗрд░реЗ рдкрд╛рд╕ 1 рдорд╛рд╕реНрдЯрд░ рдФрд░ 2 рдиреЛрдб рд╣реИрдВред рджреВрд╕рд░рд╛ рдиреЛрдб рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рдирд╣реАрдВ рд╣реИред

root@kube1 :~# kubectl рдХреЛ рдиреЛрдбреНрд╕ рдорд┐рд▓рддреЗ рд╣реИрдВ
рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
dockerlab1 рддреИрдпрд╛рд░ 3h57m v1.14.3
kube1 рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 4h12m v1.14.3
Labserver1 рддреИрдпрд╛рд░ рдирд╣реАрдВ 22m v1.14.3

root@kube1 :~# kubectl рдкреЙрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ --all-namespaces

рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдлрд┐рд░ рд╕реЗ рд╢реБрд░реВ рд╣реЛрддреА рд╣реИ рдЖрдпреБ
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрди-fb8b8dccf-72llr 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреЛрд░реНрдбрдиреНрд╕-fb8b8dccf-n9v82 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо etcd-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
kube-system kube-apiserver-kube1 1/1 рд░рдирд┐рдВрдЧ 0 4h12m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдХрдВрдЯреНрд░реЛрд▓рд░-рдореИрдиреЗрдЬрд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 0/1 рдЗрдирд┐рдЯ: 0/1 0 24 рдореА
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-рдПрдПрдордбреА64-рдЖрд░рдПрд╕рдПрдирдЬреЗ 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-xsj72 1/1 рд░рдирд┐рдВрдЧ 0 4h1m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-7m8jg 1/1 рд░рдирд┐рдВрдЧ 0 3h59m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо7рдЬреАрдбреАрд╕реА 0/1 рдХрдВрдЯреЗрдирд░ рдмрдирд╛рдирд╛ 0 24m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-xgq6p 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рд╢реЗрдбреНрдпреВрд▓рд░-рдХреНрдпреВрдм1 1/1 рд░рдирд┐рдВрдЧ 0 4h13m
root@kube1 :~# Kubectl рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ
рдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рднреВрдорд┐рдХрд╛рдПрдБ:
рд▓реЗрдмрд▓: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
Kubernetes.io/arch=amd64
Kubernetes.io/hostname=labserver1
Kubernetes.io/os=linux
рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдВ: kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock
node.alpha.kubernetes.io/ttl: 0
Volume.kubernetes.io/controller-managed-attach-detach: true
рдирд┐рд░реНрдорд╛рдг рдЯрд╛рдЗрдорд╕реНрдЯреИрдореНрдк: рд╕реВрд░реНрдп, 09 рдЬреВрди 2019 21:03:57 +0800
рджрд╛рдЧ: node.kubernetes.io/not- рддреИрдпрд╛рд░: NoExecute
node.kubernetes.io/not- рддреИрдпрд╛рд░:NoSchedule
рдЕрдирд┐рд░реНрдзрд╛рд░рд┐рдд: рдЕрд╕рддреНрдп
рд╢рд░реНрддреЗрдБ:
рдЯрд╛рдЗрдк рдХрд░реЗрдВ Status LastHeartbeatTime LastTransitionTime рдХрд╛рд░рдг рд╕рдВрджреЗрд╢

рдореЗрдореЛрд░реАрдкреНрд░реЗрд╢рд░ рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рд╣реИрдореЗрдореЛрд░реА рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд рдореЗрдореЛрд░реА рдЙрдкрд▓рдмреНрдз рд╣реИ
DiskPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasNoDiskPressure kubelet рдореЗрдВ рдХреЛрдИ рдбрд┐рд╕реНрдХ рдкреНрд░реЗрд╢рд░ рдирд╣реАрдВ рд╣реИ
PIDPPressure False Sun, 09 рдЬреВрди 2019 21:28:31 +0800 Sun, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletHasSufficientPID рдХреНрдпреВрдмрд▓реЗрдЯ рдореЗрдВ рдкрд░реНрдпрд╛рдкреНрдд PID рдЙрдкрд▓рдмреНрдз рд╣реИ
рд░реЗрдбреА рдлрд╛рд▓реНрд╕ рд╕рди, 09 рдЬреВрди 2019 21:28:31 +0800 рд╕рди, 09 рдЬреВрди 2019 21:03:57 +0800 KubeletNotReady рд░рдирдЯрд╛рдЗрдо рдиреЗрдЯрд╡рд░реНрдХ рддреИрдпрд╛рд░ рдирд╣реАрдВ: NetworkReady=рдЧрд▓рдд рдХрд╛рд░рдг: NetworkPluginNotReady рд╕рдВрджреЗрд╢: docker : рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд
рдкрддреЗ:
рдЖрдВрддрд░рд┐рдХ рдЖрдИрдкреА: 172.31.8.125
рд╣реЛрд╕реНрдЯрдирд╛рдо: рд▓реИрдмрд╕рд░реНрд╡рд░1
рдХреНрд╖рдорддрд╛:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 18108284Ki
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1122528рдХрд┐
рдлрд▓реА: 110
рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп:
рд╕реАрдкреАрдпреВ: 1
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг: 16688594507
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-1рдЬреАрдЖрдИ: 0
рд╡рд┐рд╢рд╛рд▓рдкреГрд╖реНрда-2рдПрдордЖрдИ: 0
рдореЗрдореЛрд░реА: 1020128рдХрд┐
рдлрд▓реА: 110
рд╡реНрдпрд╡рд╕реНрдерд╛ рдХреА рд╕реВрдЪрдирд╛:
рдорд╢реАрди рдЖрдИрдбреА: 292dc4560f9309ccdd72b6935c80e8ec
рд╕рд┐рд╕реНрдЯрдо рдпреВрдпреВрдЖрдИрдбреА: DE4707DF-5516-784A-9B41-588FCDE49369
рдмреВрдЯ рдЖрдИрдбреА: 828d124c-b687-43f6-bffa-6a3e1e6e17e6
рдХрд░реНрдиреЗрд▓ рд╕рдВрд╕реНрдХрд░рдг: 4.4.0-142-рдЬреЗрдиреЗрд░рд┐рдХ
рдУрдПрд╕ рдЫрд╡рд┐: рдЙрдмрдВрдЯреВ 16.04.6 рдПрд▓рдЯреАрдПрд╕
рдСрдкрд░реЗрдЯрд┐рдВрдЧ рд╕рд┐рд╕реНрдЯрдо: рд▓рд┐рдирдХреНрд╕
рд╡рд╛рд╕реНрддреБрдХрд▓рд╛: amd64
рдХрдВрдЯреЗрдирд░ рд░рдирдЯрд╛рдЗрдо рд╕рдВрд╕реНрдХрд░рдг : рдбреЙрдХрдЯрд░: //18.9.6
рдХреНрдпреВрдмрд▓реЗрдЯ рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА рд╕рдВрд╕реНрдХрд░рдг: v1.14.3
рдкреЙрдбрд╕реАрдЖрдИрдбреАрдЖрд░: 10.244.3.0/24
рдиреЙрди-рдЯрд░реНрдорд┐рдиреЗрдЯреЗрдб рдкреЙрдбреНрд╕: (рдХреБрд▓ 2)
рдиреЗрдорд╕реНрдкреЗрд╕ рдирд╛рдо рд╕реАрдкреАрдпреВ рдЕрдиреБрд░реЛрдз рд╕реАрдкреАрдпреВ рд╕реАрдорд╛ рдореЗрдореЛрд░реА рдЕрдиреБрд░реЛрдз рдореЗрдореЛрд░реА рд╕реАрдорд╛ рдЖрдпреБ

рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-6q6sz 100m (10%) 100m (10%) 50Mi (5%) 50Mi (5%) 25m
рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХреНрдпреВрдм-рдкреНрд░реЙрдХреНрд╕реА-рдПрдо 7 рдЬреАрдбреАрд╕реА 0 (0%) 0 (0%) 0 (0%) 0 (0%) 25 рдореАрдЯрд░
рдЖрд╡рдВрдЯрд┐рдд рд╕рдВрд╕рд╛рдзрди:
(рдХреБрд▓ рд╕реАрдорд╛ 100 рдкреНрд░рддрд┐рд╢рдд рд╕реЗ рдЕрдзрд┐рдХ рд╣реЛ рд╕рдХрддреА рд╣реИ, рдЕрд░реНрдерд╛рдд, рдЕрддрд┐рдкреНрд░рддрд┐рдмрджреНрдзред)
рд╕рдВрд╕рд╛рдзрди рдЕрдиреБрд░реЛрдз рд╕реАрдорд╛рдПрдВ

рд╕реАрдкреАрдпреВ 100 рдореАрдЯрд░ (10%) 100 рдореАрдЯрд░ (10%)
рдореЗрдореЛрд░реА 50Mi (5%) 50Mi (5%)
рдЕрд▓реНрдкрдХрд╛рд▓рд┐рдХ рднрдВрдбрд╛рд░рдг 0 (0%) 0 (0%)
рдЖрдпреЛрдЬрди:
рд╕рдВрджреЗрд╢ рд╕реЗ рдХрд╛рд░рдг рдЖрдпреБ рдЯрд╛рдЗрдк рдХрд░реЗрдВ

рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 45m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп 25 рдореАрдЯрд░ рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░ 1 рдХреНрдпреВрдмрд▓реЗрдЯ рд╢реБрд░реВ рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 25m kubelet, labserver1 рдкреЙрдбреНрд╕ рдореЗрдВ рдЕрджреНрдпрддрди рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рд╕реАрдорд╛
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 25m (x2) 25m рд╕реЗ рдЕрдзрд┐рдХ) рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп рдкреНрд░рд╛рд░рдВрднрд┐рдХ 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдХреНрдпреВрдмрд▓реЗрдЯ рдкреНрд░рд╛рд░рдВрдн рдХрд░рдирд╛ред
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientMemory 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientMemory
рд╕рд╛рдорд╛рдиреНрдп NodeHasNoDiskPressure 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasNoDiskPressure
рд╕рд╛рдорд╛рдиреНрдп NodeHasSufficientPID 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдиреЛрдб рд▓реИрдмрд╕рд░реНрд╡рд░1 рд╕реНрдерд┐рддрд┐ рдЕрдм рд╣реИ: NodeHasSufficientPID
рд╕рд╛рдорд╛рдиреНрдп NodeAllocatableEnforced 13m рдХреНрдпреВрдмрд▓реЗрдЯ, рд▓реИрдмрд╕рд░реНрд╡рд░1 рдкреЙрдбреНрд╕ рдореЗрдВ рдиреЛрдб рдЖрд╡рдВрдЯрди рдпреЛрдЧреНрдп рдЕрджреНрдпрддрди рд╕реАрдорд╛
рд░реВрдЯ@рдХреНрдпреВрдм1 :~#

рдХреГрдкрдпрд╛ рд╕рд╣рд╛рдпрддрд╛ рдХреАрдЬрд┐рдП

рд╣рд╛рдп рдЕрдерд┐рд░,

         Please check out logs in /var/logs/messages section of your Master node. You can find an actual error in those logs. But here are some general tips.

рдореИрдВред рд╣рдореЗрд╢рд╛ рдкрд╣рд▓реЗ рдЕрдкрдиреЗ рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд░реЗрдВред
рджреНрд╡рд┐рддреАрдп рдЙрд╕ рдкрд░ рдбреЙрдХрд░ рдЗрдВрдЬрди рд╕реНрдерд╛рдкрд┐рдд рдХрд░реЗрдВ рдФрд░ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЗ рд▓рд┐рдП рдЙрдкрдпреЛрдЧ рдХреА рдЬрд╛ рд░рд╣реА рд╕рднреА рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВред рдЬрдм рд╕рдм рдХреБрдЫ рдЪрд╛рд▓реВ рд░реВрдк рдореЗрдВ рд╣реЛрдЧрд╛, рддрдм рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рдиреЛрдбреНрд╕ рдЬреЛрдбрд╝реЗрдВред рдпрд╣ рд╕рднреА рдореБрджреНрджреЗ рдХреЛ рд╣рд▓ рдХрд░реЗрдЧрд╛ред рдореИрдВрдиреЗ рдЗрдВрдЯрд░рдиреЗрдЯ рдкрд░ рдХреБрдЫ рд▓реЗрдЦ рджреЗрдЦреЗ, рдЬреЛ рд╕реНрд▓реЗрд╡ рдиреЛрдбреНрд╕ рдХреЛ рд╕рдВрд▓рдЧреНрди рдХрд░рдиреЗ рдХреЗ рдмрд╛рдж рдХреБрдЫ рдЫрд╡рд┐рдпреЛрдВ рдХреЛ рд▓рд╛рдиреЗ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд░рддреЗ рд╣реИрдВред рд╡рд╣ рдЕрднреНрдпрд╛рд╕ рдХреБрдЫ рдкрд░реЗрд╢рд╛рдиреА рдХрд╛ рдХрд╛рд░рдг рдмрдирддрд╛ рд╣реИред

рд╣рд╛рдп рд╕рджреНрджреАрдХреА164, рдЖрдкрдХреЗ рд╕реБрдЭрд╛рд╡реЛрдВ рдХреЗ рд▓рд┐рдП рдзрдиреНрдпрд╡рд╛рджред рд╣рд╛рдБ рдЬреИрд╕рд╛ рдХрд┐ рдЖрдкрдиреЗ рдХрд╣рд╛ рдерд╛ рдХрд┐ рдореИрдВрдиреЗ рдХрд▓ рдПрдХ рдФрд░ рдирдпрд╛ рджрд╛рд╕ рдиреЛрдб рддреИрдирд╛рдд рдХрд┐рдпрд╛ рдерд╛ рдФрд░ рдмрд┐рдирд╛ рдХрд┐рд╕реА рд╕рдорд╕реНрдпрд╛ рдХреЗ рдорд╛рд╕реНрдЯрд░ рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реЛрдиреЗ рдореЗрдВ рд╕рдХреНрд╖рдо рдерд╛ред

рдХреНрд╖рдорд╛ рдХрд░реЗрдВ, рдореИрдВ рдорджрдж рдирд╣реАрдВ рдХрд░ рд╕рдХрддрд╛, рдореЗрд░реЗ рдкрд╛рд╕ рдЕрдм ARM64 рдиреЛрдбреНрд╕ рдирд╣реАрдВ рд╣реИрдВ, рдЕрдм рдореЗрд░реЗ рдкрд╛рд╕ 4 рдиреЛрдб AMD64 рдмреЗрдпрд░-рдореЗрдЯрд▓ рдХреНрд▓рд╕реНрдЯрд░ рд╣реИред

рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА рдЗрд╕рдХреЗ рдХреЙрдиреНрдлрд┐рдЧрд░реЗрд╢рди рдореЗрдВред

"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред

рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА рдЗрд╕рдХреЗ рдХреЙрдиреНрдлрд┐рдЧрд░реЗрд╢рди рдореЗрдВред

"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред

1.15.0 рд╕реЗ V1.16.0 рдореЗрдВ рдЕрдкрдбреЗрдЯ рд╣реЛрдиреЗ рдкрд░ рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред

dGVzdDoxMjPCow

24 рд╕рд┐рддрдВ,, 2019 12:52 рдкрд░, "ronakgpatel" [email protected] рд▓рд┐рдЦрд╛ рд╣реИ:

рдлрд╝рд╛рдЗрд▓ /etc/cni/net.d/10-flannel.conflist рдореЗрдВ cniVersion рдХреБрдВрдЬреА рдирд╣реАрдВ рдереА
рдЗрд╕рдХреА рд╡рд┐рдиреНрдпрд╛рд╕ред

"cniVersion": "0.2.0" рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИред

1.15.0 рд╕реЗ V1.16.0 рдореЗрдВ рдЕрдкрдбреЗрдЯ рд╣реЛрдиреЗ рдкрд░ рдореБрдЭреЗ рд╕рдорд╕реНрдпрд╛ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред

-
рдЖрдк рдЗрд╕реЗ рдкреНрд░рд╛рдкреНрдд рдХрд░ рд░рд╣реЗ рд╣реИрдВ рдХреНрдпреЛрдВрдХрд┐ рдЖрдкрдиреЗ рдЗрд╕ рдереНрд░реЗрдб рдХреА рд╕рджрд╕реНрдпрддрд╛ рд▓реА рд╣реИред
рдЗрд╕ рдИрдореЗрд▓ рдХрд╛ рд╕реАрдзреЗ рдЙрддреНрддрд░ рджреЗрдВ, рдЗрд╕реЗ GitHub рдкрд░ рджреЗрдЦреЗрдВ
https://github.com/kubernetes/kubeadm/issues/1031?email_source=notifications&email_token=AND2HJTXHB6WSGAE7PSOAJTQLGMKVA5CNFSM4FNQHEHKYY3PNVWWWK3TUL52HS4DFVREXG43VMVBW63#IGOD78N78ZLOZ
рдпрд╛ рдереНрд░реЗрдб рдХреЛ рдореНрдпреВрдЯ рдХрд░реЗрдВ
https://github.com/notifications/unsubscribe-auth/AND2HJXDKQARYKXVY4YLZMDQLGMKVANCNFSM4FNQHEHA
.

рдлрд▓рд╛рд▓реИрди рдмрд╣реБрдд рд╕рдХреНрд░рд┐рдп рд░реВрдк рд╕реЗ рдмрдирд╛рдП рдирд╣реАрдВ рд░рдЦрд╛ рдЬрд╛рддрд╛ рд╣реИред рдореИрдВ рдХреИрд▓рд┐рдХреЛ рдпрд╛ рд╡реАрд╡рдиреЗрдЯ рдХреА рд╕рд▓рд╛рд╣ рджреЗрддрд╛ рд╣реВрдВред

рдлрд▓рд╛рд▓реИрди рд░рд┐рдкреЙрдЬрд┐рдЯрд░реА рдХреЛ рдПрдХ рдлрд┐рдХреНрд╕ рдХреА рдЬрд░реВрд░рдд рдереАред
рдлрд▓рд╛рд▓реИрди рдХреЛ рд╕реНрдерд╛рдкрд┐рдд рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рдХреБрдмреЗрджрдо рдЧрд╛рдЗрдб рдХреЛ рдЕрднреА рдЕрдкрдбреЗрдЯ рдХрд┐рдпрд╛ рдЧрдпрд╛ рдерд╛, рджреЗрдЦреЗрдВ:
https://github.com/kubernetes/website/pull/16575/files

рдпрд╣рд╛рдВ рдПрдХ рд╣реА рдореБрджреНрджреЗ рдХрд╛ рд╕рд╛рдордирд╛ рдХрд░рдирд╛ рдкрдбрд╝рд╛ред
Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.ymlред

рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд┐рдпрд╛ред

рдбреЛрдХрд░: рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ: cni config рдЕрдкреНрд░рд╛рд░рдВрднреАрдХреГрдд

рдкрд╣рд▓реЗ рд╕реЗ рд╣реА рдиреЛрдб рдкрд░ рдбреЙрдХрдЯрд░ рдХреЛ рдкреБрдирд░реНрд╕реНрдерд╛рдкрд┐рдд рдХрд░реЗрдВред
рдореЗрд░реЗ рд▓рд┐рдП рдХрд╛рдо рдХрд┐рдпрд╛ред

рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:

  1. Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:

рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░ 3h6m v1.14.1
рдиреЛрдб02 рддреИрдпрд╛рд░ 167m v1.14.1

рдмрд╕ рдпрд╣реА рдХрд┐рдпрд╛!

рдореЗрд░реЗ рдкрд╛рд╕ рдПрдХ рдРрд╕рд╛ рд╣реА рдорд╛рдорд▓рд╛ рдерд╛ рдЬрд╣рд╛рдВ рдореИрдВ рд╢реНрд░рдорд┐рдХреЛрдВ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рд╕реЗ рдкрд╣рд▓реЗ рдиреЗрдЯрд╡рд░реНрдХ рдкреНрд▓рдЧрдЗрди рдмрдирд╛ рд░рд╣рд╛ рдерд╛, рдЬрд┐рд╕рдиреЗ /etc/cni/net.d рдХреЛ рдЧрд╛рдпрдм рд░рдЦрд╛ред
рдореИрдВрдиреЗ рдХрд╛рд░реНрдпрдХрд░реНрддрд╛ рдиреЛрдбреНрд╕ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рдХреЗ рдмрд╛рдж рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рдХреЛ рдлрд┐рд░ рд╕реЗ рдирд┐рд╖реНрдкрд╛рджрд┐рдд рдХрд┐рдпрд╛:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
рдирддреАрдЬрддрди, /etc/cni/net.d рдореЗрдВ рдХреЙрдиреНрдлрд╝рд┐рдЧрд░реЗрд╢рди рд╕рдлрд▓рддрд╛рдкреВрд░реНрд╡рдХ рдмрдирд╛рдпрд╛ рдЧрдпрд╛ рдерд╛ рдФрд░ рдиреЛрдб рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдореЗрдВ рджрд┐рдЦрд╛рдпрд╛ рдЧрдпрд╛ рдерд╛ред

рдЙрдореНрдореАрдж рд╣реИ рдХрд┐ рдПрдХ рд╣реА рдореБрджреНрджреЗ рдХреЗ рд╕рд╛рде рдХрд┐рд╕реА рдХреА рдорджрдж рдХрд░рддрд╛ рд╣реИред

рдореИрдВ рдпрд╣ рдЖрджреЗрд╢ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ рдФрд░ рдЗрд╕рд╕реЗ рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рд╣рд▓ рд╣реЛ рдЧрдИ:

  1. Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

рдпрд╣ /etc/cni/net.d рдирд┐рд░реНрджреЗрд╢рд┐рдХрд╛ рдореЗрдВ 10-flannel.conflist рдХреЗ рдирд╛рдо рд╕реЗ рдПрдХ рдлрд╛рдЗрд▓ рдмрдирд╛рддрд╛ рд╣реИред рдореЗрд░рд╛ рдорд╛рдирдирд╛ тАЛтАЛтАЛтАЛрд╣реИ рдХрд┐ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдХреЛ рдПрдХ рдиреЗрдЯрд╡рд░реНрдХ рдХреА рдЖрд╡рд╢реНрдпрдХрддрд╛ рд╣реЛрддреА рд╣реИ, рдЬреЛ рдЗрд╕ рдкреИрдХреЗрдЬ рджреНрд╡рд╛рд░рд╛ рдирд┐рд░реНрдзрд╛рд░рд┐рдд рдХрд┐рдпрд╛ рдЬрд╛рддрд╛ рд╣реИред
рдореЗрд░рд╛ рдХреНрд▓рд╕реНрдЯрд░ рдирд┐рдореНрди рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИ:

рдирд╛рдо рд╕реНрдерд┐рддрд┐ рднреВрдорд┐рдХрд╛рдПрдБ рдЖрдпреБ рд╕рдВрд╕реНрдХрд░рдг
k8s- рдорд╛рд╕реНрдЯрд░ рд░реЗрдбреА рдорд╛рд╕реНрдЯрд░ 3h37m v1.14.1
рдиреЛрдб001 рддреИрдпрд╛рд░ 3h6m v1.14.1
рдиреЛрдб02 рддреИрдпрд╛рд░ 167m v1.14.1

рдЙрд╕ рдХрдорд╛рдВрдб рдХреЛ рдорд╛рд╕реНрдЯрд░ рдорд╢реАрди рдкрд░ рдЪрд▓рд╛рдПрдВ рдФрд░ рдЕрдм рд╕рдм рдХреБрдЫ рддреИрдпрд╛рд░ рд╕реНрдерд┐рддрд┐ рдореЗрдВ рд╣реИред рдзрдиреНрдпрд╡рд╛рдж @saddique164 ред

рд╕рдмрд╕реЗ рддреЗрдЬрд╝ рддрд░реАрдХрд╛ рд╣реИ рдХрд┐ рдпрд╛ рддреЛ AMD64 рдЖрд░реНрдХрд┐рдЯреЗрдХреНрдЪрд░ рдкрд░ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ рдореЗрдВ рдлрд▓рд╛рд▓реИрди рдХреЛ рдЬреЛрдбрд╝рд╛ рдЬрд╛рдПред

1. kube-flannel.yaml . рдХреЛ рдЕрдкрдбреЗрдЯ рдХрд░реЗрдВ

$ curl https://rawgit.com/coreos/flannel/master/Documentation/kube-flannel.yml \
> kube-flannel.yaml

2. рдкреВрд░реНрдг рдлрд▓рд╛рд▓реИрди рдиреЗрдЯрд╡рд░реНрдХ рд╕реЗрдЯрдЕрдк

$ kubectl apply -f kube-flannel.yaml

рдореИрдВ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ 1.18 рд╕рдВрд╕реНрдХрд░рдг рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд░рд╣рд╛ рд╣реВрдВред

рдореИрдВрдиреЗ рдЗрд╕рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛: Kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

/etc/cni/net.d . рдХреЗ рдЕрдВрддрд░реНрдЧрдд рдХреЛрдИ рдлрд╝рд╛рдЗрд▓ рдирд╣реАрдВ рдмрдирд╛рдИ рдЧрдИ рдереА
рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ рдЬрдмрдХрд┐ рджрд╛рд╕ рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рд╣реИрдВ

рдореИрдВ рдХреБрдмреЗрд░рдиреЗрдЯреНрд╕ 1.18 рд╕рдВрд╕реНрдХрд░рдг рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░ рд░рд╣рд╛ рд╣реВрдВред

рдореИрдВрдиреЗ рдЗрд╕рдХрд╛ рдЗрд╕реНрддреЗрдорд╛рд▓ рдХрд┐рдпрд╛: Kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

/etc/cni/net.d . рдХреЗ рдЕрдВрддрд░реНрдЧрдд рдХреЛрдИ рдлрд╝рд╛рдЗрд▓ рдирд╣реАрдВ рдмрдирд╛рдИ рдЧрдИ рдереА
рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рддреИрдпрд╛рд░ рдирд╣реАрдВ рд╣реИ рдЬрдмрдХрд┐ рджрд╛рд╕ рддреИрдпрд╛рд░ рдЕрд╡рд╕реНрдерд╛ рдореЗрдВ рд╣реИрдВ

  1. рдХреНрдпрд╛ рдЖрдк рдорд╛рд╕реНрдЯрд░ рдкрд░ Kubectl рдХрдорд╛рдВрдб рдЪрд▓рд╛ рд╕рдХрддреЗ рд╣реИрдВ?
  2. рдХреНрдпрд╛ рдЖрдк рдЬрд╛рдВрдЪ рд╕рдХрддреЗ рд╣реИрдВ рдХрд┐ рдЖрдкрдХрд╛ рдХреНрдпреВрдмрд▓реЗрдЯ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдЪрд▓ рд░рд╣рд╛ рд╣реИ? рдпрд╛ рдЗрд╕реЗ рдЪрд▓рд╛рдПрдБ: systemctl рдкреБрдирдГ рдЖрд░рдВрдн рдХрд░реЗрдВ kubelet.
  3. рдпрджрд┐ рдХреНрдпреВрдмрд▓реЗрдЯ рдкреБрдирд░рд╛рд░рдВрдн рд╣реЛ рд░рд╣рд╛ рд╣реИ рдпрд╛ рдСрдЯреЛ-рдкреБрдирд░рд╛рд░рдВрдн рд╣реЛ рд░рд╣рд╛ рд╣реИ, рддреЛ рдЬрд░реНрдирд▓ -рдпреВ рдХреНрдпреВрдмрд▓реЗрдЯ рдЪрд▓рд╛рдПрдВ рдФрд░ рд▓реЙрдЧ рдЬрд╛рдВрдЪреЗрдВред рдЖрдкрдХреЛ рддреНрд░реБрдЯрд┐ рдорд┐рд▓ рдЬрд╛рдПрдЧреАред

рдиреЛрдЯ: рдпрд╣ рдХреНрдпреВрдмрд▓реЗрдЯ рдореБрджреНрджрд╛ рдкреНрд░рддреАрдд рд╣реЛрддрд╛ рд╣реИред

  1. рд╣рд╛рдБ, рдореИрдВ Kubectl рдХрдорд╛рдВрдб рдЪрд▓рд╛ рд╕рдХрддрд╛ рд╣реВрдБред
  2. Kubectl рдЪрд▓рддрд╛ рд╣реИ рдФрд░ рдлрд┐рд░ рд╡рд┐рдлрд▓ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИред
  3. рдпрд╣ рд╡рд╣реА рд╣реИ рдЬреЛ рдореИрдВ рдЬрд░реНрдирд▓-рдпреВ рдХреНрдпреВрдмрд▓реЗрдЯ рдХреА рддреНрд░реБрдЯрд┐рдпреЛрдВ рдореЗрдВ рджреЗрдЦрддрд╛ рд╣реВрдВ:
Jul 01 11:58:36 master kubelet[17918]: F0701 11:58:36.613864   17918 kubelet.go:1383] Failed to start ContainerManager failed to initialize top level QOS containers: failed to update top level Burstable QOS cgroup : failed to set supported cgroup subsystems for cgroup [kubepods burstable]: failed to find subsystem mount for required subsystem: pids
Jul 01 11:58:36 master systemd[1]: kubelet.service: main process exited, code=exited, status=255/n/a
Jul 01 11:58:36 master systemd[1]: Unit kubelet.service entered failed state.
Jul 01 11:58:36 master systemd[1]: kubelet.service failed.

рдЗрд╕реЗ рдорд╛рд╕реНрдЯрд░ рдкрд░ рдЖрдЬрд╝рдорд╛рдПрдВ:

sed -i 's/cgroup-driver=systemd/cgroup-driver=cgroupfs/g' /usr/lib/systemd/system/kubelet.service.d/10-kubeadm.conf

рдпрд╣ рд╢реБрд░реВ рд╣реЛрддрд╛ рд╣реИ рдФрд░ рдлрд┐рд░ рд╡рд┐рдлрд▓ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИред

Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692341   15525 remote_runtime.go:59] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692358   15525 remote_runtime.go:59] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692381   15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock  <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692389   15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692420   15525 remote_image.go:50] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692427   15525 remote_image.go:50] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692435   15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock  <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692440   15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692464   15525 kubelet.go:292] Adding pod path: /etc/kubernetes/manifests
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692480   15525 kubelet.go:317] Watching apiserver
Jul 02 10:37:16 master kubelet[15525]: W0702 10:37:16.680313   15525 cni.go:237] Unable to update cni config: no networks found in /etc/cni/net.d

рдЕрдЧрд░ рдЖрдк рджреЗрдЦ рд░рд╣реЗ рд╣реИрдВ рддреЛ рдпрд╣ рдХрд╣ рд░рд╣рд╛ рд╣реИ рдХрд┐ рдХреЛрдИ рдиреЗрдЯрд╡рд░реНрдХ рдирд╣реАрдВ рдорд┐рд▓рд╛ред рдЗрд╕ рдЖрджреЗрд╢ рдХреЛ рдЪрд▓рд╛рдПрдБ рдФрд░ рдкрд░рд┐рдгрд╛рдо рд╕рд╛рдЭрд╛ рдХрд░реЗрдВред

Kubectl get pods -n kube-system

NAME                          READY   STATUS        RESTARTS   AGE
coredns-75f8564758-92ws7      1/1     Running       0          25h
coredns-75f8564758-z9xn8      1/1     Running       0          25h
kube-flannel-ds-amd64-2j4mw   1/1     Running       0          25h
kube-flannel-ds-amd64-5tmhp   0/1     Pending       0          25h
kube-flannel-ds-amd64-rqwmz   1/1     Running       0          25h
kube-proxy-6v24w              1/1     Running       0          25h
kube-proxy-jgdw7              0/1     Pending       0          25h
kube-proxy-qppnk              1/1     Running       0          25h

рдЗрд╕реЗ рд░рди рдХрд░реЛ
kubectl рд▓реЙрдЧреНрд╕ kube-flannel-ds-amd64-5tmhp -n kube-system

рдЕрдЧрд░ рдХреБрдЫ рдирд╣реАрдВ рдЖрддрд╛ рд╣реИ рддреЛ рдЗрд╕реЗ рдЪрд▓рд╛рдПрдБ:
Kubectl рдкреЙрдб рдХреНрдпреВрдм-рдлрд▓рд╛рд▓реИрди-рдбреАрдПрд╕-amd64-5tmhp -n рдХреНрдпреВрдм-рд╕рд┐рд╕реНрдЯрдо рдХрд╛ рд╡рд░реНрдгрди рдХрд░рддрд╛ рд╣реИ

рд╕рд░реНрд╡рд░ рд╕реЗ рддреНрд░реБрдЯрд┐: рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ https://10.75.214.124 :10250/containerLogs/kube-system/kube-flannel-ds-amd64-5tmhp/kube-flannel: рдбрд╛рдпрд▓ tcp 10.75.214.124:10250: рдХрдиреЗрдХреНрдЯ рдХрд░реЗрдВ: рдХрдиреЗрдХреНрд╢рди рдЕрд╕реНрд╡реАрдХреГрдд

рдЖрдкрдХреЗ рд▓рд┐рдП рдХрд┐рддрдиреЗ рдиреЛрдб рдЪрд▓ рд░рд╣реЗ рд╣реИрдВ? рдХреНрд▓рд╕реНрдЯрд░ рдореЗрдВ? рдПрдХ рдиреЛрдб рдпрд╣ рд╕рдорд╕реНрдпрд╛ рдХрд░ рд░рд╣рд╛ рд╣реИред рдЗрд╕реЗ рдбреЗрдореЛрдВрд╕реЗрдЯ рдХрд╣рддреЗ рд╣реИрдВред рд╡реЗ рд╣рд░ рдиреЛрдб рдкрд░ рдЪрд▓рддреЗ рд╣реИрдВред рдЖрдкрдХреА рдирд┐рдпрдВрддреНрд░рдг рдпреЛрдЬрдирд╛ рдЗрд╕рд╕реЗ рдЕрдиреБрд░реЛрдз рд╕реНрд╡реАрдХрд╛рд░ рдирд╣реАрдВ рдХрд░ рд░рд╣реА рд╣реИред рддреЛ рдореИрдВ рдЖрдкрдХреЛ рдирд┐рдореНрдирд▓рд┐рдЦрд┐рдд рдЪрд░рдгреЛрдВ рдХрд╛ рдкрд╛рд▓рди рдХрд░рдиреЗ рдХрд╛ рд╕реБрдЭрд╛рд╡ рджреВрдВрдЧрд╛ред

  1. рдкрд╣рд▓реЗ рдПрдХ-рдПрдХ рдХрд░рдХреЗ рд╡рд░реНрдХрд░ рдиреЛрдбреНрд╕ рдХреЛ рдбреНрд░реЗрди рдХрд░реЗрдВред
    Kubectl рдирд╛рд▓реА рдиреЛрдбрдирд╛рдо
  2. рдлрд┐рд░ рдЙрдиреНрд╣реЗрдВ рд╣рдЯрд╛ рджреЗрдВред
    Kubectl рдиреЛрдб рдиреЛрдбрдирд╛рдо рд╣рдЯрд╛рдПрдВ
  3. рдорд╛рд╕реНрдЯрд░ рдиреЛрдб рдХреЗ рддреИрдпрд╛рд░ рд╣реЛрдиреЗ рдХреА рдкреНрд░рддреАрдХреНрд╖рд╛ рдХрд░реЗрдВред рдЕрдЧрд░ рдирд╣реАрдВ рдЖрддрд╛ рд╣реИред рдЗрд╕ рдЖрджреЗрд╢ рдХреЛ рдЪрд▓рд╛рдПрдБред
    рдХреБрдмреЗрджрдо рд░реАрд╕реЗрдЯ
  4. рдХреБрдмреЗрджрдореЛ рдХреЛ рдлрд┐рд░ рд╕реЗ рдЗрдирд┐рд╢рд┐рдпрд▓рд╛рдЗрдЬрд╝ рдХрд░реЗрдВ
    рдХреБрдмреЗрджрдо рдЗрдирд┐рдЯреЛ
  5. рдЗрд╕ рдЖрджреЗрд╢ рдХреЛ рдЪрд▓рд╛рдПрдВ
    Kubectl рд▓рд╛рдЧреВ -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  6. рдорд╛рд╕реНрдЯрд░ рд╕реЗ рдХрдорд╛рдВрдб рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ рдФрд░ рдЙрдиреНрд╣реЗрдВ рдХрдиреЗрдХреНрдЯ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП рд╡рд░реНрдХрд░ рдиреЛрдбреНрд╕ рдореЗрдВ рдЪрд▓рд╛рдПрдВред

рдпрд╣ рдкреНрд░рдХреНрд░рд┐рдпрд╛ рдХрд╛рдо рдХрд░реЗрдЧреАред

Kubectl рдиреЛрдбреНрд╕ рдкреНрд░рд╛рдкреНрдд рдХрд░реЗрдВ:

NAME     STATUS     ROLES    AGE   VERSION
master   NotReady   master   26h   v1.18.5
slave1   Ready      <none>   26h   v1.18.5
slave2   Ready      <none>   26h   v1.18.5

рдореИрдВрдиреЗ рдЖрдкрдХреЗ рджреНрд╡рд╛рд░рд╛ рдмрддрд╛рдП рдЧрдП рдЪрд░рдгреЛрдВ рдХрд╛ рдкреНрд░рдпрд╛рд╕ рдХрд┐рдпрд╛:

рдореБрдЭреЗ рдпрд╣реА рдорд┐рд▓рддрд╛ рд╣реИред

[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[kubelet-check] Initial timeout of 40s passed.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.

        Unfortunately, an error has occurred:
                timed out waiting for the condition

        This error is likely caused by:
                - The kubelet is not running
                - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled)

        If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands:
                - 'systemctl status kubelet'
                - 'journalctl -xeu kubelet'

        Additionally, a control plane component may have crashed or exited when started by the container runtime.
        To troubleshoot, list all containers using your preferred container runtimes CLI.

        Here is one example how you may list all Kubernetes containers running in docker:
                - 'docker ps -a | grep kube | grep -v pause'
                Once you have found the failing container, you can inspect its logs with:
                - 'docker logs CONTAINERID'

error execution phase wait-control-plane: couldn't initialize a Kubernetes cluster
To see the stack trace of this error execute with --v=5 or higher

рдорд╛рд╕реНрдЯрд░ рдХреЛ рдЫреЛрдбрд╝рдХрд░ рд╕рднреА рдиреЛрдбреНрд╕ рдХреЛ рд╣рдЯрд╛ рджреЗрдВ рдФрд░ рдЙрд╕ рдкрд░ рдзреНрдпрд╛рди рдХреЗрдВрджреНрд░рд┐рдд рдХрд░реЗрдВред рдЬрдм рдпрд╣ рдмрдирдХрд░ рддреИрдпрд╛рд░ рд╣реЛ рдЬрд╛рдП рддреЛ рдФрд░реЛрдВ рдХреЛ рдЬреЛрдбрд╝рдиреЗ рдХреЗ рд▓рд┐рдП рдЬрд╛рдПрдВред

рдбреНрд░реЗрдирд┐рдВрдЧ рдиреЛрдбреНрд╕ рдФрд░ рдлрд┐рд░ kubeadm рд░реАрд╕реЗрдЯ рдФрд░ init рдорджрдж рдирд╣реАрдВ рдХрд░рддрд╛ рд╣реИред рдХреНрд▓рд╕реНрдЯрд░ рдмрд╛рдж рдореЗрдВ рдкреНрд░рд╛рд░рдВрдн рдирд╣реАрдВ рдХрд┐рдпрд╛ рдЧрдпрд╛ рд╣реИред

рдореЗрд░реА рд╕рдорд╕реНрдпрд╛ рдпрд╣ рдереА рдХрд┐ рдХреНрд▓рд╕реНрдЯрд░ рдмрдирдиреЗ рдХреЗ рдмрд╛рдж рдореИрдВ рд╣реЛрд╕реНрдЯрдирд╛рдо рдЕрдкрдбреЗрдЯ рдХрд░ рд░рд╣рд╛ рдерд╛ред рдРрд╕рд╛ рдХрд░рдиреЗ рд╕реЗ, рдРрд╕рд╛ рд▓рдЧрддрд╛ рд╣реИ рдХрд┐ рдЧреБрд░реБ рдХреЛ рдкрддрд╛ рдирд╣реАрдВ рдерд╛ рдХрд┐ рд╡рд╣ рдЧреБрд░реБ рд╣реИред

рдореИрдВ рдЕрднреА рднреА рдЪрд▓ рд░рд╣рд╛ рд╣реВрдБ:

sudo hostname $(curl 169.254.169.254/latest/meta-data/hostname)

рд▓реЗрдХрд┐рди рдЕрдм рдореИрдВ рдЗрд╕реЗ рдХреНрд▓рд╕реНрдЯрд░ рдЖрд░рдВрднреАрдХрд░рдг рд╕реЗ рдкрд╣рд▓реЗ рдЪрд▓рд╛рддрд╛ рд╣реВрдВ

рдХреНрдпрд╛ рдпрд╣ рдкреГрд╖реНрда рдЙрдкрдпреЛрдЧреА рдерд╛?
0 / 5 - 0 рд░реЗрдЯрд┐рдВрдЧреНрд╕

рд╕рдВрдмрдВрдзрд┐рдд рдореБрджреНрджреЛрдВ

chuckha picture chuckha  ┬╖  3рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ

RakeshNagarajan picture RakeshNagarajan  ┬╖  4рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ

kvaps picture kvaps  ┬╖  3рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ

shenshouer picture shenshouer  ┬╖  3рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ

helphi picture helphi  ┬╖  3рдЯрд┐рдкреНрдкрдгрд┐рдпрд╛рдБ