バグレポート
apt-get update/upgrade
直後。kubeadm init --pod-network-cidr=10.244.0.0/16
。 そして、提案されたコマンドを実行しました。sysctl net.bridge.bridge-nf-call-iptables=1
。wget https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
。vim kube-flannel.yml
、 amd64
をarm64
に置き換えますkubectl apply -f kube-flannel.yml
。kubectl get pods --all-namespaces
:NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-ls44z 1/1 Running 0 20m
kube-system coredns-78fcdf6894-njnnt 1/1 Running 0 20m
kube-system etcd-devstats.team.io 1/1 Running 0 20m
kube-system kube-apiserver-devstats.team.io 1/1 Running 0 20m
kube-system kube-controller-manager-devstats.team.io 1/1 Running 0 20m
kube-system kube-flannel-ds-v4t8s 1/1 Running 0 13m
kube-system kube-proxy-5825g 1/1 Running 0 20m
kube-system kube-scheduler-devstats.team.io 1/1 Running 0 20m
次に、 kubeadm init
出力を使用して2つのAMD64ノードに参加しました。
1番目のノード:
[preflight] running pre-flight checks
[WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs:{} ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{}]
you can solve this problem with following methods:
1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support
I0802 10:26:49.987467 16652 kernel_validator.go:81] Validating kernel version
I0802 10:26:49.987709 16652 kernel_validator.go:96] Validating kernel config
[WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "cncftest.io" as an annotation
This node has joined the cluster:
* Certificate signing request was sent to master and a response
was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the master to see this node join the cluster.
2nd node:
[preflight] running pre-flight checks
[WARNING RequiredIPVSKernelModulesAvailable]: the IPVS proxier will not be used, because the following required kernel modules are not loaded: [ip_vs ip_vs_rr ip_vs_wrr ip_vs_sh] or no builtin kernel ipvs support: map[ip_vs_rr:{} ip_vs_wrr:{} ip_vs_sh:{} nf_conntrack_ipv4:{} ip_vs:{}]
you can solve this problem with following methods:
1. Run 'modprobe -- ' to load missing kernel modules;
2. Provide the missing builtin kernel ipvs support
I0802 10:26:58.913060 38617 kernel_validator.go:81] Validating kernel version
I0802 10:26:58.913222 38617 kernel_validator.go:96] Validating kernel config
[WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.12.1-ce. Max validated version: 17.03
[discovery] Trying to connect to API Server "147.75.97.234:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://147.75.97.234:6443"
[discovery] Requesting info from "https://147.75.97.234:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "147.75.97.234:6443"
[discovery] Successfully established connection with API Server "147.75.97.234:6443"
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.11" ConfigMap in the kube-system namespace
[kubelet] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[preflight] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "devstats.cncf.io" as an annotation
This node has joined the cluster:
* Certificate signing request was sent to master and a response
was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the master to see this node join the cluster.
しかし、マスターではkubectl get nodes
:
NAME STATUS ROLES AGE VERSION
cncftest.io NotReady <none> 7m v1.11.1
devstats.cncf.io NotReady <none> 7m v1.11.1
devstats.team.io Ready master 21m v1.11.1
そして: kubectl describe nodes
(マスターはdevstats.team.io
、ノードは: cncftest.io
とdevstats.cncf.io
):
Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=cncftest.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:26:53 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:26:52 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.205.79
Hostname: cncftest.io
Capacity:
cpu: 48
ephemeral-storage: 459266000Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264047752Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 423259544900
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263945352Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 4C4C4544-0052-3310-804A-B7C04F4E4432
Boot ID: d87670d9-251e-42a5-90c5-5d63059f03ab
Kernel Version: 4.15.0-22-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.1.0/24
Non-terminated Pods: (0 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 0 (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 8m kubelet, cncftest.io Starting kubelet.
Normal NodeHasSufficientDisk 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 8m (x2 over 8m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 8m kubelet, cncftest.io Updated Node Allocatable limit across pods
Name: devstats.cncf.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.cncf.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:27:00 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 10:34:51 +0000 Thu, 02 Aug 2018 10:27:00 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.78.47
Hostname: devstats.cncf.io
Capacity:
cpu: 48
ephemeral-storage: 142124052Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264027220Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 130981526107
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263924820Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 00000000-0000-0000-0000-0CC47AF37CF2
Boot ID: f257b606-5da2-43fd-8782-0aa4484037f4
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.2.0/24
Non-terminated Pods: (0 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 0 (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 7m kubelet, devstats.cncf.io Starting kubelet.
Normal NodeHasSufficientDisk 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 7m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 7m kubelet, devstats.cncf.io Updated Node Allocatable limit across pods
Name: devstats.team.io
Roles: master
Labels: beta.kubernetes.io/arch=arm64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.team.io
node-role.kubernetes.io/master=
Annotations: flannel.alpha.coreos.com/backend-data={"VtepMAC":"9a:7f:81:2c:4e:16"}
flannel.alpha.coreos.com/backend-type=vxlan
flannel.alpha.coreos.com/kube-subnet-manager=true
flannel.alpha.coreos.com/public-ip=147.75.97.234
kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 10:12:56 +0000
Taints: node-role.kubernetes.io/master:NoSchedule
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:12:56 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready True Thu, 02 Aug 2018 10:34:49 +0000 Thu, 02 Aug 2018 10:21:07 +0000 KubeletReady kubelet is posting ready status. AppArmor enabled
Addresses:
InternalIP: 147.75.97.234
Hostname: devstats.team.io
Capacity:
cpu: 96
ephemeral-storage: 322988584Ki
hugepages-2Mi: 0
memory: 131731468Ki
pods: 110
Allocatable:
cpu: 96
ephemeral-storage: 297666278522
hugepages-2Mi: 0
memory: 131629068Ki
pods: 110
System Info:
Machine ID: 5eaa89a81ff348399284bb4cb016ffd7
System UUID: 10000000-FAC5-FFFF-A81D-FC15B4970493
Boot ID: 43b920e3-34e7-4de3-aa6c-8b5c525363ff
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: arm64
Container Runtime Version: docker://17.12.1-ce
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
PodCIDR: 10.244.0.0/24
Non-terminated Pods: (8 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system coredns-78fcdf6894-ls44z 100m (0%) 0 (0%) 70Mi (0%) 170Mi (0%)
kube-system coredns-78fcdf6894-njnnt 100m (0%) 0 (0%) 70Mi (0%) 170Mi (0%)
kube-system etcd-devstats.team.io 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-apiserver-devstats.team.io 250m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-controller-manager-devstats.team.io 200m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-flannel-ds-v4t8s 100m (0%) 100m (0%) 50Mi (0%) 50Mi (0%)
kube-system kube-proxy-5825g 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-scheduler-devstats.team.io 100m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 850m (0%) 100m (0%)
memory 190Mi (0%) 390Mi (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 23m kubelet, devstats.team.io Starting kubelet.
Normal NodeAllocatableEnforced 23m kubelet, devstats.team.io Updated Node Allocatable limit across pods
Normal NodeHasSufficientPID 23m (x5 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientPID
Normal NodeHasSufficientDisk 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 23m (x6 over 23m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasNoDiskPressure
Normal Starting 21m kube-proxy, devstats.team.io Starting kube-proxy.
Normal NodeReady 13m kubelet, devstats.team.io Node devstats.team.io status is now: NodeReady
kubeadmバージョン( kubeadm version
):
kubeadm version: &version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:50:16Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
環境:
kubectl version
):Client Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:53:20Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
Server Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.1", GitCommit:"b1b29978270dc22fecc592ac55d903350454310a", GitTreeState:"clean", BuildDate:"2018-07-17T18:43:26Z", GoVersion:"go1.10.3", Compiler:"gc", Platform:"linux/arm64"}
uname -a
:Linux devstats.team.io 4.15.0-20-generic#21-Ubuntu SMP Tue Apr 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU / LinuxNAME="Ubuntu"
VERSION="18.04.1 LTS (Bionic Beaver)"
ID=ubuntu
ID_LIKE=debian
PRETTY_NAME="Ubuntu 18.04.1 LTS"
VERSION_ID="18.04"
HOME_URL="https://www.ubuntu.com/"
SUPPORT_URL="https://help.ubuntu.com/"
BUG_REPORT_URL="https://bugs.launchpad.net/ubuntu/"
PRIVACY_POLICY_URL="https://www.ubuntu.com/legal/terms-and-policies/privacy-policy"
VERSION_CODENAME=bionic
UBUNTU_CODENAME=bionic
lsb_release -a
:No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 18.04.1 LTS
Release: 18.04
Codename: bionic
uname -a
): Linux devstats.team.io 4.15.0-20-generic #21-Ubuntu SMP Tue Apr 24 06:16:20 UTC 2018 aarch64 aarch64 aarch64 GNU/Linux
docker version
:docker version
Client:
Version: 17.12.1-ce
API version: 1.35
Go version: go1.10.1
Git commit: 7390fc6
Built: Wed Apr 18 01:26:37 2018
OS/Arch: linux/arm64
Server:
Engine:
Version: 17.12.1-ce
API version: 1.35 (minimum version 1.12)
Go version: go1.10.1
Git commit: 7390fc6
Built: Wed Feb 28 17:46:05 2018
OS/Arch: linux/arm64
Experimental: false
正確なエラーは次のようです。
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
ノード上: cat /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
# Note: This dropin only works with kubeadm and kubelet v1.11+
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
# This is a file that "kubeadm init" and "kubeadm join" generates at runtime, populating the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably, the user should use
# the .NodeRegistration.KubeletExtraArgs object in the configuration files instead. KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/default/kubelet
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS
このスレッドから( KUBELET_NETWORK_ARGS
ありません)。
journalctl -xe
:Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: W0802 10:44:51.040663 38796 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 10:44:51 devstats.cncf.io kubelet[38796]: E0802 10:44:51.040876 38796 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
ディレクトリ/etc/cni/net.d
存在しますが、空です。
Ready
状態のすべてのノード。
チュートリアルの手順に従って
マスターはARM64、2ノードはAMD64です。
マスターと1つのノードはアムステルダムにあり、2番目のノードは米国にあります。
kubectl taint nodes --all node-role.kubernetes.io/master-
を使用してマスターでポッドを実行できますが、これは解決策ではありません。 動作する実際のマルチノードクラスターが必要です。
@lukaszgryglicki
ノードはamd64
アーキテクチャ上にあるため、フランネルを取得していないようです
Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
と
Name: devstats.team.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
私はフランネルの専門家ではありませんが、混合プラットフォームの環境でフランネルを機能させる方法については、製品のドキュメントを確認する必要があると思います
それは良い点ですが、エラーメッセージはどうですか?それは本当に無関係のようです。
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
/etc/cni/net.d
いくつかのCNI構成ファイルがないようですが、なぜですか?
私は現在、Slackチャネルで提案されているように別のDocker 18.03ce
を試しています(17.03が実際に提案されましたが、Ubuntu 18.04には17.03はありません)。
アーチ名のラベルは実際には一致しません。 ただし、次のラベルbeta.kubernetes.io/os=linux
は、3台のサーバーすべてで同じです。
Docker18.03ceでも同じことが起こります。 違いはわかりません。これはDockerの問題のようには見えません。 これは、CNI構成の問題のようです。
@lukaszgryglicki
こんにちは、
マスター:ベアメタルサーバー96コア、ARM64、128G RAM、スワップがオフになっています。
ノード(2):ベアメタルサーバー48コア、AMD64、256G RAM、スワップチューンオフx2。
これらはいくつかの_素晴らしい_仕様です。
私が物事をテストする方法は次のとおりです-何かがweavenetで動作しない場合、私はフランネルとその逆を試します。
したがって、weaveを試してみてください。CNIセットアップがそれで機能する場合、これはCNIプラグインに関連しています。
kubeadmチームはプラグインとアドオンをサポートしていますが、すべてを処理するための帯域幅がないため、通常はそれぞれのメンテナに問題を委任します。
確かに、私は数回前に織りを試しました。 コンテナの再起動ループで終了しました。
Docker 17.03を試して、Dockerの問題を除外します(17.03は非常によくサポートされているはずです)。
したがって、これはDockerの問題ではありません。 17.03でも同じ:
Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: W0802 14:21:51.406786 21714 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:21:51 devstats.cncf.io kubelet[21714]: E0802 14:21:51.407074 21714 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
now will try weave net as suggested on the issue
今すぐ織りを試して、ここに結果を投稿します。
だから、私はweave net
を試しましたが、機能していません:
マスターの場合: kubectl get nodes
:
NAME STATUS ROLES AGE VERSION
cncftest.io NotReady <none> 5s v1.11.1
devstats.cncf.io NotReady <none> 12s v1.11.1
devstats.team.io NotReady master 7m v1.11.1
kubectl describe nodes
(同じcni関連のエラーですが、現在はマスターノードにもあります):Name: cncftest.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=cncftest.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:39:56 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:58 +0000 Thu, 02 Aug 2018 14:39:56 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.205.79
Hostname: cncftest.io
Capacity:
cpu: 48
ephemeral-storage: 459266000Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264047752Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 423259544900
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263945352Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 4C4C4544-0052-3310-804A-B7C04F4E4432
Boot ID: d87670d9-251e-42a5-90c5-5d63059f03ab
Kernel Version: 4.15.0-22-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.3.2
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (1 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system weave-net-wwjrr 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 20m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 1m kubelet, cncftest.io Starting kubelet.
Normal NodeHasSufficientDisk 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 1m (x2 over 1m) kubelet, cncftest.io Node cncftest.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 1m kubelet, cncftest.io Updated Node Allocatable limit across pods
Name: devstats.cncf.io
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.cncf.io
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:39:49 +0000
Taints: <none>
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:59 +0000 Thu, 02 Aug 2018 14:39:49 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.78.47
Hostname: devstats.cncf.io
Capacity:
cpu: 48
ephemeral-storage: 142124052Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 264027220Ki
pods: 110
Allocatable:
cpu: 48
ephemeral-storage: 130981526107
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 263924820Ki
pods: 110
System Info:
Machine ID: d1c2fc94ee6d41ca967c4d43504af50c
System UUID: 00000000-0000-0000-0000-0CC47AF37CF2
Boot ID: f257b606-5da2-43fd-8782-0aa4484037f4
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: amd64
Container Runtime Version: docker://17.3.2
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (1 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system weave-net-2fsrf 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 20m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 1m kubelet, devstats.cncf.io Starting kubelet.
Normal NodeHasSufficientDisk 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasNoDiskPressure
Normal NodeHasSufficientPID 1m kubelet, devstats.cncf.io Node devstats.cncf.io status is now: NodeHasSufficientPID
Normal NodeAllocatableEnforced 1m kubelet, devstats.cncf.io Updated Node Allocatable limit across pods
Name: devstats.team.io
Roles: master
Labels: beta.kubernetes.io/arch=arm64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=devstats.team.io
node-role.kubernetes.io/master=
Annotations: kubeadm.alpha.kubernetes.io/cri-socket=/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl=0
volumes.kubernetes.io/controller-managed-attach-detach=true
CreationTimestamp: Thu, 02 Aug 2018 14:32:14 +0000
Taints: node-role.kubernetes.io/master:NoSchedule
Unschedulable: false
Conditions:
Type Status LastHeartbeatTime LastTransitionTime Reason Message
---- ------ ----------------- ------------------ ------ -------
OutOfDisk False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientDisk kubelet has sufficient disk space available
MemoryPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientMemory kubelet has sufficient memory available
DiskPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasNoDiskPressure kubelet has no disk pressure
PIDPressure False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletHasSufficientPID kubelet has sufficient PID available
Ready False Thu, 02 Aug 2018 14:40:56 +0000 Thu, 02 Aug 2018 14:32:07 +0000 KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Addresses:
InternalIP: 147.75.97.234
Hostname: devstats.team.io
Capacity:
cpu: 96
ephemeral-storage: 322988584Ki
hugepages-2Mi: 0
memory: 131731468Ki
pods: 110
Allocatable:
cpu: 96
ephemeral-storage: 297666278522
hugepages-2Mi: 0
memory: 131629068Ki
pods: 110
System Info:
Machine ID: 5eaa89a81ff348399284bb4cb016ffd7
System UUID: 10000000-FAC5-FFFF-A81D-FC15B4970493
Boot ID: 43b920e3-34e7-4de3-aa6c-8b5c525363ff
Kernel Version: 4.15.0-20-generic
OS Image: Ubuntu 18.04.1 LTS
Operating System: linux
Architecture: arm64
Container Runtime Version: docker://17.9.0
Kubelet Version: v1.11.1
Kube-Proxy Version: v1.11.1
Non-terminated Pods: (6 in total)
Namespace Name CPU Requests CPU Limits Memory Requests Memory Limits
--------- ---- ------------ ---------- --------------- -------------
kube-system etcd-devstats.team.io 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-apiserver-devstats.team.io 250m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-controller-manager-devstats.team.io 200m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-proxy-69qnb 0 (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system kube-scheduler-devstats.team.io 100m (0%) 0 (0%) 0 (0%) 0 (0%)
kube-system weave-net-j9f5m 20m (0%) 0 (0%) 0 (0%) 0 (0%)
Allocated resources:
(Total limits may be over 100 percent, i.e., overcommitted.)
Resource Requests Limits
-------- -------- ------
cpu 570m (0%) 0 (0%)
memory 0 (0%) 0 (0%)
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Starting 10m kubelet, devstats.team.io Starting kubelet.
Normal NodeAllocatableEnforced 10m kubelet, devstats.team.io Updated Node Allocatable limit across pods
Normal NodeHasSufficientPID 10m (x5 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientPID
Normal NodeHasSufficientDisk 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientDisk
Normal NodeHasSufficientMemory 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasSufficientMemory
Normal NodeHasNoDiskPressure 10m (x6 over 10m) kubelet, devstats.team.io Node devstats.team.io status is now: NodeHasNoDiskPressure
Normal Starting 8m kube-proxy, devstats.team.io Starting kube-proxy.
journalctl -xe
:Aug 02 14:42:18 devstats.team.io dockerd[44020]: time="2018-08-02T14:42:18.330999189Z" level=warning msg="Unknown healthcheck type 'NONE' (expected 'CMD') in container 283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.079835 56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080312 56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:19 devstats.team.io kubelet[56340]: I0802 14:42:19.080677 56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:19 devstats.team.io kubelet[56340]: E0802 14:42:19.080815 56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:21 devstats.team.io kubelet[56340]: W0802 14:42:21.867690 56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:21 devstats.team.io kubelet[56340]: E0802 14:42:21.868005 56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.259681 56340 kuberuntime_manager.go:513] Container {Name:weave Image:weaveworks/weave-kube:2.4.0 Command:[/home/weave/launch.sh] Args:[] WorkingDir: Ports:[] EnvFrom:[] Env:[{Name:HOSTNAME Value
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260359 56340 kuberuntime_manager.go:757] checking backoff for container "weave" in pod "weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"
Aug 02 14:42:26 devstats.team.io kubelet[56340]: I0802 14:42:26.260833 56340 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=weave pod=weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.260984 56340 pod_workers.go:186] Error syncing pod 66ecc3ba-9661-11e8-8ca9-fc15b4970491 ("weave-net-j9f5m_kube-system(66ecc3ba-9661-11e8-8ca9-fc15b4970491)"), skipping: failed to "StartContainer
Aug 02 14:42:26 devstats.team.io kubelet[56340]: W0802 14:42:26.870675 56340 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Aug 02 14:42:26 devstats.team.io kubelet[56340]: E0802 14:42:26.871316 56340 kubelet.go:2110] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
kubectl get po --all-namespaces
:NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-g8wzs 0/1 Pending 0 12m
kube-system coredns-78fcdf6894-tzs8n 0/1 Pending 0 12m
kube-system etcd-devstats.team.io 1/1 Running 0 12m
kube-system kube-apiserver-devstats.team.io 1/1 Running 0 12m
kube-system kube-controller-manager-devstats.team.io 1/1 Running 0 12m
kube-system kube-proxy-69qnb 1/1 Running 0 12m
kube-system kube-scheduler-devstats.team.io 1/1 Running 0 12m
kube-system weave-net-2fsrf 1/2 CrashLoopBackOff 5 5m
kube-system weave-net-j9f5m 1/2 CrashLoopBackOff 6 8m
kube-system weave-net-wwjrr 1/2 CrashLoopBackOff 5 4m
kubectl describe po --all-namespaces
:Name: coredns-78fcdf6894-g8wzs
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-jw4mv:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-jw4mv
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 8m (x32 over 13m) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
Warning FailedScheduling 3m (x48 over 5m) default-scheduler 0/3 nodes are available: 3 node(s) were not ready.
Name: coredns-78fcdf6894-tzs8n
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-jw4mv (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-jw4mv:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-jw4mv
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 8m (x32 over 13m) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
Warning FailedScheduling 3m (x47 over 5m) default-scheduler 0/3 nodes are available: 3 node(s) were not ready.
Name: etcd-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=etcd
tier=control-plane
Annotations: kubernetes.io/config.hash=cc73514fbc25558d566fe49661f006a0
kubernetes.io/config.mirror=cc73514fbc25558d566fe49661f006a0
kubernetes.io/config.seen=2018-08-02T14:31:13.654147902Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
etcd:
Container ID: docker://254c88b154393778ef7b1ead2aaaa0acb120ffb76d911f140172da3323f1f1e3
Image: k8s.gcr.io/etcd-arm64:3.2.18
Image ID: docker-pullable://k8s.gcr.io/etcd-arm64<strong i="13">@sha256</strong>:f0b7368ebb28e6226ab3b4dbce4b5c6d77dab7b5f6579b08fd645c00f7b100ff
Port: <none>
Host Port: <none>
Command:
etcd
--advertise-client-urls=https://127.0.0.1:2379
--cert-file=/etc/kubernetes/pki/etcd/server.crt
--client-cert-auth=true
--data-dir=/var/lib/etcd
--initial-advertise-peer-urls=https://127.0.0.1:2380
--initial-cluster=devstats.team.io=https://127.0.0.1:2380
--key-file=/etc/kubernetes/pki/etcd/server.key
--listen-client-urls=https://127.0.0.1:2379
--listen-peer-urls=https://127.0.0.1:2380
--name=devstats.team.io
--peer-cert-file=/etc/kubernetes/pki/etcd/peer.crt
--peer-client-cert-auth=true
--peer-key-file=/etc/kubernetes/pki/etcd/peer.key
--peer-trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
--snapshot-count=10000
--trusted-ca-file=/etc/kubernetes/pki/etcd/ca.crt
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Liveness: exec [/bin/sh -ec ETCDCTL_API=3 etcdctl --endpoints=https://[127.0.0.1]:2379 --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/healthcheck-client.crt --key=/etc/kubernetes/pki/etcd/healthcheck-client.key get foo] delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/kubernetes/pki/etcd from etcd-certs (rw)
/var/lib/etcd from etcd-data (rw)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
etcd-data:
Type: HostPath (bare host directory volume)
Path: /var/lib/etcd
HostPathType: DirectoryOrCreate
etcd-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki/etcd
HostPathType: DirectoryOrCreate
QoS Class: BestEffort
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-apiserver-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-apiserver
tier=control-plane
Annotations: kubernetes.io/config.hash=1f7835a47425009200d38bf94c337ab3
kubernetes.io/config.mirror=1f7835a47425009200d38bf94c337ab3
kubernetes.io/config.seen=2018-08-02T14:31:13.639443247Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-apiserver:
Container ID: docker://22b73993b141faebe6b4aab727d2235abb3422a17b60bc1be6c749c260e39f67
Image: k8s.gcr.io/kube-apiserver-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-apiserver-arm64<strong i="14">@sha256</strong>:bca1933fa25fc7f890700f6aebd572c6f8351f7bc89d2e4f2c44a63649e3fccf
Port: <none>
Host Port: <none>
Command:
kube-apiserver
--authorization-mode=Node,RBAC
--advertise-address=147.75.97.234
--allow-privileged=true
--client-ca-file=/etc/kubernetes/pki/ca.crt
--disable-admission-plugins=PersistentVolumeLabel
--enable-admission-plugins=NodeRestriction
--enable-bootstrap-token-auth=true
--etcd-cafile=/etc/kubernetes/pki/etcd/ca.crt
--etcd-certfile=/etc/kubernetes/pki/apiserver-etcd-client.crt
--etcd-keyfile=/etc/kubernetes/pki/apiserver-etcd-client.key
--etcd-servers=https://127.0.0.1:2379
--insecure-port=0
--kubelet-client-certificate=/etc/kubernetes/pki/apiserver-kubelet-client.crt
--kubelet-client-key=/etc/kubernetes/pki/apiserver-kubelet-client.key
--kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
--proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt
--proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key
--requestheader-allowed-names=front-proxy-client
--requestheader-client-ca-file=/etc/kubernetes/pki/front-proxy-ca.crt
--requestheader-extra-headers-prefix=X-Remote-Extra-
--requestheader-group-headers=X-Remote-Group
--requestheader-username-headers=X-Remote-User
--secure-port=6443
--service-account-key-file=/etc/kubernetes/pki/sa.pub
--service-cluster-ip-range=10.96.0.0/12
--tls-cert-file=/etc/kubernetes/pki/apiserver.crt
--tls-private-key-file=/etc/kubernetes/pki/apiserver.key
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 250m
Liveness: http-get https://147.75.97.234:6443/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/ca-certificates from etc-ca-certificates (ro)
/etc/kubernetes/pki from k8s-certs (ro)
/etc/ssl/certs from ca-certs (ro)
/usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
/usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
k8s-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki
HostPathType: DirectoryOrCreate
ca-certs:
Type: HostPath (bare host directory volume)
Path: /etc/ssl/certs
HostPathType: DirectoryOrCreate
usr-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/share/ca-certificates
HostPathType: DirectoryOrCreate
usr-local-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/local/share/ca-certificates
HostPathType: DirectoryOrCreate
etc-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /etc/ca-certificates
HostPathType: DirectoryOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-controller-manager-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-controller-manager
tier=control-plane
Annotations: kubernetes.io/config.hash=5d26a7fba3c17c9fa8969a466d6a0f1d
kubernetes.io/config.mirror=5d26a7fba3c17c9fa8969a466d6a0f1d
kubernetes.io/config.seen=2018-08-02T14:31:13.646000889Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-controller-manager:
Container ID: docker://5182bf5c7c63f9507e6319a2c3fb5698dc827ea9b591acbb071cb39c4ea445ea
Image: k8s.gcr.io/kube-controller-manager-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-controller-manager-arm64<strong i="15">@sha256</strong>:7fa0b0242c13fcaa63bff3b4cde32d30ce18422505afa8cb4c0f19755148b612
Port: <none>
Host Port: <none>
Command:
kube-controller-manager
--address=127.0.0.1
--cluster-signing-cert-file=/etc/kubernetes/pki/ca.crt
--cluster-signing-key-file=/etc/kubernetes/pki/ca.key
--controllers=*,bootstrapsigner,tokencleaner
--kubeconfig=/etc/kubernetes/controller-manager.conf
--leader-elect=true
--root-ca-file=/etc/kubernetes/pki/ca.crt
--service-account-private-key-file=/etc/kubernetes/pki/sa.key
--use-service-account-credentials=true
State: Running
Started: Thu, 02 Aug 2018 14:31:15 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 200m
Liveness: http-get http://127.0.0.1:10252/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/ca-certificates from etc-ca-certificates (ro)
/etc/kubernetes/controller-manager.conf from kubeconfig (ro)
/etc/kubernetes/pki from k8s-certs (ro)
/etc/ssl/certs from ca-certs (ro)
/usr/libexec/kubernetes/kubelet-plugins/volume/exec from flexvolume-dir (rw)
/usr/local/share/ca-certificates from usr-local-share-ca-certificates (ro)
/usr/share/ca-certificates from usr-share-ca-certificates (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
usr-local-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/local/share/ca-certificates
HostPathType: DirectoryOrCreate
etc-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /etc/ca-certificates
HostPathType: DirectoryOrCreate
k8s-certs:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/pki
HostPathType: DirectoryOrCreate
ca-certs:
Type: HostPath (bare host directory volume)
Path: /etc/ssl/certs
HostPathType: DirectoryOrCreate
kubeconfig:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/controller-manager.conf
HostPathType: FileOrCreate
flexvolume-dir:
Type: HostPath (bare host directory volume)
Path: /usr/libexec/kubernetes/kubelet-plugins/volume/exec
HostPathType: DirectoryOrCreate
usr-share-ca-certificates:
Type: HostPath (bare host directory volume)
Path: /usr/share/ca-certificates
HostPathType: DirectoryOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: kube-proxy-69qnb
Namespace: kube-system
Priority: 2000001000
PriorityClassName: system-node-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:32:25 +0000
Labels: controller-revision-hash=2718475167
k8s-app=kube-proxy
pod-template-generation=1
Annotations: scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Controlled By: DaemonSet/kube-proxy
Containers:
kube-proxy:
Container ID: docker://12fb2a4a8af025604e46783aa87d084bdc681365317c8dac278a583646a8ad1c
Image: k8s.gcr.io/kube-proxy-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-proxy-arm64<strong i="16">@sha256</strong>:c61f4e126ec75dedce3533771c67eb7c1266cacaac9ae770e045a9bec9c9dc32
Port: <none>
Host Port: <none>
Command:
/usr/local/bin/kube-proxy
--config=/var/lib/kube-proxy/config.conf
State: Running
Started: Thu, 02 Aug 2018 14:32:26 +0000
Ready: True
Restart Count: 0
Environment: <none>
Mounts:
/lib/modules from lib-modules (ro)
/run/xtables.lock from xtables-lock (rw)
/var/lib/kube-proxy from kube-proxy (rw)
/var/run/secrets/kubernetes.io/serviceaccount from kube-proxy-token-4q6rl (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
kube-proxy:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: kube-proxy
Optional: false
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
kube-proxy-token-4q6rl:
Type: Secret (a volume populated by a Secret)
SecretName: kube-proxy-token-4q6rl
Optional: false
QoS Class: BestEffort
Node-Selectors: beta.kubernetes.io/arch=arm64
Tolerations:
CriticalAddonsOnly
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulled 13m kubelet, devstats.team.io Container image "k8s.gcr.io/kube-proxy-arm64:v1.11.1" already present on machine
Normal Created 13m kubelet, devstats.team.io Created container
Normal Started 13m kubelet, devstats.team.io Started container
Name: kube-scheduler-devstats.team.io
Namespace: kube-system
Priority: 2000000000
PriorityClassName: system-cluster-critical
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:31:13 +0000
Labels: component=kube-scheduler
tier=control-plane
Annotations: kubernetes.io/config.hash=6e1c1eb822c75df4cec74cac9992eea9
kubernetes.io/config.mirror=6e1c1eb822c75df4cec74cac9992eea9
kubernetes.io/config.seen=2018-08-02T14:31:13.651239565Z
kubernetes.io/config.source=file
scheduler.alpha.kubernetes.io/critical-pod=
Status: Running
IP: 147.75.97.234
Containers:
kube-scheduler:
Container ID: docker://0b8018a7d0c2cb2dc64d9364dea5cea8047b0688c4ecb287dba8bebf9ab011a3
Image: k8s.gcr.io/kube-scheduler-arm64:v1.11.1
Image ID: docker-pullable://k8s.gcr.io/kube-scheduler-arm64<strong i="17">@sha256</strong>:28ab99ab78c7945a4e20d9369682e626b671ba49e2d4101b1754019effde10d2
Port: <none>
Host Port: <none>
Command:
kube-scheduler
--address=127.0.0.1
--kubeconfig=/etc/kubernetes/scheduler.conf
--leader-elect=true
State: Running
Started: Thu, 02 Aug 2018 14:31:14 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 100m
Liveness: http-get http://127.0.0.1:10251/healthz delay=15s timeout=15s period=10s #success=1 #failure=8
Environment: <none>
Mounts:
/etc/kubernetes/scheduler.conf from kubeconfig (ro)
Conditions:
Type Status
Initialized True
Ready True
ContainersReady True
PodScheduled True
Volumes:
kubeconfig:
Type: HostPath (bare host directory volume)
Path: /etc/kubernetes/scheduler.conf
HostPathType: FileOrCreate
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoExecute
Events: <none>
Name: weave-net-2fsrf
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: devstats.cncf.io/147.75.78.47
Start Time: Thu, 02 Aug 2018 14:39:49 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.78.47
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://e8f5c3b702166a15212ab9576696aa7a1a0cb5b94e9cba1451fc9cc2b1d1382d
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="18">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:43:04 +0000
Finished: Thu, 02 Aug 2018 14:43:05 +0000
Ready: False
Restart Count: 5
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://1cfd16507d6d9e1744bfc354af62301fb8678af12ace34113121a40ca93b6113
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="19">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:39:58 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 5m kubelet, devstats.cncf.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 5m kubelet, devstats.cncf.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 5m kubelet, devstats.cncf.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 5m kubelet, devstats.cncf.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 5m kubelet, devstats.cncf.io Created container
Normal Started 5m kubelet, devstats.cncf.io Started container
Normal Created 5m (x4 over 5m) kubelet, devstats.cncf.io Created container
Normal Started 5m (x4 over 5m) kubelet, devstats.cncf.io Started container
Normal Pulled 5m (x3 over 5m) kubelet, devstats.cncf.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Warning BackOff 56s (x27 over 5m) kubelet, devstats.cncf.io Back-off restarting failed container
Name: weave-net-j9f5m
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: devstats.team.io/147.75.97.234
Start Time: Thu, 02 Aug 2018 14:36:11 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.97.234
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://283a9d0e00a9b6f336dd4d2f7fc5bddaec67751726b18e353bcf3081787395cb
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="20">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:42:18 +0000
Finished: Thu, 02 Aug 2018 14:42:18 +0000
Ready: False
Restart Count: 6
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://3cd49dbca669ac83db95ebf943ed0053281fa5082f7fa403a56e30091eaec36b
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="21">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:36:31 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 9m kubelet, devstats.team.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 9m kubelet, devstats.team.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 9m kubelet, devstats.team.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 9m kubelet, devstats.team.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 9m kubelet, devstats.team.io Created container
Normal Started 9m kubelet, devstats.team.io Started container
Normal Created 8m (x4 over 9m) kubelet, devstats.team.io Created container
Normal Started 8m (x4 over 9m) kubelet, devstats.team.io Started container
Normal Pulled 8m (x3 over 9m) kubelet, devstats.team.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Warning BackOff 4m (x26 over 9m) kubelet, devstats.team.io Back-off restarting failed container
Name: weave-net-wwjrr
Namespace: kube-system
Priority: 0
PriorityClassName: <none>
Node: cncftest.io/147.75.205.79
Start Time: Thu, 02 Aug 2018 14:39:57 +0000
Labels: controller-revision-hash=332195524
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 147.75.205.79
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://d0d1dccfe0a1f57bce652e30d5df210a9b232dd71fe6be1340c8bd5617e1ce11
Image: weaveworks/weave-kube:2.4.0
Image ID: docker-pullable://weaveworks/weave-kube<strong i="22">@sha256</strong>:3c45b339ab2dc9c11c9c745e44afce27806dc1d8ecd1da84a88deb36756ac713
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 02 Aug 2018 14:43:16 +0000
Finished: Thu, 02 Aug 2018 14:43:16 +0000
Ready: False
Restart Count: 5
Requests:
cpu: 10m
Liveness: http-get http://127.0.0.1:6784/status delay=30s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://e2c15578719788110131a4be3653a077441338b0f61f731add9dadaadfc11655
Image: weaveworks/weave-npc:2.4.0
Image ID: docker-pullable://weaveworks/weave-npc<strong i="23">@sha256</strong>:715b03e14874355f1f793f7bc11d843a00b390b2806bd996f1e47e8acb1020aa
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 02 Aug 2018 14:40:09 +0000
Ready: True
Restart Count: 0
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-blz79 (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-blz79:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-blz79
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/unreachable:NoExecute
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 5m kubelet, cncftest.io pulling image "weaveworks/weave-kube:2.4.0"
Normal Pulled 5m kubelet, cncftest.io Successfully pulled image "weaveworks/weave-kube:2.4.0"
Normal Pulling 5m kubelet, cncftest.io pulling image "weaveworks/weave-npc:2.4.0"
Normal Pulled 5m kubelet, cncftest.io Successfully pulled image "weaveworks/weave-npc:2.4.0"
Normal Created 5m kubelet, cncftest.io Created container
Normal Started 5m kubelet, cncftest.io Started container
Normal Created 4m (x4 over 5m) kubelet, cncftest.io Created container
Normal Pulled 4m (x3 over 5m) kubelet, cncftest.io Container image "weaveworks/weave-kube:2.4.0" already present on machine
Normal Started 4m (x4 over 5m) kubelet, cncftest.io Started container
Warning BackOff 44s (x27 over 5m) kubelet, cncftest.io Back-off restarting failed container
kubectl --v=8 logs --namespace=kube-system weave-net-2fsrf --all-containers=true
:I0802 14:49:02.034473 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.036654 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.044546 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.062906 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.063710 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf
I0802 14:49:02.063753 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.063791 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.063828 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.236764 64396 round_trippers.go:408] Response Status: 200 OK in 172 milliseconds
I0802 14:49:02.236870 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.236907 64396 round_trippers.go:414] Content-Type: application/json
I0802 14:49:02.236944 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
I0802 14:49:02.237363 64396 request.go:897] Response Body: {"kind":"Pod","apiVersion":"v1","metadata":{"name":"weave-net-2fsrf","generateName":"weave-net-","namespace":"kube-system","selfLink":"/api/v1/namespaces/kube-system/pods/weave-net-2fsrf","uid":"e8b2dfe9-9661-11e8-8ca9-fc15b4970491","resourceVersion":"1625","creationTimestamp":"2018-08-02T14:39:49Z","labels":{"controller-revision-hash":"332195524","name":"weave-net","pod-template-generation":"1"},"ownerReferences":[{"apiVersion":"apps/v1","kind":"DaemonSet","name":"weave-net","uid":"66e82a46-9661-11e8-8ca9-fc15b4970491","controller":true,"blockOwnerDeletion":true}]},"spec":{"volumes":[{"name":"weavedb","hostPath":{"path":"/var/lib/weave","type":""}},{"name":"cni-bin","hostPath":{"path":"/opt","type":""}},{"name":"cni-bin2","hostPath":{"path":"/home","type":""}},{"name":"cni-conf","hostPath":{"path":"/etc","type":""}},{"name":"dbus","hostPath":{"path":"/var/lib/dbus","type":""}},{"name":"lib-modules","hostPath":{"path":"/lib/modules","type":""}},{"name":"xtables-lock","hostPath":{"path":"/run/xtables.lock","ty [truncated 4212 chars]
I0802 14:49:02.261076 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.262803 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave
I0802 14:49:02.262844 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.262882 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.262919 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.275703 64396 round_trippers.go:408] Response Status: 200 OK in 12 milliseconds
I0802 14:49:02.275743 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.275779 64396 round_trippers.go:414] Content-Type: text/plain
I0802 14:49:02.275815 64396 round_trippers.go:414] Content-Length: 69
I0802 14:49:02.275850 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
Network 10.32.0.0/12 overlaps with existing route 10.0.0.0/8 on host
I0802 14:49:02.278054 64396 loader.go:359] Config loaded from file /home/kube/.kube/config
I0802 14:49:02.279649 64396 round_trippers.go:383] GET https://147.75.97.234:6443/api/v1/namespaces/kube-system/pods/weave-net-2fsrf/log?container=weave-npc
I0802 14:49:02.279691 64396 round_trippers.go:390] Request Headers:
I0802 14:49:02.279728 64396 round_trippers.go:393] Accept: application/json, */*
I0802 14:49:02.279765 64396 round_trippers.go:393] User-Agent: kubectl/v1.11.1 (linux/arm64) kubernetes/b1b2997
I0802 14:49:02.293271 64396 round_trippers.go:408] Response Status: 200 OK in 13 milliseconds
I0802 14:49:02.293321 64396 round_trippers.go:411] Response Headers:
I0802 14:49:02.293358 64396 round_trippers.go:414] Content-Type: text/plain
I0802 14:49:02.293394 64396 round_trippers.go:414] Date: Thu, 02 Aug 2018 14:49:02 GMT
INFO: 2018/08/02 14:39:58.198716 Starting Weaveworks NPC 2.4.0; node name "devstats.cncf.io"
INFO: 2018/08/02 14:39:58.198969 Serving /metrics on :6781
Thu Aug 2 14:39:58 2018 <5> ulogd.c:843 building new pluginstance stack: 'log1:NFLOG,base1:BASE,pcap1:PCAP'
DEBU: 2018/08/02 14:39:58.294002 Got list of ipsets: []
ERROR: logging before flag.Parse: E0802 14:40:28.338474 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338475 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:28.338474 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.339275 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.340235 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:40:59.341457 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.340117 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.341216 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:41:30.342131 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.342657 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343322 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:01.343396 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.343714 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.344561 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:42:32.346722 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.344468 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.345385 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:03.347275 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.345226 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.346184 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:43:34.347875 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347016 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.347523 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:05.350821 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.347826 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.348883 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:44:36.351365 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.348662 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.349573 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:07.352012 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.349429 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.350420 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:45:38.352714 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.351213 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.352074 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:09.355261 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352128 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.352949 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:46:40.355929 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.352903 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.353844 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:11.356576 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.353994 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.354564 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:47:42.357281 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.355515 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.356603 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:13.359533 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.356372 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:317: Failed to list *v1.NetworkPolicy: Get https://10.96.0.1:443/apis/networking.k8s.io/v1/networkpolicies?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.357453 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:316: Failed to list *v1.Pod: Get https://10.96.0.1:443/api/v1/pods?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
ERROR: logging before flag.Parse: E0802 14:48:44.360401 30018 reflector.go:205] github.com/weaveworks/weave/prog/weave-npc/main.go:315: Failed to list *v1.Namespace: Get https://10.96.0.1:443/api/v1/namespaces?limit=500&resourceVersion=0: dial tcp 10.96.0.1:443: i/o timeout
だから、要約します。 Ubuntu 18.04に、単一のマスターノードと単一のワーカーノードだけでKubernetesクラスターをインストールすることはできません。
最新のLTSUbuntuでkubeadmを使用してk8sを段階的にセットアップする方法のインストール手順があるはずです。
18.04は、バンドルされているDockerとsystemd-resolved
両方で壊れたと思います。
そうですね、すべてのディストリビューションフレーバーのガイドを作成するのは非常に難しく、これらを効率的に維持することはできません。
また、ここではkubeadmがフロントエンドですが、この問題は実際にはkubeadm自体とは無関係である可能性があります。
いくつかの質問:
kubeadm join/init
を開始したときの/var/lib/kubelet/kubeadm-flags.env
の内容は何ですか?journalctl -xeu kubelet
興味深いコンテンツはこれだけですか? それはマスターノードだけにありますか?他のノードはどうですか? これらをgithubの要点またはhttp://pastebin.comにダンプすることもできます。KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
ノード(cncftest.io、amd64):
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
ノード(devstats.cncf.io、amd64):
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
したがって、マスターkubeadm init
をamd64ホストにインストールし、 weave net
を試しましたが、結果はarm64ホストでこれを試した場合とまったく同じです。
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
小さな進歩があります。
マスターをamd64にインストールしてから、amd64にも1つのノードをインストールしました。 すべて正常に動作しました。
arm64ノードを追加しましたが、次のようになりました。
マスターamd64:準備完了
ノードamd64:準備完了
ノードarm64:NotReady: runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
flannel
ネットプラグインは異なるアーキテクチャ間で通信できず、arm64をマスターとして使用することはできません。runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
何か提案はありますか? これはどこに報告すればよいですか? 私はすでに2ノードのクラスター(マスターとノードamd64)を持っていますが、この問題の解決を支援したいので、任意のアーチノードで任意のアーチマスターをOOTBだけで使用できます。
@lukaszgryglicki
kube-flannel.yml
は、1つのアーキテクチャーにのみフランネルコンテナーをデプロイします。 これが、異なるアーキテクチャのノードでcniプラグインが起動せず、ノードの準備ができない理由です。
私は自分で試したことはありませんが、物事を混同しないように、異なる汚染(および名前)を持つ2つのハッキングされたフランネルマニフェストを展開できると思いますが、これを行う方法についての指示がすでにある場合は、フランネルの人々に尋ねることをお勧めします。
しかし、チュートリアルで提案されているように、arm64のマニフェストを微調整しました。 amd64
をarm64
置き換えました。
だから多分私はflannell
問題を作成し、このスレッドへのリンクを貼り付けます。
そして、なぜwave net
が同じcni関連のバグで両方のアーチで失敗するのですか? たぶんweave
問題も作成し、このスレッドにリンクしますか?
@lukaszgryglicki
腕にkube-flannel.yml
をひねると、amdマシンで動作しなくなります...これが、腕用とamd用の2つのうまくひねられたマニフェストをデプロイすることで問題を解決できると推測している理由です。
そして今、私が考えると、kube-proxyデーモンセットでも同じ問題を修正する必要があるかもしれませんが、今はこれをテストできません、申し訳ありません
あなたが織りに関して持っている問題のために、私は十分な情報を持っていません。 1つの問題は、weaveが--pod-network-cidr=10.244.0.0/16
で機能しないことですが、最初の問題に戻ると、混合プラットフォームでweaveがそのまま機能するかどうかはわかりません。
だから私はマスターにフランネルの2つの異なるマニフェストを展開する必要がありますよね? マスターがarm64かamd64かは関係ありませんよね? マスターは、マスター自体とノードでの正しいアーチ展開の生成を処理する必要がありますか?
ここでどういう意味かわかりません:
And now that I think of, might be you should fix the same issue with kube-proxy daemon set as well, but I can't test this now, sorry
weave
--pod-network-cidr=10.244.0.0/16
を使用しませんweave
。 kubeadm init
だけを使用しました。
私はフランネルの試みにのみ--pod-network-cidr=10.244.0.0/16
を使用しました。 ドキュメントが言うように。
cc @ luxas-マルチアーチk8sのデプロイに関するドキュメントをいくつか作成したことがありますが、フィードバックをいただけますか?
@lukasredynk
ええ、これは結局のところアーチの問題です。確認していただきありがとうございます。
織りの問題は接線の問題のように見えるので、ここではフランネルに焦点を当てましょう。
まだ見ていない場合は、 @ luxasでコンテキストを確認してください。
https://github.com/luxas/kubeadm-workshop
マスターは、マスター自体とノードでの正しいアーチ展開の生成を処理する必要がありますか?
_すべきです_が、ダウンロードしているマニフェストは「太った」マニフェストではありません。
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
私が理解している限り、アーチの汚染は伝播され、各ノード(?)でkubectl
して修正する必要があります。
「太った」マニフェストがマスターにあり、ここに追加されたようです。
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca
関連する問題/広報:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989
私の仮定では、これは最先端であり、以下を使用する必要があります。
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
したがって、クラスターを停止して、試してみて、それが機能することを期待してください。
CNIドキュメントにはバンプが必要ですが、これはflannel-next
がリリースされたときに発生する必要があります。
OK、週末の後に試して、ここに私の結果を投稿します。 ありがとう。
@lukaszgryglickiこんにちは、新しいフランネルマニフェストを使用してこれを機能させましたか?
まだ、今日はやってみます。
OKがついに機能しました:
root<strong i="6">@devstats</strong>:/root# kubectl get nodes
NAME STATUS ROLES AGE VERSION
cncftest.io Ready <none> 39s v1.11.1
devstats.cncf.io Ready <none> 46s v1.11.1
devstats.team.io Ready master 12m v1.11.1
フランネルmaster
ブランチからのファットメインイフェストが役に立ちました。
おかげで、これは閉じることができます。
こんにちはみんな、私は同じ状況にあります。
ワーカーノードがReady状態になっていますが、arm64のフランネルが次のエラーでクラッシュし続けます。
1 main.go:232] Failed to create SubnetManager: error retrieving pod spec for 'kube-system/kube-flannel-ds-arm64-m5jfd': Get https://10.96.0.1:443/api/v1/namespaces/kube-system/pods/kube-flannel-ds-arm64-m5jfd: dial tcp 10.96.0.1:443: i/o timeout
@lukasredynkそれはあなたのために働きましたか?
何か案が?
エラーは異なっているように見えますが、ファットマニフェストを使用しましたか: https :
複数のアーチのマニフェストが含まれています。
はい、そうです:
問題は、腕にとどまらないフランネルコンテナです。 :(
amd64
とarm64
動作します-私のために動作します。
残念ながら、 arm
(32ビット)を使用することはできません。 arm
マシンを利用できません。
私はarm64を使用していますが、ありがとうございます。調査を続けます...
ああ、すみません、あなたは腕を組んでいると思いました。
とにかく、私もこれにまったく慣れていないので、他の人が助けてくれるのを待つ必要があります。
kubectl describe pods --all-namespace
出力と、このスレッドに投稿した他のコマンドの可能な出力を貼り付けてください。 これは、誰かが実際の問題を追跡するのに役立つ場合があります。
ありがとう@lukaszgryglicki 、
これはdescribepodsの出力です: https :
@lukaszgryglicki
それが最終的に機能したことをうれしく思います。
0.11.0がいつリリースされるかわからないので、フランネルのファットマニフェストの使用法をドキュメントに記録します。
@ Leen15
失敗したポッドからの関連:
Warning FailedCreatePodSandBox 3m (x5327 over 7h) kubelet, nanopi-neo-plus2 (combined from similar events): Failed create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "9ddb551d520a757f4f8ff81d1dbfde50a98a5ec65385673a5a49a79e23a3243b" network for pod "arm-test-7894bfffd-njdcc": NetworkPlugin cni failed to set up pod "arm-test-7894bfffd-njdcc_default" network: open /run/flannel/subnet.env: no such file or directory
フランネルに必要な--pod-network-cidr=...
を追加していますか?
このガイドもお試しください:
https://github.com/kubernetes/kubernetes/issues/36575#issuecomment -264622923
@ neolit123はい、問題が見つかりました。フランネルは仮想ネットワークインターフェイス(cniとflannel0)を作成しませんでした。
理由がわからないので、数時間で解決できませんでした。
私はあきらめて群れに切り替えました。
はい、分かりました。 その場合、私は問題を閉じています。
ありがとう。
私も同じ問題に遭遇しましたが、中国のGFWのためにノードが必要な画像をプルできないことがわかったので、画像を手動でプルすると正常に回復します
このコマンドを実行すると、問題が解決しました。
これにより、/ etc / cni /net.dディレクトリに10-flannel.conflistという名前のファイルが作成されます。 kubernetesには、このパッケージで設定されたネットワークが必要だと思います。
私のクラスターは次の状態にあります。
名前ステータスロール年齢バージョン
k8s-masterReadyマスター3h37mv1.14.1
node001準備完了
node02準備完了
こんにちは、みんな、
1つのマスターと2つのノードがあります。 2番目のノードは準備ができていない状態です。
root @ kube1 :〜#kubectlgetノード
名前ステータスロール年齢バージョン
dockerlab1 Ready
kube1レディマスター4h12mv1.14.3
labserver1 NotReady
root @ kube1 :〜#kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-fb8b8dccf-72llr1 / 1実行中04h13m
kube-system coredns-fb8b8dccf-n9v821 / 1実行中04h13m
kube-system etcd-kube11 / 1ランニング04h12m
kube-system kube-apiserver-kube11 / 1実行中04h12m
kube-system kube-controller-manager-kube11 / 1実行中04h13m
kube-system kube-flannel-ds-amd64-6q6sz 0/1 Init:0/1 0 24m
kube-system kube-flannel-ds-amd64-rshnj1 / 1実行中03h59m
kube-system kube-flannel-ds-amd64-xsj721 / 1実行中04h1m
kube-system kube-proxy-7m8jg1 / 1実行中03h59m
kube-system kube-proxy-m7gdc 0/1 ContainerCreating 0 24m
kube-system kube-proxy-xgq6p1 / 1実行中04h13m
root @ kube1 :〜#kubectl describe node labserver1
名前:labserver1
役割:
ラベル:beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/arch=amd64
kubernetes.io/hostname=labserver1
kubernetes.io/os=linux
注釈:kubeadm.alpha.kubernetes.io/cri-socket:/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl:0
volume.kubernetes.io/controller-managed-attach-detach:true
CreationTimestamp:2019年6月9日日曜日21:03:57 +0800
汚染:node.kubernetes.io/not-ready :NoExecute
node.kubernetes.io/not-準備:NoSchedule
スケジュール不能:false
条件:
タイプステータスLastHeartbeatTimeLastTransitionTime理由メッセージ
---- ------ ----------------- ------------------ ----- -----------
MemoryPressure False Sun、2019年6月9日21:28:31 + 0800日、2019年6月9日21:03:57 +0800 KubeletHasSufficientMemorykubeletには十分なメモリがあります
DiskPressure False Sun、2019年6月9日21:28:31 +0800 Sun、2019年6月9日21:03:57 +0800 KubeletHasNoDiskPressurekubeletにはディスク圧力がありません
PIDPressure False Sun、2019年6月9日21:28:31 + 0800日、2019年6月9日21:03:57 +0800 KubeletHasSufficientPIDkubeletには十分なPIDがあります
Ready False Sun、2019年6月9日21:28:31 +0800 Sun、2019年6月9日21:03:57 +0800 KubeletNotReadyランタイムネットワークの準備ができていません:NetworkReady = false理由:NetworkPluginNotReadyメッセージ:docker:ネットワークプラグインの準備ができていません:cni config初期化されていません
住所:
InternalIP:172.31.8.125
ホスト名:labserver1
容量:
CPU:1
エフェメラルストレージ:18108284Ki
巨大ページ-1Gi:0
巨大ページ-2Mi:0
メモリ:1122528Ki
ポッド:110
割り当て可能:
CPU:1
エフェメラルストレージ:16688594507
巨大ページ-1Gi:0
巨大ページ-2Mi:0
メモリ:1020128Ki
ポッド:110
システム情報:
マシンID:292dc4560f9309ccdd72b6935c80e8ec
システムUUID:DE4707DF-5516-784A-9B41-588FCDE49369
ブートID:828d124c-b687-43f6-bffa-6a3e1e6e17e6
カーネルバージョン:4.4.0-142-generic
OSイメージ:Ubuntu 16.04.6 LTS
オペレーティングシステム:Linux
アーキテクチャ:amd64
コンテナランタイムバージョン: docker://18.9.6
Kubeletバージョン:v1.14.3
Kube-プロキシバージョン:v1.14.3
PodCIDR:10.244.3.0/24
終端されていないポッド:(合計2つ)
名前空間名CPU要求CPU制限メモリ要求メモリ制限AGE
--------- ---- ------------ ---------- --------------- ------------- ---
kube-system kube-flannel-ds-amd64-6q6sz 100m(10%)100m(10%)50Mi(5%)50Mi(5%)25m
kube-system kube-proxy-m7gdc 0(0%)0(0%)0(0%)0(0%)25m
割り当てられたリソース:
(合計制限は100%を超える場合があります。つまり、オーバーコミットされます。)
リソースリクエストの制限
-------- -------- ------
CPU 100m(10%)100m(10%)
メモリ50Mi(5%)50Mi(5%)
エフェメラルストレージ0(0%)0(0%)
イベント:
メッセージから理由年齢を入力
---- ------ ---- ---- -------
通常開始45mkubelet、labserver1開始kubelet。
通常のNodeHasSufficientMemory45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasNoDiskPressure45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常のNodeHasSufficientPID45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeAllocatableEnforced45m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
通常開始25mkubelet、labserver1開始kubelet。
通常のNodeAllocatableEnforced25m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
通常のNodeHasSufficientMemory25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasSufficientPID25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeHasNoDiskPressure25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常開始13mkubelet、labserver1開始kubelet。
通常のNodeHasSufficientMemory13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasNoDiskPressure13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常のNodeHasSufficientPID13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeAllocatableEnforced13m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
root @ kube1 :〜#
助けてください
こんにちは、みんな、
1つのマスターと2つのノードがあります。 2番目のノードは準備ができていない状態です。
root @ kube1 :〜#kubectlgetノード
名前ステータスロール年齢バージョン
dockerlab1 Ready 3h57m v1.14.3
kube1レディマスター4h12mv1.14.3
labserver1 NotReady 22m v1.14.3root @ kube1 :〜#kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-fb8b8dccf-72llr1 / 1実行中04h13m
kube-system coredns-fb8b8dccf-n9v821 / 1実行中04h13m
kube-system etcd-kube11 / 1ランニング04h12m
kube-system kube-apiserver-kube11 / 1実行中04h12m
kube-system kube-controller-manager-kube11 / 1実行中04h13m
kube-system kube-flannel-ds-amd64-6q6sz 0/1 Init:0/1 0 24m
kube-system kube-flannel-ds-amd64-rshnj1 / 1実行中03h59m
kube-system kube-flannel-ds-amd64-xsj721 / 1実行中04h1m
kube-system kube-proxy-7m8jg1 / 1実行中03h59m
kube-system kube-proxy-m7gdc 0/1 ContainerCreating 0 24m
kube-system kube-proxy-xgq6p1 / 1実行中04h13m
kube-system kube-scheduler-kube11 / 1ランニング04h13m
root @ kube1 :〜#kubectl describe node labserver1
名前:labserver1
役割:
ラベル:beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/arch=amd64
kubernetes.io/hostname=labserver1
kubernetes.io/os=linux
注釈:kubeadm.alpha.kubernetes.io/cri-socket:/var/run/dockershim.sock
node.alpha.kubernetes.io/ttl:0
volume.kubernetes.io/controller-managed-attach-detach:true
CreationTimestamp:2019年6月9日日曜日21:03:57 +0800
汚染:node.kubernetes.io/not-ready :NoExecute
node.kubernetes.io/not-準備:NoSchedule
スケジュール不能:false
条件:
タイプステータスLastHeartbeatTimeLastTransitionTime理由メッセージMemoryPressure False Sun、2019年6月9日21:28:31 + 0800日、2019年6月9日21:03:57 +0800 KubeletHasSufficientMemorykubeletには十分なメモリがあります
DiskPressure False Sun、2019年6月9日21:28:31 +0800 Sun、2019年6月9日21:03:57 +0800 KubeletHasNoDiskPressurekubeletにはディスク圧力がありません
PIDPressure False Sun、2019年6月9日21:28:31 + 0800日、2019年6月9日21:03:57 +0800 KubeletHasSufficientPIDkubeletには十分なPIDがあります
Ready False Sun、2019年6月9日21:28:31 +0800 Sun、2019年6月9日21:03:57 +0800 KubeletNotReadyランタイムネットワークの準備ができていません:NetworkReady = false理由:NetworkPluginNotReadyメッセージ:docker:ネットワークプラグインの準備ができていません:cni config初期化されていません
住所:
InternalIP:172.31.8.125
ホスト名:labserver1
容量:
CPU:1
エフェメラルストレージ:18108284Ki
巨大ページ-1Gi:0
巨大ページ-2Mi:0
メモリ:1122528Ki
ポッド:110
割り当て可能:
CPU:1
エフェメラルストレージ:16688594507
巨大ページ-1Gi:0
巨大ページ-2Mi:0
メモリ:1020128Ki
ポッド:110
システム情報:
マシンID:292dc4560f9309ccdd72b6935c80e8ec
システムUUID:DE4707DF-5516-784A-9B41-588FCDE49369
ブートID:828d124c-b687-43f6-bffa-6a3e1e6e17e6
カーネルバージョン:4.4.0-142-generic
OSイメージ:Ubuntu 16.04.6 LTS
オペレーティングシステム:Linux
アーキテクチャ:amd64
コンテナランタイムバージョン: docker://18.9.6
Kubeletバージョン:v1.14.3
Kube-プロキシバージョン:v1.14.3
PodCIDR:10.244.3.0/24
終端されていないポッド:(合計2つ)
名前空間名CPU要求CPU制限メモリ要求メモリ制限AGEkube-system kube-flannel-ds-amd64-6q6sz 100m(10%)100m(10%)50Mi(5%)50Mi(5%)25m
kube-system kube-proxy-m7gdc 0(0%)0(0%)0(0%)0(0%)25m
割り当てられたリソース:
(合計制限は100%を超える場合があります。つまり、オーバーコミットされます。)
リソースリクエストの制限CPU 100m(10%)100m(10%)
メモリ50Mi(5%)50Mi(5%)
エフェメラルストレージ0(0%)0(0%)
イベント:
メッセージから理由年齢を入力通常開始45mkubelet、labserver1開始kubelet。
通常のNodeHasSufficientMemory45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasNoDiskPressure45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常のNodeHasSufficientPID45m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeAllocatableEnforced45m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
通常開始25mkubelet、labserver1開始kubelet。
通常のNodeAllocatableEnforced25m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
通常のNodeHasSufficientMemory25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasSufficientPID25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeHasNoDiskPressure25m(x2 over 25m)kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常開始13mkubelet、labserver1開始kubelet。
通常のNodeHasSufficientMemory13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientMemory
通常のNodeHasNoDiskPressure13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasNoDiskPressure
通常のNodeHasSufficientPID13m kubelet、labserver1ノードlabserver1のステータスは次のようになります:NodeHasSufficientPID
通常のNodeAllocatableEnforced13m kubelet、labserver1ポッド全体のノード割り当て可能制限を更新
root @ kube1 :〜#助けてください
こんにちはAthir、
Please check out logs in /var/logs/messages section of your Master node. You can find an actual error in those logs. But here are some general tips.
私。 常に最初にマスターノードに集中してください。
ii。 その上にDockerエンジンをインストールし、kubernetesに使用されているすべてのイメージをフェッチします。 すべてが実行形式になったら、ノードをマスターに追加します。 それはすべての問題を解決します。 スレーブノードを接続した後にいくつかの画像をフェッチしようとするインターネット上の記事を見ました。 その練習はいくつかの問題を引き起こします。
こんにちはsaddique164、あなたの提案をありがとう。 ええ、あなたが言ったように、私は昨日別の新しいスレーブノードを展開し、問題なくマスターに参加することができました。
申し訳ありませんが、仕方がありません。ARM64ノードはもうありません。現在、4ノードのAMD64ベアメタルクラスターがあります。
ファイル/etc/cni/net.d/10-flannel.conflistの構成にcniVersionキーがありませんでした。
「cniVersion」を追加すると、「0.2.0」で問題が解決しました。
ファイル/etc/cni/net.d/10-flannel.conflistの構成にcniVersionキーがありませんでした。
「cniVersion」を追加すると、「0.2.0」で問題が解決しました。
1.15からV1.16.0にアップデートしたときに、この問題に直面しました。
dGVzdDoxMjPCow
2019年9月24日12:52、「ronakgpatel」 [email protected]は次のように書いています。
ファイル/etc/cni/net.d/10-flannel.conflistにcniVersionキーがありませんでした
その構成。「cniVersion」を追加すると、「0.2.0」で問題が解決しました。
1.15からV1.16.0にアップデートしたときに、この問題に直面しました。
—
このスレッドにサブスクライブしているため、これを受け取っています。
このメールに直接返信し、GitHubで表示してください
https://github.com/kubernetes/kubeadm/issues/1031?email_source=notifications&email_token=AND2HJTXHB6WSGAE7PSOAJTQLGMKVA5CNFSM4FNQHEHKYY3PNVWWK3TUL52HS4DFVREXG43VMVBW63LNMVXHJKTDN5WW
またはスレッドをミュートします
https://github.com/notifications/unsubscribe-auth/AND2HJXDKQARYKXVY4YLZMDQLGMKVANCNFSM4FNQHEHA
。
フランネルはあまり積極的にメンテナンスされていません。 三毛猫またはウィーブネットをお勧めします。
フランネルリポジトリは修正が必要でした。
フランネルをインストールするためのkubeadmガイドが更新されました。以下を参照してください。
https://github.com/kubernetes/website/pull/16575/files
ここで同じ問題に直面しました。
kubectl apply -fhttps : //raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
私のために働いた。
docker:ネットワークプラグインの準備ができていません:cni configuninitialized
準備ができていないノードにdockerを再インストールします。
私のために働いた。
このコマンドを実行すると、問題が解決しました。
- kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
これにより、/ etc / cni /net.dディレクトリに10-flannel.conflistという名前のファイルが作成されます。 kubernetesには、このパッケージで設定されたネットワークが必要だと思います。
私のクラスターは次の状態にあります。名前ステータスロール年齢バージョン
k8s-masterReadyマスター3h37mv1.14.1
node001 Ready 3h6m v1.14.1
node02 Ready 167m v1.14.1
それはちょうどそれをしました!
ワーカーをリンクする前にネットワークプラグインを作成していたのと同様のケースがあり、/ etc / cni /net.dが欠落していました。
以下を使用してワーカーノードをリンクした後、構成を再実行しました。
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
その結果、/ etc / cni / net.dの構成が正常に作成され、ノードは準備完了状態で表示されました。
同じ問題を抱えている人の助けになることを願っています。
このコマンドを実行すると、問題が解決しました。
- kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
これにより、/ etc / cni /net.dディレクトリに10-flannel.conflistという名前のファイルが作成されます。 kubernetesには、このパッケージで設定されたネットワークが必要だと思います。
私のクラスターは次の状態にあります。名前ステータスロール年齢バージョン
k8s-masterReadyマスター3h37mv1.14.1
node001 Ready 3h6m v1.14.1
node02 Ready 167m v1.14.1
マスターマシンでそのコマンドを実行すると、すべてが準備完了状態になります。 ありがとう@ saddique164 。
最も簡単な方法は、いずれかのAMD64アーキテクチャのKubernetesにフランネルを追加することです。
$ curl https://rawgit.com/coreos/flannel/master/Documentation/kube-flannel.yml \
> kube-flannel.yaml
$ kubectl apply -f kube-flannel.yaml
kubernetes1.18バージョンを使用しています。
私はこれを使用しました:kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
/etc/cni/net.dの下に作成されたファイルはありませんでした
マスターノードはNotReadyですが、スレーブはReady状態です。
kubernetes1.18バージョンを使用しています。
私はこれを使用しました:kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
/etc/cni/net.dの下に作成されたファイルはありませんでした
マスターノードはNotReadyですが、スレーブはReady状態です。
注:これはkubeletの問題のようです。
Jul 01 11:58:36 master kubelet[17918]: F0701 11:58:36.613864 17918 kubelet.go:1383] Failed to start ContainerManager failed to initialize top level QOS containers: failed to update top level Burstable QOS cgroup : failed to set supported cgroup subsystems for cgroup [kubepods burstable]: failed to find subsystem mount for required subsystem: pids
Jul 01 11:58:36 master systemd[1]: kubelet.service: main process exited, code=exited, status=255/n/a
Jul 01 11:58:36 master systemd[1]: Unit kubelet.service entered failed state.
Jul 01 11:58:36 master systemd[1]: kubelet.service failed.
マスターでこれを試してください:
sed -i's / cgroup-driver = systemd / cgroup-driver = cgroupfs / g '/ usr / lib / systemd / system / kubelet.service.d / 10-kubeadm.conf
起動してから再び失敗します。
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692341 15525 remote_runtime.go:59] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692358 15525 remote_runtime.go:59] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692381 15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692389 15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692420 15525 remote_image.go:50] parsed scheme: ""
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692427 15525 remote_image.go:50] scheme "" not registered, fallback to default scheme
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692435 15525 passthrough.go:48] ccResolverWrapper: sending update to cc: {[{/var/run/dockershim.sock <nil> 0 <nil>}] <nil> <nil>}
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692440 15525 clientconn.go:933] ClientConn switching balancer to "pick_first"
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692464 15525 kubelet.go:292] Adding pod path: /etc/kubernetes/manifests
Jul 02 10:37:11 master kubelet[15525]: I0702 10:37:11.692480 15525 kubelet.go:317] Watching apiserver
Jul 02 10:37:16 master kubelet[15525]: W0702 10:37:16.680313 15525 cni.go:237] Unable to update cni config: no networks found in /etc/cni/net.d
表示されている場合は、ネットワークが見つからないと言っています。 このコマンドを実行して、結果を共有します。
Kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
coredns-75f8564758-92ws7 1/1 Running 0 25h
coredns-75f8564758-z9xn8 1/1 Running 0 25h
kube-flannel-ds-amd64-2j4mw 1/1 Running 0 25h
kube-flannel-ds-amd64-5tmhp 0/1 Pending 0 25h
kube-flannel-ds-amd64-rqwmz 1/1 Running 0 25h
kube-proxy-6v24w 1/1 Running 0 25h
kube-proxy-jgdw7 0/1 Pending 0 25h
kube-proxy-qppnk 1/1 Running 0 25h
これを実行します
kubectlログkube-flannel-ds-amd64-5tmhp-n kube-system
何も起こらない場合は、これを実行します。
kubectl describe pod kube-flannel-ds-amd64-5tmhp -n kube-system
サーバーからのエラー: https ://10.75.214.124:10250 / containerLogs / kube-system / kube-flannel-ds-amd64-5tmhp / kube-flannelを取得:tcp 10.75.214.124:10250をダイヤル:接続:接続が拒否されました
いくつのノードが実行されていますか? クラスター内? 1つのノードがこの問題を実行しています。 これはデーモンセットと呼ばれます。 それらはすべてのノードで実行されます。 あなたの管理計画はそれからの要求を受け入れていません。 したがって、次の手順に従うことをお勧めします。
このプロセスは機能します。
kubectl getノード:
NAME STATUS ROLES AGE VERSION
master NotReady master 26h v1.18.5
slave1 Ready <none> 26h v1.18.5
slave2 Ready <none> 26h v1.18.5
私はあなたが言及したステップを試しました:
これは私が得るものです。
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[kubelet-check] Initial timeout of 40s passed.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
[kubelet-check] It seems like the kubelet isn't running or healthy.
[kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
Unfortunately, an error has occurred:
timed out waiting for the condition
This error is likely caused by:
- The kubelet is not running
- The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled)
If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands:
- 'systemctl status kubelet'
- 'journalctl -xeu kubelet'
Additionally, a control plane component may have crashed or exited when started by the container runtime.
To troubleshoot, list all containers using your preferred container runtimes CLI.
Here is one example how you may list all Kubernetes containers running in docker:
- 'docker ps -a | grep kube | grep -v pause'
Once you have found the failing container, you can inspect its logs with:
- 'docker logs CONTAINERID'
error execution phase wait-control-plane: couldn't initialize a Kubernetes cluster
To see the stack trace of this error execute with --v=5 or higher
マスターを除くすべてのノードをドレインし、それに集中します。 準備ができたら、他の人を追加します。
ノードをドレインしてからkubeadmをリセットして初期化しても効果はありません。 その後、クラスターは初期化されません。
私の問題は、クラスターの作成後にホスト名を更新していたことでした。 そうすることで、それはマスターがそれがマスターであることを知らなかったようです。
私はまだ走っています:
sudo hostname $(curl 169.254.169.254/latest/meta-data/hostname)
しかし今はクラスターの初期化の前に実行します
最も参考になるコメント
@lukasredynk
ええ、これは結局のところアーチの問題です。確認していただきありがとうございます。
織りの問題は接線の問題のように見えるので、ここではフランネルに焦点を当てましょう。
まだ見ていない場合は、 @ luxasでコンテキストを確認してください。
https://github.com/luxas/kubeadm-workshop
_すべきです_が、ダウンロードしているマニフェストは「太った」マニフェストではありません。
https://raw.githubusercontent.com/coreos/flannel/v0.10.0/Documentation/kube-flannel.yml
私が理解している限り、アーチの汚染は伝播され、各ノード(?)で
kubectl
して修正する必要があります。「太った」マニフェストがマスターにあり、ここに追加されたようです。
https://github.com/coreos/flannel/commit/c5d10c8b16d7c43bfa6e8408673c6d95404bd807#diff -7891b552b026259e99d479b5e30d31ca
関連する問題/広報:
https://github.com/coreos/flannel/issues/663
https://github.com/coreos/flannel/pull/989
私の仮定では、これは最先端であり、以下を使用する必要があります。
したがって、クラスターを停止して、試してみて、それが機能することを期待してください。
CNIドキュメントにはバンプが必要ですが、これは
flannel-next
がリリースされたときに発生する必要があります。