dns, resolv.conf, coredns
versión kubeadm (use kubeadm version
):
kubeadm version: &version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.0", GitCommit:"91e7b4fd31fcd3d5f436da26c980becec37ceefe", GitTreeState:"clean", BuildDate:"2018-06-27T20:14:41Z", GoVersion:"go1.10.2", Compiler:"gc", Platform:"linux/amd64"}
Medio ambiente :
kubectl version
): Client Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.0", GitCommit:"91e7b4fd31fcd3d5f436da26c980becec37ceefe", GitTreeState:"clean", BuildDate:"2018-06-27T20:17:28Z", GoVersion:"go1.10.2", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"11", GitVersion:"v1.11.0", GitCommit:"91e7b4fd31fcd3d5f436da26c980becec37ceefe", GitTreeState:"clean", BuildDate:"2018-06-27T20:08:34Z", GoVersion:"go1.10.2", Compiler:"gc", Platform:"linux/amd64"}
uname -a
):Después de la instalación de kubernetes a través de kubeadm, los pods de coredns no aparecerán. kubectl get pods --all-namespaces
imprime esto:
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-kgg8d 0/1 Pending 0 2h
kube-system coredns-78fcdf6894-vl9jf 0/1 Pending 0 2h
kube-system etcd-beetlejuice 1/1 Running 0 2h
kube-system kube-apiserver-beetlejuice 1/1 Running 0 2h
kube-system kube-controller-manager-beetlejuice 1/1 Running 0 2h
kube-system kube-proxy-bjdqd 1/1 Running 0 2h
kube-system kube-scheduler-beetlejuice 1/1 Running 0 2h
coredns cambia al estado 'En ejecución' y Kubernetes se ejecuta sin problemas
Este es el script que utilicé para la instalación:
curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add -
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main
EOF
apt-get update
apt-get install -y docker.io
apt-get install -y kubeadm
kubeadm init --pod-network-cidr=10.27.0.0/16
Creo que sí, pero no sé qué ... Si necesitas algún tipo de registros, dímelo.
@ sergej2705
la salida de:
kubectl describe pod <coredns-pod-ids>
y errores relevantes de:
'systemctl status kubelet'
'journalctl -xeu kubelet'
ayudaría más.
Gracias.
Desde kubectl describe pod coredns-78fcdf6894-kgg8d -n kube-system
:
Name: coredns-78fcdf6894-kgg8d
Namespace: kube-system
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-4fqm7 (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-4fqm7:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-4fqm7
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 4m (x1436 over 4h) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
y desde kubectl describe pod coredns-78fcdf6894-vl9jf -n kube-system
:
Name: coredns-78fcdf6894-vl9jf
Namespace: kube-system
Node: <none>
Labels: k8s-app=kube-dns
pod-template-hash=3497892450
Annotations: <none>
Status: Pending
IP:
Controlled By: ReplicaSet/coredns-78fcdf6894
Containers:
coredns:
Image: k8s.gcr.io/coredns:1.1.3
Ports: 53/UDP, 53/TCP, 9153/TCP
Host Ports: 0/UDP, 0/TCP, 0/TCP
Args:
-conf
/etc/coredns/Corefile
Limits:
memory: 170Mi
Requests:
cpu: 100m
memory: 70Mi
Liveness: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Environment: <none>
Mounts:
/etc/coredns from config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount from coredns-token-4fqm7 (ro)
Conditions:
Type Status
PodScheduled False
Volumes:
config-volume:
Type: ConfigMap (a volume populated by a ConfigMap)
Name: coredns
Optional: false
coredns-token-4fqm7:
Type: Secret (a volume populated by a Secret)
SecretName: coredns-token-4fqm7
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: CriticalAddonsOnly
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute for 300s
node.kubernetes.io/unreachable:NoExecute for 300s
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 1m (x1467 over 4h) default-scheduler 0/1 nodes are available: 1 node(s) were not ready.
No veo ningún error en systemctl status kubelet
, aquí está el resultado completo:
● kubelet.service - kubelet: The Kubernetes Node Agent
Loaded: loaded (/lib/systemd/system/kubelet.service; enabled; vendor preset: enabled)
Drop-In: /etc/systemd/system/kubelet.service.d
└─10-kubeadm.conf, override.conf
Active: active (running) since Mon 2018-07-09 17:43:53 CEST; 4h 7min ago
Docs: http://kubernetes.io/docs/
Main PID: 26710 (kubelet)
Tasks: 32 (limit: 4915)
CGroup: /system.slice/kubelet.service
└─26710 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-co
en el journalctl -xeu kubelet
veo las siguientes líneas varias veces:
Jul 09 21:54:48 beetlejuice kubelet[26710]: E0709 21:54:48.883071 26710 kubelet.go:2112] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninit
Jul 09 21:54:49 beetlejuice kubelet[26710]: E0709 21:54:49.566069 26710 dns.go:131] Nameserver limits were exceeded, some nameservers have been omitted, the applied nameserver line is: 213.133.99.99 213.133.98.98 213.133.100.100
Jul 09 21:54:53 beetlejuice kubelet[26710]: W0709 21:54:53.884846 26710 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
Fyi, el /etc/resolv.conf
:
### Hetzner Online GmbH installimage
# nameserver config
nameserver 213.133.99.99
nameserver 213.133.98.98
nameserver 213.133.100.100
nameserver 2a01:4f8:0:1::add:1010
nameserver 2a01:4f8:0:1::add:9999
nameserver 2a01:4f8:0:1::add:9898
donde Hetzner es el nombre del operador del centro de datos.
@ sergej2705
el planificador falla, pero no me queda claro por qué.
puede encontrar el ID del pod de programador de kube con
kubectl get pods --all-namespace
entonces podrías probar esto para iniciar una terminal en ese pod:
kubectl exec -ti <POD-ID-HERE> bash -n kube-system
y desde allí podrías intentar mirar el registro:
cat /var/log
no hay garantías de que tenga algo relevante.
un par de otras cosas:
init
(preguntando por si acaso)?init
¿qué contenido obtienes en /var/lib/kubelet/kubeadm-flags.env
?kubectl exec -ti kube-scheduler-beetlejuice bash -n kube-system
dice
OCI runtime exec failed: exec failed: container_linux.go:348: starting container process caused "exec: \"bash\": executable file not found in $PATH": unknown command terminated with exit code 126
así que intenté kubectl exec -ti kube-scheduler-beetlejuice sh -n kube-system
así que sh
lugar de bash
... pero no hay ningún archivo /var/log
ls -lAh /var
:
drwxr-xr-x 3 root root 4.0K May 22 17:00 spool
drwxr-xr-x 2 root root 4.0K May 22 17:00 www
Por ahora será un kube de un solo nodo.
Los contenidos de /var/lib/kubelet/kubeadm-flags.env
son
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni --resolv-conf=/run/systemd/resolve/resolv.conf
Lástima que no haya registros del planificador.
Los contenidos de /var/lib/kubelet/kubeadm-flags.env son
parece que se ha añadido la bandera --resolv-conf
, así que está bien.
Por ahora será un kube de un solo nodo.
llame a kubeadm reset
y luego kubeadm init ...
nuevamente.
luego copie la configuración en su directorio de usuario e intente instalar un complemento de red de pod (tejido):
kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
y vea si las vainas dns están listas. Puede que esto no tenga sentido, pero pruébalo.
después de que los pods de inicialización se vean así (nuevamente):
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-lcmg6 0/1 Pending 0 1m
kube-system coredns-78fcdf6894-wd9nt 0/1 Pending 0 1m
kube-system etcd-beetlejuice 1/1 Running 0 18s
kube-system kube-apiserver-beetlejuice 1/1 Running 0 36s
kube-system kube-controller-manager-beetlejuice 1/1 Running 0 12s
kube-system kube-proxy-zrhgj 1/1 Running 0 1m
kube-system kube-scheduler-beetlejuice 1/1 Running 0 24s
después de instalar el complemento de tejido, se ve así:
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-78fcdf6894-lcmg6 1/1 Running 0 2m
kube-system coredns-78fcdf6894-wd9nt 1/1 Running 0 2m
kube-system etcd-beetlejuice 1/1 Running 0 1m
kube-system kube-apiserver-beetlejuice 1/1 Running 0 1m
kube-system kube-controller-manager-beetlejuice 1/1 Running 0 58s
kube-system kube-proxy-zrhgj 1/1 Running 0 2m
kube-system kube-scheduler-beetlejuice 1/1 Running 0 1m
kube-system weave-net-ldxg5 2/2 Running 0 24s
ahora funciona 👍
Instalé kubernetes-dashboard
ahora sin problemas, esto no funcionaba antes. Pero, ¿es esta la solución a este problema?
gracias por probar.
Pero, ¿es esta la solución a este problema?
Yo diría que sí, por ahora.
tanto la CLI como la documentación indican a los usuarios que instalen un complemento de red de pod justo después de init
.
no hemos documentado exactamente qué sucede si se omite este paso, pero se espera que el clúster no funcione correctamente ...
Si alguien siente que este problema no debería cerrarse, vuelva a abrirlo.
Tengo el problema exacto , aunque el complemento de tejido no funcionó. Todavía veo pods de coredns en el estado ContainerCreating . Ha pasado casi una hora, así que ...
linux-uwkw:~ # kubectl cluster-info
Kubernetes master is running at https://192.168.178.163:6443
KubeDNS is running at https://192.168.178.163:6443/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy
To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
linux-uwkw:~ # cat /var/lib/kubelet/kubeadm-flags.env
KUBELET_KUBEADM_ARGS=--cgroup-driver=cgroupfs --cni-bin-dir=/opt/cni/bin --cni-conf-dir=/etc/cni/net.d --network-plugin=cni
--resolv-conf
. Entonces supongo que esto es un problema. ¿Cómo puedo configurar kubeqdm para agregarlo?--cni-bin-dir=/opt/cni/bin
es incorrecto. En mi sistema no tengo esto.linux-uwkw:~ # rpm -ql cni
/etc/cni
/etc/cni/net.d
/etc/cni/net.d/99-loopback.conf.sample
/usr/lib/cni
/usr/lib/cni/noop
/usr/sbin/cnitool
/usr/share/doc/packages/cni
/usr/share/doc/packages/cni/CONTRIBUTING.md
/usr/share/doc/packages/cni/DCO
/usr/share/doc/packages/cni/README.md
/usr/share/licenses/cni
/usr/share/licenses/cni/LICENSE
Supongo que tengo que poner /usr/sbin
, ¿verdad?
Además, los registros del programador son:
linux-uwkw:~ # docker logs k8s_kube-scheduler_kube-scheduler-linux-uwkw_kube-system_a00c35e56ebd0bdfcd77d53674a5d2a1_0
I0813 21:18:19.816990 1 server.go:126] Version: v1.11.2
W0813 21:18:19.821719 1 authorization.go:47] Authorization is disabled
W0813 21:18:19.821744 1 authentication.go:55] Authentication is disabled
I0813 21:18:19.821787 1 insecure_serving.go:47] Serving healthz insecurely on 127.0.0.1:10251
E0813 21:18:25.603025 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0813 21:18:25.603122 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0813 21:18:25.603161 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0813 21:18:25.603253 1 reflector.go:205] k8s.io/kubernetes/cmd/kube-scheduler/app/server.go:176: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0813 21:18:25.603286 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.StorageClass: storageclasses.storage.k8s.io is forbidden: User "system:kube-scheduler" cannot list storageclasses.storage.k8s.io at the cluster scope
E0813 21:18:25.603335 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0813 21:18:25.603364 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0813 21:18:25.603437 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0813 21:18:25.603491 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0813 21:18:25.605642 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
E0813 21:18:26.603723 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.PersistentVolume: persistentvolumes is forbidden: User "system:kube-scheduler" cannot list persistentvolumes at the cluster scope
E0813 21:18:26.606225 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.Service: services is forbidden: User "system:kube-scheduler" cannot list services at the cluster scope
E0813 21:18:26.606295 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.ReplicationController: replicationcontrollers is forbidden: User "system:kube-scheduler" cannot list replicationcontrollers at the cluster scope
E0813 21:18:26.607860 1 reflector.go:205] k8s.io/kubernetes/cmd/kube-scheduler/app/server.go:176: Failed to list *v1.Pod: pods is forbidden: User "system:kube-scheduler" cannot list pods at the cluster scope
E0813 21:18:26.611457 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.StorageClass: storageclasses.storage.k8s.io is forbidden: User "system:kube-scheduler" cannot list storageclasses.storage.k8s.io at the cluster scope
E0813 21:18:26.612777 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.PersistentVolumeClaim: persistentvolumeclaims is forbidden: User "system:kube-scheduler" cannot list persistentvolumeclaims at the cluster scope
E0813 21:18:26.616076 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.StatefulSet: statefulsets.apps is forbidden: User "system:kube-scheduler" cannot list statefulsets.apps at the cluster scope
E0813 21:18:26.616779 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.PodDisruptionBudget: poddisruptionbudgets.policy is forbidden: User "system:kube-scheduler" cannot list poddisruptionbudgets.policy at the cluster scope
E0813 21:18:26.619308 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1beta1.ReplicaSet: replicasets.extensions is forbidden: User "system:kube-scheduler" cannot list replicasets.extensions at the cluster scope
E0813 21:18:26.620048 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:130: Failed to list *v1.Node: nodes is forbidden: User "system:kube-scheduler" cannot list nodes at the cluster scope
I0813 21:18:28.429769 1 controller_utils.go:1025] Waiting for caches to sync for scheduler controller
I0813 21:18:28.533687 1 controller_utils.go:1032] Caches are synced for scheduler controller
I0813 21:18:28.533868 1 leaderelection.go:185] attempting to acquire leader lease kube-system/kube-scheduler...
I0813 21:18:28.539621 1 leaderelection.go:194] successfully acquired lease kube-system/kube-scheduler
Tengo el mismo problema
No creo que sea el mismo problema.
KubeDNS se ejecuta en
CoreDNS es el servidor DNS predeterminado en 1.11.x. ¿Lo habilitaste intencionalmente?
cat /var/lib/kubelet/kubeadm-flags.env
/var/lib/kubelet/kubeadm-flags.env
se genera automáticamente en el tiempo de ejecución de kubeadm y no debe editarse.
puedes agregar banderas en /etc/default/kubelet
ver la información aquí:
https://github.com/kubernetes/kubernetes/blob/master/build/debs/10-kubeadm.conf
falta el indicador --resolv-conf.
solo se agregaría si su distribución usa esto:
https://www.freedesktop.org/software/systemd/man/systemd-resolved.service.html
--cni-bin-dir = / opt / cni / bin --cni-conf-dir = / etc / cni / net.d
Estos son los valores predeterminados, pero AFAIK, esto no debe agregarse automáticamente en tiempo de ejecución.
Es difícil decir cuál es el problema en su caso.
es mejor abrir un nuevo problema y seguir la plantilla de informe de problemas.
Después de todo, encontré mi problema. Me faltaba el binario loopback
de CNI en /opt/cni/bin
.
cd /opt/cni/bin
curl -L -O https://github.com/containernetworking/cni/releases/download/v0.4.0/cni-amd64-v0.4.0.tgz
tar -xf cni-amd64-v0.4.0.tgz
systemctl restart kubelet
Encontré el mismo problema y lo resolví instalando franela. Después de instalar la franela, se pueden crear coredns y otras vainas correctamente.
¿Por qué instalar franela puede resolver el problema?
También inicio mi clúster K8s usando kubeadm y agrego --pod-network-cidr
arg. Entonces, creo que si no están instalados los complementos de franela u otros complementos de red de pod, kubelet no puede saber cómo asignar ip al pod y arrojar un error.
Dijiste que ves el siguiente mensaje usando journal -xeu kubelet
:
26710 kubelet.go:2112] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninit
Jul 09 21:54:49 beetlejuice kubelet[26710]: E0709 21:54:49.566069 26710 dns.go:131] Nameserver limits were exceeded, some nameservers have been omitted, the applied nameserver line is: 213.133.99.99 213.133.98.98 213.133.100.100
Jul 09 21:54:53 beetlejuice kubelet[26710]: W0709 21:54:53.884846 26710 cni.go:172] Unable to update cni config: No networks found in /etc/cni/net.d
También vi registros similares en mi máquina y creo que esta es la causa del problema.
¿Por qué instalar franela puede resolver el problema?
se debe instalar un complemento CNI:
https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm
Installing a pod network add-on
You must install a pod network add-on so that your pods can communicate with each other.
se debe instalar un complemento CNI:
https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm
Mis coredns no pueden iniciarse porque no se instaló un complemento de red de pod después de iniciar los kubernetes y ahora lo sé, gracias.
Lástima que no haya registros del planificador.
Los contenidos de /var/lib/kubelet/kubeadm-flags.env son
parece que se ha añadido la bandera
--resolv-conf
, así que está bien.Por ahora será un kube de un solo nodo.
llame a
kubeadm reset
y luegokubeadm init ...
nuevamente.
luego copie la configuración en su directorio de usuario e intente instalar un complemento de red de pod (tejido):kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
y vea si las vainas dns están listas. Puede que esto no tenga sentido, pero pruébalo.
¡esto funciona para mi! muchas gracias
Lástima que no haya registros del planificador.
Los contenidos de /var/lib/kubelet/kubeadm-flags.env son
parece que se ha añadido la bandera
--resolv-conf
, así que está bien.Por ahora será un kube de un solo nodo.
llame a
kubeadm reset
y luegokubeadm init ...
nuevamente.
luego copie la configuración en su directorio de usuario e intente instalar un complemento de red de pod (tejido):kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
y vea si las vainas dns están listas. Puede que esto no tenga sentido, pero pruébalo.
serviceaccount / weave-net configurado
clusterrole.rbac.authorization.k8s.io/weave-net configurado
clusterrolebinding.rbac.authorization.k8s.io/weave-net configurado
role.rbac.authorization.k8s.io/weave-net configurado
rolebinding.rbac.authorization.k8s.io/weave-net configurado
incapaz de reconocer que no hay coincidencias para el tipo "DaemonSet" en la versión "extensions / v1beta1"
No se puede configurar
incapaz de reconocer que no hay coincidencias para el tipo "DaemonSet" en la versión "extensions / v1beta1"
eso es un error en el lado del complemento CNI.
en su lugar, pruebe el complemento Callico CNI.
Comentario más útil
Lástima que no haya registros del planificador.
parece que se ha añadido la bandera
--resolv-conf
, así que está bien.llame a
kubeadm reset
y luegokubeadm init ...
nuevamente.luego copie la configuración en su directorio de usuario e intente instalar un complemento de red de pod (tejido):
y vea si las vainas dns están listas. Puede que esto no tenga sentido, pero pruébalo.