Kubernetes: Pods bloqueados con estado ContainerCreating

Creado en 6 ago. 2016  ·  3Comentarios  ·  Fuente: kubernetes/kubernetes

Por alguna razón, hoy, cuando implementé una nueva versión en una de nuestras implementaciones, el pod se atascó en ContainerCreating con estos eventos de error:

1h          1m         37        some-api-2275263275-01pq7              Pod                                             Warning   FailedMount               {kubelet gke-cluster-1-default-pool-4399eaa3-os4v}      Unable to mount volumes for pod "some-api-2275263275-01pq7_default(afc5ae68-5b5e-11e6-afbb-42010a800105)": timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]
1h          1m         37        some-api-2275263275-01pq7              Pod                                             Warning   FailedSync                {kubelet gke-cluster-1-default-pool-4399eaa3-os4v}      Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]

Luego intenté escalar el clúster y más del 75% de los pods que se ejecutaban anteriormente cambiaron a ContainerCreating y también se atascaron allí. Esto provocó una falla generalizada en nuestro sistema y tuve que crear rápidamente un nuevo clúster.

Estamos usando el motor de contenedores de la plataforma en la nube de Google y la versión del clúster es 1.3.2.

arekubectl kinbug sistorage

Comentario más útil

Vi un problema similar con v1.3.3 pero en mi caso, la causa principal fue mucho más peatonal. Mi implementación requiere un volumen de secretos y me había olvidado de crear el secreto asociado para el clúster en el que estaba intentando realizar la nueva implementación. No vi errores al usar kubectl describe o kubectl logs pero finalmente me di cuenta de que la implementación se quedaba atascada en el estado ContainerCreating (sin registros afactos) si faltaba un volumen del que dependía.

Todos 3 comentarios

@montanaflynn Hubo una serie de problemas relacionados con el almacenamiento con v1.3.2 que se solucionaron con v1.3.4 . Probablemente le pegue a uno de esos.

Si comparte el /var/log/kubelet log completo de un nodo con una implementación atascada, puedo echar un vistazo y confirmar si es un problema conocido o no. Necesitaría el nombre de su proyecto de GKE / nombre de clúster / zona también para obtener sus registros maestros. No dude en enviarme un correo electrónico si no desea compartir públicamente.

Vi un problema similar con v1.3.3 pero en mi caso, la causa principal fue mucho más peatonal. Mi implementación requiere un volumen de secretos y me había olvidado de crear el secreto asociado para el clúster en el que estaba intentando realizar la nueva implementación. No vi errores al usar kubectl describe o kubectl logs pero finalmente me di cuenta de que la implementación se quedaba atascada en el estado ContainerCreating (sin registros afactos) si faltaba un volumen del que dependía.

Este problema está rancio. Clausura.

¿Fue útil esta página
0 / 5 - 0 calificaciones