Kubernetes: Pod terjebak dengan status ContainerCreating

Dibuat pada 6 Agu 2016  ·  3Komentar  ·  Sumber: kubernetes/kubernetes

Untuk beberapa alasan hari ini ketika saya meluncurkan versi baru ke salah satu penerapan kami, pod macet di ContainerCreating dengan peristiwa kesalahan ini:

1h          1m         37        some-api-2275263275-01pq7              Pod                                             Warning   FailedMount               {kubelet gke-cluster-1-default-pool-4399eaa3-os4v}      Unable to mount volumes for pod "some-api-2275263275-01pq7_default(afc5ae68-5b5e-11e6-afbb-42010a800105)": timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]
1h          1m         37        some-api-2275263275-01pq7              Pod                                             Warning   FailedSync                {kubelet gke-cluster-1-default-pool-4399eaa3-os4v}      Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]

Saya kemudian mencoba menskalakan cluster dan lebih dari 75% pod yang sebelumnya berjalan beralih ke ContainerCreating dan juga macet di sana. Ini menyebabkan kegagalan yang meluas di sistem kami dan saya harus segera membuat cluster baru.

Kami menggunakan mesin kontainer platform cloud google dan versi clusternya adalah 1.3.2.

arekubectl kinbug sistorage

Komentar yang paling membantu

Saya melihat masalah serupa dengan v1.3.3 tetapi dalam kasus saya, akar masalahnya lebih banyak pejalan kaki. Penerapan saya memerlukan volume rahasia dan saya lupa membuat rahasia terkait untuk cluster tempat saya mencoba melakukan penerapan baru. Saya tidak melihat kesalahan saat menggunakan kubectl describe atau kubectl logs tetapi akhirnya menyadari bahwa penerapan tetap macet dalam status ContainerCreating (tanpa log afaict) jika volume yang bergantung padanya tidak ada.

Semua 3 komentar

@montanaflynn Ada sejumlah masalah terkait penyimpanan dengan v1.3.2 yang diperbaiki dengan v1.3.4 . Anda mungkin memukul salah satunya.

Jika Anda membagikan /var/log/kubelet log dari sebuah node dengan penerapan yang macet, saya dapat melihat dan mengonfirmasi apakah itu masalah yang diketahui atau tidak. Saya membutuhkan nama proyek/nama cluster/zona GKE Anda juga untuk mengambil log master Anda. Jangan ragu untuk mengirim email kepada saya jika Anda tidak ingin berbagi secara publik.

Saya melihat masalah serupa dengan v1.3.3 tetapi dalam kasus saya, akar masalahnya lebih banyak pejalan kaki. Penerapan saya memerlukan volume rahasia dan saya lupa membuat rahasia terkait untuk cluster tempat saya mencoba melakukan penerapan baru. Saya tidak melihat kesalahan saat menggunakan kubectl describe atau kubectl logs tetapi akhirnya menyadari bahwa penerapan tetap macet dalam status ContainerCreating (tanpa log afaict) jika volume yang bergantung padanya tidak ada.

Masalah ini sudah basi. Penutupan.

Apakah halaman ini membantu?
0 / 5 - 0 peringkat