Untuk beberapa alasan hari ini ketika saya meluncurkan versi baru ke salah satu penerapan kami, pod macet di ContainerCreating dengan peristiwa kesalahan ini:
1h 1m 37 some-api-2275263275-01pq7 Pod Warning FailedMount {kubelet gke-cluster-1-default-pool-4399eaa3-os4v} Unable to mount volumes for pod "some-api-2275263275-01pq7_default(afc5ae68-5b5e-11e6-afbb-42010a800105)": timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]
1h 1m 37 some-api-2275263275-01pq7 Pod Warning FailedSync {kubelet gke-cluster-1-default-pool-4399eaa3-os4v} Error syncing pod, skipping: timeout expired waiting for volumes to attach/mount for pod "some-api-2275263275-01pq7"/"default". list of unattached/unmounted volumes=[default-token-880jy]
Saya kemudian mencoba menskalakan cluster dan lebih dari 75% pod yang sebelumnya berjalan beralih ke ContainerCreating dan juga macet di sana. Ini menyebabkan kegagalan yang meluas di sistem kami dan saya harus segera membuat cluster baru.
Kami menggunakan mesin kontainer platform cloud google dan versi clusternya adalah 1.3.2.
@montanaflynn Ada sejumlah masalah terkait penyimpanan dengan v1.3.2 yang diperbaiki dengan v1.3.4 . Anda mungkin memukul salah satunya.
Jika Anda membagikan /var/log/kubelet log
dari sebuah node dengan penerapan yang macet, saya dapat melihat dan mengonfirmasi apakah itu masalah yang diketahui atau tidak. Saya membutuhkan nama proyek/nama cluster/zona GKE Anda juga untuk mengambil log master Anda. Jangan ragu untuk mengirim email kepada saya jika Anda tidak ingin berbagi secara publik.
Saya melihat masalah serupa dengan v1.3.3 tetapi dalam kasus saya, akar masalahnya lebih banyak pejalan kaki. Penerapan saya memerlukan volume rahasia dan saya lupa membuat rahasia terkait untuk cluster tempat saya mencoba melakukan penerapan baru. Saya tidak melihat kesalahan saat menggunakan kubectl describe
atau kubectl logs
tetapi akhirnya menyadari bahwa penerapan tetap macet dalam status ContainerCreating
(tanpa log afaict) jika volume yang bergantung padanya tidak ada.
Masalah ini sudah basi. Penutupan.
Komentar yang paling membantu
Saya melihat masalah serupa dengan v1.3.3 tetapi dalam kasus saya, akar masalahnya lebih banyak pejalan kaki. Penerapan saya memerlukan volume rahasia dan saya lupa membuat rahasia terkait untuk cluster tempat saya mencoba melakukan penerapan baru. Saya tidak melihat kesalahan saat menggunakan
kubectl describe
ataukubectl logs
tetapi akhirnya menyadari bahwa penerapan tetap macet dalam statusContainerCreating
(tanpa log afaict) jika volume yang bergantung padanya tidak ada.