Kubernetes: PVCが削陀された埌、PVが終了時にスタックする

䜜成日 2018幎10月11日  Â·  59コメント  Â·  ゜ヌス: kubernetes/kubernetes

このフォヌムは、バグレポヌトず機胜リク゚スト専甚です。 ヘルプが必芁な堎合は、[Stack Overflow]https://stackoverflow.com/questions/tagged/kubernetesず[トラブルシュヌティングガむド]https://kubernetes.io/docs/tasks/debug-application-を確認しおください。クラスタヌ/トラブルシュヌティング/。 問題がセキュリティ関連の堎合は、https//kubernetes.io/security/を介しお非公開で開瀺しおください。

これはバグレポヌトですか、それずも機胜リク゚ストですか 

1぀だけコメントを倖し、それを独自の行に残したす。

/皮類のバグ
/皮類の機胜

䜕が起こったのか
私はEBSCSIドラむバヌをテストしおいたした。 PVCを䜿甚しおPVを䜜成したした。 次に、PVCを削陀したした。 ただし、PVの削陀はTerminating状態でスタックしたす。 PVCずボリュヌムの䞡方が問題なく削陀されたす。 CSIドラむバヌは、ボリュヌムが芋぀からないずきに成功を返した堎合でもすでになくなっおいるため、 DeleteVolumeで呌び出され続けたす。

CSIドラむバヌログ

I1011 20:37:29.778380       1 controller.go:175] ControllerGetCapabilities: called with args &csi.ControllerGetCapabilitiesRequest{XXX_NoUnkeyedLiteral:struct {}{}, XXX_unrecognized:[]uint8(nil), XXX_sizecache:0}
I1011 20:37:29.780575       1 controller.go:91] DeleteVolume: called with args: &csi.DeleteVolumeRequest{VolumeId:"vol-0ea6117ddb69e78fb", ControllerDeleteSecrets:map[string]string(nil), XXX_NoUnkeyedLiteral:struct {}{}, XXX_unrecognized:[]uint8(nil), XXX_sizecache:0}
I1011 20:37:29.930091       1 controller.go:99] DeleteVolume: volume not found, returning with success

倖郚アタッチメントログ

I1011 19:15:14.931769       1 controller.go:167] Started VA processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:14.931794       1 csi_handler.go:76] CSIHandler: processing VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:14.931808       1 csi_handler.go:103] Attaching "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:14.931823       1 csi_handler.go:208] Starting attach operation for "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:14.931905       1 csi_handler.go:179] PV finalizer is already set on "pvc-069128c6ccdc11e8"
I1011 19:15:14.931947       1 csi_handler.go:156] VA finalizer is already set on "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:14.931962       1 connection.go:235] GRPC call: /csi.v0.Controller/ControllerPublishVolume
I1011 19:15:14.931966       1 connection.go:236] GRPC request: volume_id:"vol-0ea6117ddb69e78fb" node_id:"i-06d0e08c9565c4db7" volume_capability:<mount:<fs_type:"ext4" > access_mode:<mode:SINGLE_NODE_WRITER > > volume_attributes:<key:"storage.kubernetes.io/csiProvisionerIdentity" value:"1539123546345-8081-com.amazon.aws.csi.ebs" >
I1011 19:15:14.935053       1 controller.go:197] Started PV processing "pvc-069128c6ccdc11e8"
I1011 19:15:14.935072       1 csi_handler.go:350] CSIHandler: processing PV "pvc-069128c6ccdc11e8"
I1011 19:15:14.935106       1 csi_handler.go:386] CSIHandler: processing PV "pvc-069128c6ccdc11e8": VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53" found
I1011 19:15:14.952590       1 controller.go:197] Started PV processing "pvc-069128c6ccdc11e8"
I1011 19:15:14.952613       1 csi_handler.go:350] CSIHandler: processing PV "pvc-069128c6ccdc11e8"
I1011 19:15:14.952654       1 csi_handler.go:386] CSIHandler: processing PV "pvc-069128c6ccdc11e8": VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53" found
I1011 19:15:15.048026       1 controller.go:197] Started PV processing "pvc-069128c6ccdc11e8"
I1011 19:15:15.048048       1 csi_handler.go:350] CSIHandler: processing PV "pvc-069128c6ccdc11e8"
I1011 19:15:15.048167       1 csi_handler.go:386] CSIHandler: processing PV "pvc-069128c6ccdc11e8": VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53" found
I1011 19:15:15.269955       1 connection.go:238] GRPC response:
I1011 19:15:15.269986       1 connection.go:239] GRPC error: rpc error: code = Internal desc = Could not attach volume "vol-0ea6117ddb69e78fb" to node "i-06d0e08c9565c4db7": could not attach volume "vol-0ea6117ddb69e78fb" to node "i-06d0e08c9565c4db7": InvalidVolume.NotFound: The volume 'vol-0ea6117ddb69e78fb' does not exist.
        status code: 400, request id: 634b33d1-71cb-4901-8ee0-98933d2a5b47
I1011 19:15:15.269998       1 csi_handler.go:320] Saving attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274440       1 csi_handler.go:330] Saved attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274464       1 csi_handler.go:86] Error processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53": failed to attach: rpc error: code = Internal desc = Could not attach volume "vol-0ea6117ddb69e78fb" to node "i-06d0e08c9565c4db7": could not attach volume "vol-0ea6117ddb69e78fb" to node "i-06d0e08c9565c4db7": InvalidVolume.NotFound: The volume 'vol-0ea6117ddb69e78fb' does not exist.
        status code: 400, request id: 634b33d1-71cb-4901-8ee0-98933d2a5b47
I1011 19:15:15.274505       1 controller.go:167] Started VA processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274516       1 csi_handler.go:76] CSIHandler: processing VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274522       1 csi_handler.go:103] Attaching "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274528       1 csi_handler.go:208] Starting attach operation for "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.274536       1 csi_handler.go:320] Saving attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.278318       1 csi_handler.go:330] Saved attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 19:15:15.278339       1 csi_handler.go:86] Error processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53": failed to attach: PersistentVolume "pvc-069128c6ccdc11e8" is marked for deletion
I1011 20:37:23.328696       1 controller.go:167] Started VA processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.328709       1 csi_handler.go:76] CSIHandler: processing VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.328715       1 csi_handler.go:103] Attaching "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.328721       1 csi_handler.go:208] Starting attach operation for "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.328730       1 csi_handler.go:320] Saving attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.330919       1 reflector.go:286] github.com/kubernetes-csi/external-attacher/vendor/k8s.io/client-go/informers/factory.go:87: forcing resync
I1011 20:37:23.330975       1 controller.go:197] Started PV processing "pvc-069128c6ccdc11e8"
I1011 20:37:23.330990       1 csi_handler.go:350] CSIHandler: processing PV "pvc-069128c6ccdc11e8"
I1011 20:37:23.331030       1 csi_handler.go:386] CSIHandler: processing PV "pvc-069128c6ccdc11e8": VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53" found
I1011 20:37:23.346007       1 csi_handler.go:330] Saved attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.346033       1 csi_handler.go:86] Error processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53": failed to attach: PersistentVolume "pvc-069128c6ccdc11e8" is marked for deletion
I1011 20:37:23.346069       1 controller.go:167] Started VA processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.346077       1 csi_handler.go:76] CSIHandler: processing VA "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.346082       1 csi_handler.go:103] Attaching "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.346088       1 csi_handler.go:208] Starting attach operation for "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.346096       1 csi_handler.go:320] Saving attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.351068       1 csi_handler.go:330] Saved attach error to "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53"
I1011 20:37:23.351090       1 csi_handler.go:86] Error processing "csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53": failed to attach: PersistentVolume "pvc-069128c6ccdc11e8" is marked for deletion



md5-0ecba2ca3eeb5f8f706855a1aab137ec



>> kk get pv
NAME                   CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS        CLAIM            STORAGECLASS   REASON   AGE
pvc-069128c6ccdc11e8   4Gi        RWO            Delete           Terminating   default/claim1   late-sc                 22h

>> kk describe pv
Name:            pvc-069128c6ccdc11e8
Labels:          <none>
Annotations:     pv.kubernetes.io/provisioned-by: com.amazon.aws.csi.ebs
Finalizers:      [external-attacher/com-amazon-aws-csi-ebs]
StorageClass:    late-sc
Status:          Terminating (lasts <invalid>)
Claim:           default/claim1
Reclaim Policy:  Delete
Access Modes:    RWO
Capacity:        4Gi
Node Affinity:   <none>
Message:
Source:
    Type:              CSI (a Container Storage Interface (CSI) volume source)
    Driver:            com.amazon.aws.csi.ebs
    VolumeHandle:      vol-0ea6117ddb69e78fb
    ReadOnly:          false
    VolumeAttributes:      storage.kubernetes.io/csiProvisionerIdentity=1539123546345-8081-com.amazon.aws.csi.ebs
Events:                <none>



md5-c393f812fcca227c5f23cbdfe14fb64f



kind: StorageClass
apiVersion: storage.k8s.io/v1                                                                                                                                                                                                                             metadata:
  name: late-sc
provisioner: com.amazon.aws.csi.ebs
volumeBindingMode: WaitForFirstConsumer



md5-72cecb7f9aec5f931cde75b7239ebbf3



apiVersion: v1                                                                                                                                                                                                                                            kind: PersistentVolumeClaim
metadata:
  name: claim1
spec:                                                                                                                                                                                                                                                       accessModes:
    - ReadWriteOnce
  storageClassName: late-sc
  resources:                                                                                                                                                                                                                                                  requests:
      storage: 4Gi

あなたが起こるず期埅したこず
PVCを削陀した埌、PVをEBSボリュヌムず䞀緒に削陀する必芁がありたす私の再利甚ポリシヌが削陀されおいるため

それを再珟する方法可胜な限り最小限か぀正確に 
これたでのずころ非決定論的

他に知っおおくべきこずはありたすか 

環境

  • Kubernetesバヌゞョン kubectl version クラむアントv1.12.0サヌバヌv1.12.1
  • クラりドプロバむダヌたたはハヌドりェア構成aws
  • OS䟋/ etc / os-releaseから
  • カヌネル䟋 uname -a 
  • ツヌルのむンストヌルクラスタヌはkopsを䜿甚しおセットアップされたす
  • その他
kinbug sistorage

最も参考になるコメント

次のアクションを実行するこずで、この問題を取り陀きたした。
Chandras-MacBook-Pro:kubernetes-kafka chandra$ kubectl get pv | grep "kafka/" pvc-5124cf7a-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-0 kafka-zookeeper 21h pvc-639023b2-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-1 kafka-zookeeper 21h pvc-7d88b184-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-2 kafka-zookeeper 21h pvc-9ea68541-e9dc-11e8-93a1-02551748eea0 100Gi RWO Delete Terminating kafka/data-kafka-0 kafka-broker 21h pvc-ae795177-e9dc-11e8-93a1-02551748eea0 100Gi RWO Delete Terminating kafka/data-kafka-1 kafka-broker 21h
次に、 pv個別に手動で線集しおから、次のようなfinalizersを削陀したした。
`` `ファむナラむザヌ

  • kubernetes.io / pv-protection```

完了するず、終了状態にあったPVはすべおなくなりたした!!!

党おのコメント59件

いく぀かの質問
1どうすればこの状況から抜け出すこずができたすか
2ボリュヌムがすでになくなっおいる堎合でも、ドラむバヌが成功を返した埌、PVを正垞に終了する必芁がありたすか

/ sigストレヌゞ

PVにはただアタッチメントからのファむナラむザヌがあるようです。 ボリュヌムがノヌドから正垞に切り離されたこずを確認できたすか

倖郚アタッチメントずADコントロヌラヌからログを取埗するずよい堎合がありたす

cc @jsafrane

どのバヌゞョンの倖郚アタッチメントを䜿甚しおいたすか

それはv0.3.0です。 そしお、他のすべおのサむドカヌもv0.3.0にありたす。 以前はv0.4.0を䜿甚しおいたしたが、この問題はv0.3.0でサむドカヌを再䜜成した埌に発生したす。

添付ログで説明を曎新

PVにはただアタッチメントからのファむナラむザヌがあるようです。 ボリュヌムがノヌドから正垞に切り離されたこずを確認できたすか

ボリュヌムは正垞に切り離されおいるはずです。 AWSから正垞に削陀されたためデタッチせずに削陀できるずは思わないでください。 たた、 lsblkを䜿甚しお、デバむスがなくなったこずをノヌドで確認したした。

アタッチが成功する前に、ボリュヌムに削陀のマヌクが付けられたようです。 たぶん、そのシナリオの凊理にはいく぀かのバグがありたす。

VolumeAttachmentオブゞェクトがただ衚瀺されおいたすか

VolumeAttachmentオブゞェクトがただ衚瀺されおいたすか

どうすればこれを確認できたすか

kubectl get volumeattachment

うん。 そのただそこに

>> kubectl get volumeattachment
NAME                                                                   CREATED AT
csi-3b15269e725f727786c5aec3b4da3f2eebc2477dec53d3480a3fe1dd01adea53   2018-10-10T22:30:09Z

ログを読み取るず、A / Dコントロヌラヌがボリュヌムを接続しようずし、倖郚アタッチメントから゚ラヌが発生したようです。 埌でVolumeAttachmentを削陀しなかったのはなぜですか ボリュヌムを䜿甚するポッドはただありたすか その堎合、PVの削陀をブロックしたす。

ボリュヌムを䜿甚するポッドはありたせん。 そしおPVCもなくなりたした。 A / Dコントロヌラヌログを芋぀けるにはどうすればよいですか

マスタヌノヌドのcontroller-manager.logにありたす。 ボリュヌム名を怜玢しおフィルタリングを詊みるこずができたす。

コントロヌラログは次のずおりです。

E1011 19:14:10.336074       1 daemon_controller.go:304] default/csi-node failed with : error storing status for daemon set &v1.DaemonSet{TypeMeta:v1.TypeMeta{Kind:"", APIVersion:""}, O
bjectMeta:v1.ObjectMeta{Name:"csi-node", GenerateName:"", Namespace:"default", SelfLink:"/apis/apps/v1/namespaces/default/daemonsets/csi-node", UID:"d4e56145-cd89-11e8-9e90-0abab70c948
0", ResourceVersion:"467814", Generation:1, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:63674882050, loc:(*time.Location)(0x5b9b560)}}, DeletionTimestamp:(*v1.Time)(nil), De
letionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string(nil), Annotations:map[string]string{"deprecated.daemonset.template.generation":"1"}, OwnerReferences:[]v1.OwnerReferenc
e(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, Spec:v1.DaemonSetSpec{Selector:(*v1.LabelSelector)(0xc4233ac360), Template:v1.PodTemplateSpec{O
bjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVersion:"", Generation:0, CreationTimestamp:v1.Time{Time:time.Time{wall:0x0, ext:0, loc:(*t
ime.Location)(nil)}}, DeletionTimestamp:(*v1.Time)(nil), DeletionGracePeriodSeconds:(*int64)(nil), Labels:map[string]string{"app":"csi-node"}, Annotations:map[string]string(nil), Owner
References:[]v1.OwnerReference(nil), Initializers:(*v1.Initializers)(nil), Finalizers:[]string(nil), ClusterName:""}, Spec:v1.PodSpec{Volumes:[]v1.Volume{v1.Volume{Name:"kubelet-dir",
VolumeSource:v1.VolumeSource{HostPath:(*v1.HostPathVolumeSource)(0xc4233ac380), EmptyDir:(*v1.EmptyDirVolumeSource)(nil), GCEPersistentDisk:(*v1.GCEPersistentDiskVolumeSource)(nil), AW
SElasticBlockStore:(*v1.AWSElasticBlockStoreVolumeSource)(nil), GitRepo:(*v1.GitRepoVolumeSource)(nil), Secret:(*v1.SecretVolumeSource)(nil), NFS:(*v1.NFSVolumeSource)(nil), ISCSI:(*v1
.ISCSIVolumeSource)(nil), Glusterfs:(*v1.GlusterfsVolumeSource)(nil), PersistentVolumeClaim:(*v1.PersistentVolumeClaimVolumeSource)(nil), RBD:(*v1.RBDVolumeSource)(nil), FlexVolume:(*v
1.FlexVolumeSource)(nil), Cinder:(*v1.CinderVolumeSource)(nil), CephFS:(*v1.CephFSVolumeSource)(nil), Flocker:(*v1.FlockerVolumeSource)(nil), DownwardAPI:(*v1.DownwardAPIVolumeSource)(
nil), FC:(*v1.FCVolumeSource)(nil), AzureFile:(*v1.AzureFileVolumeSource)(nil), ConfigMap:(*v1.ConfigMapVolumeSource)(nil), VsphereVolume:(*v1.VsphereVirtualDiskVolumeSource)(nil), Quobyte:(*v1.QuobyteVolumeSource)(nil), AzureDisk:(*v1.AzureDiskVolumeSource)(nil), PhotonPersistentDisk:(*v1.PhotonPersistentDiskVolumeSource)(nil), Projected:(*v1.ProjectedVolumeSource)(nil), PortworxVolume:(*v1.PortworxVolumeSource)(nil), ScaleIO:(*v1.ScaleIOVolumeSource)(nil), StorageOS:(*v1.StorageOSVolumeSource)(nil)}}, v1.Volume{Name:"plugin-dir", VolumeSource:v1.VolumeSource{HostPath:(*v1.HostPathVolumeSource)(0xc4233ac3a0), EmptyDir:(*v1.EmptyDirVolumeSource)(nil), GCEPersistentDisk:(*v1.GCEPersistentDiskVolumeSource)(nil), AWSElasticBlockStore:(*v1.AWSElasticBlockStoreVolumeSource)(nil), GitRepo:(*v1.GitRepoVolumeSource)(nil), Secret:(*v1.SecretVolumeSource)(nil), NFS:(*v1.NFSVolumeSource)(nil), ISCSI:(*v1.ISCSIVolumeSource)(nil), Glusterfs:(*v1.GlusterfsVolumeSource)(nil), PersistentVolumeClaim:(*v1.PersistentVolumeClaimVolumeSource)(nil), RBD:(*v1.RBDVolumeSource)(nil), FlexVolume:(*v1.FlexVolumeSource)(nil), Cinder:(*v1.CinderVolumeSource)(nil), CephFS:(*v1.CephFSVolumeSource)(nil), Flocker:(*v1.FlockerVolumeSource)(nil), DownwardAPI:(*v1.DownwardAPIVolumeSource)(nil), FC:(*v1.FCVolumeSource)(nil), AzureFile:(*v1.AzureFileVolumeSource)(nil), ConfigMap:(*v1.ConfigMapVolumeSource)(nil), VsphereVolume:(*v1.VsphereVirtualDiskVolumeSource)(nil), Quobyte:(*v1.QuobyteVolumeSource)(nil), AzureDisk:(*v1.AzureDiskVolumeSource)(nil), PhotonPersistentDisk:(*v1.PhotonPersistentDiskVolumeSource)(nil), Projected:(*v1.ProjectedVolumeSource)(nil), PortworxVolume:(*v1.PortworxVolumeSource)(nil), ScaleIO:(*v1.ScaleIOVolumeSource)(nil), StorageOS:(*v1.StorageOSVolumeSource)(nil)}}, v1.Volume{Name:"device-dir", VolumeSource:v1.VolumeSource{HostPath:(*v1.HostPathVolumeSource)(0xc4233ac3c0), EmptyDir:(*v1.EmptyDirVolumeSource)(nil), GCEPersistentDisk:(*v1.GCEPersistentDiskVolumeSource)(nil), AWSElasticBlockStore:(*v1.AWSElasticBlockStoreVolumeSource)(nil), GitRepo:(*v1.GitRepoVolumeSource)(nil), Secret:(*v1.SecretVolumeSource)(nil), NFS:(*v1.NFSVolumeSource)(nil), ISCSI:(*v1.ISCSIVolumeSource)(nil), Glusterfs:(*v1.GlusterfsVolumeSource)(nil), PersistentVolumeClaim:(*v1.PersistentVolumeClaimVolumeSource)(nil), RBD:(*v1.RBDVolumeSource)(nil), FlexVolume:(*v1.FlexVolumeSource)(nil), Cinder:(*v1.CinderVolumeSource)(nil), CephFS:(*v1.CephFSVolumeSource)(nil), Flocker:(*v1.FlockerVolumeSource)(nil), DownwardAPI:(*v1.DownwardAPIVolumeSource)(nil), FC:(*v1.FCVolumeSource)(nil), AzureFile:(*v1.AzureFileVolumeSource)(nil), ConfigMap:(*v1.ConfigMapVolumeSource)(nil), VsphereVolume:(*v1.VsphereVirtualDiskVolumeSource)(nil), Quobyte:(*v1.QuobyteVolumeSource)(nil), AzureDisk:(*v1.AzureDiskVolumeSource)(nil), PhotonPersistentDisk:(*v1.PhotonPersistentDiskVolumeSource)(nil), Projected:(*v1.ProjectedVolumeSource)(nil), PortworxVolume:(*v1.PortworxVolumeSource)(nil), ScaleIO:(*v1.ScaleIOVolumeSource)(nil), StorageOS:(*v1.StorageOSVolumeSource)(nil)}}}, InitContainers:[]v1.Container(nil), Containers:[]v1.Container{v1.Container{Name:"csi-driver-registrar", Image:"quay.io/k8scsi/driver-registrar:v0.3.0", Command:[]string(nil), Args:[]string{"--v=5", "--csi-address=$(ADDRESS)"}, WorkingDir:"", Ports:[]v1.ContainerPort(nil), EnvFrom:[]v1.EnvFromSource(nil), Env:[]v1.EnvVar{v1.EnvVar{Name:"ADDRESS", Value:"/csi/csi.sock", ValueFrom:(*v1.EnvVarSource)(nil)}, v1.EnvVar{Name:"KUBE_NODE_NAME", Value:"", ValueFrom:(*v1.EnvVarSource)(0xc4233ac400)}}, Resources:v1.ResourceRequirements{Limits:v1.ResourceList(nil), Requests:v1.ResourceList(nil)}, VolumeMounts:[]v1.VolumeMount{v1.VolumeMount{Name:"plugin-dir", ReadOnly:false, MountPath:"/csi", SubPath:"", MountPropagation:(*v1.MountPropagationMode)(nil)}}, VolumeDevices:[]v1.VolumeDevice(nil), LivenessProbe:(*v1.Probe)(nil), ReadinessProbe:(*v1.Probe)(nil), Lifecycle:(*v1.Lifecycle)(nil), TerminationMessagePath:"/dev/termination-log", TerminationMessagePolicy:"File", ImagePullPolicy:"Always", SecurityContext:(*v1.SecurityContext)(0xc422ccc050), Stdin:false, StdinOnce:false, TTY:false}, v1.Container{Name:"ebs-plugin", Image:"quay.io/bertinatto/ebs-csi-driver:testing", Command:[]string(nil), Args:[]string{"--endpoint=$(CSI_ENDPOINT)", "--logtostderr", "--v=5"}, WorkingDir:"", Ports:[]v1.ContainerPort(nil), EnvFrom:[]v1.EnvFromSource(nil), Env:[]v1.EnvVar{v1.EnvVar{Name:"CSI_ENDPOINT", Value:"unix:/csi/csi.sock", ValueFrom:(*v1.EnvVarSource)(nil)}, v1.EnvVar{Name:"AWS_ACCESS_KEY_ID", Value:"", ValueFrom:(*v1.EnvVarSource)(0xc4233ac460)}, v1.EnvVar{Name:"AWS_SECRET_ACCESS_KEY", Value:"", ValueFrom:(*v1.EnvVarSource)(0xc4233ac480)}}, Resources:v1.ResourceRequirements{Limits:v1.ResourceList(nil), Requests:v1.ResourceList(nil)}, VolumeMounts:[]v1.VolumeMount{v1.VolumeMount{Name:"kubelet-dir", ReadOnly:false, MountPath:"/var/lib/kubelet", SubPath:"", MountPropagation:(*v1.MountPropagationMode)(0xc422c717e0)}, v1.VolumeMount{Name:"plugin-dir", ReadOnly:false, MountPath:"/csi", SubPath:"", MountPropagation:(*v1.MountPropagationMode)(nil)}, v1.VolumeMount{Name:"device-dir", ReadOnly:false, MountPath:"/dev", SubPath:"", MountPropagation:(*v1.MountPropagationMode)(nil)}}, VolumeDevices:[]v1.VolumeDevice(nil), LivenessProbe:(*v1.Probe)(nil), ReadinessProbe:(*v1.Probe)(nil), Lifecycle:(*v1.Lifecycle)(nil), TerminationMessagePath:"/dev/termination-log", TerminationMessagePolicy:"File", ImagePullPolicy:"Always", SecurityContext:(*v1.SecurityContext)(0xc422ccc0f0), Stdin:false, StdinOnce:false, TTY:false}}, RestartPolicy:"Always", TerminationGracePeriodSeconds:(*int64)(0xc422d68b30), ActiveDeadlineSeconds:(*int64)(nil), DNSPolicy:"ClusterFirst", NodeSelector:map[string]string(nil), ServiceAccountName:"csi-node-sa", DeprecatedServiceAccount:"csi-node-sa", AutomountServiceAccountToken:(*bool)(nil), NodeName:"", HostNetwork:true, HostPID:false, HostIPC:false, ShareProcessNamespace:(*bool)(nil), SecurityContext:(*v1.PodSecurityContext)(0xc42325ec60), ImagePullSecrets:[]v1.LocalObjectReference(nil), Hostname:"", Subdomain:"", Affinity:(*v1.Affinity)(nil), SchedulerName:"default-scheduler", Tolerations:[]v1.Toleration(nil), HostAliases:[]v1.HostAlias(nil), PriorityClassName:"", Priority:(*int32)(nil), DNSConfig:(*v1.PodDNSConfig)(nil), ReadinessGates:[]v1.PodReadinessGate(nil), RuntimeClassName:(*string)(nil)}}, UpdateStrategy:v1.DaemonSetUpdateStrategy{Type:"RollingUpdate", RollingUpdate:(*v1.RollingUpdateDaemonSet)(0xc424139a40)}, MinReadySeconds:0, RevisionHistoryLimit:(*int32)(0xc422d68b38)}, Status:v1.DaemonSetStatus{CurrentNumberScheduled:2, NumberMisscheduled:0, DesiredNumberScheduled:3, NumberReady:0, ObservedGeneration:1, UpdatedNumberScheduled:2, NumberAvailable:0, NumberUnavailable:3, CollisionCount:(*int32)(nil), Conditions:[]v1.DaemonSetCondition(nil)}}: Operation cannot be fulfilled on daemonsets.apps "csi-node": the object has been modified; please apply your changes to the latest version and try again
I1011 19:15:14.740106       1 pv_controller.go:601] volume "pvc-069128c6ccdc11e8" is released and reclaim policy "Delete" will be executed
I1011 19:15:14.756316       1 pv_controller.go:824] volume "pvc-069128c6ccdc11e8" entered phase "Released"
I1011 19:15:14.759557       1 pv_controller.go:1294] isVolumeReleased[pvc-069128c6ccdc11e8]: volume is released
I1011 19:15:14.939461       1 pv_controller.go:1294] isVolumeReleased[pvc-069128c6ccdc11e8]: volume is released
I1011 19:15:14.954828       1 pv_controller.go:1294] isVolumeReleased[pvc-069128c6ccdc11e8]: volume is released

最埌の行は無限に繰り返されたした。

この問題はさらに2回発生したした。 すべおv1.12で

次のアクションを実行するこずで、この問題を取り陀きたした。
Chandras-MacBook-Pro:kubernetes-kafka chandra$ kubectl get pv | grep "kafka/" pvc-5124cf7a-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-0 kafka-zookeeper 21h pvc-639023b2-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-1 kafka-zookeeper 21h pvc-7d88b184-e9dc-11e8-93a1-02551748eea0 1Gi RWO Retain Bound kafka/data-pzoo-2 kafka-zookeeper 21h pvc-9ea68541-e9dc-11e8-93a1-02551748eea0 100Gi RWO Delete Terminating kafka/data-kafka-0 kafka-broker 21h pvc-ae795177-e9dc-11e8-93a1-02551748eea0 100Gi RWO Delete Terminating kafka/data-kafka-1 kafka-broker 21h
次に、 pv個別に手動で線集しおから、次のようなfinalizersを削陀したした。
`` `ファむナラむザヌ

  • kubernetes.io / pv-protection```

完了するず、終了状態にあったPVはすべおなくなりたした!!!

@ chandraprakash1392の回答は、 pvcがTerminatingステヌタスでもスタックしおいる堎合でも有効です。
pvcオブゞェクトを線集しお、 finalizersオブゞェクトを削陀するだけです。

ファむナラむザヌの削陀は単なる回避策です。 @bertinatto @leakingtapanこの問題を再珟し、詳现なCSIドラむバヌずコントロヌラヌマネヌゞャヌのログを保存するのを手䌝っおもらえたすか

ファむナラむザヌの削陀䟋

kubectl patch pvc db-pv-claim -p '{"metadata":{"finalizers":null}}'
kubectl patch pod db-74755f6698-8td72 -p '{"metadata":{"finalizers":null}}'

その埌、それらを削陀するこずができたす

!!! 重芁!!!
https://github.com/kubernetes/kubernetes/issues/78106もお読み
パッチコマンドは回避策であり、䜕かが正しく機胜しおいたせん。
それらのボリュヌムはただ接続されおいたすkubectl get volumeattachments

ファむナラむザヌの削陀は単なる回避策です。 @bertinatto @leakingtapanこの問題を再珟し、詳现なCSIドラむバヌずコントロヌラヌマネヌゞャヌのログを保存するのを手䌝っおもらえたすか

ログメッセヌゞは@leakingtapanによっお報告されたものずは少し異なるように芋えたすが、私は数回の詊行の埌にそれを再珟するこずができたした

プラグむンプロビゞョナヌ https 
プラグむンアタッチメント https //gist.github.com/bertinatto/25ebd591ffc88d034f5b4419c0bfa040
コントロヌラヌマネヌゞャヌ https 

ここでも同じですが、ファむナラむザヌを削陀する必芁がありたした。これがpvの説明です。

[root@ip-172-31-44-98 stateful]# k describe pv pvc-1c6625e2-1157-11e9-a8fc-0275b365cbce Name: pvc-1c6625e2-1157-11e9-a8fc-0275b365cbce Labels: failure-domain.beta.kubernetes.io/region=us-east-1 failure-domain.beta.kubernetes.io/zone=us-east-1a Annotations: kubernetes.io/createdby: aws-ebs-dynamic-provisioner pv.kubernetes.io/bound-by-controller: yes pv.kubernetes.io/provisioned-by: kubernetes.io/aws-ebs Finalizers: [kubernetes.io/pv-protection] StorageClass: default Status: Terminating (lasts <invalid>) Claim: monitoring/storage-es-data-0 Reclaim Policy: Delete Access Modes: RWO Capacity: 12Gi Node Affinity: <none> Message: Source: Type: AWSElasticBlockStore (a Persistent Disk resource in AWS) VolumeID: aws://us-east-1a/vol-0a20e4f50b60df855 FSType: ext4 Partition: 0 ReadOnly: false Events: <none>

ログを読み取るず、A / Dコントロヌラヌがボリュヌムを接続しようずし、倖郚アタッチメントから゚ラヌが発生したようです。 埌でVolumeAttachmentを削陀しなかったのはなぜですか ボリュヌムを䜿甚するポッドはただありたすか その堎合、PVの削陀をブロックしたす。

@jsafraneポッドは1぀しかなく、ポッドが削陀された埌にPVCを削陀したす

問題を䞀貫しお再珟するこずができたす。 これは、AttachVolumeが倱敗したずきに発生したす。

再珟するために、3ノヌドのk8sクラスタヌを䜜成したした。 たた、EBSボリュヌムを手動で䜜成した埌、静的にプロビゞョニングされたPVを䜜成したす。 仕様を展開したす。

apiVersion: v1
kind: PersistentVolume
metadata:
  name: pv-test2
  annotations:
    pv.kubernetes.io/provisioned-by: ebs.csi.aws.com
spec:
  accessModes:
    - ReadWriteOnce
  capacity:
    storage: 1Gi
  csi:
    driver: ebs.csi.aws.com
    fsType: ext3
    volumeHandle: vol-0e850f49c7f6aeff0
  persistentVolumeReclaimPolicy: Delete
  volumeMode: Filesystem
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: claim1
spec:
  accessModes:
    - ReadWriteOnce
  storageClassName: ""
  resources:
    requests:
      storage: 1Gi
---
apiVersion: v1
kind: Pod
metadata:
  name: app
spec:
  containers:
  - name: app
    image: centos:7
    command: ["/bin/sh"]
    args: ["-c", "while true; do echo $(date -u) >> /data/out.txt; sleep 5; done"]
    volumeMounts:
    - name: persistent-storage
      mountPath: /data
  volumes:
  - name: persistent-storage
    persistentVolumeClaim:
      claimName: claim1

ゟヌンの䞍䞀臎が原因でポッドの䜜成に倱敗した堎合は、ポッドを削陀しおからPVCを削陀したす。 そしお、PVは終了状態でスタックしたす。 これをv1.13で再珟したした

VolumeAttachmentオブゞェクト

apiVersion: v1
items:
- apiVersion: storage.k8s.io/v1
  kind: VolumeAttachment
  metadata:
    annotations:
      csi.alpha.kubernetes.io/node-id: i-056c2441224e9988f
    creationTimestamp: 2019-01-07T20:41:36Z
    finalizers:
    - external-attacher/ebs-csi-aws-com
    name: csi-92e3ad4dcfc45346bd1efae253530bb83f34c7cf0ecb3e58da0cf97645de2e54
    resourceVersion: "390447"
    selfLink: /apis/storage.k8s.io/v1/volumeattachments/csi-92e3ad4dcfc45346bd1efae253530bb83f34c7cf0ecb3e58da0cf97645de2e54
    uid: a0632702-12bc-11e9-844f-0a6817dc5d60
  spec:
    attacher: ebs.csi.aws.com
    nodeName: ip-172-20-106-186.ec2.internal
    source:
      persistentVolumeName: pv-test2
  status:
    attachError:
      message: PersistentVolume "pv-test2" is marked for deletion
      time: 2019-01-07T21:17:27Z
    attached: false
kind: List
metadata:
  resourceVersion: ""
  selfLink: ""

csi_attacher.goがボリュヌムのアタッチに倱敗した堎合、ボリュヌムアタッチメントオブゞェクトが残っおいるず思いたす。ボリュヌムアタッチメントオブゞェクトは削陀されたせん。

waitForVolumeAttachmentが倱敗したずきに、オブゞェクトを削陀できたす。 あなたはどのように思いたすか 修正を送信させおいただきたす。

/ cc @jsafrane @ msau42

存圚しないボリュヌムIDを䜿甚しお問題を再珟したした「ボリュヌム 'vol-01213456789'が存圚したせん」で接続が倱敗したす。

waitForVolumeAttachmentが倱敗したずきに、オブゞェクトを削陀できたす。

これは非垞に泚意が必芁です。 接続の倱敗には次の2皮類がありたす。

  1. 「氞続的」、ボリュヌムを接続できたせんEBSボリュヌムが存圚しない、ゟヌンが間違っおいる、IAMに十分な暩限がない、...
  2. 「䞀時的」、ボリュヌムは近い将来接続される可胜性がありたすタむムアりト、ボリュヌムは他のノヌドから切り離されおいたす

waitForVolumeAttachment障害が発生するず、A / Dコントロヌラヌはそれがどのような障害であったかを認識したせん。 倖郚アタッチメントは、最終的に成功するこずを期埅しお、ボリュヌムを䞊列にアタッチしようずしたす。

特に、アタッチメントがタむムアりトした堎合ボリュヌムが長時間「アタッチ䞭」だった堎合、 waitForAttachmentStateが倱敗したずきに、AWSCSIドラむバヌがボリュヌムをデタッチしないこずがわかりたす。

https://sourcegraph.com/github.com/kubernetes-sigs/aws-ebs-csi-driver@ff1fe8e1399784657c10d67649146429dcb93515/-/blob/pkg/cloud/cloud.go#L300

぀たり、AWSは、CSIドラむバヌがタむムアりトを返したにもかかわらず、ボリュヌムをアタッチしようずしたす。 次のControllerPublishは、前に残った堎所からwaitForAttachmentStateを再開する必芁がありたす。 この時点で、A / DコントロヌラヌはVolumeAttachmentを削陀し

いく぀かのオプションがありたす。

1 A / Dコントロヌラヌは、ボリュヌムが接続されおいるこずを蚘憶しおいたす。ボリュヌムは接続されおおらずポッドを開始できたせん、切り離されおいたせんボリュヌムがDSWから消えたずきに、Detachを呌び出す必芁がありたす。 これは、特にコントロヌラヌの再起動埌にこの状態を再構築する堎合、非垞に耇雑になる可胜性がありたす。

  1. CSIボリュヌムプラグむンはwaitForVolumeAttachmentが倱敗したずきにVolumeAttachmentを削陀できたすが、ControllerPublish / Unpublishは非垞に高速でありデフォルトでは15秒、珟圚実装されおいるように「再開」する必芁はありたせん。 この堎合、15秒のタむムアりトを増やすず圹立぀堎合がありたすただし、CSIボリュヌムプラグむンにハヌドコヌドされおおり、構成できたせん。

cc @gnufi​​ed @bertinatto

@ jingxu97 、

@jsafraneはこれに関連しおいるようですhttps://github.com/kubernetes/kubernetes/pull/71276

@ jingxu97確かに、71276は圹に立ちたした、どうもありがずう。

90日間操䜜がないず、問題は叀くなりたす。
/remove-lifecycle staleしお、問題を新芏ずしおマヌクしたす。
叀い問題は、さらに30日間操䜜がないず腐敗し、最終的には閉じたす。

この問題を今すぐ解決できる堎合は、 /close 。

SIG-テスト、kubernetes /テスト・むンフラおよび/たたはぞのフィヌドバックを送信fejta 。
/ lifecycle stale

/ remove-lifecyclestale

この問題が発生し、オブゞェクトをゎミ箱に移動するには、kubectl edit pv | pvcを䜿甚し、ファむナラむザヌを削陀する必芁がありたした。

@pniederlagはこれが再珟可胜ですか もしそうなら、PVCの詳现を提䟛できたすか そのPVCを䜿甚しおいるすべおのポッドも削陀されたしたか

@pnegahdarは、䜿甚しおいるkubernetesのバヌゞョンを確認したいだけです

@pniederlagはこれが再珟可胜ですか もしそうなら、PVCの詳现を提䟛できたすか そのPVCを䜿甚しおいるすべおのポッドも削陀されたしたか

@ msau42残念ながら、これを簡単に再珟するシナリオはありたせん。 私はただkubernetesに慣れおおらず、ポッドを䜿甚しおボリュヌムを凊理する方法を芋぀けおおり、ボリュヌム玺碧のディスクに裏打ちされおいるを接続しおポッドをスタックさせる際に倚くの問題に遭遇したす。 したがっお、私のナヌスケヌスはおそらく正気ではありたせんでしたterraformずkubernetesダッシュボヌドを䞊行しお䜿甚。

ファむナラむザヌの削陀䟋

kubectl patch pvc db-pv-claim -p '{"metadata":{"finalizers":null}}'
kubectl patch pod db-74755f6698-8td72 -p '{"metadata":{"finalizers":null}}'

その埌、それらを削陀するこずができたす

ありがずう、それは私のために働く

゚ラヌを芋るず、これは73098に関連しおいるず思われたす。 名前空間の削陀䞭に、残りのリ゜ヌスのdeleteTimestampが継続的に曎新されおいるように芋え、コントロヌラヌがファむナラむザヌを削陀しようずするず競合゚ラヌが発生したす。 この問題の修正は1.14以降にあるようです

90日間操䜜がないず、問題は叀くなりたす。
/remove-lifecycle staleしお、問題を新芏ずしおマヌクしたす。
叀い問題は、さらに30日間操䜜がないず腐敗し、最終的には閉じたす。

この問題を今すぐ解決できる堎合は、 /close 。

SIG-テスト、kubernetes /テスト・むンフラおよび/たたはぞのフィヌドバックを送信fejta 。
/ lifecycle stale

/ remove-lifecyclestale

v1.14.6での䜓隓。 私はLonghornも䜿甚しおいるので、最初にここで問題を報告したした https  removingステヌタスwaiting on kubernetes.io/pv-protectionスタックしたす。

"name": "pvc-dadb69dd-04a2-11ea-9e5f-005056a36714",
"persistentVolumeReclaimPolicy": "Delete",
"removed": "2019-11-12T16:46:04Z",
"removedTS": 1573577164000,
"state": "removing",
"status": {
"phase": "Bound",
"type": "/v3/cluster/schemas/persistentVolumeStatus"
},
"storageClassId": "longhorn-new",
"transitioning": "error",
"transitioningMessage": "waiting on kubernetes.io/pv-protection",
"type": "persistentVolume",
"uuid": "dc89634d-04a2-11ea-98c4-005056a34210",
"volumeMode": "Filesystem"
}

次のアクションを実行するこずで、この問題を取り陀きたした。

pvc-5124cf7a-e9dc-11e8-93a1-02551748eea0   1Gi        RWO            Retain           Bound         kafka/data-pzoo-0                                         kafka-zookeeper             21h
pvc-639023b2-e9dc-11e8-93a1-02551748eea0   1Gi        RWO            Retain           Bound         kafka/data-pzoo-1                                         kafka-zookeeper             21h
pvc-7d88b184-e9dc-11e8-93a1-02551748eea0   1Gi        RWO            Retain           Bound         kafka/data-pzoo-2                                         kafka-zookeeper             21h
pvc-9ea68541-e9dc-11e8-93a1-02551748eea0   100Gi      RWO            Delete           Terminating   kafka/data-kafka-0                                        kafka-broker                21h
pvc-ae795177-e9dc-11e8-93a1-02551748eea0   100Gi      RWO            Delete           Terminating   kafka/data-kafka-1                                        kafka-broker                21h

次に、 pv個別に手動で線集しおから、次のようなfinalizersを削陀したした。

  - kubernetes.io/pv-protection```

Once done, the PVs those were in Terminating condition were all gone!!!

以䞋のコマンドを䜿甚しおpvを線集しおから、定矩内のファむナラむザヌオブゞェクトを削陀したす
kubectl edit pv pv-name-id

これたでのずころ、実際の解決策はありたすか 2019幎の最初の数か月にこの問題が発生したこずを芚えおいたすが、それでもファむナラむザヌのパッチ適甚が唯䞀の回避策であるず考えおいたす。 残念ながら、この「バグ」により、特定のものを自動化するこずができなくなりたす。

誰かがこれに぀いお蚺断を持っおいたすか 䜕か掞察はありたすか 7か月埌、このこずはただ進行䞭であり、7か月埌にはそれ以䞊の情報が埗られたせんでした。

修正されたさたざたな根本原因がありたす。

远加の問題をデバッグするには、再珟手順、pv保護コントロヌラヌが実行しおいるこずを確認するためのkube-controller-managerからのより詳现なログ、さらにデバッグするための他のコントロヌラヌ/ドラむバヌからのより倚くのログが必芁です。

90日間操䜜がないず、問題は叀くなりたす。
/remove-lifecycle staleしお、問題を新芏ずしおマヌクしたす。
叀い問題は、さらに30日間操䜜がないず腐敗し、最終的には閉じたす。

この問題を今すぐ解決できる堎合は、 /close 。

SIG-テスト、kubernetes /テスト・むンフラおよび/たたはぞのフィヌドバックを送信fejta 。
/ lifecycle stale

/ remove-lifecyclestale

1.17.5でもただ起こっおいたす

kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager E0421 23:53:59.806754       1 aws.go:2567] Error describing volume "vol-0a2f0e84304490c43": "InvalidVolume.NotFound: The volume 'vol-0a2f0e84304490c43' does not exist.\n\tstatus code: 400, request id: 58776735-a463-40f3-ae7b-95d602e2a466"
kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager E0421 23:53:59.806791       1 aws.go:2299] InvalidVolume.NotFound: The volume 'vol-0a2f0e84304490c43' does not exist.
kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager    status code: 400, request id: 58776735-a463-40f3-ae7b-95d602e2a466
kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager I0421 23:53:59.806802       1 aws.go:1965] Releasing in-process attachment entry: bd -> volume vol-0a2f0e84304490c43
kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager E0421 23:53:59.806809       1 attacher.go:86] Error attaching volume "aws://us-west-2a/vol-0a2f0e84304490c43" to node "ip-172-16-112-89.us-west-2.compute.internal": InvalidVolume.NotFound: The volume 'vol-0a2f0e84304490c43' does not exist.
kube-controller-manager-ip-172-16-113-117.us-west-2.compute.internal kube-controller-manager    status code: 400, request id: 58776735-a463-40f3-ae7b-95d602e2a466

私もこれに芋舞われたした。 PVにはファむナラむザヌ「foregroundDeletion」がありたした。 PVを線集し、ファむナラむザヌを削陀するず、PVが終了したした。

最終的に、手動線集でこれらのファむナラむザヌをいじるのをやめたすか

珟圚PVを䜿甚しおいるポッドたたはゞョブがある堎合、それらを削陀するず問題が解決するこずがわかりたした

同じ問題で、PVを削陀するには、 - kubernetes.io/pv-protectionを手動で削陀する必芁がありたした。 これは、k8s1.17.9のAKSで発生したした

同じ問題が発生したした。 ebsをawsから手動で削陀しおから、pvを削陀しようずしたしたが、終了ステヌタスのたたになりたした。

pvc-60fbc6ab-8732-4d1e-ae32-b42295553fa1 95Gi RWO Delete Terminating ray-prod/data-newcrate-1 gp2 5d4h

ほが同じ問題が発生したした。 Centos7のKubernetes1.19.0を䜿甚しおおり、NFS経由でTerraMasterNAS共有をマりントしおいたす。 ヘルムの取り付けに備えお、これら2皮類のアむテムの䜜成をテストしおいたずきに、PVずPVCをすべお取り倖したずころです。 私がそれらを取り陀こうずしたずき、圌らはぶら䞋がった。 たた、ファむナラむザヌを削陀するために手動でpvを線集する必芁がありandrei-dascaluずしおkubernetes.io/pv-protectionも、最終的に削陀されたした。

ここで同じ問題

Client Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.2", GitCommit:"52c56ce7a8272c798dbc29846288d7cd9fbae032", GitTreeState:"clean", BuildDate:"2020-04-16T11:56:40Z", GoVersion:"go1.13.9", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6", GitCommit:"dff82dc0de47299ab66c83c626e08b245ab19037", GitTreeState:"clean", BuildDate:"2020-07-15T16:51:04Z", GoVersion:"go1.13.9", Compiler:"gc", Platform:"linux/amd64"}

storageClass: longhorn

それを䜿甚しおポッドを削陀するこずにより、PVCおよびPVが「終了」状態でスタックする問題を解決したした。

いいえ、これが私のPVに発生するず、ポッドは存圚しなくなりたす。

On Friday, September 25, 2020, 04:26:04 AM CDT, lsambolino <[email protected]> wrote:

それを䜿甚しおポッドを削陀するこずにより、PVCおよびPVが「終了」状態でスタックする問題を解決したした。

—
あなたがコメントしたのであなたはこれを受け取っおいたす。
このメヌルに盎接返信するか、GitHubで衚瀺するか、登録を解陀しおください。

耇数のPVCが終了ステヌタスでスタックしおいたした。
kubectl describe pvcnamepodをアタッチするため
kubectl patch pvc pvcname -p '{"metadata"{"finalizers"null}}'
kubectl patch pod podname -p '{"metadata"{"finalizers"null}}'
これは私のK8Sクラスタヌで機胜したした

これらのコマンドを投皿しお、PVCを削陀しおいただきありがずうございたす

@wolfewicz @DMXGuruポッドが削陀された堎合、pvcは終了状態でスタックしないはずです。 ナヌザヌはファむナラむザヌを手動で削陀する必芁はありたせん。
トリアヌゞを支揎できるように、ケヌスを再珟しおここに詳现を蚘入しおいただけたすか

どのように、どのような詳现が必芁ですか この動䜜を瀺すkubectlコマンドず出力、そしおkubectldescribeずkubectlget -o yaml for the result PV

私のiPhoneから送信された

2020幎10月8日1430、JingXunotifications @ github.comは次のように曞いおいたす。


@wolfewicz @DMXGuruポッドが削陀された堎合、pvcは終了状態でスタックしないはずです。 ナヌザヌはファむナラむザヌを手動で削陀する必芁はありたせん。
トリアヌゞを支揎できるように、ケヌスを再珟しおここに詳现を蚘入しおいただけたすか

—
あなたが蚀及されたのであなたはこれを受け取っおいたす。
このメヌルに盎接返信するか、GitHubで衚瀺するか、登録を解陀しおください。

@DMXGuruで最初に確認したいのは、実行䞭のポッドがなく、PVC / PVの終了䞭にVolumeSnapshotsが取埗されないこずです。

kubectldescribeポッド| grep ClaimName
kubectlはvolumesnapshotを説明したす| greppersistentVolumeClaimName

次に、ポッドたたはPVCの削陀をどのような順序で実行したしたか。 ありがずう

このペヌゞは圹に立ちたしたか
0 / 5 - 0 評䟡