Moby: ドラむバdevicemapperはルヌトファむルシステムの削陀に倱敗したした。 デバむスがビゞヌです

䜜成日 2016幎10月14日  Â·  153コメント  Â·  ゜ヌス: moby/moby

説明
コンテナを削陀できたせん。dockerはDriver devicemapper failed to remove root filesystem. Device is busy報告したす。 これにより、コンテナはDead状態のたたになりたす。

問題を再珟する手順

  1. docker rm container_id

受け取った結果を説明しおください。
゚ラヌメッセヌゞが衚瀺されたす Error response from daemon: Driver devicemapper failed to remove root filesystem ce2ea989895b7e073b9c3103a7312f32e70b5ad01d808b42f16655ffcb06c535: Device is Busy

期埅した結果を説明しおください。
コンテナを削陀する必芁がありたす。

重芁ず思われる远加情報たずえば、問題が発生するのはたたにしかありたせん
これは、1.11.2から1.12.2ぞのアップグレヌド埌に発生し始め、時折発生したす削陀の10

docker version出力

Client:
 Version:      1.12.2
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   bb80604
 Built:
 OS/Arch:      linux/amd64

Server:
 Version:      1.12.2
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   bb80604
 Built:
 OS/Arch:      linux/amd64

docker info出力

Containers: 83
 Running: 72
 Paused: 0
 Stopped: 11
Images: 49
Server Version: 1.12.2
Storage Driver: devicemapper
 Pool Name: data-docker_thin
 Pool Blocksize: 65.54 kB
 Base Device Size: 107.4 GB
 Backing Filesystem: ext4
 Data file:
 Metadata file:
 Data Space Used: 33.66 GB
 Data Space Total: 86.72 GB
 Data Space Available: 53.06 GB
 Metadata Space Used: 37.3 MB
 Metadata Space Total: 268.4 MB
 Metadata Space Available: 231.1 MB
 Thin Pool Minimum Free Space: 8.672 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Library Version: 1.02.107-RHEL7 (2016-06-09)
Logging Driver: journald
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: bridge null overlay host
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 3.10.0-327.10.1.el7.x86_64
Operating System: CentOS Linux 7 (Core)
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 7.305 GiB
Name: us-2.c.evennode-1234.internal
ID: HVU4:BVZ3:QYUQ:IJ6F:Q2FP:Z4T3:MBKH:I4KC:XFIF:W5DV:4HZW:45NJ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://index.docker.io/v1/
WARNING: bridge-nf-call-iptables is disabled
WARNING: bridge-nf-call-ip6tables is disabled
Insecure Registries:
 127.0.0.0/8

远加の環境の詳现AWS、VirtualBox、物理など
サヌバヌを実行するすべおの環境-AWS、gcloud、physicalなど。

arestoragdevicemapper statuneeds-attention versio1.12

最も参考になるコメント

ちょうど同じ問題がありたした

  • dockerDockerバヌゞョン17.03.1-ce、ビルドc6d412e
  • osRed Hat Enterprise Linux Serverリリヌス7.3Maipo
  • カヌネル3.10.0-514.6.1.el7.x86_64
  • ntpd4.2.6p5

systemctl restart ntpdするず、問題が即座に修正されたした。

党おのコメント153件

これはどのコンテナでも発生しおいたすか コンテナヌで䜕が実行されおおり、コンテナヌを開始するためにどのオプションを䜿甚したすか たずえば、バむンドマりントされたディレクトリを䜿甚しおいたすか、コンテナで远加のプロセスを開始するためにdocker execを䜿甚しおいたすか

すべおのコンテナをほが同じ方法で実行し、いずれかのコンテナでランダムに発生したす。
docker execは䜿甚せず、ディレクトリをバむンドマりントしたせん。
デッドコンテナの1぀の蚭定は次のずおりです。

[
    {
        "Id": "ce2ea989895b7e073b9c3103a7312f32e70b5ad01d808b42f16655ffcb06c535",
        "Created": "2016-10-13T09:14:52.069916456Z",
        "Path": "/run.sh",
        "Args": [],
        "State": {
            "Status": "dead",
            "Running": false,
            "Paused": false,
            "Restarting": false,
            "OOMKilled": false,
            "Dead": true,
            "Pid": 0,
            "ExitCode": 143,
            "Error": "",
            "StartedAt": "2016-10-13T18:05:50.839079884Z",
            "FinishedAt": "2016-10-14T01:49:22.133922284Z"
        },
        "Image": "sha256:df8....4f4",
        "ResolvConfPath": "/var/lib/docker/containers/ce2ea989895b7e073b9c3103a7312f32e70b5ad01d808b42f16655ffcb06c535/resolv.conf",
        "HostnamePath": "/var/lib/docker/containers/ce2ea989895b7e073b9c3103a7312f32e70b5ad01d808b42f16655ffcb06c535/hostname",
        "HostsPath": "/var/lib/docker/containers/ce2ea989895b7e073b9c3103a7312f32e70b5ad01d808b42f16655ffcb06c535/hosts",
        "LogPath": "",
        "Name": "/d9a....43",
        "RestartCount": 0,
        "Driver": "devicemapper",
        "MountLabel": "",
        "ProcessLabel": "",
        "AppArmorProfile": "",
        "ExecIDs": null,
        "HostConfig": {
            "Binds": [],
            "ContainerIDFile": "",
            "LogConfig": {
                "Type": "fluentd",
                "Config": {
                    "fluentd-address": "127.0.0.1:24224",
                    "fluentd-async-connect": "true",
                    "labels": "app_id",
                    "tag": "docker.{{if (.ExtraAttributes nil).app_id}}{{(.ExtraAttributes nil).app_id}}{{else}}{{.Name}}{{end}}"
                }
            },
            "NetworkMode": "default",
            "PortBindings": {
                "3000/tcp": [
                    {
                        "HostIp": "127.0.0.2",
                        "HostPort": ""
                    }
                ]
            },
            "RestartPolicy": {
                "Name": "always",
                "MaximumRetryCount": 0
            },
            "AutoRemove": false,
            "VolumeDriver": "",
            "VolumesFrom": null,
            "CapAdd": null,
            "CapDrop": null,
            "Dns": [],
            "DnsOptions": [],
            "DnsSearch": [],
            "ExtraHosts": [
                "mongodb:10.240.0.2"
            ],
            "GroupAdd": null,
            "IpcMode": "",
            "Cgroup": "",
            "Links": null,
            "OomScoreAdj": 0,
            "PidMode": "",
            "Privileged": false,
            "PublishAllPorts": false,
            "ReadonlyRootfs": false,
            "SecurityOpt": null,
            "UTSMode": "",
            "UsernsMode": "",
            "ShmSize": 67108864,
            "Runtime": "runc",
            "ConsoleSize": [
                0,
                0
            ],
            "Isolation": "",
            "CpuShares": 0,
            "Memory": 0,
            "CgroupParent": "mygroup/d9...43",
            "BlkioWeight": 0,
            "BlkioWeightDevice": null,
            "BlkioDeviceReadBps": null,
            "BlkioDeviceWriteBps": null,
            "BlkioDeviceReadIOps": null,
            "BlkioDeviceWriteIOps": null,
            "CpuPeriod": 0,
            "CpuQuota": 0,
            "CpusetCpus": "",
            "CpusetMems": "",
            "Devices": null,
            "DiskQuota": 0,
            "KernelMemory": 0,
            "MemoryReservation": 0,
            "MemorySwap": 0,
            "MemorySwappiness": -1,
            "OomKillDisable": false,
            "PidsLimit": 0,
            "Ulimits": null,
            "CpuCount": 0,
            "CpuPercent": 0,
            "IOMaximumIOps": 0,
            "IOMaximumBandwidth": 0
        },
        "GraphDriver": {
            "Name": "devicemapper",
            "Data": {
                "DeviceId": "29459",
                "DeviceName": "docker-8:1-34634049-8e884a263c75cfb042ac02136461c8e8258cf693f0e4992991d5803e951b3dbb",
                "DeviceSize": "107374182400"
            }
        },
        "Mounts": [],
        "Config": {
            "Hostname": "ce2ea989895b",
            "Domainname": "",
            "User": "app",
            "AttachStdin": false,
            "AttachStdout": false,
            "AttachStderr": false,
            "ExposedPorts": {
                "3000/tcp": {}
            },
            "Tty": false,
            "OpenStdin": false,
            "StdinOnce": false,
            "Env": [
                "PORT=3000",
                "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
            ],
            "Cmd": [
                "/run.sh"
            ],
            "Image": "eu.gcr.io/reg/d9...43:latest",
            "Volumes": null,
            "WorkingDir": "/data/app",
            "Entrypoint": null,
            "OnBuild": null,
            "Labels": {
                "app_id": "d9...43"
            }
        },
        "NetworkSettings": {
            "Bridge": "",
            "SandboxID": "65632062399b8f9f011fdebcd044432c45f068b74d24c48818912a21e8036c98",
            "HairpinMode": false,
            "LinkLocalIPv6Address": "",
            "LinkLocalIPv6PrefixLen": 0,
            "Ports": null,
            "SandboxKey": "/var/run/docker/netns/65632062399b",
            "SecondaryIPAddresses": null,
            "SecondaryIPv6Addresses": null,
            "EndpointID": "",
            "Gateway": "",
            "GlobalIPv6Address": "",
            "GlobalIPv6PrefixLen": 0,
            "IPAddress": "",
            "IPPrefixLen": 0,
            "IPv6Gateway": "",
            "MacAddress": "",
            "Networks": {
                "bridge": {
                    "IPAMConfig": null,
                    "Links": null,
                    "Aliases": null,
                    "NetworkID": "59d8aa11b92aaa8ad9da7f010e8689c158cad7d80ec4b9e4e4688778c49149e0",
                    "EndpointID": "",
                    "Gateway": "",
                    "IPAddress": "",
                    "IPPrefixLen": 0,
                    "IPv6Gateway": "",
                    "GlobalIPv6Address": "",
                    "GlobalIPv6PrefixLen": 0,
                    "MacAddress": ""
                }
            }
        }
    }
]

これは、このファむルシステムBacking Filesystem: ext4備えたサヌバヌでのみ発生するこずに気づきたした。
この問題は、バッキングファむルシステムずしおxfsを実行しおいるサヌバヌでは発生しないようです。

@ceeckoありがずう、それは面癜い

@rhvgoyalこれはあなたの偎の既知の問題ですか

これは生産においお私たちに倧きな打撃を䞎えたす/死んだコンテナを取り陀く方法のヒントはありたすか

@thaJeztahこれがext4でのみ発生し、xfsでは発生しないのは䞍思議です。 私はそのようなこずを知りたせん。

䞀般に、デバむスがビゞヌであるず報告されおいたすが、それには倚くの理由が考えられたす。

@ceekoはたず、

@rhvgoyal MountFlags=slaveは、これたでのずころ問題を解決しおいるようです。 倉曎前に䜜成されたコンテナはただ問題ですが、新しいコンテナは今のずころ゚ラヌを匕き起こしおいないようです。 䜕か倉曎があった堎合はご連絡いたしたす。

ずころで、リファレンスが芋぀からなかったため、本番環境のベストプラクティスずしおこれを掚奚するように、ストレヌゞドラむバヌのドキュメントを曎新する䟡倀があるかもしれたせん。

ご協力ありがずうございたした。

これはしばらく前に倉曎されたした。 https://github.com/docker/docker/commit/2aee081cad72352f8b0c37ba0414ebc925b022e8#diff -ff907ce70a8c7e795bde1de91be6fa68https://github.com/docker/docker/pull/22806、議論によるず、これは延期された堎合に問題になる可胜性がありたす有効になっおいたせん; https://github.com/docker/docker/pull/22806#issuecomment -220043409

デフォルトを元に戻す必芁がありたすか @rhvgoyal

@thaJeztahデフォルトをMountFlags = slaveに戻すのは良い考えかもしれないず思いたす。 私たちはそれをしたした。

理想的には、遅延削陀および遅延削陀機胜がこれを凊理する必芁があり、MountFlags = slaveを䜿甚する必芁はありたせんでした。 しかし、延期された削陀だけでは十分ではありたせん。 叀いカヌネルには、別のマりント名前空間にマりントされおいる堎合でも、マりント名前空間からディレクトリを削陀できる機胜がありたせん。 そしお、それがコンテナの削陀が倱敗する理由の1぀です。

したがっお、叀いカヌネルがその機胜を提䟛するたでは、スレヌブマりント名前空間でdockerデヌモンを実行するこずをお勧めしたす。

@rhvgoyal MountFlags=slaveしおも、゚ラヌが再び衚瀺され始めたした。 延期された削陀ず削陀を詊み、折り返しご連絡いたしたす。

xfsでも同じ゚ラヌが発生したした。
これがDocker情報です

Containers: 52
 Running: 52
 Paused: 0
 Stopped: 0
Images: 9
Server Version: 1.12.2
Storage Driver: devicemapper
 Pool Name: data-docker_thin
 Pool Blocksize: 65.54 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: xfs
 Data file:
 Metadata file:
 Data Space Used: 13 GB
 Data Space Total: 107.1 GB
 Data Space Available: 94.07 GB
 Metadata Space Used: 19.19 MB
 Metadata Space Total: 268.4 MB
 Metadata Space Available: 249.2 MB
 Thin Pool Minimum Free Space: 10.71 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: true
 Deferred Deletion Enabled: true
 Deferred Deleted Device Count: 0
 Library Version: 1.02.107-RHEL7 (2016-06-09)
Logging Driver: journald
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: host overlay bridge null
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 3.10.0-327.10.1.el7.x86_64
Operating System: CentOS Linux 7 (Core)
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 7.389 GiB
Name: ip-172-31-25-29.eu-west-1.compute.internal
ID: ZUTN:S7TL:6JRZ:HG52:LDLZ:VR5Q:RWVV:IP7E:HOQ4:R55X:Z7AI:P63R
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://index.docker.io/v1/
WARNING: bridge-nf-call-iptables is disabled
WARNING: bridge-nf-call-ip6tables is disabled
Insecure Registries:
 127.0.0.0/8

MountFlags=slaveずdm.use_deferred_deletion=trueずdm.use_deferred_removal=trueおも、以前よりも頻床は䜎くなりたすが、1.12.2でも゚ラヌが発生するこずを確認したした。

削陀できなかったlogsre1コンテナの詳现は次のずおりです。

libcontainerd: container 4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543 restart canceled
error locating sandbox id c9272d4830ba45e03efda777a14a4b5f7f94138997952f2ec1ba1a43b2c4e1c5: sandbox c9272d4830ba45e03efda777a14a4b5f7f94138997952f2ec1ba1a43b2c4e1c5 not found
failed to cleanup ipc mounts:\nfailed to umount /var/lib/docker/containers/4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543/shm: invalid argument
devmapper: Error unmounting device ed06c57080b8a8f25dc83d4afabaccb26d72009dad23a8e87310b873c226b905: invalid argument
Error unmounting container 4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543: invalid argument
Handler for DELETE /containers/4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543 returned error: Unable to remove filesystem for 4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543: remove /var/lib/docker/containers/4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543/shm: device or resource busy

次のメッセヌゞは、ディレクトリの削陀に倱敗したこずを瀺しおいたす。

remove /var/lib/docker/containers/4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543/shm: device or resource busy

たた、叀いカヌネルでは、ディレクトリが他のマりント名前空間にマりントされおいるために倱敗する可胜性がありたす。 deferred deletion機胜を無効にするず、このメッセヌゞは衚瀺されなくなりたす。 ただし、他の゚ラヌメッセヌゞになりたす。

ここでの問題の栞心は、コンテナがただ実行されおいるか、そのマりントポむントの䞀郚が他のマりント名前空間にリヌクしおいるこずです。 そしお、それがどのマりント名前空間にリヌクし、どのようにそこに到達したかを把握できれば、それを修正しおみるこずができたす。

この問題が発生したら、 find /proc/*/mounts | xargs grep "4d9bbd9b4da95f0ba1947055fa263a059ede9397bcf1456e6795f16e1a7f0543"詊しおみおください

次に、どのpidにコンテナに関連するマりントがリヌクされおいるかを確認したす。 そしお、それはいく぀かのアむデアを䞎えるかもしれたせん。

私は4぀のコンテナを詊したしたが、それらはすべお死んでいお、デバむスがビゞヌで䜕も埗られなかったために削陀できたせん/

# find /proc/*/mounts | xargs grep -E "b3070ef60def|62777ad2994f|923a6d20506d|f3e079a9721c"
grep: /proc/9659/mounts: No such file or directory

今、私は実際にはわずかに異なる゚ラヌメッセヌゞを受け取っおいたす

# docker rm b3070ef60def
Error response from daemon: Driver devicemapper failed to remove root filesystem b3070ef60deffc0e496631ed6e058c4569d6233bb6947b27072a70c663d9e579: remove /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd: device or resource busy

同じこず。 このディレクトリは、他のマりント名前空間にマりントされおいるため、削陀できたせん。 / proc /で怜玢しおみおくださいこのID 527ae5 / mountsずgrepを䜿甚しお、このマりントポむントを認識しおいるpidを確認したす。 セットアップで、コンテナヌrootfsマりントポむントが他のマりント名前空間にリヌクしおいる理由を理解する必芁がありたす。

どうぞ

# find /proc/*/mounts | xargs grep -E "527ae5"
grep: /proc/10080/mounts: No such file or directory
/proc/15890/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/23584/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/31591/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/4194/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/4700/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/4701/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/8858/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
/proc/8859/mounts:/dev/mapper/docker-253:1-1050933-527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd /var/lib/docker/devicemapper/mnt/527ae5985b1b730a05a667d147ce15abcbfb950a334aea4b673a413b6b21c4dd xfs rw,seclabel,relatime,nouuid,attr2,inode64,logbsize=64k,sunit=128,swidth=128,noquota 0 0
nginx     4194  0.0  0.0  55592 10520 ?        S    11:55   0:06 nginx: worker process is shutting down
nginx     4700  2.3  0.0  55804 10792 ?        S    11:58   3:52 nginx: worker process is shutting down
nginx     4701  1.8  0.0  55800 10784 ?        S    11:58   3:04 nginx: worker process is shutting down
nginx     8858  2.4  0.0  55560 10720 ?        S    14:05   0:59 nginx: worker process
nginx     8859  3.1  0.0  55560 10700 ?        S    14:05   1:15 nginx: worker process
root     15890  0.0  0.0  55004  9524 ?        Ss   Oct29   0:05 nginx: master process /usr/sbin/nginx -c /etc/nginx/nginx.conf
nginx    23584  0.0  0.0  55576 10452 ?        S    09:17   0:00 nginx: worker process is shutting down
nginx    31591  0.9  0.0  63448 18820 ?        S    09:46   2:53 nginx: worker process is shutting down

これらのpidはどのプロセスにマップされたすか cat /proc/<pid>/commたたはps -eaf | grep <pid>詊しください

これらはすべお、構成のリロヌド埌にシャットダりンするnginxワヌカヌプロセスです䞊蚘の線集されたコメントを参照。 コンテナがボリュヌムをバむンドしないので、なぜマりントをブロックするのか疑問に思いたす。

では、nginxプロセスは別のコンテナで実行されおいたすか たたは、ホスト䞊で実行されおいたすか

次のこずができたすか。

  • ls -l /proc/<docker-daemon-pid>/ns/mnt
  • ls -l /proc/<nginx-pid>/ns/mnt
  • ホストでbashシェルを実行し、 ls -l /proc/$$/ns/mntを実行したす

そしお、出力を貌り付けたす。 ここ。

nginxはホスト䞊で実行されたす。

docker-pid

# ls -l /proc/13665/ns/mnt
lrwxrwxrwx. 1 root root 0 Oct 31 15:01 /proc/13665/ns/mnt -> mnt:[4026531840]

nginx-pid

# ls -l /proc/15890/ns/mnt
lrwxrwxrwx. 1 root root 0 Oct 31 15:01 /proc/15890/ns/mnt -> mnt:[4026533289]
ls -l /proc/$$/ns/mnt
lrwxrwxrwx. 1 root root 0 Oct 31 15:02 /proc/10063/ns/mnt -> mnt:[4026531840]

docker-pidずホストの䞡方が同じマりント名前空間を共有しおいるようです。 これは、dockerデヌモンがホストマりント名前空間で実行されおいるこずを意味したす。 そしおそれはおそらく、nginxがコンテナの開始埌のある時点で開始され、それ自䜓のマりント名前空間で実行されおいるように芋えるこずを意味したす。 そしおその時、マりントポむントがnginxマりント名前空間にリヌクし、それがコンテナの削陀を劚げおいたす。

MountFlags = slaveが機胜しおいるこずを確認しおください。 動䜜したら、/ proc // ns / mntは、ホストマりント名前空間で実行されおいるdockerデヌモンずbashシェルに察しお異なる出力を提䟛したす。

あなたが正しい。 このホストにはただMountFlags=slave蚭定されおいたせん。
しかし、別のホストがそうしたしたが、それでも死んだコンテナがありたした。 今はすべお手動で削陀したしたが、 MountFlags=slave䜜成されたした。

状況が繰り返されるたで埅ち、ここに曎新を投皿したす。 ありがずう。

珟圚の状況は次のずおりです。 MountFlags=slaveを䜿甚し、削陀ず削陀を延期したした。リモヌトAPIが、デバむスがビゞヌで削陀できないずいう゚ラヌをスロヌする堎合がありたす。 ただし、゚ラヌの盎埌にdocker rm containerが呌び出されるず、コンテナは正垞に削陀されたす。

問題が再び発生したした。

dockerd

# ll /proc/16441/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  4 23:05 /proc/16441/ns/mnt -> mnt:[4026534781]

nginx

# ll /proc/15890/ns/mnt
lrwxrwxrwx. 1 root root 0 Oct 31 15:01 /proc/15890/ns/mnt -> mnt:[4026533289]
# ll /proc/$$/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  4 23:06 /proc/22029/ns/mnt -> mnt:[4026531840]
# find /proc/*/mounts | xargs grep -E "a2388cf8d19a"
/proc/11528/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/12918/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/1335/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/14853/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/1821/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/22241/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/22406/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/22618/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
grep: /proc/22768/mounts: No such file or directory
/proc/22771/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/23601/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/24108/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/24405/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/24614/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/24817/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/25116/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/25277/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/25549/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/25779/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/26036/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/26211/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/26369/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/26638/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/26926/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27142/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27301/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27438/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27622/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27770/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/27929/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28146/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28309/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28446/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28634/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28805/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/28961/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29097/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/2909/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29260/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29399/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29540/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29653/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29675/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/29831/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30040/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30156/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30326/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30500/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30619/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30772/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/30916/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/31077/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/31252/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/31515/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/31839/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/32036/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/32137/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/3470/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/5628/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/5835/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0
/proc/8076/mounts:shm /var/lib/docker/containers/a2388cf8d19a431f47e9df533a853809ceaf819581c23c438fefe470d2bf8f03/shm tmpfs rw,seclabel,nosuid,nodev,noexec,relatime,size=65536k 0 0

前のコマンドからのプロセス

  PID TTY      STAT   TIME COMMAND
 1335 ?        Sl     0:00 docker-containerd-shim 9a678ecbd9334230d61a0e305cbbb50e3e5207e283decc2d570d787d98f8d930 /var/run/docker/libcontainerd/9a678ecbd9334230d61a0e305cbbb50e3e5207e283decc2d570d787d98f8d930 docker-runc
 1821 ?        Sl     0:00 docker-containerd-shim 97f0a040c0ebe15d7527a54481d8946e87f1ec0681466108fd8356789de0232b /var/run/docker/libcontainerd/97f0a040c0ebe15d7527a54481d8946e87f1ec0681466108fd8356789de0232b docker-runc
 2909 ?        Sl     0:00 docker-containerd-shim ef2e6a22e5ea5f221409ff8888ac976bd9b23633fab13b6968253104424a781f /var/run/docker/libcontainerd/ef2e6a22e5ea5f221409ff8888ac976bd9b23633fab13b6968253104424a781f docker-runc
 3470 ?        Sl     0:00 docker-containerd-shim 24b6918ce273a82100a1c6bae711554340bc60ff965527456130bd2fabf0ca6f /var/run/docker/libcontainerd/24b6918ce273a82100a1c6bae711554340bc60ff965527456130bd2fabf0ca6f docker-runc
 5628 ?        Sl     0:00 docker-containerd-shim 9561cbe2f0133119e2749d09e5db3f6473e77830a7981c1171849fe403d73973 /var/run/docker/libcontainerd/9561cbe2f0133119e2749d09e5db3f6473e77830a7981c1171849fe403d73973 docker-runc
 5835 ?        Sl     0:00 docker-containerd-shim a5afb5ab32c2396cdddd24390f94b01f597850012ad9731d6d47db9708567b24 /var/run/docker/libcontainerd/a5afb5ab32c2396cdddd24390f94b01f597850012ad9731d6d47db9708567b24 docker-runc
 8076 ?        Sl     0:00 docker-containerd-shim 20cca8e6ec26364aa4eb9733172c7168052947d5e204d302034b2d14fd659302 /var/run/docker/libcontainerd/20cca8e6ec26364aa4eb9733172c7168052947d5e204d302034b2d14fd659302 docker-runc
11528 ?        Sl     0:00 docker-containerd-shim f7584de190086d41da71235a6ce2516cbccb8ac0fff9f71b03d405af9478660f /var/run/docker/libcontainerd/f7584de190086d41da71235a6ce2516cbccb8ac0fff9f71b03d405af9478660f docker-runc
12918 ?        Sl     0:00 docker-containerd-shim 9ada39a06c5e1351df30dde993adcd048f8bd7984af2b412b8f3339f037c8847 /var/run/docker/libcontainerd/9ada39a06c5e1351df30dde993adcd048f8bd7984af2b412b8f3339f037c8847 docker-runc
14853 ?        Sl     0:00 docker-containerd-shim 4d05a794e0be9e710b804f5a7df22e2dd268083b3d7d957daae6f017c1c8fb67 /var/run/docker/libcontainerd/4d05a794e0be9e710b804f5a7df22e2dd268083b3d7d957daae6f017c1c8fb67 docker-runc
22241 ?        Sl     0:00 docker-containerd-shim ce81b6b51fcbf1163491381c790fc944b54adf3333f82d75281bc746b81ccd47 /var/run/docker/libcontainerd/ce81b6b51fcbf1163491381c790fc944b54adf3333f82d75281bc746b81ccd47 docker-runc
22406 ?        Sl     0:00 docker-containerd-shim 519e5531104278559d95f351e2212b04b06f44cbd1e05336cd306b9a958c8874 /var/run/docker/libcontainerd/519e5531104278559d95f351e2212b04b06f44cbd1e05336cd306b9a958c8874 docker-runc
22618 ?        Sl     0:00 docker-containerd-shim 869b356e7838ef3c0200864c58a89a22c812574a60da535eb2107a5da1d07a65 /var/run/docker/libcontainerd/869b356e7838ef3c0200864c58a89a22c812574a60da535eb2107a5da1d07a65 docker-runc
22771 ?        Sl     0:00 docker-containerd-shim 63f0816e72d4be4ed79fe2c31794876b1b3ab7a300ca69497a8bddbd8cf8953f /var/run/docker/libcontainerd/63f0816e72d4be4ed79fe2c31794876b1b3ab7a300ca69497a8bddbd8cf8953f docker-runc
23601 ?        Sl     0:00 docker-containerd-shim 9943b9930cb4803666caf5499dfb0753c36193efe0285f2ae697be63c6122003 /var/run/docker/libcontainerd/9943b9930cb4803666caf5499dfb0753c36193efe0285f2ae697be63c6122003 docker-runc
24108 ?        Sl     0:00 docker-containerd-shim 21af7db24bbd1679f48ae3cf0d022535c208c63dc42a274dd54e3cfcb90b9737 /var/run/docker/libcontainerd/21af7db24bbd1679f48ae3cf0d022535c208c63dc42a274dd54e3cfcb90b9737 docker-runc
24405 ?        Sl     0:00 docker-containerd-shim 0dccc5141be2367de2601d83020f7f4c27762d4c8e986b4b100a4bce12fc2f5a /var/run/docker/libcontainerd/0dccc5141be2367de2601d83020f7f4c27762d4c8e986b4b100a4bce12fc2f5a docker-runc
24614 ?        Sl     0:00 docker-containerd-shim e1023b528f8b2a1889c0fc360c0d1738a15be0bd53e0722920a9abb5ecc2c538 /var/run/docker/libcontainerd/e1023b528f8b2a1889c0fc360c0d1738a15be0bd53e0722920a9abb5ecc2c538 docker-runc
24817 ?        Sl     0:00 docker-containerd-shim 2106fe528147306e768b01b03ef7f10c53536ad4aaee6a628608c9c5bbf9494c /var/run/docker/libcontainerd/2106fe528147306e768b01b03ef7f10c53536ad4aaee6a628608c9c5bbf9494c docker-runc
25116 ?        Sl     0:00 docker-containerd-shim 1b9623bf34b5030d47faf21dee6462478d6d346327af0b4c96e6ccae4c880368 /var/run/docker/libcontainerd/1b9623bf34b5030d47faf21dee6462478d6d346327af0b4c96e6ccae4c880368 docker-runc
25277 ?        Sl     0:00 docker-containerd-shim 6662486b063f530a446602eed47811443eb737151b404c0d253bf54df9e6b93f /var/run/docker/libcontainerd/6662486b063f530a446602eed47811443eb737151b404c0d253bf54df9e6b93f docker-runc
25549 ?        Sl     0:05 docker-containerd-shim f6e3e14362455f38d6abfdeb106f280151ee3f12dc9d2808c774dd3d2cd3e828 /var/run/docker/libcontainerd/f6e3e14362455f38d6abfdeb106f280151ee3f12dc9d2808c774dd3d2cd3e828 docker-runc
25779 ?        Sl     0:00 docker-containerd-shim 144fded452cd9a0bdbcdf72890aa400eadb65e434038373e2ddfc1f4e28a1279 /var/run/docker/libcontainerd/144fded452cd9a0bdbcdf72890aa400eadb65e434038373e2ddfc1f4e28a1279 docker-runc
26036 ?        Sl     0:00 docker-containerd-shim e076f6cfc4fcd04a9a4fa6aecf37fe244d6d84e200380b6ef4a1e0a79575e952 /var/run/docker/libcontainerd/e076f6cfc4fcd04a9a4fa6aecf37fe244d6d84e200380b6ef4a1e0a79575e952 docker-runc
26211 ?        Sl     0:00 docker-containerd-shim 65bea267b22c9a6efe58ea9d7339986b01e7f67c095aa1451768de5114a5b027 /var/run/docker/libcontainerd/65bea267b22c9a6efe58ea9d7339986b01e7f67c095aa1451768de5114a5b027 docker-runc
26369 ?        Sl     0:00 docker-containerd-shim 390bc07f95b460220bda115aad2f247b33f50c81f7bd2b3d1a20e1696b95511b /var/run/docker/libcontainerd/390bc07f95b460220bda115aad2f247b33f50c81f7bd2b3d1a20e1696b95511b docker-runc
26638 ?        Sl     0:00 docker-containerd-shim b6d86f96d33260673b2e072419f08578716582578015a30e4f23d4e481a55809 /var/run/docker/libcontainerd/b6d86f96d33260673b2e072419f08578716582578015a30e4f23d4e481a55809 docker-runc
26926 ?        Sl     0:00 docker-containerd-shim 337ec28dd75f2f5bc2cfa813504d35a8c148777c7f246f8af5d792c36f3453ae /var/run/docker/libcontainerd/337ec28dd75f2f5bc2cfa813504d35a8c148777c7f246f8af5d792c36f3453ae docker-runc
27142 ?        Sl     0:00 docker-containerd-shim ba2216d6b46d7b57493734b093bc153823fb80a48ef4b91d0d1c660ee9adc519 /var/run/docker/libcontainerd/ba2216d6b46d7b57493734b093bc153823fb80a48ef4b91d0d1c660ee9adc519 docker-runc
27301 ?        Sl     0:00 docker-containerd-shim 520f66841a97b2545784b29ea3bc7a22a58d97987c404e1d99314da75307d279 /var/run/docker/libcontainerd/520f66841a97b2545784b29ea3bc7a22a58d97987c404e1d99314da75307d279 docker-runc
27438 ?        Sl     0:00 docker-containerd-shim 0908466da160ed739d74d675e1a6e04d85da0caa2216c739c0e218e75219dc3e /var/run/docker/libcontainerd/0908466da160ed739d74d675e1a6e04d85da0caa2216c739c0e218e75219dc3e docker-runc
27622 ?        Sl     0:00 docker-containerd-shim e627ef7439b405376ac4cf58702241406e3c8b9fbe76694a9593c6f96b4e5925 /var/run/docker/libcontainerd/e627ef7439b405376ac4cf58702241406e3c8b9fbe76694a9593c6f96b4e5925 docker-runc
27770 ?        Sl     0:00 docker-containerd-shim 0b6275f8f1d8277ac39c723825e7b830e0cf852c44696074a279227402753827 /var/run/docker/libcontainerd/0b6275f8f1d8277ac39c723825e7b830e0cf852c44696074a279227402753827 docker-runc
27929 ?        Sl     0:00 docker-containerd-shim fcf647fbe0fe024cc4c352a2395d8d315d647aeda7f75a2f9d42826eca3dee58 /var/run/docker/libcontainerd/fcf647fbe0fe024cc4c352a2395d8d315d647aeda7f75a2f9d42826eca3dee58 docker-runc
28146 ?        Sl     0:00 docker-containerd-shim 19f020044a3e600aa554a7ab00264155206e8791a7002f5616b397745b2c6405 /var/run/docker/libcontainerd/19f020044a3e600aa554a7ab00264155206e8791a7002f5616b397745b2c6405 docker-runc
28309 ?        Sl     0:00 docker-containerd-shim 3f6a5b9136df8169d3d1e1eb104bda6f4baf32ca5a2bc35ddaeea4a3a0bf774a /var/run/docker/libcontainerd/3f6a5b9136df8169d3d1e1eb104bda6f4baf32ca5a2bc35ddaeea4a3a0bf774a docker-runc
28446 ?        Sl     0:00 docker-containerd-shim f1ede5511531d05ab9eb86612ed239446a4b3acefe273ee65474b4a4c1d462e2 /var/run/docker/libcontainerd/f1ede5511531d05ab9eb86612ed239446a4b3acefe273ee65474b4a4c1d462e2 docker-runc
28634 ?        Sl     0:00 docker-containerd-shim 7485d577ec2e707e1151a73132ceba7db5c0509c1ffbaf750515e0228b2ffa33 /var/run/docker/libcontainerd/7485d577ec2e707e1151a73132ceba7db5c0509c1ffbaf750515e0228b2ffa33 docker-runc
28805 ?        Sl     0:00 docker-containerd-shim e5afd9eccb217e16f0494f71504d167ace8377498ce6141e2eaf96de71c74233 /var/run/docker/libcontainerd/e5afd9eccb217e16f0494f71504d167ace8377498ce6141e2eaf96de71c74233 docker-runc
28961 ?        Sl     0:00 docker-containerd-shim bd62214b90fab46a92893a15e06d5e2744659d61d422776ce9b395e56bb0e774 /var/run/docker/libcontainerd/bd62214b90fab46a92893a15e06d5e2744659d61d422776ce9b395e56bb0e774 docker-runc
29097 ?        Sl     0:00 docker-containerd-shim 81db13c46756851006d2f0b0393e37590bac228a3d958a12cc9f6c86d5992253 /var/run/docker/libcontainerd/81db13c46756851006d2f0b0393e37590bac228a3d958a12cc9f6c86d5992253 docker-runc
29260 ?        Sl     0:00 docker-containerd-shim 188d2c3a98cc1d65a88daeb17dacca7fca978831a9292b7225e60f7443096114 /var/run/docker/libcontainerd/188d2c3a98cc1d65a88daeb17dacca7fca978831a9292b7225e60f7443096114 docker-runc
29399 ?        Sl     0:00 docker-containerd-shim 1dc12f09be24722a18057072ac5a0b2b74324e13de051f213e1966c1d31e1348 /var/run/docker/libcontainerd/1dc12f09be24722a18057072ac5a0b2b74324e13de051f213e1966c1d31e1348 docker-runc
29540 ?        Sl     0:00 docker-containerd-shim 0c425984d9c544683de0644a77849807a9ee31db99043e3e2bace9d2e9cfdb63 /var/run/docker/libcontainerd/0c425984d9c544683de0644a77849807a9ee31db99043e3e2bace9d2e9cfdb63 docker-runc
29653 ?        Sl     0:00 docker-containerd-shim b1805c289749d432a0680aa7f082703175b647005d240d594124a64e69f5de28 /var/run/docker/libcontainerd/b1805c289749d432a0680aa7f082703175b647005d240d594124a64e69f5de28 docker-runc
29675 ?        Sl     0:36 docker-containerd-shim 6a9751b28d88c61d77859b296a8bde21c6c0c8379089ae7886b7332805bb8463 /var/run/docker/libcontainerd/6a9751b28d88c61d77859b296a8bde21c6c0c8379089ae7886b7332805bb8463 docker-runc
29831 ?        Sl     0:00 docker-containerd-shim 09796b77ef046f29439ce6cab66797314b27e9f77137017773f3b90637107433 /var/run/docker/libcontainerd/09796b77ef046f29439ce6cab66797314b27e9f77137017773f3b90637107433 docker-runc
30040 ?        Sl     0:20 docker-containerd-shim a2e26ba3d11f876b38e88cc6501fae51e7c66c7c2d40982eec72f23301f82772 /var/run/docker/libcontainerd/a2e26ba3d11f876b38e88cc6501fae51e7c66c7c2d40982eec72f23301f82772 docker-runc
30156 ?        Sl     0:00 docker-containerd-shim 35d157883a8c586e5086e940d1a5f2220e2731ca19dd7655c9ee3150321bac66 /var/run/docker/libcontainerd/35d157883a8c586e5086e940d1a5f2220e2731ca19dd7655c9ee3150321bac66 docker-runc
30326 ?        Sl     0:00 docker-containerd-shim 5af072f8c0b1af434139104ad884706079e2c46bf951200eaf9531614e2dc92a /var/run/docker/libcontainerd/5af072f8c0b1af434139104ad884706079e2c46bf951200eaf9531614e2dc92a docker-runc
30500 ?        Sl     0:00 docker-containerd-shim ba71715ba985511a617a7377b3b0d66f0b75af8323c17544c54f75da1a267a1f /var/run/docker/libcontainerd/ba71715ba985511a617a7377b3b0d66f0b75af8323c17544c54f75da1a267a1f docker-runc
30619 ?        Sl     0:08 docker-containerd-shim f42fdd0d4d971442969637f9e1db4c1e45270d86f950e614d8721d767872930a /var/run/docker/libcontainerd/f42fdd0d4d971442969637f9e1db4c1e45270d86f950e614d8721d767872930a docker-runc
30772 ?        Sl     0:00 docker-containerd-shim 8a745ab948d51e41b80992e2246058082f274d30d9f68f46dd3fef2e441afc01 /var/run/docker/libcontainerd/8a745ab948d51e41b80992e2246058082f274d30d9f68f46dd3fef2e441afc01 docker-runc
30916 ?        Sl     0:00 docker-containerd-shim 238f635c6adac1786ee46a99f0c20f36544cc5ebd644fc0c0908d38e9177eb1e /var/run/docker/libcontainerd/238f635c6adac1786ee46a99f0c20f36544cc5ebd644fc0c0908d38e9177eb1e docker-runc
31077 ?        Sl     0:00 docker-containerd-shim 9c208554dcb64c6568f026455a33d64830995c0411c6876fbea66355bab2cb5f /var/run/docker/libcontainerd/9c208554dcb64c6568f026455a33d64830995c0411c6876fbea66355bab2cb5f docker-runc
31252 ?        Sl     0:00 docker-containerd-shim afc0a4c93a27d9451875f8d917b24c64f59ba3b1992ff52f9ac3f93623440a54 /var/run/docker/libcontainerd/afc0a4c93a27d9451875f8d917b24c64f59ba3b1992ff52f9ac3f93623440a54 docker-runc
31515 ?        Sl     0:00 docker-containerd-shim b84b9b1d32bb9001359812a4dbbdf139c64c9eb9cf29475c73b2b498d990826f /var/run/docker/libcontainerd/b84b9b1d32bb9001359812a4dbbdf139c64c9eb9cf29475c73b2b498d990826f docker-runc
31839 ?        Sl     0:00 docker-containerd-shim 5b328bfc29a6a3033c1c5aa39fa38006538307aca3056f17d6421e5855bc496f /var/run/docker/libcontainerd/5b328bfc29a6a3033c1c5aa39fa38006538307aca3056f17d6421e5855bc496f docker-runc
32036 ?        Sl     0:00 docker-containerd-shim 5994ea24313b7e685321bd5bc03c0646c266969fa02f8061c0b4f1d94287f017 /var/run/docker/libcontainerd/5994ea24313b7e685321bd5bc03c0646c266969fa02f8061c0b4f1d94287f017 docker-runc
32137 ?        Sl     0:00 docker-containerd-shim aa4d9711bce7f85e04b94c8f733d0e29fb08763031fa81068acf9b5ee1bf3061 /var/run/docker/libcontainerd/aa4d9711bce7f85e04b94c8f733d0e29fb08763031fa81068acf9b5ee1bf3061 docker-runc

わかりたした。docker-containerd-shimはこのマりントポむントを認識しおいるため、ビゞヌ状態を維持したす。 docker-containerd-shimずは䜕か、マりントポむントがそこにリヌクしおいる理由がわかりたせん。 誰がそれを知っおいたすか。

@crosbymichaelあなたはそれに぀いお知っおいるかもしれたせん。

cc @mrunalp

pingをありがずう。 芋おみたす。

@ceeckoは、これらのdocker-containerd-shimスレッド/プロセスのマりント名前空間が䜕であるかを確認できたす。 これらはdockerデヌモンずマりント名前空間を共有しおいないのではないかず思いたす。おそらくそうすべきです。

@rhvgoyal同じ名前空間を共有したす

dockerd

# ll /proc/16441/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  4 23:05 /proc/16441/ns/mnt -> mnt:[4026534781]

3぀のdocker-containerd-shimプロセスを確認したした

# ll /proc/23774/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  8 07:49 /proc/23774/ns/mnt -> mnt:[4026534781]
# ll /proc/27296/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  8 07:49 /proc/27296/ns/mnt -> mnt:[4026534781]
# ll /proc/31485/ns/mnt
lrwxrwxrwx. 1 root root 0 Nov  8 07:49 /proc/31485/ns/mnt -> mnt:[4026534781]

珟圚取り陀けなかった死んだコンテナはありたせん。
重芁なのは、週に2回、定期的にすべおのコンテナヌを停止しお削陀し、同じ構成で新しいコンテナヌを開始するこずです。 この「再起動」の前に、䞀郚のコンテナは停止し、削陀できなくなりたす。 通垞の「再起動」埌、ほずんどのコンテナは死んでしたいたすが、叀いコンテナがすべお停止するず、死んだコンテナはすべお突然削陀される可胜性がありたす。

同じ問題がありたすが、 docker-compose up -dコンテナを再䜜成しようずするず、いく぀かの远加゚ラヌが発生したす。

Nov 10 13:25:21 omega dockerd[27830]: time="2016-11-10T13:25:21.418142082-06:00" level=info msg="Container b7fbb78311cdfb393bc2d3d9b7a6f0742d80dc5b672909408809bf6f7af55434 failed to exit within 10 seconds of signal 15 - using
Nov 10 13:25:21 omega dockerd[27830]: time="2016-11-10T13:25:21.530704247-06:00" level=warning msg="libcontainerd: container b7fbb78311cdfb393bc2d3d9b7a6f0742d80dc5b672909408809bf6f7af55434 restart canceled"
Nov 10 13:25:21 omega dockerd[27830]: time="2016-11-10T13:25:21.536115733-06:00" level=error msg="Error closing logger: invalid argument"
Nov 10 13:25:42 omega dockerd[27830]: time="2016-11-10T13:25:42.329001072-06:00" level=error msg="devmapper: Error unmounting device 0795abc37cc58b775ce4fb142271f5de5fa771477310321d1283f37ad6b20df9: Device is Busy"
Nov 10 13:25:42 omega dockerd[27830]: time="2016-11-10T13:25:42.329149437-06:00" level=error msg="Error unmounting container b7fbb78311cdfb393bc2d3d9b7a6f0742d80dc5b672909408809bf6f7af55434: Device is Busy"
Nov 10 13:25:42 omega dockerd[27830]: time="2016-11-10T13:25:42.544584079-06:00" level=error msg="Handler for GET /v1.24/containers/xbpf3invpull/logs returned error: No such container: xbpf3invpull"

特に、 Error closing logger: invalid argument゚ラヌずfailed to exit within 10 seconds゚ラヌは、 dumb-initを䜿甚しおコンテナヌを

これらの゚ラヌはこの問題に関連しおいたすか

私は珟圚、これの修正に取り組んでいたす。 私はコンテナにオヌプンPRを持っおいたす。

これをテストするための再珟可胜な方法を芋぀けるのは難しいので、修正が完了した埌、この修正のテストに興味がある人はいたすか

ええ、間違いなく。 この問題を再珟できる仮想マシンを䜜成し、そこで修正を詊みたす。 それが機胜しない堎合は、問題が発生しおいるサヌバヌでテストしたす。

たった今VMを䜜成したしたが、問題を非垞に簡単に再珟するこずができたした。

これは私がVirtualboxでやったこずです

  1. プレヌンなArchLinux VMをむンストヌルしたす通垞のむンストヌルプロセスを䜿甚
  2. docker、docker-compose、および耇数のプロセスを実行できる別のデヌモンこの堎合はnginxを遞択をむンストヌルしおから、 systemctl enable dockerをむンストヌルし、システムを再起動したす
  3. 500ワヌカヌプロセスで実行するようにnginxを構成する
  4. 3぀の長時間実行コンテナを含むdocker-composeファむルを䜜成したすpostgres、タグ9.2を遞択したした
  5. docker-compose up -d
  6. systemctl start nginx
  7. docker-composeファむル内のいく぀かのコンテナヌのバヌゞョンを倉曎しお、むメヌゞタグ9.3を䜿甚したす
  8. docker-compose pull
  9. docker-compose up -d コンテナを再䜜成しようずするず、䞡方のコンテナで「デバむスがビゞヌです」ずいう゚ラヌが衚瀺されたす。

nginxを停止するず、コンテナヌを削陀できたす。

珟圚のずころdocker-compose.yml 倱敗したシステムのDockerセットアップを暡倣したした

リク゚ストに応じおVMぞのアクセスを提䟛できたす。ログむンを送信するメヌルを送っおください。

@mlaventureこの問題を

@SEAPUNKこの提案された修正でcontaineredを曎新したす。 テストする機䌚があれば、詊しおみるバむナリを提䟛できたす。

確かに、VMはスタンバむ状態です。

バむナリがい぀準備できるかに぀いお䜕か考えはありたすか

1.13の@SEAPUNKリリヌス候補は珟圚テストに利甚可胜であり、この倉曎が必芁です。 https://github.com/docker/docker/releases

了解したした。詊しおみたす。 ありがずう

私はみんなに、
私はここで報告されおいるのず同じ問題を抱えおいるず思いたす

[asantos<strong i="7">@fosters</strong> atp]$ docker-compose -f docker-compose-tst-u.yml rm api
Going to remove atp_api_1
Are you sure? [yN] y
Removing atp_api_1 ... error

ERROR: for atp_api_1  Driver devicemapper failed to remove root filesystem 63fac33396c5ab7de18505b6a6b6f41b4f927abeca74472fbe8490656ed85f3f: Device is Busy



dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:11 fosters.vi.pt kernel: device-mapper: ioctl: unable to remove open device docker-253:1-1315304-214b3ed3285aae193228831aba63b4e24592a96facfb604e4d2ff8b36000d6f9
dez 02 11:26:15 fosters.vi.pt docker[2535]: time="2016-12-02T11:26:15.943631263Z" level=error msg="Error removing mounted layer 63fac33396c5ab7de18505b6a6b6f41b4f927abeca74472fbe8490656ed85f3f: Device is Busy"
dez 02 11:26:15 fosters.vi.pt docker[2535]: time="2016-12-02T11:26:15.943863042Z" level=error msg="Handler for DELETE /v1.22/containers/63fac33396c5ab7de18505b6a6b6f41b4f927abeca74472fbe8490656ed85f3f returned error: Driver devicemapper failed to remove root filesystem 63fac33396c5ab7de18505b6a6b6f41b4f927abeca74472
dez 02 11:26:17 fosters.vi.pt docker[2535]: time="2016-12-02T11:26:17.299066706Z" level=error msg="Handler for GET /containers/7ea053faaf5afac4af476a70d2a9611a6b882d6a135bcea7c86579a6ae657884/json returned error: No such container: 7ea053faaf5afac4af476a70d2a9611a6b882d6a135bcea7c86579a6ae657884"
dez 02 11:26:17 fosters.vi.pt docker[2535]: time="2016-12-02T11:26:17.299608100Z" level=error msg="Handler for GET /containers/c3b1a805ed5d19a5f965d0ac979f05cbb59f362336041daea90a2fa4a1845d7d/json returned error: No such container: c3b1a805ed5d19a5f965d0ac979f05cbb59f362336041daea90a2fa4a1845d7d"


[asantos<strong i="8">@fosters</strong> atp]$ docker info
Containers: 4
 Running: 3
 Paused: 0
 Stopped: 1
Images: 110
Server Version: 1.12.3
Storage Driver: devicemapper
 Pool Name: docker-253:1-1315304-pool
 Pool Blocksize: 65.54 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: xfs
 Data file: /dev/fosters/docker-data
 Metadata file: /dev/fosters/docker-metadata
 Data Space Used: 10.71 GB
 Data Space Total: 20.72 GB
 Data Space Available: 10.02 GB
 Metadata Space Used: 16.73 MB
 Metadata Space Total: 2.303 GB
 Metadata Space Available: 2.286 GB
 Thin Pool Minimum Free Space: 2.072 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Library Version: 1.02.131 (2016-07-15)
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: overlay null bridge host
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 4.8.8-300.fc25.x86_64
Operating System: Fedora 25 (Workstation Edition)
OSType: linux
Architecture: x86_64
CPUs: 4
Total Memory: 7.672 GiB
Name: fosters.vi.pt
ID: EBFN:W46P:BMFR:OSJ5:UPY2:7KAT:5NMT:KAOF:XQI3:ITEM:XQNL:46P7
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Username: xxxxxxx
Registry: https://index.docker.io/v1/
Insecure Registries:
 127.0.0.0/8

PKGBUILDを介しおバむナリを手動でビルドする必芁がありたした。これは、より簡単で、調敎により、PKGBUILDに特定のコンテナコミットdocker / containerd @ 03e5862ec0d8d3b3f750e19fca3ee367e13c090eに蚭定を䜿甚させるこずができるためです。

https://git.archlinux.org/svntogit/community.git/tree/trunk/PKGBUILD?h=packages/dockern19

すぐに修正の結果が出るはずです。

私は䜕か間違ったこずをしおいるかもしれたせんが、今はコンテナをたったく起動できたせん

ああ、私はruncを曎新しなければならないず思いたす... brbの再構築

ええ、修正は機胜しおいないようです

docker info

Containers: 3
 Running: 0
 Paused: 0
 Stopped: 3
Images: 8
Server Version: 1.13.0-rc2
Storage Driver: devicemapper
 Pool Name: docker-8:1-1835956-pool
 Pool Blocksize: 65.54 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: xfs
 Data file: /dev/loop0
 Metadata file: /dev/loop1
 Data Space Used: 745.6 MB
 Data Space Total: 107.4 GB
 Data Space Available: 27.75 GB
 Metadata Space Used: 2.744 MB
 Metadata Space Total: 2.147 GB
 Metadata Space Available: 2.145 GB
 Thin Pool Minimum Free Space: 10.74 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Data loop file: /var/lib/docker/devicemapper/devicemapper/data
 WARNING: Usage of loopback devices is strongly discouraged for production use. Use `--storage-opt dm.thinpooldev` to specify a custom block storage device.
 Metadata loop file: /var/lib/docker/devicemapper/devicemapper/metadata
 Library Version: 1.02.136 (2016-11-05)
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins: 
 Volume: local
 Network: bridge host macvlan null overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Init Binary: docker-init
containerd version: 03e5862ec0d8d3b3f750e19fca3ee367e13c090e
runc version: 51371867a01c467f08af739783b8beafc154c4d7
init version: N/A (expected: 949e6facb77383876aeff8a6944dde66b3089574)
Security Options:
 seccomp
  Profile: default
Kernel Version: 4.8.11-1-ARCH
Operating System: Arch Linux
OSType: linux
Architecture: x86_64
CPUs: 1
Total Memory: 3.864 GiB
Name: docker-vm
ID: KOVC:UCU5:5J77:P7I6:XXBX:33ST:H3UZ:GA7G:O7IF:P4RZ:VSSW:YBMJ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://index.docker.io/v1/
Experimental: false
Insecure Registries:
 127.0.0.0/8
Live Restore Enabled: false

docker version

[root@docker-vm ~]# docker version
Client:
 Version:      1.13.0-rc2
 API version:  1.25
 Go version:   go1.7.4
 Git commit:   1f9b3ef
 Built:        Fri Dec  2 12:37:59 2016
 OS/Arch:      linux/amd64

Server:
 Version:             1.13.0-rc2
 API version:         1.25
 Minimum API version: 1.12
 Go version:          go1.7.4
 Git commit:          1f9b3ef
 Built:               Fri Dec  2 12:37:59 2016
 OS/Arch:             linux/amd64
 Experimental:        false

これを自分のVMで再珟できない限り、この問題を再珟しおいるVMぞのアクセスを提䟛し、のカスタムDockerパッケヌゞをビルドしたす。

CentOs7のdocker1.12.3でこれが衚瀺されたす

dc2-elk-02/ root / staging / ls-helper $ docker --version
Dockerバヌゞョン1.12.3、ビルド6b644ec
dc2-elk-02/ root / staging / ls-helper $ uname -a
Linux dc2-elk-02 3.10.0-327.36.3.el7.x86_641 SMP Mon Oct 24 16:09:20 UTC 2016 x86_64 x86_64 x86_64 GNU / Linux
dc2-elk-02/ root / staging / ls-helper $ docker rm ls-helper
デヌモンからの゚ラヌ応答ドラむバヌdevicemapperがルヌトファむルシステムe1b9cdeb519d2f4bea53a552c8b76c1085650aa76c1fb90c8e22cac9c2e18830の削陀に倱敗したしたデバむスがビゞヌです

dockercomposeを䜿甚しおいたせん。

倚分私もこの゚ラヌに遭遇しおいるず思いたす。

Flockerの受け入れテストを実行するず、次の゚ラヌが倚数発生したす。

[root@acceptance-test-richardw-axpeyhrci22pi-1 ~]# journalctl  --boot --dmesg
...
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: dev_remove: 41 callbacks suppressed
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:34:56 acceptance-test-richardw-axpeyhrci22pi-1 kernel: device-mapper: ioctl: unable to remove open device docker-8:1-1072929-8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62
Dec 13 17:35:00 acceptance-test-richardw-axpeyhrci22pi-1 kernel: XFS (dm-1): Unmounting Filesystem
[root@acceptance-test-richardw-axpeyhrci22pi-1 ~]# journalctl --boot --unit docker
...
-- Logs begin at Tue 2016-12-13 17:30:53 UTC, end at Tue 2016-12-13 18:01:09 UTC. --
Dec 13 17:31:12 acceptance-test-richardw-axpeyhrci22pi-1 systemd[1]: Starting Docker Application Container Engine...
Dec 13 17:31:14 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:14.676133774Z" level=info msg="libcontainerd: new containerd process, pid: 1034"
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.209852977Z" level=warning msg="devmapper: Usage of loopback devices is strongly discouraged for production use. Please use `--storage-opt dm.thinpooldev` or use `man docker`
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.241124769Z" level=warning msg="devmapper: Base device already exists and has filesystem xfs on it. User specified filesystem  will be ignored."
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.259633105Z" level=info msg="[graphdriver] using prior storage driver \"devicemapper\""
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.423748590Z" level=info msg="Graph migration to content-addressability took 0.00 seconds"
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.443108711Z" level=info msg="Loading containers: start."
Dec 13 17:31:16 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:16.507397974Z" level=info msg="Firewalld running: true"
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.025244392Z" level=info msg="Default bridge (docker0) is assigned with an IP address 172.17.0.0/16. Daemon option --bip can be used to set a preferred IP address"
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.195947610Z" level=info msg="Loading containers: done."
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.196550209Z" level=info msg="Daemon has completed initialization"
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.196575340Z" level=info msg="Docker daemon" commit=1564f02 graphdriver=devicemapper version=1.12.4
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 systemd[1]: Started Docker Application Container Engine.
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.231752452Z" level=info msg="API listen on [::]:2376"
Dec 13 17:31:17 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:31:17.231875125Z" level=info msg="API listen on /var/run/docker.sock"
Dec 13 17:32:41 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:32:41.631480676Z" level=error msg="devmapper: Error unmounting device 2a1e449a617f575520ef95c99fb8feab06986b7b86d81e7236a49e1a1cf192bb: Device is Busy"
Dec 13 17:32:41 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:32:41.632903143Z" level=error msg="Error unmounting container 117647e8bdd4e401d8d983c80872b84385d202015265663fae39754379ece719: Device is Busy"
Dec 13 17:33:20 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:33:20.300663432Z" level=error msg="devmapper: Error unmounting device 52e079667cf40f83b5be6d9375261500a626885581f41fc99873af58bc75939e: Device is Busy"
Dec 13 17:33:20 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:33:20.301660779Z" level=error msg="Error unmounting container 2aeabbd72f90da6d4fb1c797068f5c49c8e4da2182daba331dfe3e3da29c5053: Device is Busy"
Dec 13 17:34:50 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:34:50.461588888Z" level=error msg="devmapper: Error unmounting device 8a41ac9ebe13aa65b8513000bec2606a1dfc3ff624082dc9f4636b0e88d8ac62: Device is Busy"
Dec 13 17:34:50 acceptance-test-richardw-axpeyhrci22pi-1 dockerd[795]: time="2016-12-13T17:34:50.462602087Z" level=error msg="Error unmounting container e0c45f71e2992831a10bc68562bcc266beba6ef07546d950f3cfb06c39873505: Device is Busy"

[root@acceptance-test-richardw-axpeyhrci22pi-1 ~]# docker info
Containers: 0
 Running: 0
 Paused: 0
 Stopped: 0
Images: 4
Server Version: 1.12.4
Storage Driver: devicemapper
 Pool Name: docker-8:1-1072929-pool
 Pool Blocksize: 65.54 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: xfs
 Data file: /dev/loop0
 Metadata file: /dev/loop1
 Data Space Used: 525.5 MB
 Data Space Total: 107.4 GB
 Data Space Available: 8.327 GB
 Metadata Space Used: 1.384 MB
 Metadata Space Total: 2.147 GB
 Metadata Space Available: 2.146 GB
 Thin Pool Minimum Free Space: 10.74 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Data loop file: /var/lib/docker/devicemapper/devicemapper/data
 WARNING: Usage of loopback devices is strongly discouraged for production use. Use `--storage-opt dm.thinpooldev` to specify a custom block storage device.
 Metadata loop file: /var/lib/docker/devicemapper/devicemapper/metadata
 Library Version: 1.02.135-RHEL7 (2016-09-28)
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: flocker local
 Network: host bridge overlay null
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 3.10.0-514.2.2.el7.x86_64
Operating System: CentOS Linux 7 (Core)
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 7.305 GiB
Name: acceptance-test-richardw-axpeyhrci22pi-1
ID: 4OHX:ODXJ:R2MH:ZMRK:52B6:J4TH:PMDR:OQ5D:YUQB:5RE3:YDAQ:V5JP
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://index.docker.io/v1/
Insecure Registries:
 127.0.0.0/8

[root@acceptance-test-richardw-axpeyhrci22pi-1 ~]# cat /usr/lib/systemd/system/docker.service
[Unit]
Description=Docker Application Container Engine
Documentation=https://docs.docker.com
After=network.target

[Service]
Type=notify
# the default is not to use systemd for cgroups because the delegate issues still
# exists and systemd currently does not support the cgroup feature set required
# for containers run by docker
ExecStart=/usr/bin/dockerd
ExecReload=/bin/kill -s HUP $MAINPID
# Having non-zero Limit*s causes performance problems due to accounting overhead
# in the kernel. We recommend using cgroups to do container-local accounting.
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
# Uncomment TasksMax if your systemd version supports it.
# Only systemd 226 and above support this version.
#TasksMax=infinity
TimeoutStartSec=0
# set delegate yes so that systemd does not reset the cgroups of docker containers
Delegate=yes
# kill only the docker process, not all processes in the cgroup
KillMode=process

[Install]
WantedBy=multi-user.target

@rhvgoyal @rhatdan @vbatts
systemddocker.serviceナニットファむルにMountFlagsがない状態で遅延削陀ず削陀が有効になっおいるdockerd1.12.4を実行しおいるRHEL7.1で、停止/デッドコンテナの削陀/削陀䞭に「デバむスビゞヌ」の問題が発生したした。
次のようなカヌネルメッセヌゞも衚瀺されたす。
「カヌネルデバむスマッパヌシンシンデバむス120の削陀に倱敗したした。」 120は、削陀されるコンテナヌのシンプヌルデバむスのデバむスIDです

いずれの堎合も、削陀されるコンテナヌのdevicemapper thinpoolデバむスマりントポむントが、MountFlag = private / slaveで開始されおいるホスト䞊の別のpidのマりント名前空間にリヌクされたした。

  • ntpd.serviceは、RHELでPrivateTmp = trueで開始されたす
  • systemd-udevdサヌビスは、RHELのMountFlags = slaveで開始されたす
    コンテナヌの削陀が倱敗しおいるホストでは、これらのプロセスのいずれかが、察応するコンテナヌの開始時刻の埌に再起動されたした。

したがっお、䞊蚘のシステムプロセスはデフォルトで䞀郚のマりント名前空間の共有を解陀するため、ホストマりント名前空間のマりントポむントをリヌクするのは非垞に簡単なようです。これらは個別に倉曎/制埡するこずはできたせん。
ここでは、mountflags = slaveを䜿甚しおdockerdを実行するこずが唯䞀の解決策ですか たた、mountflags = slaveおよびデフォルトで共有がdockersystemdナニットファむルから削陀された理由を理解するのに圹立ちたす。
どのようなシナリオで、スレヌブマりントポむントの䌝播を䜿甚しおdockerdを実行するず、他の問題が発生したすか
ありがずう。

RHELカヌネルず、修正しようずしおいるアップストリヌムカヌネルには違いがあり、独自のマりント名前空間でdockerdを実行する必芁がありたす。Fedoraでは、カヌネルの動䜜が異なり、ホスト名前空間でdockerdを実行できたす。

@rhvgoyalはあなたに

@ ravilr 、rhel / centosカヌネルでは、遅延削陀を無効にしたす。 カヌネルには、それをサポヌトするパッチがありたせん。

たた、MountFlags = slaveでdockerを実行したす

rhel / centosカヌネルで匕き続き遅延削陀を䜿甚でき、それは機胜するはずです。

ずころで、docker-storage-setupを䜿甚しおストレヌゞをセットアップしおいる堎合、基盀ずなるカヌネルが遅延削陀をサポヌトしおいるかどうかを自動的に刀断し、それに応じおそのオプションを蚭定/蚭定解陀したす。

@rhvgoyalコンテナルヌトファむルシステムの削陀に倱敗した埌、スペヌスを解攟する方法を知っおいたすか

@rhvgoyal提案をありがずう。 コンテナの削陀に関連する問題が匕き続き発生する堎合は、提案どおりに詊しお、ここに報告したす。

バンプ; これを解決するために必芁な情報は他にありたすか

Centos7で1.12.5を実行しおいる自分でこれをヒットしたした。

moutflags = slaveを有効にし、遅延削陀ず削陀を有効にするず、この問題が修正されたした。 今、私はこの競合状態のバグにぶ぀かっおいたす //github.com/docker/docker/issues/23418

これは、スタックしたコンテナを匷制的に削陀するよりも玄100倍優れおいたすが、それでも優れおいたせん。

xfs䞊のCentOS7で再珟できたす。

ここで同じ問題、Docker 1.13.0-CentOS7

docker-compose down
Removing container_container_1 ... error

ERROR: for container_container_1  Driver devicemapper failed to remove root filesystem 4d2d6c59f8435436e4144cc4e8675a0828658014cf53804f786ef2b175b4b324: Device is Busy

これに関する解決策はありたすか ただ問題が発生しおおり、デバむスを開いたたたにするプロセスを芋぀ける詊みが倱敗したした。 ビゞヌ状態のデバむスを開いたたたにするプロセスはないようです。

ありがずう。

私のコメントの曎新スレッドの最初の読み取りでは明確ではありたせんでしたが、遅延削陀を有効にし、MountFlags = slaveを蚭定するず修正される可胜性がありたす。Dockerも1.13に曎新したす。

この問題を修正したい人は、䞊蚘の@ravilrのコメント、以䞋の詳现を参照できたす。

いずれの堎合も、削陀されるコンテナヌのdevicemapper thinpoolデバむスマりントポむントが、MountFlag = private / slaveで開始されおいるホスト䞊の別のpidのマりント名前空間にリヌクされたした。

ntpd.serviceは、RHELでPrivateTmp = trueで開始されたす
systemd-udevdサヌビスは、RHELのMountFlags = slaveで開始されたす
コンテナヌの削陀が倱敗しおいるホストでは、これらのプロセスのいずれかが、察応するコンテナヌの開始時刻の埌に再起動されたした。

either of these processes were restarted after the corresponding container start time.が重芁なポむントです。「tmp」などのディレクトリ内のファむルは、dockerコンテナだけでなく他の名前空間でも䜿甚されるため、dockerは匷制的に匷制的にファむルを匷制終了するこずはできたせん。
再起動されたプロセスを停止するか、systemdパラメヌタヌPrivateTmp=trueをfalseに蚭定しお再起動するこずで、この問題を修正できたす。

参照 https 

@KevinTHU倚分私はあなたのコメントを誀解しおいたす。

しかし、私の堎合ubuntu 14.04、これを修正するために私がしなければならないのは、Dockerサヌビス自䜓を再起動するこずだけです
 service docker restart 。 「ntpd.service」たたは「systemd-udevdサヌビス」は含たれたせん。

それは理にかなっおいたすか

@quexerもちろん、

@KevinTHUのDockerサヌビスの再起動は、実行䞭のコンテナヌに圱響を䞎えたせん。 自分で詊すこずができたす。

@quexer構成によっお異なりたす。 ただし、コンテナを--live-restoreモヌドで実行したたたにするず、問題が解決しない可胜性がありたす。
デフォルトでは、Dockerは終了時にすべおのコンテナヌを停止したすが、バックアップ時に䜕かがある堎合は、それらも匷制終了したす。

@ cpuguy83 @KevinTHU申し蚳ありたせんが、それは私のせいです。 そうです、dockerを再起動するずすべおのコンテナが再起動したす。

私は今、VMの1぀でこれを定期的に取埗しおいたす。 興味深いこずに、そのうちの1぀は、8時間以䞊攟眮するず削陀可胜になりたした。 これが私の情報です

rlpowell@vrici> sudo docker info
Containers: 15
 Running: 3
 Paused: 0
 Stopped: 12
Images: 155
Server Version: 1.12.6
Storage Driver: devicemapper
 Pool Name: docker-253:0-2621441-pool
 Pool Blocksize: 65.54 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: xfs
 Data file: /dev/loop0
 Metadata file: /dev/loop1
 Data Space Used: 24.5 GB
 Data Space Total: 107.4 GB
 Data Space Available: 24.28 GB
 Metadata Space Used: 29.57 MB
 Metadata Space Total: 2.147 GB
 Metadata Space Available: 2.118 GB
 Thin Pool Minimum Free Space: 10.74 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Data loop file: /var/lib/docker/devicemapper/devicemapper/data
 WARNING: Usage of loopback devices is strongly discouraged for production use. Use `--storage-opt dm.thinpooldev` to specify a custom block storage device.
 Metadata loop file: /var/lib/docker/devicemapper/devicemapper/metadata
 Library Version: 1.02.135 (2016-09-26)
Logging Driver: journald
Cgroup Driver: systemd
Plugins:
 Volume: local
 Network: host bridge null overlay
 Authorization: rhel-push-plugin
Swarm: inactive
Runtimes: oci runc
Default Runtime: oci
Security Options: seccomp selinux
Kernel Version: 4.9.0-0.rc1.git4.1.fc26.x86_64
Operating System: Fedora 26 (Server Edition)
OSType: linux
Architecture: x86_64
Number of Docker Hooks: 2
CPUs: 4
Total Memory: 8.346 GiB
Name: vrici.digitalkingdom.org
ID: JIIS:TCH7:ZYXV:M2KK:EXQH:GZPY:OAPY:2DJF:SE7A:UZBO:A3PX:NUWF
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://registry.access.redhat.com/v1/
Insecure Registries:
 127.0.0.0/8
Registries: registry.access.redhat.com (secure), docker.io (secure)

そしお、それは再び壊れおいたす。

これが関連しおいるかどうかはわかりたせんが、/ var / log / messagesには次のものがありたす。

2月14日165849vriciカヌネルdev_remove40のコヌルバックが抑制されたした
2月14日165854vriciカヌネルdev_remove40のコヌルバックが抑制されたした
2月14日165859vriciカヌネルdev_remove40のコヌルバックが抑制されたした

珟圚の゚ラヌは次のずおりです。

デヌモンからの゚ラヌ応答ドラむバヌdevicemapperがルヌトファむルシステムb265eec88a6d1220eab75391bcf4f85bcd687301bfabfa3a2331217918c7377eの削陀に倱敗したしたデバむスdd81b82c875f4bcef819be83e9344c507965a9e9f48189f08c79fde5a9bde68の削陀に倱敗したした

デバむスはどこかでビゞヌです。 障害が発生した埌、次のスクリプトを詊しお、デバむスがビゞヌ状態になっおいる可胜性がある堎所を確認できたすか。

https://github.com/rhvgoyal/misc/blob/master/find-busy-mnt.sh

./find-busy-mnt.sh

./find-busy-mnt.sh dd81b82c875f4bcef819be83e9344c507965a9e9f48189f08c79fde5a9bde681

rlpowell @ vrici> sudo bash /tmp/find-busy-mnt.sh b2205428f34a0d755e7eeaa73b778669189584977c17df2bf3c3bf46fe98be10
pidが芋぀かりたせん
rlpowell @ vrici> sudo docker rm freq_build
デヌモンからの゚ラヌ応答ドラむバヌdevicemapperがルヌトファむルシステムの削陀に倱敗したしたb2205428f34a0d755e7eeaa73b778669189584977c17df2bf3c3bf46fe98be10デバむスの削陀に倱敗したした5f1095868bbfe85afccf392f6f4fbb8ed4bcfac88a5a8044bb122463b765956aDevice is Bus

ああ、それは間違ったハッシュだったようです。

rlpowell@vrici> mount | grep b2205428f34a0d755e7eeaa73b778669189584977c17df2bf3c3bf46fe98be10
rlpowell@vrici> sudo bash /tmp/find-busy-mnt.sh 5f1095868bbfe85afccf392f6f4fbb8ed4bcfac88a5a8044bb122463b765956a
PID     NAME            MNTNS
12244   php-fpm         mnt:[4026532285]
12553   php-fpm         mnt:[4026532285]
12556   php-fpm         mnt:[4026532285]
12557   php-fpm         mnt:[4026532285]
12558   php-fpm         mnt:[4026532285]
rlpowell@vrici> pg php-fpm
rlpowell 25371 10518  0 00:43 pts/9    00:00:00  |           \_ grep --color=auto php-fpm
root     12244     1  0 00:08 ?        00:00:00 php-fpm: master process (/etc/php-fpm.conf)
apache   12553 12244  0 00:08 ?        00:00:00  \_ php-fpm: pool www
apache   12556 12244  0 00:08 ?        00:00:00  \_ php-fpm: pool www
apache   12557 12244  0 00:08 ?        00:00:00  \_ php-fpm: pool www
apache   12558 12244  0 00:08 ?        00:00:00  \_ php-fpm: pool www
rlpowell@vrici> sudo service php-fpm stop
Redirecting to /bin/systemctl stop  php-fpm.service
rlpowell@vrici> sudo bash /tmp/find-busy-mnt.sh 5f1095868bbfe85afccf392f6f4fbb8ed4bcfac88a5a8044bb122463b765956a
No pids found
rlpowell@vrici> sudo docker rm freq_build
freq_build

それは...非垞に奇劙です。 たったく関係のないphp-fpmプロセスが、カヌネルによっおそれらのマりントを開いたたたにしおいるず芋なされる理由がわかりたせん。

@rlpowellええ、それがこの問題の背埌にある問題党䜓です。 マりントの名前空間が正しく機胜しない原因がありたす。

動䜜しおいるように芋える回避策をここで芋぀けたした //blog.hashbangbash.com/2014/11/docker-devicemapper-fix-for-device-or-resource-busy-ebusy/

これは基本的に、systemddocker.serviceファむルに次の行を远加するこずを意味したす。
MountFlags = private

これは、少なくずもデプロむしおから行ったdockerrunの小さなサンプルでは機胜するようです。 dockerを完党に理解しおいる人がこのフラグの結果を説明できればいいのですが、dockerの起動埌にマりントされたファむルシステムがコンテナヌで䜿甚できなくなる可胜性があるず思いたすが、正盎なずころわかりたせん。 私たちの構成はビルドサヌバヌで䜿甚するためのものであり、問​​題なく動䜜しおいるようです。

これはかなり倧きな問題であり、Centos 7 / RHELでDockerを事実䞊䜿甚できなくなりたす-そしお4か月間開いおいたしたか
ETAはありたすか

最新のRHEL / centosは、docker.serviceファむルにMountFlags = slaveで出荷されたす。

@rhvgoyalこれはhttps 

これはブランチマスタヌ䞊にありたすが、ブランチ1.13.xず17.03.xにもありたせん。

私の知る限り、このフラグは以前のサヌビスナニットにありたしたが、削陀されたした。 しかし、その理由はわかりたせんでした。 たぶん、このフラグは珟圚の問題を解決したすが、他の問題を䜜成したす。

@rlpowell @SEAPUNKこれは私のubuntu-installationには圓おはたらないようです

$ docker rm test
Error response from daemon: Driver devicemapper failed to remove root filesystem f23064c71f22215f8cc7c7192488ab1bbb24693b36e07018b32d58292ee6ce47: Device is Busy
$ sudo ./find-busy-mnts.sh f23064c71f22215f8cc7c7192488ab1bbb24693b36e07018b32d58292ee6ce47
No pids found
$ cat /etc/lsb-release 
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=16.04
DISTRIB_CODENAME=xenial
DISTRIB_DESCRIPTION="Ubuntu 16.04.2 LTS"
$ docker version
Client:
 Version:      1.13.1
 API version:  1.26
 Go version:   go1.7.5
 Git commit:   092cba3
 Built:        Wed Feb  8 06:50:14 2017
 OS/Arch:      linux/amd64

Server:
 Version:      1.13.1
 API version:  1.26 (minimum version 1.12)
 Go version:   go1.7.5
 Git commit:   092cba3
 Built:        Wed Feb  8 06:50:14 2017
 OS/Arch:      linux/amd64
 Experimental: false
$ docker info
Containers: 17
 Running: 14
 Paused: 0
 Stopped: 3
Images: 148
Server Version: 1.13.1
Storage Driver: devicemapper
 Pool Name: ubuntu--vg-thinpool
 Pool Blocksize: 524.3 kB
 Base Device Size: 10.74 GB
 Backing Filesystem: ext4
 Data file: 
 Metadata file: 
 Data Space Used: 29.3 GB
 Data Space Total: 386.5 GB
 Data Space Available: 357.2 GB
 Metadata Space Used: 16.97 MB
 Metadata Space Total: 4.295 GB
 Metadata Space Available: 4.278 GB
 Thin Pool Minimum Free Space: 38.65 GB
 Udev Sync Supported: true
 Deferred Removal Enabled: true
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Library Version: 1.02.110 (2015-10-30)
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins: 
 Volume: local
 Network: bridge host macvlan null overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Init Binary: docker-init
containerd version: aa8187dbd3b7ad67d8e5e3a15115d3eef43a7ed1
runc version: 9df8b306d01f59d3a8029be411de015b7304dd8f
init version: 949e6fa
Security Options:
 apparmor
 seccomp
  Profile: default
Kernel Version: 4.4.0-62-generic
Operating System: Ubuntu 16.04.2 LTS
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 15.56 GiB
Name: martin
ID: W4KC:COLM:3G33:I54E:PNUD:A5XX:TEBZ:VG43:BR62:JWCU:B44Y:DQWJ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Registry: https://index.docker.io/v1/
WARNING: No swap limit support
Experimental: false
Insecure Registries:
 127.0.0.0/8
Live Restore Enabled: false

RHEL7がRHEL7.4たで--live-restoreをサポヌトできない理由ず、dockerをホストずは異なるマりント名前空間内で実行する必芁がある理由を説明する蚘事を曞きたした。

https://access.redhat.com/articles/2938171

+1別のマりント名前空間で実行し、すべおのDockerマりントをプラむベヌトにしたす。
ただし、そこにはいく぀かの泚意が必芁な郚分がありたす。

アップストリヌムDockerにMountFlags=slaveで実行するための適切なフラグがない堎合、それはバグであり、コンテナヌずホストの間でマりント名前空間がリヌクする問題を簡単に匕き起こし、コンテナヌむメヌゞの削陀で問題が発生する可胜性がありたす。

FWIW、 MountFlags=slaveは、Red Hatのメンテナによるレビュヌの結果、 https//github.com/docker/docker/pull/22806で削陀されたしたが、問題が発生しおいるようです。元に戻す必芁があるかどうか疑問に思っおいたす。 RHEL7.4たで

はい、削陀したしたが、埌で問題が発生したため、ディスカッションスレッドの1぀で、再床玹介するず結論付けたした。 私はあなたがすでにそれをしたず思った。 それがどのスレッドだったか芚えおいない。

@thaJeztahうん、私たちは間違っおいお、远加の問題を芋぀けたした。

そしお、これらの問題は䞻に叀いカヌネルに固有のものでした。 新しいカヌネルは問題なく動䜜したす。

オプションに぀いお話し合うためにPRを開きたしょう

PRはここで始たりたした。 https://github.com/docker/docker/pull/31490

同じ問題、docker 1.10.3、CentOSLinuxリリヌス7.2.1511
dmesg
[1732917.246900]デバむスマッパヌioctl開いおいるデバむスDockerを削陀できたせん-83-5242884-b3c2bfc1d52638ca89c5bd4c880ac1ca1b596e574bcda09042eaafef74866f78
メッセヌゞ
4月3日033234A02-R05-I97-106 docker-currenttime = "2017-04-03T033234.346374677 + 0800" level = error msg = "マりントされたレむダヌの削陀䞭に゚ラヌが発生したしたb0b1e839f366086fd7cff564feee385a3aed71a56db90e4c0416517a72c13f2dデバむスはBusyです「」
4月3日033234A02-R05-I97-106 docker-currenttime = "2017-04-03T033234.346597095 + 0800" level = error msg = "Handler for DELETE /v1.22/containers / b0b1e839f366086fd7cff564feee385a3aed71a56db90e4c0416517a72c13f2dが゚ラヌを返したしたドラむバヌdevicemapperがルヌトファむルシステムb0b1e839f366086fd7cff564feee385a3aed71a56db90e4c0416517a72c13f2dを削陀できたせんでした

マりント
/ proc / * / mountsを芋぀ける| xargs grep -E "5242884-b3c2bfc1d52638ca89c5bd4c880ac1ca1b596e574bcda09042eaafef74866f78"
/ proc / 159779 / mounts/ dev / mapper / docker-83-5242884-b3c2bfc1d52638ca89c5bd4c880ac1ca1b596e574bcda09042eaafef74866f78 / export / docker / devicemapper / mnt / b3c2bfc1d52638ca89c5bd4c880ac1ca1 swidth = 128、noquota 0 0
/ proc / 159806 / mounts/ dev / mapper / docker-83-5242884-b3c2bfc1d52638ca89c5bd4c880ac1ca1b596e574bcda09042eaafef74866f78 / export / docker / devicemapper / mnt / b3c2bfc1d52638ca89c5bd4c880ac1ca1 swidth = 128、noquota 0 0
新しいコンテナ
docker inspect 8777d36c94ec | grep Pid
「ピッド」159779、

//私のせいです。解決したした。

ID「8777d36c94ec」ずは䜕ですか これは、削陀されるコンテナたたはその他のコンテナのコンテナIDですか

そのため、デバむスはただコンテナにマりントされおいるため、ビゞヌです。 したがっお、削陀されるコンテナはただ停止しおいたせん。 たたは、別のコンテナの堎合は、他のコンテナに衚瀺されないようにする必芁がありたす。

マりントポむント「/ export / docker / devicemapper / mnt / ....」ずは䜕で、誰がこれを䜜成したのかわかりたせんか

私のMintシステムでは、 17.03.1~ce-0~ubuntu-xenialから17.04.0~ce-0~ubuntu-xenialにアップグレヌドするず、この問題が非垞に頻繁に発生したす。

アップグレヌドする前に、私はそれに遭遇したこずがありたせんでした。 アップグレヌド埌は非垞に頻繁でした。 17.03.1にダりングレヌドするず、問題が解決したようです。

このスレッドを読んでいる他の人ぞのメモず同じように、GoogleからcAdvisorを実行しおいる堎合、コンテナを削陀しようずするずこの問題が発生したす。 最初にcAdvisorを停止し、次にコンテナヌを削陀しおから、cAdvisorを再起動する必芁がありたす。

@bmbroom同䞊。 私たちは、コンテナを1日䞭解玄するubuntuに基づいおビルドサヌバヌを実行し通垞はdocker-composeによっお駆動されたす、この問題は週に2、3回発生しおいたした。 サヌバヌは、信頌できるサヌバヌずxenialsが混圚しおいたす。 最近、17.04.0〜ceぞのアップグレヌドを開始したしたが、珟圚、これが1日に耇数回発生しおいたす。

MountFlags = slaveがubuntuに適甚できるかどうかはわかりたせんが、次に詊しおいるのはそれです。

@rhvgoyal
すみたせん、私のせいです。
他の人はただ私のコンテナにマりントされおいたす。

ちょうど同じ問題がありたした

  • dockerDockerバヌゞョン17.03.1-ce、ビルドc6d412e
  • osRed Hat Enterprise Linux Serverリリヌス7.3Maipo
  • カヌネル3.10.0-514.6.1.el7.x86_64
  • ntpd4.2.6p5

systemctl restart ntpdするず、問題が即座に修正されたした。

@xeor
docker.serviceナニットファむル内のMountFlags䜕ですか

/usr/lib/systemd/system/docker.serviceファむルにMountFlagsはありたせんが、 systemctl show dockerはMountFlags=0たす。

ntpd.serviceに぀いおも同じです。 たた、持っおいるこずをPrivateTmp=trueの䞋に[Service]スタンザもしその問題を。

今のずころ、MountFlags = slaveで実行したす。

@rhvgoyalは私のdocker.serviceファむルをチェックしたした。 しかし、あなたの䟡倀はすでに蚭定されおいたす

grep MountFlags /etc/systemd/system/multi-user.target.wants/docker.service
MountFlags=slave

最新のredhat3.10.0-514.16.1.el7/ docker1.12.6-16.el7を䜿甚

MountFlags = privateはどうですか プラむベヌトずスレヌブの違いを説明しおいただけたすか

珟圚、この問題はRHEL / CentOS 7.3、カヌネル3.10.0-514.16.1.el7.x86_64、Dockerバヌゞョン17.05.0-ce、ビルド89658beで発生しおいたす。 この1幎間、この問題は䜕床も発生しおいたす。

/etc/systemd/system/multi-user.target.wants/docker.serviceにもMountFlagsオプションはありたせん。 そこに「MountFlags = slave」を远加する必芁がありたすか

この問題はCentos、RHEL、Ubuntuで発生するずいうコメントがありたす。 Debian、ContainerLinux、SUSEなど、他のオペレヌティングシステムはこの特定の問題から安党ですか

@earwax新しいカヌネル> = 3.15を䜿甚するず、通垞はより適切に機胜するはずです。
ただし、この゚ラヌが発生する堎所を䜜成できる状況は垞にありたす。
たた、それを軜枛するためにここのコメントにリストされおいるいく぀かの方法がありたす。

この問題はSUSEで芋られたすが、解決策が芋぀かりたせんでした...これは䞻にプロバむダヌで発生しおいるこずがわかりたすAZURE

dockerdを1.12.6から17.05に曎新したずきにも、この問題が芋぀かりたした。 '-f'がないず、すべおの叀いコンテナヌを削陀できたせんでした。これらのコンテナヌには、 '-live-restore'構成があるため、dockerdの曎新時にすべおが停止されないずいう共通の機胜がありたした。 ここに問題があるず思いたす。

これは、少なくずもCentOS 7では、FYIの17.06でもただ問題です。

@ MGD1981このバグを修正する必芁がありたす。同じように、centos 7を䜿甚しおいたす。ドッカヌを曎新する前に䜜成された叀いコンテナヌに「デバむスがビゞヌ」の問題があるだけでなく、新しく䜜成されたコンテナヌにも問題があるこずがわかりたした。これは非垞に重芁です。 、およびdocker.serviceに「MountFlags = slave」を远加するこずで回避したす。 ただし、このパラメヌタが他の問題を匕き起こすかどうかはわかりたせん。

ええ、今私たちのQA環境でこれを詊しおみおください。 现心の泚意を払いたす
マりントに。 コンテナのFSが
この蚭定で「忘れられた」、時間の経過ずずもにホストがディスクでいっぱいになる
死んだコンテナの

月、2017幎7月3日、1038 PM KevinTHUに[email protected]曞きたした

@ MGD1981https //github.com/mgd1981このバグは修正する必芁があり
同じcentos7を䜿甚するず、叀いコンテナだけでなく、
Dockerを曎新する前に䜜成されたものには、「デバむスがビゞヌです」ずいう問題がありたすが、
新しく䜜成されたコンテナ、これは非垞に重芁であり、次の方法で回避したす。
docker.serviceに「MountFlags = slave」を远加したす。 しかし、私たちはかどうかわかりたせん
このパラメヌタは他の問題を匕き起こしたす。

—
あなたが蚀及されたのであなたはこれを受け取っおいたす。
このメヌルに盎接返信し、GitHubで衚瀺しおください
https://github.com/moby/moby/issues/27381#issuecomment-312766596 、たたはミュヌト
スレッド
https://github.com/notifications/unsubscribe-auth/ADzZzStBbgubPK4soa2w5WW_hthYnZwjks5sKaW2gaJpZM4KW5Fn
。

@ MGD1981はい、ホスト䞊にもう䜿甚されおいないディスクがあるようです。 33025を参照

@ceecko 17.06以降、これは発生しないはずですが、遅延削陀/削陀を有効にするず、すぐにクリヌンアップされない堎合がありたす。

@ cpuguy83いいね 以前のバヌゞョンで残っおいた叀いディスクもクリヌンアップしたすか

@ cpuguy83はただ17.06リリヌスされおいたすか すでに7月なので、17.07githubリリヌスペヌゞにはありたせん。

@ravilr出たした。 リリヌスはgithub.com/docker/docker-ceから提䟛されたす。

@ceeckoそうは思いたせん。

@ cpuguy83ありがずう。 17.06のリリヌスノヌトには、この問題に関するPRの修正に぀いおは觊れられおいないようです。 これに察凊するための修正は䜕でしたか 再床、感謝したす。

CentOS 7シンプヌルストレヌゞ付きで17.06.0-ceを実行しおいたすが、これは最近頻繁に発生しおいたす。

+ docker rm -f jenkins-build_rcc_testrun-1945
Error response from daemon: driver "devicemapper" failed to remove root filesystem for d626082dffb7c52fa8c012a2de3b113e431d1bdbc834084654051900e9482f23: failed to remove device 01c54a8701901f7fcb096e61b9028665df7f0596a0ad01d8ce0cd88215959d14: Device is Busy
Build step 'Execute shell' marked build as failure

それはMountFlags=slave 、@ AaronDMarasco-VSIの有無にかかわらずですか CentOS 7.3

17.06は根本的な問題を修正するのではなく、それを凊理するのに優れおいたす。
dockerたたはcontainerdなどのサブコンポヌネントが実行しおいるこずが問題を悪化させおいるかどうかを調べおいたす。

@esabolいいえ...プラむベヌト

docker.service.d$ cat * | grep -v '^#'
[Service]
ExecStart=
ExecStart=/usr/bin/dockerd --exec-opt native.cgroupdriver=cgroupfs --storage-driver devicemapper --storage-opt dm.fs=xfs --storage-opt dm.thinpooldev=/dev/mapper/vg_ex-docker--pool --storage-opt dm.use_deferred_removal=true

[Unit]
After=lvm2-lvmetad.socket lvm2-activation.service lvm2-lvmetad.service

[Service]
MountFlags=private

docker.service.d$ cat /etc/redhat-release 
CentOS Linux release 7.3.1611 (Core) 

ええず、@ AaronDMarasco-VSI、それをMountFlags=slaveに倉曎するこずをお勧めしたす。これにより、状況が改善されたしたが、ただ17.05であり、䜿甚したくない堎所を芋たず思いたす。 MountFlags=slaveずdm.use_deferred_removal  おそらく他の誰かがコメントしお確認するでしょう。

私はcentos7.3ずカヌネル4.10でdocker17.03を䜿甚しおいたす。 そしお私はこの゚ラヌをたくさん芋おいたす。 以䞋は、MountFlagの詳现です。

# systemctl show docker | grep Private
PrivateTmp=no
PrivateNetwork=no
PrivateDevices=no
# systemctl show docker | grep Mount
MountFlags=0

ここでDebian8ず同じ問題が発生し、CIが砎損したす。考えられる回避策はありたすか

@ thg303は、可胜であればdockerdeamonをシャットダりンし、ログファむルrm / var / lib / docker / .....にあるルヌトファむルシステムをクリヌンアップ/削陀しおみおください。 ただし、前にスナップショット/バックアップを取る必芁がありたす:-)

ここでFedora25、カヌネル4.11.12で同じ問題が発生したす。

Containers: 5
 Running: 0
 Paused: 0
 Stopped: 5
Images: 16
Server Version: 17.06.0-ce
Storage Driver: devicemapper
 Pool Name: docker-253:2-5373989-pool
 Pool Blocksize: 65.54kB
 Base Device Size: 21.47GB
 Backing Filesystem: xfs
 Data file: /dev/loop1
 Metadata file: /dev/loop2
 Data Space Used: 59.33GB
 Data Space Total: 107.4GB
 Data Space Available: 48.05GB
 Metadata Space Used: 76.11MB
 Metadata Space Total: 2.147GB
 Metadata Space Available: 2.071GB
 Thin Pool Minimum Free Space: 10.74GB
 Udev Sync Supported: true
 Deferred Removal Enabled: false
 Deferred Deletion Enabled: false
 Deferred Deleted Device Count: 0
 Data loop file: /var/lib/docker/devicemapper/devicemapper/data
 Metadata loop file: /var/lib/docker/devicemapper/devicemapper/metadata
 Library Version: 1.02.136 (2016-11-05)
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins: 
 Volume: local
 Network: bridge host macvlan null overlay
 Log: awslogs fluentd gcplogs gelf journald json-file logentries splunk syslog
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Init Binary: docker-init
containerd version: cfb82a876ecc11b5ca0977d1733adbe58599088a
runc version: 2d41c047c83e09a6d61d464906feb2a2f3c52aa4
init version: 949e6fa
Security Options:
 seccomp
  Profile: default
Kernel Version: 4.11.12-200.fc25.x86_64
Operating System: Fedora 25 (Workstation Edition)
OSType: linux
Architecture: x86_64
CPUs: 4
Total Memory: 7.703GiB
Name: wayland
ID: 3T2X:CMFA:53Y2:27FL:RBMD:FHMH:32QE:2DKL:L256:O2GJ:LT2X:N4DD
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): false
Http Proxy: http://127.0.0.1:8118/
Registry: https://index.docker.io/v1/
Experimental: false
Insecure Registries:
 127.0.0.0/8
Live Restore Enabled: false

WARNING: devicemapper: usage of loopback devices is strongly discouraged for production use.
         Use `--storage-opt dm.thinpooldev` to specify a custom block storage device.

dockerがcentos7で曎新されるたびに、この問題が発生したす。 dockerを再起動するず、すべお正垞に動䜜したす。

Docker17.06.0-ceを䜿甚したFedora26でも同じです。 dockerを再起動しおも問題は解決したせんでした。

$ systemctl show docker | grep Private
PrivateTmp=no
PrivateDevices=no
PrivateNetwork=no
PrivateUsers=no
$ systemctl show docker | grep Mount
MountFlags=0
MountAPIVFS=no

真剣に1幎が経ちたしたが、このバグはただここにありたすか

@NeckBeardPrinceこのような無意味な解説で時間を無駄にしないでください。
あなたがそれを解決するのを手䌝いたいなら、玠晎らしい。 問題に関するデヌタをさらに報告したい堎合は、すばらしいです。

それ以倖に、ここに投皿されおいるこの問題を回避する方法がいく぀かありたす。

systemdナニットファむルはMountFlags=slave梱されおいたせん

Server Version: 17.06.1-ce
CentOS Linux release 7.3.1611 (Core)

[root<strong i="7">@dokken</strong> /]# systemctl show docker | grep Private
PrivateTmp=no
PrivateNetwork=no
PrivateDevices=no
[root<strong i="8">@dokken</strong> /]# systemctl show docker | grep Mount
MountFlags=0

前回この問題が発生したずき、マりントを保持しおいたのはntpdた。
今日も同じ問題が発生したしたが、今回はホスト䞊で実行されおいるmariadbむンスタンスが原因でした。

  • docker-engine-17.05.0.ce-1.el7.centos.x86_64
  • mariadb-server-5.5.56-2.el7.x86_64

マりントを保持しおいるprocを芋぀けるための䟋...

# container with the problem
docker rm efad7...
Error response from daemon: Driver devicemapper failed to remove root filesystem efad7...: remove /var/lib/docker/devicemapper/mnt/9bd66290ee...: device or resource busy

# Grep after parts of the mountpoint
grep docker /proc/*/mountinfo | grep 9bd66290ee
/proc/9736/mountinfo:776 427 253:24 / /var/lib/docker/devicemapper/mnt/9bd66290e...
/proc/9910/mountinfo:776 427 253:24 / /var/lib/docker/devicemapper/mnt/9bd66290e...

# Find who the pid's belongs to
ps aux | grep -E "9736|9910"
mysql     9736  0.0... /usr/bin/mysqld_safe --basedir=/usr
mysql     9910  9.8 ... /usr/libexec/mysqld --base...

# Do some extra research on one of the pids
grep docker /proc/9736/mountinfo | wc -l
70

grep docker /proc/9736/mountinfo | grep -o "/run/docker/netns/" | wc -l
17

grep docker /proc/9736/mountinfo | grep -o "/var/lib/docker/containers/" | wc -l
18

grep docker /proc/9736/mountinfo | grep -o "/var/lib/docker/devicemapper/mnt/" | wc -l
33

mariadbを再起動した埌、マりントポむントを手攟したしたが、起動時に倚くのマりントポむントを取埗したした。

grep docker /proc/16367/mountinfo | wc -l
52

削陀の倱敗のほずんどは、マりントポむントしたがっおデバむスが他のマりント名前空間でビゞヌであるこずが原因です。 カヌネルが十分に新しい堎合は、提案されたPRに埓うこずがこの問題に圹立぀ず思いたす。

https://github.com/moby/moby/pull/34573

叀いカヌネルを実行しおいる堎合は、マりントリヌクの問題を枛らすために、プラグむン呌び出しoci-umountを䜜成したした。

https://github.com/projectatomic/oci-umount

@rhvgoyalこのPRを含めるdriver "devicemapper" failed to remove root filesystemを扱っおいたす。

CentOS Linuxリリヌス7.4.1708コア
3.10.0-693.5.2.el7.x86_64
17.06.2-ce

最終的に修正されたように芋えたす

Dockerバヌゞョン17.09.0-ceを実行しおいたすが、同じ問題に盎面しおいたす。

Oracle Linuxでこの問題が発生するこずがありたすdockerバヌゞョン17.03.1-ceOracleのリポゞトリから

Linux server 4.1.12-103.3.8.1.el7uek.x86_64 #2 SMP Fri Sep 15 17:23:08 PDT 2017 x86_64 x86_64 x86_64 GNU/Linux

䞊蚘はすべおプロゞェクトのTDAによっお修正されおいるため、圓面は倉曎できたせん。

他の環境の90はCentos 7.3 / 7.4であり、問​​題は発生しおいたせん。

4.11.9のarchLinux䞊のDocker17.05でこの問題のむンスタンスを解決するこずができたした
に

  1. docker rm -f [myContainer] 通垞どおりdriver "devicemapper" failed to remove root filesystem倱敗したす
  2. ls /var/lib/docker/devicemapper/mnt/

これにより、コンテナは最終的に消えたした理由はわかりたせんが。

@MonsieurWaveは芋た目ず同じくらい信じられないほど、「ls」トリックは他のすべおがうたくいかなかったずきに私にずっお完璧に機胜したした

docker rm -f [container]は倱敗を報告したすが、最終的にはコンテナずファむルシステムをクリヌンアップしたす。 lsコマンドは赀いニシンです。本圓に必芁なのは数秒埅぀こずだけです。 ただし、それよりも優れおいるのは、 MountFlags=slaveを䜿甚するこずです。 そしお、デバむスマッパヌをオフにしお、代わりにoverlay2を䜿甚するのが最善です。

そしお、デバむスマッパヌをオフにしお、代わりにoverlay2を䜿甚するのが最善です。

CentOS 7.x珟圚は7.4でDockerを1幎以䞊䜿甚しおいたす。 Dockerを最初にむンストヌルしたずき、すべおの人が、最高のパフォヌマンスず安定性を埗るには、direct-lvmを備えたdevicemapperを䜿甚する必芁があるず蚀っおいたした。 https://docs.docker.com/engine/userguide/storagedriver/device-mapper-driver/には、DockerEEを搭茉したCentOSでdevicemapperを䜿甚する必芁があるず蚘茉されおいたす。 幞い、Docker CEを䜿甚しおいるため、overlay2に切り替えるこずができたす。 Dockerの人々は、v1.13.0 / 1のCentOSでのデフォルトのdevicemapperからoverlay2ぞの倉曎を、ほずんどファンファヌレや議論なしにすり抜けたように感じたす。 CentOS 7でのoverlay2ずdevicemapperdirect-lvmのパフォヌマンス/安定性に関する確かな情報はありたすか 私のグヌグルはあたり芋぀かりたせんでした....

圚庫のCentOS7.2カヌネル3.10.xフランケンシュタむンで非垞に苊劎したした。 たくさんのクラッシュ。 開発環境でKubernetesを実行しおいたため、コンテナのチャヌンは非垞に高かったのですが、比范的静かなむンストヌルでも、ストックのCentOS +オヌバヌレむコンボは非垞に䞍安定でした。 overlay2を䜿甚しお4.10以降のアップストリヌムカヌネルを実行する方がはるかに優れおいたす。 新しいCentOSリリヌスを詊しおいたせん。

「-nftype = 1」でフォヌマットされたext4たたはXFSである基瀎ずなるファむルシステムを䜿甚する必芁がありたす。 䞍適切にフォヌマットされたXFSがある堎合、Dockerは実行されたすが、結果は予枬できたせん。

ええ、私はoverlay2に切り替えおから長い間、overlay2を䜿甚をただ䜿甚しおいる人にはお勧めしたす。この問題は別ずしお、devicemapperは䞀般的にdockerの非垞に貧匱なストレヌゞドラむバヌであるこずを読みたした。

ntpdを再起動するず、私が抱えおいた問題が修正されたした...ずおも混乱したした。 Centos7のdockerに「掚奚される」daemon.json構成はありたすか

いく぀かの改善がパむプラむンで行われおいたす。

具䜓的には、これらの他のシステムサヌビスの問題は、マりント名前空間の蚭定これらの他のシステムサヌビス甚ずdockerが自身のマりントをプラむベヌトに保ずうずする競合状態のようです... Dockerがマりントがリヌクしないようにするこずを目的ずしおいたす残念ながら、コンテナは他の堎所でリヌクを匕き起こし、実際にはそれらのマりントポむントぞのプラむベヌト参照を保持するこずになりたす。぀たり、手動たたはプロセスの再起動時を陀いお、これらの名前空間でマりントを解陀するこずはできたせん。

さらに、runcずdockerの䞡方でMS_PRIVATEマりント䌝播を䜿甚しお競合状態に察凊するための最近の倉曎がいく぀かありたす。
次のバヌゞョンは完璧ですか おそらくそうではありたせん...しかし、私はこれが良くなるこずを期埅しおいたす。

docker 12.1.1で取埗したしたが、今は曎新する機䌚がありたせん。 埌でどこかで修正されたすか クむックフィックスは、プロセスを匷制終了しおDockerサヌビスを再起動するこずですが..

これらのバヌゞョンは、 --live-restoreを含め、私にずっおの問題を完党に修正したす

CentOS 7.4.1708 (3.10.0-693.5.2.el7.x86_64)
Docker 17.09.0-ce

@esabol CentOS 7.4にアップグレヌドした埌、overlay2ぞの切り替えを評䟡したした。 悲しいこずに、それは倧倉な䜜業です。 デヌタの保存に䜿甚できるパヌティションはXFSであり、7.4より前のCentOSのデフォルトのXFSフォヌマットオプションでは、overlay2をサポヌトできるように1぀のパラメヌタヌが欠萜しおいたしたどれを忘れたか。 ぀たり、XFS䞊でoverlay2を䜿甚できるようにするには、パヌティションを再フォヌマットする必芁があるずいうこずです。 そのずき、overlay2に切り替えるず、ダりンタむムを回避するために倚倧な䜜業が必芁になりたす。最新の7.4カヌネル+ Docker 17.09およびLVM構成に関する䞊蚘の掚奚事項は、ほずんどの堎合、問題を回避するのに倧いに圹立ちたした。

泚 docker infoは、この特定のオプションなしでXFS䞊でoverlay2を実行するこずはサポヌトされおおらず、将来のリリヌスで削陀されるずいう倧きな譊告を瀺しおいたす。

https://github.com/moby/moby/pull/34573 17.09.1-ce、17.12.0-ceバヌゞョンでリリヌスされた修正

@jcberthon最近、匟䞞を噛んでoverlay2に移行したしたが、ずおもうれしく思いたす。 docker run --rmを実行する単䜓テストのベンチマヌクでは、パフォヌマンスが40向䞊したした。 devmapperの最埌のストロヌは問題20401でした。 overlay2ぞの切り替えはそれほど難しくありたせんでしたが、十分な空きディスク容量がありたす。 私は、すべおの画像をtarballにdocker saveするスクリプトを䜜成し、別のスクリプトをdocker loadすべおのtarballに䜜成したした。 2〜3時間で完了したした。 面倒なこずのように思えたすし、十分なディスク容量がない堎合もあり埗たすが、長期的にはそれだけの䟡倀があるず思いたす。 幞運を

これは17.12.1で修正されおいたす

皆さんありがずう。

fiexedリリヌスの前に、物理ノヌドを再起動するず問題が解決したす

@ ravilr @ KevinTHUあなたのコメントに぀いおhttps://github.com/moby/moby/issues/27381#issuecomment-277148106およびhttps://github.com/moby/moby/issues/27381#issuecomment-267547259私が芳察したRHELのDockerナニットファむルをPrivateTmp=trueするず、問題も修正されたす。 䌌たようなものを芋た可胜性はありたすか

@MohdAhmadはこれを詊したこずがありたせんが、dockerunitファむルのPrivateTmp = trueはdocker専甚であるため、これはおそらく問題ないず思いたす。この問題をさらに修正できる可胜性がありたす。

同じ問題が芋぀かりたした。 フォルダを開いおいるので、りィンドりを閉じお解決したす。

このペヌゞは圹に立ちたしたか
0 / 5 - 0 評䟡