Moby: Nama "/ data-container-name" sudah digunakan oleh container<hash>. Anda harus menghapus (atau mengganti nama) penampung itu agar dapat menggunakan kembali nama itu.</hash>

Dibuat pada 8 Jun 2016  ·  49Komentar  ·  Sumber: moby/moby

Output dari docker version :

Client:
 Version:      1.11.2
 API version:  1.23
 Go version:   go1.5.4
 Git commit:   b9f10c9
 Built:        Wed Jun  1 21:23:11 2016
 OS/Arch:      linux/amd64

Server:
 Version:      1.11.2
 API version:  1.23
 Go version:   go1.5.4
 Git commit:   b9f10c9
 Built:        Wed Jun  1 21:23:11 2016
 OS/Arch:      linux/amd64

Output dari docker info :

Containers: 87
 Running: 31
 Paused: 0
 Stopped: 56
Images: 55
Server Version: 1.11.2
Storage Driver: overlay
 Backing Filesystem: xfs
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: null host bridge
Kernel Version: 4.5.1-1.el7.elrepo.x86_64
Operating System: CentOS Linux 7 (Core)
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 7.797 GiB
Name: bridge.datanet.ria
ID: HKGW:2SMN:VJFA:XALB:4ETF:ZZE7:OUQJ:GVHX:SXOM:U6PY:EQLR:3P27
Docker Root Dir: /mnt/docker-data
Debug mode (client): false
Debug mode (server): false
Registry: https://index.docker.io/v1/
WARNING: bridge-nf-call-iptables is disabled
WARNING: bridge-nf-call-ip6tables is disabled

Detail lingkungan tambahan (AWS, VirtualBox, fisik, dll.):
Cloud pribadi dengan hypervisor VMWARE, menjalankan CentOS7.

Langkah-langkah untuk mereproduksi masalah:

  1. Menerapkan banyak kontainer setelah membersihkan konteks buruh pelabuhan sepenuhnya, dalam siklus Integrasi / Penerapan Berkelanjutan.
  2. Ulang.
  3. Selama beberapa waktu (biasanya 4 hingga 6 hari), siklusnya putus.

Jelaskan hasil yang Anda terima:

Jun  8 05:12:48 bridge docker: time="2016-06-08T05:12:48.799299085+02:00" level=error msg="Clean up Error! Cannot destroy container ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632: No such container: ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632"
Jun  8 05:12:48 bridge docker: time="2016-06-08T05:12:48.856161501+02:00" level=error msg="Handler for POST /v1.22/containers/create returned error: device or resource busy"
Jun  8 09:56:45 bridge docker: time="2016-06-08T09:56:45.266066521+02:00" level=error msg="Handler for POST /v1.22/containers/create returned error: Conflict. The name \"/my-redacted-data-container\" is already in use by container ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632. You have to remove (or rename) that container to be able to reuse that name."
Jun  8 10:35:42 bridge docker: time="2016-06-08T10:35:42.523718617+02:00" level=error msg="Handler for DELETE /v1.23/containers/ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632 returned error: No such container: ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632"
Jun  8 10:37:39 bridge docker: time="2016-06-08T10:37:39.492129195+02:00" level=error msg="Handler for DELETE /v1.23/containers/my-redacted-data-container returned error: No such container: my-redacted-data-container"
Jun  8 10:49:39 bridge docker: time="2016-06-08T10:49:39.924944312+02:00" level=error msg="Handler for DELETE /v1.23/containers/my-redacted-data-container returned error: No such container: my-redacted-data-container"
Jun  8 10:50:03 bridge docker: time="2016-06-08T10:50:03.114422404+02:00" level=error msg="Handler for DELETE /v1.23/containers/ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632 returned error: No such container: ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632"
Jun  8 11:03:29 bridge docker: time="2016-06-08T11:03:29.425100332+02:00" level=error msg="Handler for POST /v1.22/containers/create returned error: Conflict. The name \"/my-redacted-data-container\" is already in use by container ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632. You have to remove (or rename) that container to be able to reuse that name."
Jun  8 11:31:38 bridge docker: time="2016-06-08T11:31:38.704053754+02:00" level=error msg="Handler for POST /v1.23/containers/my-redacted-data-container/rename returned error: No such container: my-redacted-data-container"
Jun  8 11:31:49 bridge docker: time="2016-06-08T11:31:49.934637125+02:00" level=error msg="Handler for DELETE /v1.23/containers/my-redacted-data-container returned error: No such container: my-redacted-data-container"
Jun  8 11:31:51 bridge docker: time="2016-06-08T11:31:51.939043806+02:00" level=error msg="Handler for DELETE /v1.23/containers/my-redacted-data-container returned error: No such container: my-redacted-data-container"

Jelaskan hasil yang Anda harapkan:
Harapkan proses pembersihan untuk membersihkan semuanya dan tidak menerima:

ERROR: for my-redacted-data-container  Conflict. The name "/my-redacted-data-container" is already in use by container ecb293bb1fad3948d9a7366f931a001b7abcbd9c9aefdf27c530be7a4b4cc632. You have to remove (or rename) that container to be able to reuse that name.

Informasi tambahan yang Anda anggap penting (misalnya, masalah hanya terjadi sesekali):
Masalah sering terjadi, setiap minggu atau tergantung pada jumlah perubahan dan integrasi, bahkan dua kali seminggu.
Membersihkan konteks lagi tidak menyelesaikan masalah, bahkan tidak merestart buruh pelabuhan, satu-satunya solusi adalah menghentikan buruh pelabuhan, menghapus semua konten /var/lib/docker/* (/ mnt / buruh pelabuhan-data dalam kasus saya), dan mulai buruh pelabuhan.

kinbug statumore-info-needed versio1.11

Komentar yang paling membantu

Saya memiliki fungsi pembantu untuk menginisiasi semuanya sehingga bla Kontinyu kita, siklus dapat diuji, erm ... terus menerus. Pada dasarnya intinya adalah sebagai berikut:

Untuk membersihkan wadah:

docker rm -f $(docker ps -a -q)

Untuk menghapus gambar:

docker rmi -f $(docker images -a -q)

Untuk menghapus volume:

docker volume rm $(docker volume ls -q)

Untuk menghapus jaringan:

docker network rm $(docker network ls | tail -n+2 | awk '{if($2 !~ /bridge|none|host/){ print $1 }}')

Semua 49 komentar

bagaimana Anda membersihkan wadah itu? Ada pengecualian yang terjadi mengapa Anda membersihkan sumber daya tersebut (termasuk jaringan volume, dll.)?

Saya memiliki fungsi pembantu untuk menginisiasi semuanya sehingga bla Kontinyu kita, siklus dapat diuji, erm ... terus menerus. Pada dasarnya intinya adalah sebagai berikut:

Untuk membersihkan wadah:

docker rm -f $(docker ps -a -q)

Untuk menghapus gambar:

docker rmi -f $(docker images -a -q)

Untuk menghapus volume:

docker volume rm $(docker volume ls -q)

Untuk menghapus jaringan:

docker network rm $(docker network ls | tail -n+2 | awk '{if($2 !~ /bridge|none|host/){ print $1 }}')

Saya memiliki kelompok gerombolan di mana kontainer sering dibawa naik turun untuk tujuan sipil dan saya memiliki masalah yang sama. Dalam kasus saya, saya tidak perlu me-restart mesin, biasanya mematikan semua kontainer dengan

$ docker rm -f $(docker ps -a -q)

lalu mulai ulang buruh pelabuhan

$ sudo service docker restart

dan kemudian membuat ulang swarm memperbaikinya.

Inilah log dari kegagalan yang khas. Saya menggunakan ansible untuk menjalankan perintah penulisan buruh pelabuhan di salah satu node swarm melawan swarm.

TASK: [Run docker-compose up] ************************************************* 
failed: [XX.XX.XX.XX] => {"changed": true, "cmd": ["/usr/local/bin/docker-compose", "-f", "/containers/docker-compose/docker-compose-booking-pre-eng-811.yml", "--project-name", "booking-eng-811", "--verbose", "up", "-d"], "delta": "0:00:00.355991", "end": "2016-06-15 12:02:11.623256", "rc": 255, "start": "2016-06-15 12:02:11.267265", "warnings": []}
stderr: compose.config.config.find: Using configuration files: /containers/docker-compose/docker-compose-booking-pre-eng-811.yml
docker.auth.auth.load_config: Found 'auths' section
docker.auth.auth.parse_auth: Found entry (registry=u'my-private-registry', username=u'redacted-username')
compose.cli.command.get_client: docker-compose version 1.7.1, build 0a9ab35
docker-py version: 1.8.1
CPython version: 2.7.9
OpenSSL version: OpenSSL 1.0.1e 11 Feb 2013
compose.cli.command.get_client: Docker base_url: http://127.0.0.1:4000
compose.cli.command.get_client: Docker version: KernelVersion=3.10.0-327.18.2.el7.x86_64, Os=linux, BuildTime=Fri May 27 17:25:03 UTC 2016, ApiVersion=1.22, Version=swarm/1.2.3, GitCommit=eaa53c7, Arch=amd64, GoVersion=go1.5.4
compose.cli.verbose_proxy.proxy_callable: docker inspect_network <- ('back')
compose.cli.verbose_proxy.proxy_callable: docker inspect_network -> {u'Containers': {u'0f4c1b89e2ae9476a53f07552f678d2914bb391d1d80ab051f74925eb9fbf65a': {u'EndpointID': u'5f07ba0940ffcb4b0c2f0acf5424b6976b28bd8344a56b0464ab6517da884bc8',
                                                                                       u'IPv4Address': u'10.0.0.3/24',
                                                                                       u'IPv6Address': u'',
                                                                                       u'MacAddress': u'02:42:0a:00:00:03',
                                                                                       u'Name': u'registrator_registrator_1'},
                 u'782c1d07d51f6871400da38e8840e81e9300f54a195b9e6ff2e931b23274655a': {u'EndpointID': u'c8654b5b73eaca7f630d6e2c4c898122a3ae6a86bd0cfab68a8654414fe4821a',
                                                                                       u'IPv4Address': u'10.0.0.2/24',
                                                                                       u'IPv6Address': u'',
                                                                                       u'MacAddress': u'02:42:0a:00:00:02',
                                                                                       u'Name': u'stdb1'},
...
compose.network.ensure: Network back declared as external. No new network will be created.
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=False, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=redis1', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=web', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=api_locations', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=booking', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('redis:2.8.21')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u'',
 u'Comment': u'',
 u'Config': {u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'redis-server'],
             u'Domainname': u'',
             u'Entrypoint': [u'/entrypoint.sh'],
             u'Env': [u'PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin',
...
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('my-private-registry/web:master')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u"Emmet O'Grady",
 u'Comment': u'',
 u'Config': {u'ArgsEscaped': True,
             u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'/bin/sh', u'-c', u'/entrypoint.sh'],
             u'Domainname': u'',
             u'Entrypoint': None,
...
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('my-private-registry/api-locations:master')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u"Emmet O'Grady",
 u'Comment': u'',
 u'Config': {u'ArgsEscaped': True,
             u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'/bin/sh', u'-c', u'/entrypoint.sh'],
             u'Domainname': u'',
             u'Entrypoint': None,
...
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('my-private-registry/booking:eng-811')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u'',
 u'Comment': u'',
 u'Config': {u'ArgsEscaped': True,
             u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'/bin/sh', u'-c', u'/entrypoint.sh'],
             u'Domainname': u'',
             u'Entrypoint': None,
...
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=redis1', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.project._get_convergence_plans: web has upstream changes (redis1)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=web', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.project._get_convergence_plans: api_locations has upstream changes (redis1)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=api_locations', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.project._get_convergence_plans: booking has upstream changes (redis1)
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=booking', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.parallel.feed_queue: Pending: set([<Service: web>, <Service: redis1>, <Service: api_locations>, <Service: booking>])
compose.parallel.feed_queue: Starting producer thread for <Service: redis1>
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('redis:2.8.21')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u'',
 u'Comment': u'',
 u'Config': {u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'redis-server'],
             u'Domainname': u'',
             u'Entrypoint': [u'/entrypoint.sh'],
             u'Env': [u'PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin',
...
compose.cli.verbose_proxy.proxy_callable: docker containers <- (all=True, filters={u'label': [u'com.docker.compose.project=bookingeng811', u'com.docker.compose.service=redis1', u'com.docker.compose.oneoff=False']})
compose.cli.verbose_proxy.proxy_callable: docker containers -> (list with 0 items)
compose.cli.verbose_proxy.proxy_callable: docker inspect_image <- ('redis:2.8.21')
compose.cli.verbose_proxy.proxy_callable: docker inspect_image -> {u'Architecture': u'amd64',
 u'Author': u'',
 u'Comment': u'',
 u'Config': {u'AttachStderr': False,
             u'AttachStdin': False,
             u'AttachStdout': False,
             u'Cmd': [u'redis-server'],
             u'Domainname': u'',
             u'Entrypoint': [u'/entrypoint.sh'],
             u'Env': [u'PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin',
...
compose.service.build_container_labels: Added config hash: ae3be0880fdcb78073a419c6102617b730bfb42171c8204bf51e5c36eb8a85f3
compose.cli.verbose_proxy.proxy_callable: docker create_host_config <- (memswap_limit=None, links=[], devices=None, pid_mode=None, log_config={'Type': u'', 'Config': {}}, cpu_quota=None, read_only=None, dns=None, volumes_from=[], port_bindings={}, security_opt=None, extra_hosts=None, cgroup_parent=None, network_mode='back', shm_size=None, tmpfs=None, cap_add=None, restart_policy={u'MaximumRetryCount': 0, u'Name': u'always'}, dns_search=None, privileged=False, binds=[], ipc_mode=None, mem_limit='64M', cap_drop=None, ulimits=None)
compose.cli.verbose_proxy.proxy_callable: docker create_host_config -> {'Binds': [],
 'Links': [],
 'LogConfig': {'Config': {}, 'Type': u''},
 'Memory': 67108864L,
 'NetworkMode': 'back',
 'PortBindings': {},
 'RestartPolicy': {u'MaximumRetryCount': 0, u'Name': u'always'},
 'VolumesFrom': []}
compose.service.create_container: Creating bookingeng811_redis1_1
compose.cli.verbose_proxy.proxy_callable: docker create_container <- (name=u'bookingeng811_redis1_1', image='redis:2.8.21', labels={u'com.docker.compose.service': u'redis1', u'com.docker.compose.project': u'bookingeng811', u'com.docker.compose.config-hash': 'ae3be0880fdcb78073a419c6102617b730bfb42171c8204bf51e5c36eb8a85f3', u'com.docker.compose.version': u'1.7.1', u'com.docker.compose.oneoff': u'False', u'com.docker.compose.container-number': '1'}, host_config={'NetworkMode': 'back', 'Links': [], 'PortBindings': {}, 'Binds': [], 'RestartPolicy': {u'MaximumRetryCount': 0, u'Name': u'always'}, 'Memory': 67108864L, 'LogConfig': {'Type': u'', 'Config': {}}, 'VolumesFrom': []}, environment=[], volumes={}, detach=True, networking_config={u'EndpointsConfig': {'back': {u'IPAMConfig': {}, u'Aliases': ['redis1']}}})
compose.parallel.parallel_execute_iter: Failed: <Service: redis1>
compose.parallel.feed_queue: Pending: set([<Service: booking>, <Service: api_locations>, <Service: web>])
compose.parallel.feed_queue: <Service: booking> has upstream errors - not processing
compose.parallel.feed_queue: <Service: api_locations> has upstream errors - not processing
compose.parallel.feed_queue: <Service: web> has upstream errors - not processing
compose.parallel.parallel_execute_iter: Failed: <Service: booking>
compose.parallel.feed_queue: Pending: set([])
compose.parallel.parallel_execute_iter: Failed: <Service: api_locations>
compose.parallel.feed_queue: Pending: set([])
compose.parallel.parallel_execute_iter: Failed: <Service: web>
compose.parallel.feed_queue: Pending: set([])

ERROR: for redis1  Error response from daemon: Conflict. The name "/bookingeng811_redis1_1" is already in use by container 5ecf77fc7bbad0548cf34c891ac4d043b2692816b63ed97744924bc1296b8e65. You have to remove (or rename) that container to be able to reuse that name.
Traceback (most recent call last):
  File "<string>", line 3, in <module>
  File "compose/cli/main.py", line 63, in main
AttributeError: 'ProjectError' object has no attribute 'msg'
docker-compose returned -1

Saya sudah mencoba menghapus penampung bernama "bookingeng811_redis1_1" secara manual tetapi tidak ada di mana pun.

Punya masalah yang sama di sana.

Saya sering mengulang siklus:

  • buruh pelabuhan% name%
  • buruh pelabuhan rm -f% name%
  • buruh pelabuhan menarik% name%
  • buruh pelabuhan menjalankan% name%

Di beberapa titik (2 - 3 hari) berhenti bekerja:
buruh pelabuhan: Tanggapan kesalahan dari daemon: Konflik. Nama "% name%" sudah digunakan oleh container% container_id% . Anda harus menghapus (atau mengganti nama) penampung itu agar dapat menggunakan kembali nama itu ..

Saat saya mencoba untuk menghapus container% container_id% secara manual dikatakan:
Gagal menghapus container (% container_id%): Tanggapan error dari daemon: Tidak ada container:% container_id%

Container% container_id% tidak ada di daftar docker ps -a dan tidak ada di folder / var / lib / docker / containers

Mungkin akar masalahnya adalah menghapus container dengan parameter -f? jadi buruh pelabuhan tidak membersihkan dengan benar dan daemon buruh pelabuhan berpikir bahwa penampungnya masih ada.


Keluaran versi Docker:

Klien:
Versi: 1.10.3.0
Versi API: 1.22.0
Go versi: go1.5.3
Git commit: 8acee1b
Dibangun di:
OS / Arch: linux / amd64

Server:
Versi: 1.10.3.0
Versi API: 1.22.0
Go versi: go1.5.3
Git commit: 8acee1b
Dibangun di:
OS / Arch: linux / amd64

Keluaran info Docker:

Wadah: 27
Berlari: 13
Dijeda: 0
Berhenti: 14
Gambar: 1512
Versi Server: 1.10.3
Storage Driver: devicemapper
Nama Pool: docker-8: 9-521647-pool
Ukuran Blok Kolam Renang: 65,54 kB
Ukuran Perangkat Dasar: 107,4 GB
Sistem File Dukungan: xfs
File data: / dev / loop2
File metadata: / dev / loop3
Ruang Data Terpakai: 53,62 GB
Total Ruang Data: 107,4 GB
Ruang Data Tersedia: 53,76 GB
Ruang Metadata Terpakai: 129,9 MB
Total Ruang Metadata: 2.147 GB
Ruang Metadata Tersedia: 2.018 GB
Udev Sync Didukung: true
Penghapusan Ditunda Diaktifkan: salah
Penghapusan Ditunda Diaktifkan: salah
Jumlah Perangkat yang Dihapus Ditunda: 0
File loop data: / var / lib / docker / devicemapper / devicemapper / data
PERINGATAN: Penggunaan perangkat loopback sangat tidak disarankan untuk penggunaan produksi. Gunakan --storage-opt dm.thinpooldev atau gunakan --storage-opt dm.no_warn_on_loop_devices=true untuk menyembunyikan peringatan ini.
File loop metadata: / var / lib / docker / devicemapper / devicemapper / metadata
Versi Library: 1.02.93 (2015-01-30)
Driver Eksekusi: native-0.2
Driver Logging: json-file
Plugin:
Volume: lokal
Jaringan: jembatan tuan rumah null
Versi Kernel: 4.5.0-coreos-r1
Sistem Operasi: CoreOS 1010.5.0 (MoreOS)
OSType: linux
Arsitektur: x86_64
CPU: 8
Memori Total: 11,74 GiB
Nama: xx-slave
ID: LVGE : AWR7: NAVO : LQLR : 7 CGF: UDOF : CTES: VZQJ : SRZJ: JLKW

Docker menggunakan 'nameIndex' untuk menyimpan referensi ke container. Dari uraian tersebut, tampaknya masalahnya adalah karena nameIndex tidak sinkron dengan penampung yang dihapus. Di situlah kesalahan dikembalikan.

Kami mungkin dapat membersihkan nameIndex yang tidak sinkron untuk mengatasi masalah sementara. Meskipun buruh pelabuhan menggunakan beberapa indeks (misalnya, linkIndex) selain nameIndex jadi mungkin ada beberapa tempat yang perlu dibersihkan. Menemukan di mana terjadi ketidaksesuaian mungkin menjadi solusi yang lebih baik dalam jangka panjang.

Apakah ada cara untuk membersihkan namaIndexes yang tidak sinkron?
Untuk saat ini satu-satunya solusi yang saya miliki adalah me-reboot node yang tidak bagus. Reboot daemon docker juga tidak bagus.

Bagi saya yang berhasil adalah menghentikan daemon buruh pelabuhan, hapus semuanya dari /var/lib/docker/* dan mulai buruh pelabuhan lagi. Ini adalah server integrasi berkelanjutan sehingga saya dapat menangani tidak adanya gambar yang dimuat dalam konteks buruh pelabuhan, jadi itu berfungsi untuk saya, YMMV.

Saya melihat perilaku yang sama di 1.10.3

Containers: 105
 Running: 75
 Paused: 0
 Stopped: 30
Images: 1434
Server Version: 1.10.3
Storage Driver: overlay
 Backing Filesystem: extfs
Execution Driver: native-0.2
Logging Driver: json-file
Plugins: 
 Volume: local
 Network: bridge null host
Kernel Version: 4.5.0-coreos-r1
Operating System: CoreOS 1010.5.0 (MoreOS)
OSType: linux
Architecture: x86_64

Kami melihat masalah ini setiap hari di CoreOS dan Docker 1.10.3:

 # journalctl -fu docker
Aug 22 12:37:53 stateless-0.novalocal dockerd[8215]: time="2016-08-22T12:37:53.857617384+10:00" level=error msg="Handler for POST /v1.22/containers/create returned error: Conflict. The name \"/bridge-clockwork\" is already in use by container a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0. You have to remove (or rename) that container to be able to reuse that name."

# docker inspect a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0
Error: No such image or container: a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0

# docker rm -f a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0
Failed to remove container (a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0): Error response from daemon: No such container: a9710d980f2935638df62e67175e28078753818a8b7e1e20bd2840d738dd58c0

di 50% dari semua kasus, memulai ulang daemon buruh pelabuhan memperbaiki masalah. Dalam kasus lain, kita harus rm -rf / var / lib / docker. Kedua solusi tersebut mengganggu beban kerja produksi.

@cdwertmann Jika Anda harus rm -rf /var/lib/docker , maka itu berarti sebuah wadah ada dengan nama itu dan akan dimuat ulang setelah daemon dimulai ulang. Jika Anda mendapatkan kesalahan yang sama saat mencoba menghapus penampung ini, maka akan sangat membantu untuk melihat apa yang ada di /var/lib/docker/containers/<id>

@ cpuguy83 Inilah yang ada di dalam direktori kontainer:

 # ls /var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/ -lah
total 184K
drwx------.  3 root root 4.0K Aug 20 23:14 .
drwx------. 16 root root 4.0K Aug 23 14:41 ..
-rw-r-----.  1 root root 102K Aug 23 14:39 69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a-json.log
-rw-r--r--.  1 root root 2.9K Aug 23 14:41 config.v2.json
-rw-r--r--.  1 root root  975 Aug 23 14:41 hostconfig.json
-rw-r--r--.  1 root root   17 Aug 20 23:14 hostname
-rw-r--r--.  1 root root  185 Aug 20 23:14 hosts
-rw-r--r--.  1 root root   45 Aug 20 23:14 resolv.conf
-rw-r--r--.  1 root root   71 Aug 20 23:14 resolv.conf.hash
drwx------.  2 root root 4.0K Aug 20 23:14 shm

Di config.v2.json saya bisa melihat "RemovalInProgress":true :

# cat /var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/config.v2.json 
{"State":{"Running":false,"Paused":false,"Restarting":false,"OOMKilled":false,"RemovalInProgress":true,"Dead":true,"Pid":0,"ExitCode":2,"Error":"","StartedAt":"2016-08-20T13:14:17.864964407Z","FinishedAt":"2016-08-23T04:41:29.775183062Z"},"ID":"69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a","Created":"2016-08-20T13:13:58.579971761Z","Path":"/bin/registrator","Args":["-ip","172.16.0.102","-resync","300","consul://172.16.0.102:8500"],"Config":{"Hostname":"sphinx","Domainname":"novalocal","User":"","AttachStdin":false,"AttachStdout":true,"AttachStderr":true,"Tty":false,"OpenStdin":false,"StdinOnce":false,"Env":["PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"],"Cmd":["-ip","172.16.0.102","-resync","300","consul://172.16.0.102:8500"],"Image":"registry/registrator","Volumes":null,"WorkingDir":"","Entrypoint":["/bin/registrator"],"OnBuild":null,"Labels":{},"StopSignal":"SIGTERM"},"Image":"sha256:3b59190c6c800907d7a62c245bf93888db802b00407002fff7e08fed24e5557e","NetworkSettings":{"Bridge":"","SandboxID":"7713b13649c7964520180342f99914dd4720833ed39a51793ed483c356e0bd85","HairpinMode":false,"LinkLocalIPv6Address":"","LinkLocalIPv6PrefixLen":0,"Networks":{"bridge":{"IPAMConfig":null,"Links":null,"Aliases":null,"NetworkID":"5c0baa715bb76ea2eb5a6a32deb36a8093391ba6c76e55f31768838560c10f22","EndpointID":"","Gateway":"","IPAddress":"","IPPrefixLen":0,"IPv6Gateway":"","GlobalIPv6Address":"","GlobalIPv6PrefixLen":0,"MacAddress":""}},"Ports":null,"SandboxKey":"/var/run/docker/netns/7713b13649c7","SecondaryIPAddresses":null,"SecondaryIPv6Addresses":null,"IsAnonymousEndpoint":false},"LogPath":"/var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a-json.log","Name":"/registrator","Driver":"overlay","MountLabel":"system_u:object_r:svirt_lxc_file_t:s0:c631,c718","ProcessLabel":"system_u:system_r:svirt_lxc_net_t:s0:c631,c718","RestartCount":0,"HasBeenStartedBefore":true,"HasBeenManuallyStopped":false,"MountPoints":{"/etc/localtime":{"Source":"/etc/localtime","Destination":"/etc/localtime","RW":false,"Name":"","Driver":"","Relabel":"ro","Propagation":"rprivate","Named":false},"/tmp/docker.sock":{"Source":"/var/run/docker.sock","Destination":"/tmp/docker.sock","RW":true,"Name":"","Driver":"","Relabel":"","Propagation":"rprivate","Named":false}},"AppArmorProfile":"","HostnamePath":"/var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/hostname","HostsPath":"/var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/hosts","ShmPath":"/var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/shm","ResolvConfPath":"/var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/resolv.conf","SeccompProfile":""}

Setelah secara manual menghapus /var/lib/docker/containers/69d00206523a0a6a996c27d6364ec13cca7c8c1d6e615e41d9da6c675abc717a/ dan me-restart daemon buruh pelabuhan, konflik telah diselesaikan.

Melihat hal yang sama di sini:

docker -v      
Docker version 1.10.3, build 3cd164c
docker-compose -v
docker-compose version 1.8.0, build f3628c7
cat /etc/os-release 
NAME=CoreOS
ID=coreos
VERSION=1068.10.0
VERSION_ID=1068.10.0
BUILD_ID=2016-08-23-0220
PRETTY_NAME="CoreOS 1068.10.0 (MoreOS)"
ANSI_COLOR="1;32"
HOME_URL="https://coreos.com/"
BUG_REPORT_URL="https://github.com/coreos/bugs/issues" 

Dan inilah cara saya memulai / menghentikan / memulai ulang container saya:

cat /etc/systemd/system/u\@.service 
[Unit]
Description=%p-%i

# Requirements
Requires=docker.service

# Dependency ordering
After=docker.service

[Service]
Restart=always
RestartSec=10
TimeoutStartSec=60
TimeoutStopSec=15
EnvironmentFile=-/data/domains/%i/env
WorkingDirectory=/data/domains/%i/
ExecStartPre=-/opt/bin/docker-compose rm -f
ExecStart=/bin/bash -euxc "VIRTUAL_HOST=%i /opt/bin/docker-compose up"
ExecStop=/opt/bin/docker-compose stop

[Install]
WantedBy=multi-user.target

Saya mendapat kesalahan yang sama, dan kemudian, tidak ada yang di bawah docker ps -a , tetapi ada folder di bawah /var/lib/docker/containers dengan hash kontainer, saya hapus, masih tidak berhasil. Saya me-restart daemon buruh pelabuhan, itu berhasil.

Solusi untuk https://github.com/docker/compose/issues/3277#issuecomment -238080180 ini juga memperbaiki masalah ini ...

@marcelh bukan untuk saya. Saya harus menghapus seluruh /var/lib/docker

Aneh, bagi saya itu berhasil. Saya akan mencoba sekali lagi untuk memastikan.

@marcelmfs jadi Anda baru saja menghapus docker / network / files / local-kv.db?

Tidak hanya itu, juga menghapus semua container yang berjalan docker rm -f $(docker ps -aq) , dan mungkin semua jaringan, karena itu juga menghapus network/files/local-kv.db .

Saya belum melihat masalah ini sejak memutakhirkan ke buruh pelabuhan 1.12

Apakah ada orang lain yang masih melihat ini dengan 1.12.x?

Saya masih perlu meningkatkan untuk memeriksa ... Saya akan mengalokasikan jendela untuk peningkatan besok.

Server CI kami ditingkatkan dan kami menghapus solusi yang menghapus file local-kv.db . Minggu depan saya akan memiliki lebih banyak berita tentang ini.

Sama di sini: memiliki masalah di 1.11.x tetapi tidak lagi sejak 1.12.x

Ya, perhatikan tidak ada yang mengeluh tentang ini di 1,12.
Ingin tahu apa yang kita ubah, saya yakin tidak ada yang berhubungan langsung dengan penamaan.

tl; dr: semua versi> = 1.10.0 terpengaruh tetapi di> = 1.12.0 hal itu jauh lebih kecil kemungkinannya untuk terjadi.

Saya menelusuri masalah ini dalam kode dan itu pasti bisa terjadi pada semua versi> = 1.10.0 di mana struktur nameIndex diperkenalkan. Seperti yang disebutkan @yongtang , struktur ini menjadi tidak sinkron dengan penampung yang dihapus.

Galat terjadi setiap kali nameIndex tidak sinkron dengan daemon.containers .

Masalahnya terletak pada fungsi Daemon.create () . nameIndex diperbarui pada baris 64 oleh daemon.newContainer() tetapi daemon.containers diperbarui jauh kemudian pada baris 149 oleh daemon.Register() .

Jika ada yang gagal di antara keduanya, buruh pelabuhan berada dalam keadaan tidak konsisten. Sebelum melakukan https://github.com/docker/docker/commit/114be249f022535f0800bd45987c4e9cd1b321a4 (mendarat di 1.12.0), hanya itu yang diperlukan untuk memicu masalah. Komit itu mengubah fungsi pembersihan dari docker.ContainerRm , yang tidak pernah berfungsi dalam kasus ini karena memerlukan wadah untuk didaftarkan , menjadi docker.cleanupContainer .

Namun, docker.cleanupContainer bisa gagal sebelum berhasil dibersihkan. Ini hanya menghapus entri dari nameIndex pada baris 113 tetapi ada banyak hal yang bisa salah sebelum itu.

Semua penjelasan di atas menjelaskan kasus di mana restart daemon sederhana memperbaiki masalah karena nameIndex tidak disimpan pada disk. Saya telah membenturkan kepala saya ke kode untuk mencoba dan mencari tahu bagaimana bug ini dapat bertahan hidup ulang tetapi saya tidak dapat melihat caranya. Kami pasti telah melihatnya dalam produksi jadi saat ini saya menunggu itu terjadi lagi dan mencoba menyelidiki lebih lanjut.

Saya memperbaiki masalah versi dalam memori di # 27956

Masalah ini baru saja muncul untuk saya sebelum memperbarui ke yang terbaru (1.12.3), saya mencopot pemasangan buruh pelabuhan dan menginstal ulang, dan sayangnya saya masih melihatnya.

Output dari docker version :

Client:
 Version:      1.12.3
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   6b644ec
 Built:        Wed Oct 26 23:26:11 2016
 OS/Arch:      windows/amd64

Server:
 Version:      1.12.3
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   6b644ec
 Built:        Wed Oct 26 23:26:11 2016
 OS/Arch:      linux/amd64

Keluaran docker info

Containers: 0
 Running: 0
 Paused: 0
 Stopped: 0
Images: 1
Server Version: 1.12.3
Storage Driver: aufs
 Root Dir: /var/lib/docker/aufs
 Backing Filesystem: extfs
 Dirs: 11
 Dirperm1 Supported: true
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: null host bridge overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 4.4.27-moby
Operating System: Alpine Linux v3.4
OSType: linux
Architecture: x86_64
CPUs: 2
Total Memory: 1.919 GiB
Name: moby
ID: XZHZ:262M:ENKG:Z62J:U4OX:FVKN:CGZW:7OCZ:IU5R:D7OM:F3MT:K3ND
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): true
 File Descriptors: 12
 Goroutines: 22
 System Time: 2016-11-09T01:01:32.4577814Z
 EventsListeners: 0
Registry: https://index.docker.io/v1/
WARNING: No kernel memory limit support
Insecure Registries:
 127.0.0.0/8

Alur kerja saya sedikit berbeda dari apa yang telah disebutkan di utas ini, tetapi serupa karena saya melakukan banyak pengaturan dan pembongkaran kontainer di rangkaian pengujian saya. Mungkin juga menarik bahwa ini dilakukan melalui permintaan ke API Jarak Jauh.

Saya agak bingung bagaimana harus melanjutkan. Jika diminta, saya pasti dapat menyiapkan kasus uji untuk masalah saya, tetapi untuk saat ini masalah tersebut adalah bagian dari proyek yang lebih besar di tempat kerja, jadi saya harus mengurangi semuanya.

Apakah kalian punya saran?

@davidglivar Anda memulai ulang daemon dan masih melihat kesalahan?

@ cpuguy83 jika dengan me-restart daemon, maksudmu menghentikan / memulai aplikasi docker untuk windows, ya. Saya juga telah menginstal ulang buruh pelabuhan, serta melakukan reset 'pabrik'. Saya belum menyentuh Hyper-V karena saya tidak yakin dengan cara kerjanya.

@davidglivar Jadi Anda melihat ini:

  1. melakukan sesuatu
  2. mendapatkan kesalahan
  3. restart docker4win
  4. mendapatkan kesalahan

?

@ cpuguy83 ya! Saya hanya melalui urutan itu beberapa kali untuk memastikannya.

@davidglivar Dapatkah Anda docker ps -a dan melihat apakah Anda melihat wadah di sana?

@ cpuguy83 docker ps -a tidak menghasilkan kontainer. Saya akan mengatakan itu karena pembongkaran dan persiapan pengujian saya, tetapi bahkan ketika menemukan kesalahan dalam pengujian saya, dan segera membuat proses anak docker ps -a hasilnya sama.

Sekadar menindaklanjuti komentar hari sebelumnya: Saya masih menemukan kesalahan 409 dalam konteks aplikasi saya; namun, skrip pengujian (di sini ) belum menampilkan masalah apa pun.

Saya menciptakan cara yang dapat diandalkan untuk mereproduksi ini. Anda dapat menggunakan skrip python berikut untuk membuat konflik nama wadah:

# pip install docker-py
from docker import Client

NAME = 'foobar'

cli = Client(version='auto')

# Create an invalid security option that will cause an error in
# https://github.com/docker/docker/blob/v1.10.3/daemon/create.go#L82
host_config = cli.create_host_config(security_opt=['invalid_opt'])

# After this, NAME will always conflict until the daemon gets restarted
try:
    cli.create_container(name=NAME, host_config=host_config, image='', command='/')
except:
    pass

Masalah ini juga dapat dipicu dalam salah satu kondisi berikut yang menjelaskan beberapa kasus yang memerlukan penghapusan /var/lib/docker :

  • /var/lib/docker kehabisan inode
  • /var/lib/docker kehabisan ruang
  • /var/lib/docker/<storage-driver> hanya-baca

Cara mengatasinya adalah memperbarui ke buruh pelabuhan> = 1.12.0

Maaf terlambat datang kembali tentang masalah ini.

Sejauh ini, sejak menghapus solusi tersebut, server CI kami tidak mengalami masalah ini lagi.

Client:
 Version:      1.12.1
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   23cf638
 Built:
 OS/Arch:      linux/amd64

Server:
 Version:      1.12.1
 API version:  1.24
 Go version:   go1.6.3
 Git commit:   23cf638
 Built:
 OS/Arch:      linux/amd64

Juga mengalami ini dengan:

CentOS 7.2
Docker 1.12.1

Tidak ada folder dengan hash yang ditentukan di bawah /var/lib/docker/containers , dan memulai ulang daemon tidak berpengaruh.

@orodbhen Jika memulai ulang daemon tidak berhasil, harus ada wadah yang dimuat dengan nama itu.
Bisakah Anda memeriksa docker ps -a ?

@ cpuguy83 Tidak, tidak ada wadah dengan nama itu.

Saya sebenarnya berpikir ini mungkin masalah dengan docker-py . Saya ingin tahu berapa banyak orang di sini yang menggunakannya. Tampaknya @petrosagg adalah.

Itu terjadi ketika memanggil create_container() bahkan jika nama kontainer yang melanggar tidak digunakan. Tapi saya tidak punya masalah dengan perintah shell buruh pelabuhan, menggunakan docker create atau docker run .

Aneh, karena tampaknya akan mencetak pesan kesalahan yang dihasilkan oleh daemon.

@petrosagg apakah Anda memiliki masalah yang sama menggunakan perintah docker shell alih-alih docker-py?

@orodbhen Apakah Anda yakin instance docker-py Anda berbicara ke daemon yang sama dengan CLI?

Hanya ada satu daemon yang berjalan: Keduanya menggunakan /var/run/docker.sock .

Saya telah membuat masalah untuk buruh pelabuhan-py. Tapi saya belum yakin bahwa tidak ada masalah mendasar dengan buruh pelabuhan yang menyebabkan masalah.

@orodbhen Saat Anda me-restart daemon, dapatkah Anda mengambil log dari urutan pemuatan (khususnya memuat kontainer)?

Ini tidak bisa menjadi masalah penghitungan ulang jika Anda telah memulai ulang daemon. Registrar nama hanya disimpan di memori dan dibangun kembali saat daemon restart.

Maaf, mohon abaikan. Itu adalah masalah dengan cara saya mencatat kesalahan yang membuatnya tampak seperti kesalahan yang berulang.

@ orodbhen saya tidak menggunakan docker-py, saya hanya menggunakannya untuk membuat testcase kecil yang dapat direproduksi. Alasan hal ini tidak terjadi dengan CLI buruh pelabuhan adalah karena klien membersihkan masukan sebelum meneruskannya ke server, tetapi saya ingin memiliki akses langsung ke server dan menyebabkan bagian kritis gagal.

hapus layanan yang berjalan di latar belakang.
layanan buruh pelabuhan rm service_name
lalu periksa info buruh pelabuhan itu menunjukkan c ontainers: 0

dihapus, diposkan ulang pada # 3277

Saya juga menghadapi masalah yang sama dengan kesalahan berikut:

   x Start Mongo: FAILED

-----------------------------------STDERR-----------------------------------
Error response from daemon: Cannot update container 78dc6f6a43d0e6cfb7aa6bba2f0a377bd39620bff79ca308540a13ddd4e62886: container is marked for removal and cannot be "update"
Error response from daemon: removal of container mongodb is already in progress
docker: Error response from daemon: Conflict. The container name "/mongodb" is already in use by container "78dc6f6a43d0e6cfb7aa6bba2f0a377bd39620bff79ca308540a13ddd4e62886". You have to remove (or rename) that container to be able to reuse that name.
See 'docker run --help'.
-----------------------------------STDOUT-----------------------------------
3.4.1: Pulling from library/mongo
Digest: sha256:aff0c497cff4f116583b99b21775a8844a17bcf5c69f7f3f6028013bf0d6c00c
Status: Image is up to date for mongo:3.4.1
no such container
Running mongo:3.4.1

Saya baru saja menjalankan perintah: sudo service docker restart

Dan semuanya bekerja dengan baik sekarang.

Saya juga menghadapi masalah ini dengan kesalahan berikut:

docker-compose up -d --no-build api
Creating api ... 
Creating api ... error

ERROR: for api  Cannot create container for service api: Conflict. The name "/api" is already in use by container 2788cdc091645f0dcef417f189f9c80fddd3f6f99eaba3771d0f4a87e2295841. You have to remove (or rename) that container to be able to reuse that name.

ERROR: for api  Cannot create container for service api: Conflict. The name "/api" is already in use by container 2788cdc091645f0dcef417f189f9c80fddd3f6f99eaba3771d0f4a87e2295841. You have to remove (or rename) that container to be able to reuse that name.
ERROR: Encountered errors while bringing up the project.

Ternyata direktori tempat file tulis berada diganti namanya sejak penampung yang ada dijalankan dan saat saya mencoba menjalankan kembali penampung tersebut. Saya memeriksa dengan menjalankan yang berikut ini:

docker inspect api | grep -i compose
"com.docker.compose.config-hash": "c0e3e88ad502faf806288e16419dc52b113cae18abeac1769fa0e98a741de48a",
"com.docker.compose.container-number": "1",
"com.docker.compose.oneoff": "False",
"com.docker.compose.project": "api",
"com.docker.compose.service": "api",
"com.docker.compose.version": "1.14.0"

Saya melihat label proyek disetel ke api tetapi direktori tempat saya menjalankan ini sebenarnya adalah api.git jadi tampaknya itu diubah namanya antara yang terakhir saya jalankan dan sekarang. Saya hanya mengganti nama direktori kembali ke api , membawa container lagi (tanpa menghapus container yang ada atau memulai ulang buruh pelabuhan) dan semuanya bekerja seperti yang diharapkan.

Kami memiliki banyak kontainer yang berjalan sehingga memulai ulang buruh pelabuhan bukanlah solusi yang optimal.

docker container prune untuk menghapus kontainer yang terhenti.

Saya harus memindahkan paksa kontainer docker rm -f /<container_name>

Apakah halaman ini membantu?
0 / 5 - 0 peringkat