Versi Kibana : 6.0.0-beta1
Versi pencarian elastis : 6.0.0-beta1
Versi OS Server : Ubuntu 16.04.2 LTS
Versi peramban : Chrome 60.0.3112.90
Versi OS Peramban : Windows 10
Metode instalasi asli (misalnya halaman unduhan, yum, dari sumber, dll.) : Paket tar.gz resmi
Deskripsi masalah termasuk perilaku yang diharapkan versus perilaku aktual :
Saya menjalankan instance Elasticsearch simpul tunggal, logstash, dan Kibana. Semuanya berjalan pada Host yang sama dalam wadah buruh pelabuhan terpisah.
Jika tanda air disk tinggi terlampaui pada host ES, berikut ini dicatat di log elasticsearch:
[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only
Ketika ini terjadi, perubahan pada indeks .kibana
tentu saja akan gagal karena indeks tidak dapat ditulisi. Ini dapat diamati dengan mencoba mengubah pengaturan apa pun di bawah _Management_->_Pengaturan Lanjutan_ di mana perubahan ke yaitu _ search:queryLanguage_ gagal dengan pesan Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
Jika lebih banyak ruang disk sekarang tersedia, ES akan mencatat bahwa node telah berada di bawah tanda air tinggi:
[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]
Seseorang sekarang akan berasumsi bahwa adalah mungkin untuk membuat perubahan pada pengaturan Kibana tetapi mencoba membuat perubahan pengaturan masih gagal dengan pesan kesalahan:
Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
Langkah-langkah untuk mereproduksi :
fallocate -l9G largefile
)rm largefile
)Jadi bagaimana saya pulih dari ini? .kibana tetap di baca saja apa pun yang saya lakukan. Saya telah mencoba memotretnya, menghapusnya, dan memulihkannya dari snapshot - masih hanya baca...
Saya baru saja mengalami ini di mesin uji. Selama hidup saya, saya tidak dapat terus memasukkan data ke dalam cluster. Saya akhirnya harus menerbangkan semua indeks yang terlibat.
saya menyelesaikan masalah dengan menghapus indeks .kibana:
hapus /.kibana/
Saya kehilangan konfigurasi/visualisasi/dasbor tertentu tetapi tidak terkunci.
Saya baru saja terkena ini. Bukan hanya Kibana, semua indeks terkunci saat ambang batas disk tercapai dan tidak pernah dibuka kuncinya saat ruang kosong.
Untuk membuka kunci semua indeks secara manual:
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
Terima kasih @xose , saya baru saja terkena ini lagi dan dapat memulihkan dengan menggunakan perintah yang Anda sarankan :)
Masalah terjadi pada semua indeks, bukan hanya indeks .kibana
.
Menurut log ES, indeks disetel ke read-only karena ruang disk yang rendah pada host elasticsearch. Saya menjalankan satu Host dengan Elasticsearch, Kibana, Logstash yang di-docker bersama dengan beberapa alat lain. Karena masalah ini memengaruhi indeks lain, kami menganggap ini lebih merupakan masalah Elasticsearch dan bahwa masalah yang terlihat di Kibana adalah gejala dari masalah lain.
Bug ini bodoh. Bisakah Anda Membongkarnya untuk saat ini? Setidaknya Anda harus menampilkan peringatan dan daftar solusi yang mungkin. Sangat bodoh bagi saya untuk melihat log kesalahan js dan menemukan utas ini!
@saberkun Anda dapat membongkarnya dengan mengikuti perintah @xose yang diposting:
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
Ya saya lakukan.
Pada Minggu, 26 Nov 2017 pukul 23:12 Aaron C. de Bruyn [email protected]
menulis:
@saberkun https://github.com/saberkun Anda dapat membukanya dengan mengikuti
perintah @xose https://github.com/xose diposting:curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
—
Anda menerima ini karena Anda disebutkan.
Balas email ini secara langsung, lihat di GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ,
atau matikan utasnya
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.
Bisakah Anda memberikan informasi tambahan? Apakah Anda menerima kesalahan saat menjalankan perintah? Apakah indeks terbuka dan sekarang Anda mendapatkan pesan kesalahan baru? Pesan kesalahan apa yang Anda lihat di file log Anda sekarang?
Terima kasih. Itu diperbaiki oleh perintah. Maksud saya ya, saya menggunakannya untuk memperbaiki
masalah
Pada Minggu, 26 November 2017 pukul 23.19 Aaron C. de Bruyn [email protected]
menulis:
Bisakah Anda memberikan informasi tambahan? Apakah Anda menerima kesalahan saat
menjalankan perintah? Apakah indeks terbuka dan sekarang Anda mendapatkan yang baru
pesan eror? Pesan kesalahan apa yang Anda lihat di file log Anda sekarang?—
Anda menerima ini karena Anda disebutkan.
Balas email ini secara langsung, lihat di GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ,
atau matikan utasnya
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.
+1
Menerima kesalahan ini setelah memutakhirkan dari 5,5 ke 6,0
+1
ELK 6, membersihkan setengah drive masih read-only, logstash diizinkan untuk menulis lagi, kibana tetap read-only
Berhasil memecahkan masalah dengan solusi yang disediakan oleh @xose
+1, kesalahan yang sama untuk saya.
Masalah yang sama untuk saya. Diselesaikan dengan solusi yang diberikan oleh @xose.
Sama disini. Salam semua @xose.
Saya baru saja memutakhirkan cluster node tunggal dari 6.0.0 menjadi 6.1.1 (baik ES dan Kibana). Ketika saya memulai kembali layanan, Kibana melempar:
blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
Sama seperti terakhir kali--Saya harus menghapus indeks .kibana
untuk mengaktifkannya kembali. Ada juga indeks logstash saat ini dengan salah satu pecahan terdaftar sebagai tidak terisi. Saya menghapusnya juga dan kemudian mendapat banyak peringatan.
Saya tidak kehabisan ruang--ada ~92 GB dari 120 GB gratis di mesin uji ini. Lokasi penyimpanan adalah ZFS dan scrub tidak mengungkapkan kerusakan data apa pun.
Satu-satunya kesalahan dalam log yang tampaknya tidak relevan:
[2018-01-13T20:48:14,579][INFO ][o.e.n.Node ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).
+1 kesalahan yang sama di 6.1.2
Ini adalah fungsi dari Elasticsearch. Per kesalahan Elasticsearch, all indices on this node will marked read-only
.
Untuk mengembalikan ini untuk indeks, Anda dapat mengatur index.blocks.read_only_allow_delete
ke nol.
Informasi lebih lanjut tentang ini dapat ditemukan di sini: https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html
FYI - bagi siapa pun yang masih mengalami hal ini, berikut ini adalah satu kalimat cepat untuk memperbaiki indeks:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'
Itu mengambil daftar semua indeks di cluster Anda, lalu untuk masing-masing indeks itu mengirimkan perintah untuk membuatnya tidak hanya-baca.
FYI - bagi siapa pun yang masih mengalami hal ini, berikut ini adalah satu kalimat cepat untuk memperbaiki indeks:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'
Itu mengambil daftar semua indeks di cluster Anda, lalu untuk masing-masing indeks itu mengirimkan perintah untuk membuatnya tidak hanya-baca.
Saya juga melakukan ini sampai saya menemukan solusi @darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)
Anda dapat melakukan pengaturan ini untuk _all alih-alih pergi satu per satu. Dalam kasus saya, perlu waktu cukup lama untuk melakukannya untuk ratusan indeks, sementara pengaturan 'semua' hanya membutuhkan beberapa detik.
curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
saya menyelesaikan masalah dengan menghapus indeks .kibana:
hapus /.kibana/
Saya kehilangan konfigurasi/visualisasi/dasbor tertentu tetapi tidak terkunci.
Terima kasih banyak untuk WA ini. Ini memecahkan masalah bagi saya.
Ini berhasil untuk saya. Kedua perintah diperlukan agar kabana berfungsi setelah instalasi baru:
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
Ini tidak memerlukan penghapusan indeks .kibana. Bekerja dengan sempurna sekarang!
Sumber:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only
Komentar yang paling membantu
Saya baru saja terkena ini. Bukan hanya Kibana, semua indeks terkunci saat ambang batas disk tercapai dan tidak pernah dibuka kuncinya saat ruang kosong.
Untuk membuka kunci semua indeks secara manual:
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'