Kibana: Kibana tetap membaca hanya ketika tanda air disk tinggi ES telah terlampaui dan kemudian hilang di bawah batas

Dibuat pada 24 Agu 2017  ·  22Komentar  ·  Sumber: elastic/kibana

Versi Kibana : 6.0.0-beta1

Versi pencarian elastis : 6.0.0-beta1

Versi OS Server : Ubuntu 16.04.2 LTS

Versi peramban : Chrome 60.0.3112.90

Versi OS Peramban : Windows 10

Metode instalasi asli (misalnya halaman unduhan, yum, dari sumber, dll.) : Paket tar.gz resmi

Deskripsi masalah termasuk perilaku yang diharapkan versus perilaku aktual :

Saya menjalankan instance Elasticsearch simpul tunggal, logstash, dan Kibana. Semuanya berjalan pada Host yang sama dalam wadah buruh pelabuhan terpisah.

Jika tanda air disk tinggi terlampaui pada host ES, berikut ini dicatat di log elasticsearch:

[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only

Ketika ini terjadi, perubahan pada indeks .kibana tentu saja akan gagal karena indeks tidak dapat ditulisi. Ini dapat diamati dengan mencoba mengubah pengaturan apa pun di bawah _Management_->_Pengaturan Lanjutan_ di mana perubahan ke yaitu _ search:queryLanguage_ gagal dengan pesan Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

index_read_only

Jika lebih banyak ruang disk sekarang tersedia, ES akan mencatat bahwa node telah berada di bawah tanda air tinggi:

[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]

Seseorang sekarang akan berasumsi bahwa adalah mungkin untuk membuat perubahan pada pengaturan Kibana tetapi mencoba membuat perubahan pengaturan masih gagal dengan pesan kesalahan:

Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

Langkah-langkah untuk mereproduksi :

  1. Pastikan bahwa perubahan pengaturan dapat dilakukan tanpa kesalahan
  2. Isi disk data elasticsearch sehingga watermark disk tinggi terlampaui (saya menggunakan fallocate -l9G largefile )
  3. Verifikasi dalam log ES bahwa tanda air disk yang tinggi telah terlampaui dan indeks telah ditandai sebagai hanya-baca
  4. Lakukan perubahan pengaturan dan verifikasi bahwa itu gagal karena penulisan dilarang
  5. Selesaikan kondisi tanda air disk yang tinggi (yang saya lakukan dengan rm largefile )
  6. Verifikasi bahwa ES log menyatakan bahwa node telah berada di bawah tanda air disk yang tinggi (dan dengan demikian harus memungkinkan untuk menulis?)
  7. Lakukan perubahan pengaturan dan itu akan gagal ketika itu benar-benar harus berhasil.
Pioneer Program Operations

Komentar yang paling membantu

Saya baru saja terkena ini. Bukan hanya Kibana, semua indeks terkunci saat ambang batas disk tercapai dan tidak pernah dibuka kuncinya saat ruang kosong.

Untuk membuka kunci semua indeks secara manual:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Semua 22 komentar

Jadi bagaimana saya pulih dari ini? .kibana tetap di baca saja apa pun yang saya lakukan. Saya telah mencoba memotretnya, menghapusnya, dan memulihkannya dari snapshot - masih hanya baca...

Saya baru saja mengalami ini di mesin uji. Selama hidup saya, saya tidak dapat terus memasukkan data ke dalam cluster. Saya akhirnya harus menerbangkan semua indeks yang terlibat.

saya menyelesaikan masalah dengan menghapus indeks .kibana:
hapus /.kibana/
Saya kehilangan konfigurasi/visualisasi/dasbor tertentu tetapi tidak terkunci.

Saya baru saja terkena ini. Bukan hanya Kibana, semua indeks terkunci saat ambang batas disk tercapai dan tidak pernah dibuka kuncinya saat ruang kosong.

Untuk membuka kunci semua indeks secara manual:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Terima kasih @xose , saya baru saja terkena ini lagi dan dapat memulihkan dengan menggunakan perintah yang Anda sarankan :)

Masalah terjadi pada semua indeks, bukan hanya indeks .kibana .

Menurut log ES, indeks disetel ke read-only karena ruang disk yang rendah pada host elasticsearch. Saya menjalankan satu Host dengan Elasticsearch, Kibana, Logstash yang di-docker bersama dengan beberapa alat lain. Karena masalah ini memengaruhi indeks lain, kami menganggap ini lebih merupakan masalah Elasticsearch dan bahwa masalah yang terlihat di Kibana adalah gejala dari masalah lain.

Bug ini bodoh. Bisakah Anda Membongkarnya untuk saat ini? Setidaknya Anda harus menampilkan peringatan dan daftar solusi yang mungkin. Sangat bodoh bagi saya untuk melihat log kesalahan js dan menemukan utas ini!

@saberkun Anda dapat membongkarnya dengan mengikuti perintah @xose yang diposting:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Ya saya lakukan.

Pada Minggu, 26 Nov 2017 pukul 23:12 Aaron C. de Bruyn [email protected]
menulis:

@saberkun https://github.com/saberkun Anda dapat membukanya dengan mengikuti
perintah @xose https://github.com/xose diposting:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'


Anda menerima ini karena Anda disebutkan.
Balas email ini secara langsung, lihat di GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ,
atau matikan utasnya
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.

Bisakah Anda memberikan informasi tambahan? Apakah Anda menerima kesalahan saat menjalankan perintah? Apakah indeks terbuka dan sekarang Anda mendapatkan pesan kesalahan baru? Pesan kesalahan apa yang Anda lihat di file log Anda sekarang?

Terima kasih. Itu diperbaiki oleh perintah. Maksud saya ya, saya menggunakannya untuk memperbaiki
masalah

Pada Minggu, 26 November 2017 pukul 23.19 Aaron C. de Bruyn [email protected]
menulis:

Bisakah Anda memberikan informasi tambahan? Apakah Anda menerima kesalahan saat
menjalankan perintah? Apakah indeks terbuka dan sekarang Anda mendapatkan yang baru
pesan eror? Pesan kesalahan apa yang Anda lihat di file log Anda sekarang?


Anda menerima ini karena Anda disebutkan.
Balas email ini secara langsung, lihat di GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ,
atau matikan utasnya
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.

+1
Menerima kesalahan ini setelah memutakhirkan dari 5,5 ke 6,0

+1

ELK 6, membersihkan setengah drive masih read-only, logstash diizinkan untuk menulis lagi, kibana tetap read-only

Berhasil memecahkan masalah dengan solusi yang disediakan oleh @xose

+1, kesalahan yang sama untuk saya.

Masalah yang sama untuk saya. Diselesaikan dengan solusi yang diberikan oleh @xose.

Sama disini. Salam semua @xose.

Saya baru saja memutakhirkan cluster node tunggal dari 6.0.0 menjadi 6.1.1 (baik ES dan Kibana). Ketika saya memulai kembali layanan, Kibana melempar:

blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

Sama seperti terakhir kali--Saya harus menghapus indeks .kibana untuk mengaktifkannya kembali. Ada juga indeks logstash saat ini dengan salah satu pecahan terdaftar sebagai tidak terisi. Saya menghapusnya juga dan kemudian mendapat banyak peringatan.

Saya tidak kehabisan ruang--ada ~92 GB dari 120 GB gratis di mesin uji ini. Lokasi penyimpanan adalah ZFS dan scrub tidak mengungkapkan kerusakan data apa pun.

Satu-satunya kesalahan dalam log yang tampaknya tidak relevan:

[2018-01-13T20:48:14,579][INFO ][o.e.n.Node               ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
        at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node               ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node               ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment    ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment    ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node               ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService     ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule    ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService   ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks    ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService    ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node               ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService     ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).

+1 kesalahan yang sama di 6.1.2

Ini adalah fungsi dari Elasticsearch. Per kesalahan Elasticsearch, all indices on this node will marked read-only .

Untuk mengembalikan ini untuk indeks, Anda dapat mengatur index.blocks.read_only_allow_delete ke nol.

Informasi lebih lanjut tentang ini dapat ditemukan di sini: https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html

FYI - bagi siapa pun yang masih mengalami hal ini, berikut ini adalah satu kalimat cepat untuk memperbaiki indeks:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Itu mengambil daftar semua indeks di cluster Anda, lalu untuk masing-masing indeks itu mengirimkan perintah untuk membuatnya tidak hanya-baca.

FYI - bagi siapa pun yang masih mengalami hal ini, berikut ini adalah satu kalimat cepat untuk memperbaiki indeks:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Itu mengambil daftar semua indeks di cluster Anda, lalu untuk masing-masing indeks itu mengirimkan perintah untuk membuatnya tidak hanya-baca.

Saya juga melakukan ini sampai saya menemukan solusi @darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)

Anda dapat melakukan pengaturan ini untuk _all alih-alih pergi satu per satu. Dalam kasus saya, perlu waktu cukup lama untuk melakukannya untuk ratusan indeks, sementara pengaturan 'semua' hanya membutuhkan beberapa detik.

curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

saya menyelesaikan masalah dengan menghapus indeks .kibana:
hapus /.kibana/
Saya kehilangan konfigurasi/visualisasi/dasbor tertentu tetapi tidak terkunci.

Terima kasih banyak untuk WA ini. Ini memecahkan masalah bagi saya.

Ini berhasil untuk saya. Kedua perintah diperlukan agar kabana berfungsi setelah instalasi baru:

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Ini tidak memerlukan penghapusan indeks .kibana. Bekerja dengan sempurna sekarang!

Sumber:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only

Apakah halaman ini membantu?
0 / 5 - 0 peringkat