إصدار Kibana : 6.0.0-beta1
إصدار Elasticsearch : 6.0.0-beta1
إصدار نظام تشغيل الخادم : Ubuntu 16.04.2 LTS
إصدار المتصفح : Chrome 60.0.3112.90
إصدار نظام تشغيل المتصفح : Windows 10
طريقة التثبيت الأصلية (مثل صفحة التنزيل ، yum ، من المصدر ، وما إلى ذلك) : حزم tar.gz الرسمية
وصف المشكلة بما في ذلك السلوك المتوقع مقابل السلوك الفعلي :
أنا أقوم بتشغيل مثيل Elasticsearch واحد لعقدة واحدة ، logstash و Kibana. كل شيء يعمل على نفس المضيف في حاويات منفصلة لرسو السفن.
إذا تم تجاوز العلامة المائية للقرص العالي على مضيف ES ، فسيتم تسجيل ما يلي في سجل elasticsearch:
[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only
عند حدوث ذلك ، ستفشل التغييرات التي تم إجراؤها على الفهرس .kibana
بالطبع حيث لا يمكن الكتابة إلى الفهرس. يمكن ملاحظة ذلك من خلال محاولة تغيير أي إعداد ضمن _Management _-> _ إعدادات متقدمة_ حيث يفشل التغيير إلى ie _ Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
إذا تم توفير المزيد من مساحة القرص الآن ، فسوف يسجل ES أن العقدة قد أصبحت تحت العلامة المائية العالية:
[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]
قد يفترض المرء الآن أنه سيكون من الممكن إجراء تغييرات على إعدادات Kibana ولكن محاولة إجراء تغيير الإعدادات لا تزال تفشل مع ظهور رسالة الخطأ:
Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
خطوات التكاثر :
fallocate -l9G largefile
)rm largefile
)فكيف أتعافى من هذا؟ يبقى kibana في القراءة فقط بغض النظر عما أفعله. لقد حاولت التقاطها وحذفها واستعادتها من اللقطة - ما زلت أقرأ فقط ...
لقد واجهت هذا للتو على آلة اختبار. بالنسبة لحياتي ، لا يمكنني الاستمرار في وضع البيانات في المجموعة. اضطررت أخيرًا إلى التخلص من جميع المؤشرات المعنية.
لقد قمت بحل المشكلة عن طريق حذف فهرس kibana.
حذف /.kibana/
أفقد بعض التكوينات / المرئيات / لوحات المعلومات لكنها غير مؤمنة.
لقد صدمت للتو من قبل هذا. إنها ليست Kibana فقط ، يتم قفل جميع الفهارس عند الوصول إلى عتبة القرص ولا يتم إلغاء قفلها أبدًا عند تحرير المساحة.
لفتح جميع الفهارس يدويًا:
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
شكرًا xose ، لقد أصبت بهذا مرة أخرى وتمكنت من التعافي باستخدام الأمر الذي اقترحته :)
حدثت المشكلة على جميع المؤشرات ، وليس فقط .kibana
واحد.
وفقًا لسجلات ES ، تم تعيين المؤشرات للقراءة فقط نظرًا لانخفاض مساحة القرص على مضيف البحث المرن. أدير مضيفًا واحدًا باستخدام Elasticsearch و Kibana و Logstash مع بعض الأدوات الأخرى. نظرًا لأن هذه المشكلة تؤثر على مؤشرات أخرى ، فيعتقد أن هذه مشكلة Elasticsearch وأن المشكلة التي تظهر في Kibana هي أحد أعراض مشكلة أخرى.
هذا الخطأ غبي. هل يمكنك فكها الآن؟ على الأقل يجب أن تعرض تحذيرًا وأن تسرد حلاً محتملاً. إنه لمن الغباء حقًا أن أنظر إلى سجل أخطاء js وأجد هذا الموضوع!
يمكنك إلغاء كسرها باتباع الأمر xose :
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
نعم فعلت.
يوم الأحد 26 نوفمبر 2017 الساعة 11:12 مساءً Aaron C. de Bruyn [email protected]
كتب:
saberkun https://github.com/saberkun يمكنك فكها باتباعك
نشر الأمر xose https://github.com/xose :curl -XPUT -H "نوع المحتوى: application / json" https: // [YOUR_ELASTICSEARCH_ENDPOINT]: 9200 / _all / _settings -d '{"index.blocks.read_only_allow_delete": null}'
-
أنت تتلقى هذا لأنه تم ذكرك.
قم بالرد على هذا البريد الإلكتروني مباشرة ، وقم بعرضه على GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ،
أو كتم الخيط
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.
هل يمكنك تقديم معلومات إضافية؟ هل تلقيت خطأ عند تشغيل الأمر؟ هل تم فتح الفهارس وأنت الآن تتلقى رسالة خطأ جديدة؟ ما رسائل الخطأ التي تراها في ملفات السجل الآن؟
شكرا. تم إصلاحه بواسطة الأمر. أعني نعم ، لقد استخدمته لإصلاح ملف
مشكلة
يوم الأحد 26 نوفمبر 2017 الساعة 11:19 مساءً Aaron C. de Bruyn [email protected]
كتب:
هل يمكنك تقديم معلومات إضافية؟ هل تلقيت خطأ عندما
تشغيل الأمر؟ هل تم فتح المؤشرات وأنت الآن تحصل على ملف
رسالة خطأ؟ ما رسائل الخطأ التي تراها في ملفات السجل الآن؟-
أنت تتلقى هذا لأنه تم ذكرك.
قم بالرد على هذا البريد الإلكتروني مباشرة ، وقم بعرضه على GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ،
أو كتم الخيط
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.
+1
تلقي هذا الخطأ بعد الترقية من 5.5 إلى 6.0
+1
ELK 6 ، مسح نصف محرك الأقراص لا يزال للقراءة فقط ، يُسمح لـ logstash بالكتابة مرة أخرى ، وظل kibana للقراءة فقط
تمكنت من حل المشكلة من خلال الحل البديل المقدم من xose
+1 ، نفس الخطأ بالنسبة لي.
نفس المشكلة بالنسبة لي. تم حلها عن طريق الحل المقدم منxose.
كذلك هنا. كل حائلxose.
لقد قمت للتو بترقية مجموعة أحادية العقدة من 6.0.0 إلى 6.1.1 (كلا من ES و Kibana). عندما بدأت النسخ الاحتياطي للخدمات ، كان كيبانا يرمي:
blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];
مثل المرة السابقة - اضطررت إلى حذف فهرس .kibana
لاستعادته واستمراره. كان هناك أيضًا فهرس logstash حالي مع إحدى القطع المدرجة على أنها غير مخصصة. لقد حذفته أيضًا ثم تلقيت تدفقًا معتادًا من التنبيهات.
لم تنفد المساحة لدي - هناك حوالي 92 جيجابايت من 120 جيجابايت مجانية على جهاز الاختبار هذا. موقع التخزين هو ZFS ولم يكشف الفرك عن أي تلف في البيانات.
يبدو أن الأخطاء الوحيدة في السجل ليست ذات صلة:
[2018-01-13T20:48:14,579][INFO ][o.e.n.Node ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).
+1 نفس الخطأ في 6.1.2
هذه هي وظيفة Elasticsearch. وفقًا لخطأ Elasticsearch ، all indices on this node will marked read-only
.
للعودة إلى فهرس ، يمكنك تعيين index.blocks.read_only_allow_delete
على قيمة خالية.
يمكن العثور على مزيد من المعلومات حول هذا هنا: https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html
لمعلوماتك - لأي شخص لا يزال يواجه هذا ، إليك سطر واحد سريع لإصلاح المؤشرات:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'
يأخذ قائمة بجميع المؤشرات في مجموعتك ، ثم يرسل لكل منها الأمر لجعله ليس للقراءة فقط.
لمعلوماتك - لأي شخص لا يزال يواجه هذا ، إليك سطر واحد سريع لإصلاح المؤشرات:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'
يأخذ قائمة بجميع المؤشرات في مجموعتك ، ثم يرسل لكل منها الأمر لجعله ليس للقراءة فقط.
أنا أيضًا كنت أفعل هذا حتى وجدت حل darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)
يمكنك القيام بهذا الإعداد لـ _ all بدلاً من الانتقال واحدًا تلو الآخر. في حالتي ، يستغرق الأمر وقتًا طويلاً للقيام بذلك لمئات المؤشرات ، بينما يستغرق تعيين "الكل" بضع ثوانٍ فقط.
curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
لقد قمت بحل المشكلة عن طريق حذف فهرس kibana.
حذف /.kibana/
أفقد بعض التكوينات / المرئيات / لوحات المعلومات لكنها غير مؤمنة.
شكرا جزيلا على هذا WA. لقد تم حل المشكلة بالنسبة لي.
هذا عمل معي. كلا الأمرين مطلوبان لتشغيل kabana بعد تثبيت جديد:
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
هذا لا يتطلب حذف فهرس kibana. يعمل بشكل مثالي الآن!
مصدر:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only
التعليق الأكثر فائدة
لقد صدمت للتو من قبل هذا. إنها ليست Kibana فقط ، يتم قفل جميع الفهارس عند الوصول إلى عتبة القرص ولا يتم إلغاء قفلها أبدًا عند تحرير المساحة.
لفتح جميع الفهارس يدويًا:
curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'