Kibana: يظل Kibana للقراءة فقط عندما يتم تجاوز العلامة المائية للقرص العالي ES وذهب لاحقًا إلى ما دون الحد المسموح به

تم إنشاؤها على ٢٤ أغسطس ٢٠١٧  ·  22تعليقات  ·  مصدر: elastic/kibana

إصدار Kibana : 6.0.0-beta1

إصدار Elasticsearch : 6.0.0-beta1

إصدار نظام تشغيل الخادم : Ubuntu 16.04.2 LTS

إصدار المتصفح : Chrome 60.0.3112.90

إصدار نظام تشغيل المتصفح : Windows 10

طريقة التثبيت الأصلية (مثل صفحة التنزيل ، yum ، من المصدر ، وما إلى ذلك) : حزم tar.gz الرسمية

وصف المشكلة بما في ذلك السلوك المتوقع مقابل السلوك الفعلي :

أنا أقوم بتشغيل مثيل Elasticsearch واحد لعقدة واحدة ، logstash و Kibana. كل شيء يعمل على نفس المضيف في حاويات منفصلة لرسو السفن.

إذا تم تجاوز العلامة المائية للقرص العالي على مضيف ES ، فسيتم تسجيل ما يلي في سجل elasticsearch:

[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only

عند حدوث ذلك ، ستفشل التغييرات التي تم إجراؤها على الفهرس .kibana بالطبع حيث لا يمكن الكتابة إلى الفهرس. يمكن ملاحظة ذلك من خلال محاولة تغيير أي إعداد ضمن _Management _-> _ إعدادات متقدمة_ حيث يفشل التغيير إلى ie _ Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

index_read_only

إذا تم توفير المزيد من مساحة القرص الآن ، فسوف يسجل ES أن العقدة قد أصبحت تحت العلامة المائية العالية:

[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]

قد يفترض المرء الآن أنه سيكون من الممكن إجراء تغييرات على إعدادات Kibana ولكن محاولة إجراء تغيير الإعدادات لا تزال تفشل مع ظهور رسالة الخطأ:

Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

خطوات التكاثر :

  1. تأكد من إمكانية إجراء تغييرات الإعدادات بدون أخطاء
  2. املأ قرص بيانات elasticsearch بحيث يتم تجاوز العلامة المائية للقرص العالي (لقد استخدمت fallocate -l9G largefile )
  3. تحقق في سجل ES من تجاوز العلامة المائية للقرص العالي وتم وضع علامة على المؤشرات للقراءة فقط
  4. قم بإجراء تغيير على الإعداد وتحقق من فشله لأن عمليات الكتابة محظورة
  5. حل حالة العلامة المائية للقرص العالي (التي فعلتها بـ rm largefile )
  6. تحقق من أن سجل ES ينص على أن العقدة قد دخلت تحت العلامة المائية للقرص العالي (وبالتالي ينبغي أن يكون من الممكن الكتابة إلى؟)
  7. قم بإجراء تغيير في الإعداد وسيفشل عندما يجب أن ينجح بالفعل.
Pioneer Program Operations

التعليق الأكثر فائدة

لقد صدمت للتو من قبل هذا. إنها ليست Kibana فقط ، يتم قفل جميع الفهارس عند الوصول إلى عتبة القرص ولا يتم إلغاء قفلها أبدًا عند تحرير المساحة.

لفتح جميع الفهارس يدويًا:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

ال 22 كومينتر

فكيف أتعافى من هذا؟ يبقى kibana في القراءة فقط بغض النظر عما أفعله. لقد حاولت التقاطها وحذفها واستعادتها من اللقطة - ما زلت أقرأ فقط ...

لقد واجهت هذا للتو على آلة اختبار. بالنسبة لحياتي ، لا يمكنني الاستمرار في وضع البيانات في المجموعة. اضطررت أخيرًا إلى التخلص من جميع المؤشرات المعنية.

لقد قمت بحل المشكلة عن طريق حذف فهرس kibana.
حذف /.kibana/
أفقد بعض التكوينات / المرئيات / لوحات المعلومات لكنها غير مؤمنة.

لقد صدمت للتو من قبل هذا. إنها ليست Kibana فقط ، يتم قفل جميع الفهارس عند الوصول إلى عتبة القرص ولا يتم إلغاء قفلها أبدًا عند تحرير المساحة.

لفتح جميع الفهارس يدويًا:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

شكرًا xose ، لقد أصبت بهذا مرة أخرى وتمكنت من التعافي باستخدام الأمر الذي اقترحته :)

حدثت المشكلة على جميع المؤشرات ، وليس فقط .kibana واحد.

وفقًا لسجلات ES ، تم تعيين المؤشرات للقراءة فقط نظرًا لانخفاض مساحة القرص على مضيف البحث المرن. أدير مضيفًا واحدًا باستخدام Elasticsearch و Kibana و Logstash مع بعض الأدوات الأخرى. نظرًا لأن هذه المشكلة تؤثر على مؤشرات أخرى ، فيعتقد أن هذه مشكلة Elasticsearch وأن المشكلة التي تظهر في Kibana هي أحد أعراض مشكلة أخرى.

هذا الخطأ غبي. هل يمكنك فكها الآن؟ على الأقل يجب أن تعرض تحذيرًا وأن تسرد حلاً محتملاً. إنه لمن الغباء حقًا أن أنظر إلى سجل أخطاء js وأجد هذا الموضوع!

يمكنك إلغاء كسرها باتباع الأمر xose :

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

نعم فعلت.

يوم الأحد 26 نوفمبر 2017 الساعة 11:12 مساءً Aaron C. de Bruyn [email protected]
كتب:

saberkun https://github.com/saberkun يمكنك فكها باتباعك
نشر الأمر xose https://github.com/xose :

curl -XPUT -H "نوع المحتوى: application / json" https: // [YOUR_ELASTICSEARCH_ENDPOINT]: 9200 / _all / _settings -d '{"index.blocks.read_only_allow_delete": null}'

-
أنت تتلقى هذا لأنه تم ذكرك.
قم بالرد على هذا البريد الإلكتروني مباشرة ، وقم بعرضه على GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ،
أو كتم الخيط
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.

هل يمكنك تقديم معلومات إضافية؟ هل تلقيت خطأ عند تشغيل الأمر؟ هل تم فتح الفهارس وأنت الآن تتلقى رسالة خطأ جديدة؟ ما رسائل الخطأ التي تراها في ملفات السجل الآن؟

شكرا. تم إصلاحه بواسطة الأمر. أعني نعم ، لقد استخدمته لإصلاح ملف
مشكلة

يوم الأحد 26 نوفمبر 2017 الساعة 11:19 مساءً Aaron C. de Bruyn [email protected]
كتب:

هل يمكنك تقديم معلومات إضافية؟ هل تلقيت خطأ عندما
تشغيل الأمر؟ هل تم فتح المؤشرات وأنت الآن تحصل على ملف
رسالة خطأ؟ ما رسائل الخطأ التي تراها في ملفات السجل الآن؟

-
أنت تتلقى هذا لأنه تم ذكرك.
قم بالرد على هذا البريد الإلكتروني مباشرة ، وقم بعرضه على GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ،
أو كتم الخيط
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.

+1
تلقي هذا الخطأ بعد الترقية من 5.5 إلى 6.0

+1

ELK 6 ، مسح نصف محرك الأقراص لا يزال للقراءة فقط ، يُسمح لـ logstash بالكتابة مرة أخرى ، وظل kibana للقراءة فقط

تمكنت من حل المشكلة من خلال الحل البديل المقدم من xose

+1 ، نفس الخطأ بالنسبة لي.

نفس المشكلة بالنسبة لي. تم حلها عن طريق الحل المقدم منxose.

كذلك هنا. كل حائلxose.

لقد قمت للتو بترقية مجموعة أحادية العقدة من 6.0.0 إلى 6.1.1 (كلا من ES و Kibana). عندما بدأت النسخ الاحتياطي للخدمات ، كان كيبانا يرمي:

blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

مثل المرة السابقة - اضطررت إلى حذف فهرس .kibana لاستعادته واستمراره. كان هناك أيضًا فهرس logstash حالي مع إحدى القطع المدرجة على أنها غير مخصصة. لقد حذفته أيضًا ثم تلقيت تدفقًا معتادًا من التنبيهات.

لم تنفد المساحة لدي - هناك حوالي 92 جيجابايت من 120 جيجابايت مجانية على جهاز الاختبار هذا. موقع التخزين هو ZFS ولم يكشف الفرك عن أي تلف في البيانات.

يبدو أن الأخطاء الوحيدة في السجل ليست ذات صلة:

[2018-01-13T20:48:14,579][INFO ][o.e.n.Node               ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
        at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node               ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node               ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment    ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment    ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node               ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService     ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule    ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService   ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks    ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService    ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node               ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService     ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).

+1 نفس الخطأ في 6.1.2

هذه هي وظيفة Elasticsearch. وفقًا لخطأ Elasticsearch ، all indices on this node will marked read-only .

للعودة إلى فهرس ، يمكنك تعيين index.blocks.read_only_allow_delete على قيمة خالية.

يمكن العثور على مزيد من المعلومات حول هذا هنا: https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html

لمعلوماتك - لأي شخص لا يزال يواجه هذا ، إليك سطر واحد سريع لإصلاح المؤشرات:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

يأخذ قائمة بجميع المؤشرات في مجموعتك ، ثم يرسل لكل منها الأمر لجعله ليس للقراءة فقط.

لمعلوماتك - لأي شخص لا يزال يواجه هذا ، إليك سطر واحد سريع لإصلاح المؤشرات:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

يأخذ قائمة بجميع المؤشرات في مجموعتك ، ثم يرسل لكل منها الأمر لجعله ليس للقراءة فقط.

أنا أيضًا كنت أفعل هذا حتى وجدت حل darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)

يمكنك القيام بهذا الإعداد لـ _ all بدلاً من الانتقال واحدًا تلو الآخر. في حالتي ، يستغرق الأمر وقتًا طويلاً للقيام بذلك لمئات المؤشرات ، بينما يستغرق تعيين "الكل" بضع ثوانٍ فقط.

curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

لقد قمت بحل المشكلة عن طريق حذف فهرس kibana.
حذف /.kibana/
أفقد بعض التكوينات / المرئيات / لوحات المعلومات لكنها غير مؤمنة.

شكرا جزيلا على هذا WA. لقد تم حل المشكلة بالنسبة لي.

هذا عمل معي. كلا الأمرين مطلوبان لتشغيل kabana بعد تثبيت جديد:

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

هذا لا يتطلب حذف فهرس kibana. يعمل بشكل مثالي الآن!

مصدر:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات