Kibana: Kibana reste en lecture uniquement lorsque le filigrane de disque élevé ES a été dépassé et est ensuite passé en dessous de la limite

Créé le 24 août 2017  ·  22Commentaires  ·  Source: elastic/kibana

Version Kibana : 6.0.0-beta1

Version Elasticsearch : 6.0.0-beta1

Version du système d'exploitation du serveur : Ubuntu 16.04.2 LTS

Version du navigateur : Chrome 60.0.3112.90

Version du système d'exploitation du navigateur : Windows 10

Méthode d'installation d'origine (par exemple, page de téléchargement, miam, à partir de la source, etc.) : packages tar.gz officiels

Description du problème, y compris le comportement attendu par rapport au comportement réel :

J'exécute une instance Elasticsearch à nœud unique, logstash et Kibana. Tout fonctionne sur le même hôte dans des conteneurs Docker séparés.

Si le filigrane de disque élevé est dépassé sur l'hôte ES, les éléments suivants sont consignés dans le journal Elasticsearch :

[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only

Lorsque cela s'est produit, les modifications apportées à l'index .kibana échoueront bien sûr car l'index ne peut pas être écrit. Cela peut être observé en essayant de modifier n'importe quel paramètre sous _Gestion_->_Paramètres avancés_ où une modification de _search:queryLanguage_ échoue avec le message Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

index_read_only

Si davantage d'espace disque est désormais disponible, ES enregistrera que le nœud est passé sous le filigrane élevé :

[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]

On pourrait maintenant supposer qu'il serait possible d'apporter des modifications aux paramètres de Kibana, mais essayer de modifier les paramètres échoue toujours avec le message d'erreur :

Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

Étapes à reproduire :

  1. Assurez-vous que les modifications de paramètres peuvent être effectuées sans erreur
  2. Remplissez le disque de données Elasticsearch afin que le filigrane du disque haut soit dépassé (j'ai utilisé fallocate -l9G largefile )
  3. Vérifiez dans le journal ES que le filigrane de disque élevé a été dépassé et que les index ont été marqués en lecture seule
  4. Effectuez un changement de paramètre et vérifiez qu'il échoue car les écritures sont interdites
  5. Résoudre la condition de filigrane de disque élevé (ce que j'ai fait avec rm largefile )
  6. Vérifiez que le journal ES indique que le nœud est passé sous le filigrane de disque élevé (et qu'il devrait donc être possible d'y écrire ?)
  7. Effectuez un changement de paramètre et il échouera alors qu'il devrait réussir.
Pioneer Program Operations

Commentaire le plus utile

Je viens d'être touché par ça. Ce n'est pas seulement Kibana, tous les index sont verrouillés lorsque le seuil du disque est atteint et ne sont jamais déverrouillés lorsque l'espace est libéré.

Pour déverrouiller tous les index manuellement :

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Tous les 22 commentaires

Alors comment puis-je m'en remettre ? .kibana reste en lecture seule quoi que je fasse. J'ai essayé de le capturer, de le supprimer et de le récupérer à partir de l'instantané - toujours en lecture seule...

Je viens de tomber dessus sur une machine de test. Pour la vie de moi, je ne peux pas continuer à mettre des données dans le cluster. J'ai finalement dû souffler tous les indices impliqués.

j'ai résolu le problème en supprimant l'index .kibana :
supprimer /.kibana/
Je perds certaines configurations/visualisations/tableaux de bord mais ça s'est débloqué.

Je viens d'être touché par ça. Ce n'est pas seulement Kibana, tous les index sont verrouillés lorsque le seuil du disque est atteint et ne sont jamais déverrouillés lorsque l'espace est libéré.

Pour déverrouiller tous les index manuellement :

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Merci @xose , je viens d'être à nouveau touché et j'ai pu récupérer en utilisant la commande que vous avez suggérée :)

Le problème s'est produit sur tous les indices, pas seulement sur celui de .kibana .

Selon les journaux ES, les index ont été définis en lecture seule en raison du manque d'espace disque sur l'hôte Elasticsearch. J'exécute un seul hôte avec Elasticsearch, Kibana, Logstash dockerisé avec d'autres outils. Comme ce problème affecte d'autres index, je pense qu'il s'agit davantage d'un problème Elasticsearch et que le problème observé dans Kibana est le symptôme d'un autre problème.

Ce bug est stupide. Pouvez-vous le défaire pour l'instant ? Au moins, vous devriez afficher un avertissement et lister une solution possible. C'est vraiment stupide pour moi de regarder dans le journal des erreurs js et de trouver ce fil!

@saberkun Vous pouvez le débloquer en suivant la commande @xose publiée :

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Oui je l'ai fait.

Le dimanche 26 novembre 2017 à 23h12 Aaron C. de Bruyn [email protected]
a écrit:

@saberkun https://github.com/saberkun Vous pouvez le débloquer en suivant
la commande @xose https://github.com/xose posté :

curl -XPUT -H "Type de contenu : application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

-
Vous recevez ceci parce que vous avez été mentionné.
Répondez directement à cet e-mail, consultez-le sur GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ,
ou couper le fil
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.

Pouvez-vous fournir des informations supplémentaires? Avez-vous reçu une erreur lors de l'exécution de la commande ? Les index se sont-ils déverrouillés et vous obtenez maintenant un nouveau message d'erreur ? Quels messages d'erreur voyez-vous dans vos fichiers journaux maintenant ?

Merci. Il est fixé par la commande. Je veux dire oui, je l'ai utilisé pour réparer le
problème

Le dimanche 26 novembre 2017 à 23h19 Aaron C. de Bruyn [email protected]
a écrit:

Pouvez-vous fournir des informations supplémentaires? Avez-vous reçu une erreur lorsque
exécuter la commande ? Les indices se sont-ils déverrouillés et maintenant vous obtenez un nouveau
Message d'erreur? Quels messages d'erreur voyez-vous dans vos fichiers journaux maintenant ?

-
Vous recevez ceci parce que vous avez été mentionné.
Répondez directement à cet e-mail, consultez-le sur GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ,
ou couper le fil
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.

+1
Réception de cette erreur après la mise à niveau de 5.5 à 6.0

+1

ELK 6, effacé la moitié du lecteur toujours en lecture seule, logstash est autorisé à écrire à nouveau, kibana est resté en lecture seule

Réussi à résoudre le problème avec la solution de contournement fournie par @xose

+1, même erreur pour moi.

Même problème pour moi. J'ai été résolu par la solution donnée par @xose.

Pareil ici. Salut à tous @xose.

Je viens de mettre à niveau un cluster à nœud unique de 6.0.0 à 6.1.1 (à la fois ES et Kibana). Lorsque j'ai redémarré les services, Kibana lançait :

blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

Identique à la dernière fois - j'ai dû supprimer l'index .kibana pour le remettre en marche. Il y avait aussi l'index de logstash actuel avec l'un des fragments répertoriés comme non alloués. Je l'ai également supprimé, puis j'ai reçu le flot habituel d'alertes.

Je n'ai pas manqué d'espace : il y a environ 92 Go sur 120 Go d'espace libre sur cette machine de test. L'emplacement de stockage est ZFS et un nettoyage n'a révélé aucune corruption de données.

Les seules erreurs dans le journal semblent être sans importance :

[2018-01-13T20:48:14,579][INFO ][o.e.n.Node               ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
        at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node               ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node               ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment    ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment    ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node               ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService     ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule    ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService   ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks    ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService    ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node               ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService     ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).

+1 même erreur en 6.1.2

C'est une fonction d'Elasticsearch. Selon l'erreur Elasticsearch, all indices on this node will marked read-only .

Pour rétablir cela pour un index, vous pouvez définir index.blocks.read_only_allow_delete sur null.

Plus d'informations à ce sujet peuvent être trouvées ici : https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html

Pour info - pour tous ceux qui rencontrent encore ce problème, voici un bref résumé pour corriger les indices :
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Il récupère une liste de tous les index de votre cluster, puis pour chacun, il envoie la commande pour le rendre non en lecture seule.

Pour info - pour tous ceux qui rencontrent encore ce problème, voici un bref résumé pour corriger les indices :
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Il récupère une liste de tous les index de votre cluster, puis pour chacun, il envoie la commande pour le rendre non en lecture seule.

Moi aussi je faisais ça jusqu'à ce que je trouve la solution de @darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)

Vous pouvez faire ce réglage pour _all au lieu d'aller un par un. Dans mon cas, cela prend un certain temps pour le faire pour des centaines d'indices, tandis que le réglage sur "tout" ne prend que quelques secondes.

curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

j'ai résolu le problème en supprimant l'index .kibana :
supprimer /.kibana/
Je perds certaines configurations/visualisations/tableaux de bord mais ça s'est débloqué.

Merci beaucoup pour ce WA. C'est un problème résolu pour moi.

Cela a fonctionné pour moi. Les deux commandes étaient nécessaires pour que Kabana fonctionne après une nouvelle installation :

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Cela n'a pas nécessité la suppression de l'index .kibana. Fonctionne parfaitement maintenant !

La source:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only

Cette page vous a été utile?
0 / 5 - 0 notes