Kibana: Kibana permanece lido apenas quando a marca d'água de alto disco ES foi excedida e, posteriormente, ficou abaixo do limite

Criado em 24 ago. 2017  ·  22Comentários  ·  Fonte: elastic/kibana

Versão Kibana : 6.0.0-beta1

Versão do Elasticsearch : 6.0.0-beta1

Versão do sistema operacional do servidor : Ubuntu 16.04.2 LTS

Versão do navegador : Chrome 60.0.3112.90

Versão do sistema operacional do navegador : Windows 10

Método de instalação original (por exemplo, página de download, yum, da fonte, etc.) : Pacotes tar.gz oficiais

Descrição do problema, incluindo comportamento esperado versus comportamento real :

Estou executando uma instância de Elasticsearch de nó único, logstash e Kibana. Tudo é executado no mesmo host em contêineres docker separados.

Se a marca d'água de disco alto for excedida no host ES, o seguinte será registrado no log do elasticsearch:

[2017-08-24T07:45:11,757][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [high disk watermark exceeded on one or more nodes]
[2017-08-24T07:45:41,760][WARN ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] flood stage disk watermark [95%] exceeded on [CSOifArqQK-7PBZM_keNoA][CSOifAr][/data/elasticsearch/nodes/0] free: 693.8mb[2.1%], all indice
s on this node will marked read-only

Quando isso ocorrer, as alterações no índice .kibana irão obviamente falhar, pois o índice não pode ser gravado. Isso pode ser observado ao tentar alterar qualquer configuração em _Management _-> _ Advanced Settings_ onde uma alteração para, por exemplo, _ search: queryLanguage_ falha com a mensagem Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

index_read_only

Se houver mais espaço em disco disponível, o ES registrará que o nó está sob a marca d'água alta:

[2017-08-24T07:47:11,774][INFO ][o.e.c.r.a.DiskThresholdMonitor] [CSOifAr] rerouting shards: [one or more nodes has gone under the high or low watermark]

Agora, seria de se supor que seria possível fazer alterações nas configurações do Kibana, mas tentar fazer uma alteração nas configurações ainda falha com a mensagem de erro:

Config: Error 403 Forbidden: blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

Passos para reproduzir :

  1. Certifique-se de que as alterações de configuração podem ser realizadas sem erros
  2. Preencha o disco de dados do elasticsearch para que a marca d'água alta do disco seja excedida (eu usei fallocate -l9G largefile )
  3. Verifique no log do ES se a marca d'água do disco alto foi excedida e os índices foram marcados como somente leitura
  4. Realize uma mudança de configuração e verifique se há falha, pois as gravações são proibidas
  5. Resolva a condição de marca d'água de disco alto (que fiz com rm largefile )
  6. Verifique se o log do ES indica que o nó ficou sob a marca d'água de disco alto (e, portanto, deve ser possível gravar?)
  7. Realize uma alteração de configuração e ela falhará quando realmente deveria ser bem-sucedida.
Pioneer Program Operations

Comentários muito úteis

Eu acabei de ser atingido por isso. Não é apenas Kibana, todos os índices são bloqueados quando o limite do disco é atingido e nunca são desbloqueados quando o espaço é liberado.

Para desbloquear todos os índices manualmente:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Todos 22 comentários

Então, como faço para me recuperar disso? .kibana permanece em leitura, não importa o que eu faça. Tentei fazer um instantâneo, excluí-lo e recuperá-lo do instantâneo - ainda somente leitura ...

Acabei de encontrar isso em uma máquina de teste. Não posso continuar colocando dados no cluster. Eu finalmente tive que explodir todos os índices envolvidos.

Resolvi o problema excluindo o índice .kibana:
delete /.kibana/
Perdi certas configurações / visualizações / painéis, mas foi desbloqueado.

Eu acabei de ser atingido por isso. Não é apenas Kibana, todos os índices são bloqueados quando o limite do disco é atingido e nunca são desbloqueados quando o espaço é liberado.

Para desbloquear todos os índices manualmente:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Obrigado @xose , acabei de ser atingido por isso novamente e consegui me recuperar usando o comando que você sugeriu :)

O problema ocorreu em todos os índices, não apenas no .kibana one.

De acordo com os logs do ES, os índices foram definidos como somente leitura devido ao pouco espaço em disco no host elasticsearch. Eu executo um único host com Elasticsearch, Kibana, Logstash dockerized junto com algumas outras ferramentas. Como esse problema afeta outros índices, acho que isso é mais um problema do Elasticsearch e que o problema visto em Kibana é um sintoma de outro problema.

Esse bug é estúpido. Você pode desbloquear por agora? Pelo menos você deve exibir um aviso e listar uma solução possível. É realmente estúpido para mim olhar para o log de erros do js e encontrar este tópico!

@saberkun Você pode desvendá-lo seguindo o comando @xose postado:

curl -XPUT -H "Content-Type: application/json" https://[YOUR_ELASTICSEARCH_ENDPOINT]:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Sim eu fiz.

Domingo, 26 de novembro de 2017 às 23:12 Aaron C. de Bruyn [email protected]
escreveu:

@saberkun https://github.com/saberkun Você pode desvendá-lo seguindo
o comando @xose https://github.com/xose postou:

curl -XPUT -H "Content-Type: application / json" https: // [YOUR_ELASTICSEARCH_ENDPOINT]: 9200 / _all / _settings -d '{"index.blocks.read_only_allow_delete": null}'

-
Você está recebendo isso porque foi mencionado.
Responda a este e-mail diretamente, visualize-o no GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347074533 ,
ou silenciar o tópico
https://github.com/notifications/unsubscribe-auth/AEpb5RJrhqJ8fK9wxGtNvTZtomMtlqzZks5s6jbBgaJpZM4PBHOW
.

Você pode fornecer informações adicionais? Você recebeu um erro ao executar o comando? Os índices foram desbloqueados e agora você está recebendo uma nova mensagem de erro? Que mensagens de erro você está vendo em seus arquivos de log agora?

Obrigado. É corrigido pelo comando. Quer dizer, sim, usei para consertar o
problema

No domingo, 26 de novembro de 2017 às 23:19 Aaron C. de Bruyn [email protected]
escreveu:

Você pode fornecer informações adicionais? Você recebeu um erro quando
executando o comando? Os índices foram desbloqueados e agora você está recebendo um novo
mensagem de erro? Que mensagens de erro você está vendo em seus arquivos de log agora?

-
Você está recebendo isso porque foi mencionado.
Responda a este e-mail diretamente, visualize-o no GitHub
https://github.com/elastic/kibana/issues/13685#issuecomment-347075205 ,
ou silenciar o tópico
https://github.com/notifications/unsubscribe-auth/AEpb5Xn5uJBlzvAyXkAjRPom-OiwJ43Gks5s6jg0gaJpZM4PBHOW
.

+1
Recebendo este erro após a atualização de 5.5 para 6.0

+1

ELK 6, limpou metade da unidade ainda somente leitura, logstash pode gravar novamente, kibana permaneceu somente leitura

Conseguiu resolver o problema com a solução alternativa fornecida por @xose

1, mesmo erro para mim.

O mesmo problema para mim. Foi resolvido pela solução fornecida por @xose.

Mesmo aqui. Todos saudam @xose.

Acabei de atualizar um cluster de nó único de 6.0.0 para 6.1.1 (ES e Kibana). Quando comecei os serviços de volta, Kibana estava jogando:

blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];

O mesmo da última vez - tive que deletar o índice .kibana para colocá-lo de volta em funcionamento. Havia também o índice logstash atual com um dos shards listados como não alocados. Eu também o excluí e recebi o fluxo normal de alertas.

Não fiquei sem espaço - há cerca de 92 GB dos 120 GB livres nesta máquina de teste. O local de armazenamento é ZFS e uma limpeza não revelou qualquer corrupção de dados.

Os únicos erros no registro parecem ser irrelevantes:

[2018-01-13T20:48:14,579][INFO ][o.e.n.Node               ] [ripley1] stopping ...
[2018-01-13T20:48:14,597][ERROR][i.n.u.c.D.rejectedExecution] Failed to submit a listener notification task. Event loop shut down?
java.util.concurrent.RejectedExecutionException: event executor terminated
        at io.netty.util.concurrent.SingleThreadEventExecutor.reject(SingleThreadEventExecutor.java:821) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.offerTask(SingleThreadEventExecutor.java:327) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.addTask(SingleThreadEventExecutor.java:320) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.SingleThreadEventExecutor.execute(SingleThreadEventExecutor.java:746) ~[netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.safeExecute(DefaultPromise.java:760) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:428) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.util.concurrent.DefaultPromise.setFailure(DefaultPromise.java:113) [netty-common-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPromise.setFailure(DefaultChannelPromise.java:87) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.safeExecute(AbstractChannelHandlerContext.java:1010) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.write(AbstractChannelHandlerContext.java:825) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannelHandlerContext.writeAndFlush(AbstractChannelHandlerContext.java:794) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.DefaultChannelPipeline.writeAndFlush(DefaultChannelPipeline.java:1027) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at io.netty.channel.AbstractChannel.writeAndFlush(AbstractChannel.java:301) [netty-transport-4.1.13.Final.jar:4.1.13.Final]
        at org.elasticsearch.http.netty4.Netty4HttpChannel.sendResponse(Netty4HttpChannel.java:146) [transport-netty4-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.RestController$ResourceHandlingHttpChannel.sendResponse(RestController.java:491) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestResponseListener.processResponse(RestResponseListener.java:37) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.rest.action.RestActionListener.onResponse(RestActionListener.java:47) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onResponse(TransportAction.java:81) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.finishHim(TransportBulkAction.java:380) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.bulk.TransportBulkAction$BulkOperation$1.onFailure(TransportBulkAction.java:375) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.TransportAction$1.onFailure(TransportAction.java:91) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase.finishAsFailed(TransportReplicationAction.java:908) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.action.support.replication.TransportReplicationAction$ReroutePhase$2.onClusterServiceClose(TransportReplicationAction.java:891) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ContextPreservingListener.onClusterServiceClose(ClusterStateObserver.java:310) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.ClusterStateObserver$ObserverClusterStateListener.onClose(ClusterStateObserver.java:230) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterApplierService.doStop(ClusterApplierService.java:168) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.cluster.service.ClusterService.doStop(ClusterService.java:106) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.common.component.AbstractLifecycleComponent.stop(AbstractLifecycleComponent.java:85) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.stop(Node.java:713) [elasticsearch-6.0.0.jar:6.0.0]
        at org.elasticsearch.node.Node.close(Node.java:735) [elasticsearch-6.0.0.jar:6.0.0]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:89) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.apache.lucene.util.IOUtils.close(IOUtils.java:76) [lucene-core-7.0.1.jar:7.0.1 8d6c3889aa543954424d8ac1dbb3f03bf207140b - sarowe - 2017-10-02 14:36:35]
        at org.elasticsearch.bootstrap.Bootstrap$4.run(Bootstrap.java:185) [elasticsearch-6.0.0.jar:6.0.0]
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] stopped
[2018-01-13T20:48:14,692][INFO ][o.e.n.Node               ] [ripley1] closing ...
[2018-01-13T20:48:14,704][INFO ][o.e.n.Node               ] [ripley1] closed
[2018-01-13T20:48:39,879][INFO ][o.e.n.Node               ] [ripley1] initializing ...
[2018-01-13T20:48:40,054][INFO ][o.e.e.NodeEnvironment    ] [ripley1] using [1] data paths, mounts [[/scratch/elasticsearch (scratch/elasticsearch)]], net usable_space [92.5gb], net total_space [93.6gb], types [zfs]
[2018-01-13T20:48:40,055][INFO ][o.e.e.NodeEnvironment    ] [ripley1] heap size [989.8mb], compressed ordinary object pointers [true]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] node name [ripley1], node ID [TvkaGbQpR5KZ-ZScMZN6AQ]
[2018-01-13T20:48:40,119][INFO ][o.e.n.Node               ] [ripley1] version[6.1.1], pid[6942], build[bd92e7f/2017-12-17T20:23:25.338Z], OS[Linux/4.10.0-38-generic/amd64], JVM[Oracle Corporation/OpenJDK 64-Bit Server VM/1.8.0_151/25.151-b12]
[2018-01-13T20:48:40,120][INFO ][o.e.n.Node               ] [ripley1] JVM arguments [-Xms1g, -Xmx1g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -XX:-OmitStackTraceInFastThrow, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -XX:+HeapDumpOnOutOfMemoryError, -XX:HeapDumpPath=/var/lib/elasticsearch, -Des.path.home=/usr/share/elasticsearch, -Des.path.conf=/etc/elasticsearch]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [aggs-matrix-stats]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [analysis-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [ingest-common]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-expression]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-mustache]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [lang-painless]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [mapper-extras]
[2018-01-13T20:48:41,315][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [parent-join]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [percolator]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [reindex]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [repository-url]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [transport-netty4]
[2018-01-13T20:48:41,320][INFO ][o.e.p.PluginsService     ] [ripley1] loaded module [tribe]
[2018-01-13T20:48:41,321][INFO ][o.e.p.PluginsService     ] [ripley1] no plugins loaded
[2018-01-13T20:48:43,801][INFO ][o.e.d.DiscoveryModule    ] [ripley1] using discovery type [zen]
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] initialized
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,587][INFO ][o.e.n.Node               ] [ripley1] starting ...
[2018-01-13T20:48:44,759][INFO ][o.e.t.TransportService   ] [ripley1] publish_address {192.168.42.40:9300}, bound_addresses {[::]:9300}
[2018-01-13T20:48:44,792][INFO ][o.e.b.BootstrapChecks    ] [ripley1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2018-01-13T20:48:47,864][INFO ][o.e.c.s.MasterService    ] [ripley1] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}
[2018-01-13T20:48:47,869][INFO ][o.e.c.s.ClusterApplierService] [ripley1] new_master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300}, reason: apply cluster state (from master [master {ripley1}{TvkaGbQpR5KZ-ZScMZN6AQ}{H39AkwwqS_i-fg3Gl5J8QQ}{192.168.42.40}{192.168.42.40:9300} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]])
[2018-01-13T20:48:47,884][INFO ][o.e.h.n.Netty4HttpServerTransport] [ripley1] publish_address {192.168.42.40:9200}, bound_addresses {[::]:9200}
[2018-01-13T20:48:47,884][INFO ][o.e.n.Node               ] [ripley1] started
[2018-01-13T20:48:48,326][INFO ][o.e.g.GatewayService     ] [ripley1] recovered [6] indices into cluster_state
[2018-01-13T20:49:01,493][INFO ][o.e.c.m.MetaDataDeleteIndexService] [ripley1] [logstash-2018.01.14/D0f_lDkSQpebPFcey6NHFw] deleting index
[2018-01-13T20:49:18,793][INFO ][o.e.c.m.MetaDataCreateIndexService] [ripley1] [logstash-2018.01.14] creating index, cause [auto(bulk api)], templates [logstash-*], shards [5]/[0], mappings []
[2018-01-13T20:49:18,937][INFO ][o.e.c.r.a.AllocationService] [ripley1] Cluster health status changed from [YELLOW] to [GREEN] (reason: [shards started [[logstash-2018.01.14][4]] ...]).

+1 mesmo erro em 6.1.2

Esta é uma função do Elasticsearch. De acordo com o erro do Elasticsearch, all indices on this node will marked read-only .

Para reverter isso para um índice, você pode definir index.blocks.read_only_allow_delete como nulo.

Mais informações sobre isso podem ser encontradas aqui: https://www.elastic.co/guide/en/elasticsearch/reference/current/disk-allocator.html

Para sua informação - para qualquer um que ainda esteja enfrentando isso, aqui está um resumo rápido para corrigir os índices:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Ele pega uma lista de todos os índices em seu cluster e, para cada um deles, ele envia o comando para torná-lo não somente leitura.

Para sua informação - para qualquer um que ainda esteja enfrentando isso, aqui está um resumo rápido para corrigir os índices:
curl -s -H "Content-Type: application/json" http://localhost:9200/_cat/indices | awk '{ print $3 }' | sort | xargs -L 1 -I{} curl -s -XPUT -H "Content-Type: application/json" http://localhost:9200/{}/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Ele pega uma lista de todos os índices em seu cluster e, para cada um deles, ele envia o comando para torná-lo não somente leitura.

Eu também estava fazendo isso até encontrar a solução da @darkpixel (https://github.com/elastic/kibana/issues/13685#issuecomment-347074533)

Você pode fazer essa configuração para _todos em vez de ir um por um. No meu caso, leva um certo tempo para fazer isso para centenas de índices, enquanto definir 'todos' leva apenas alguns segundos.

curl -XPUT -H "Content-Type: application/json" https://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Resolvi o problema excluindo o índice .kibana:
delete /.kibana/
Perdi certas configurações / visualizações / painéis, mas foi desbloqueado.

Muito obrigado por este WA. É problema resolvido para mim.

Isso funcionou para mim. Ambos os comandos foram necessários para fazer o kabana funcionar após uma nova instalação:

curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_cluster/settings -d '{ "transient": { "cluster.routing.allocation.disk.threshold_enabled": false } }'
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'

Isso não exigia a exclusão do índice .kibana. Funciona perfeitamente agora!

Fonte:
https://selleo.com/til/posts/esrgfyxjee-how-to-fix-elasticsearch-forbidden12index-read-only

Esta página foi útil?
0 / 5 - 0 avaliações