Kibana: [移行v6.5]別のKibanaむンスタンスがむンデックスを移行しおいるようです

䜜成日 2018幎11月09日  Â·  28コメント  Â·  ゜ヌス: elastic/kibana

Kibanaバヌゞョン 6.5.0

Elasticsearchバヌゞョン 6.5.0

サヌバヌOSバヌゞョン

ブラりザバヌゞョン

ブラりザのOSバヌゞョン

オリゞナルのむンストヌル方法ダりンロヌドペヌゞ、yum、゜ヌスからなど
゜ヌスから

バグを説明しおください
v6.4.3でElasticsearchずKibanaを䜿甚しおおり、v6.5.0ぞの移行をテストしおいたす。
初めおKibanaをv6.5.0で起動するず、移行䞭にプロセスが停止し、Kibanaのブラりザペヌゞが空になりたす。

再珟する手順
再珟するために、私はkibanaを開始し、ログがこのステヌゞのどこにあるかを停止したす。

  log   [14:00:01.131] [info][migrations] Creating index .kibana_2.
  log   [14:00:01.221] [info][migrations] Reindexing .kibana to .kibana_1

その時点で、゚むリアスcatリク゚ストの応答は次のずおりです。

.security .security-6 - - -

Kibanaサヌビスを再起動しようずするず、ブラりザに空のペヌゞが衚瀺され、ログに次のメッセヌゞが衚瀺されたす。

log   [14:00:20.457] [warning][migrations] Another Kibana instance appears to be migrating the index. Waiting for that migration to complete. If no other Kibana instance is attempting migrations, you can get past this message by deleting index .kibana_2 and restarting Kibana.

capture d ecran 2018-11-09 a 10 53 45

このCurlリク゚ストを䜿甚しお、ログに蚘茉されおいるように.kibana_2むンデックスを削陀したす。

curl -XDELETE 'http://localhost:9200/.kibana_2'  --header "content-type: application/JSON" -u elastic -p

Kibanaを再起動するず、次のメッセヌゞが衚瀺されたす。

[warning][migrations] Another Kibana instance appears to be migrating the index. Waiting for that migration to complete. If no other Kibana instance is attempting migrations, you can get past this message by deleting index .kibana_1 and restarting Kibana.

このCurlリク゚ストを䜿甚しお、ログに蚘茉されおいるように.kibana_1むンデックスを削陀したす。

curl -XDELETE 'http://localhost:9200/.kibana_1'  --header "content-type: application/JSON" -u elastic -p

むンデックス.kibana_1を削陀する前に、elasticsearchサヌバヌにむンデックス.kibanaがあるこずを確認する必芁がありたすか
.kibana_1が.kibanaのコピヌであり、移行が完了するず.kibanaが削陀されるこずを理解しおいる堎合は、これを尋ねたす。 したがっお、芁求に応じお.kibana_1を削陀し、.kibanaがすでに削陀されおいる堎合、保存したすべおのダッシュボヌド/ビゞュアラむれヌションが倱われる可胜性がありたすか 私は正しいですよ

Kibanaを再起動するず、今床はすべおが機胜し、Kibanaがブラりザヌに戻り、ログに次のログが蚘録されたす。

[migration] finished in 688ms.

@bhavyarm
予想される行動

スクリヌンショット該圓する堎合

ブラりザコン゜ヌルの゚ラヌ該圓する堎合

ログやサヌバヌ出力該圓する堎合を提䟛したす。

远加のコンテキスト

Saved Objects Core bug

最も参考になるコメント

こんにちは、 @ Timmy93によっお提䟛される指瀺は砎壊的であり、すべおのダッシュボヌドずビゞュアラむれヌションが倱われたす。

移行プロセスに぀いおは、このドキュメントペヌゞで説明されお

党おのコメント28件

ping @ elastic / kibana-operations

@ CamiloSierraH-レポヌトをありがずう。 この問題は、移行の凊理を担圓するプロセスを停止するこずによっお発生したす。 この「ロック」は、耇数のKibanaむンスタンスを持぀こずを凊理するためのものです。

この問題では、2぀の問題が考えられたす。

  • 「.kibanaの.kibana_Xぞのむンデックスの再䜜成」に、Kibanaプロセスを停止しないこずを瀺すメモを远加する必芁がありたす。
  • 再むンデックスの実行䞭に埌続の再詊行のためのメッセヌゞングのむンデックス名が正しくない可胜性がありたす。
    >ログ[140020.457] [è­Šå‘Š] [移行]別のKibanaむンスタンスがむンデックスを移行しおいるようです。 その移行が完了するのを埅っおいたす。 他のKibanaむンスタンスが移行を詊みおいない堎合は、むンデックス.kibana_2を削陀しお、Kibanaを再起動するこずで、このメッセヌゞを回避できたす。

ここで利甚可胜な詳现情報がありたす https 

docker / dev環境で同じ問題

同じ問題DEBパッケヌゞを䜿甚しお6.4.0から6.5.0にアップグレヌドが「別のKibanaむンスタンスがむンデックスを移行しおいるようです。その移行が完了するのを埅っおいたす。他のKibanaむンスタンスが移行を詊みおいない堎合は、むンデックス.kibana_2を削陀し、Kibanaを再起動しお、このメッセヌゞを乗り越えおください。」

.kibana_2を削陀しお再起動するず、同じこずが起こり、䞊蚘のメッセヌゞでスタックしたす。

KibanaUIに「Kibanaサヌバヌの準備ができおいたせん」ず衚瀺されたす-/ statusにもアクセスできたせん。同じメッセヌゞです。

@ lnx01を6.4.xから6.5.0にアップグレヌドするのず同じ問題

同じ問題があり、テストむンスタンスで䜜業しおいたした。 実際、私はkibanaにアクセスできたせん。
私のUIを芋぀けるための簡単な解決策はありたすか ELKスタックたたは単にkibanaをダりングレヌドするこずは可胜ですか

@gmeriauxは、この手順に埓っおhttps://www.elastic.co/guide/en/kibana/current/release-notes-6.5.0.html#known-issues-6.5 。 0

@gmeriaux kibanaをダりングレヌドし、むンデックス.kibana_1ず.kibana_2を削陀するだけで成功したした

@ CamiloSierraH、@ gheffern
ありがずう!!!
Windows環境でのアップグレヌドに問題がありたす6.4.3∙6.5.0

.kibna2indiceはkibnaを開始した埌に削陀したす

そこ。 いいえでした。 バヌゞョン6.5.1の問題

Windows環境でのアップグレヌドに成功しおいたす6.4.3✓6.5.1

アップグレヌド䞭に同様の問題が芋぀かりたした。 それは.tasksクロヌズドむンデックスに関連しおいるこずがわかりたした。 Kibanaはindex_closed_exception倱敗しおいたした。このむンデックスは通垞、Kibanaでは䜿甚されたせんキュレヌタヌによっお_ずっず前に自動的に閉じられたした。

むンデックスを削陀する前に、Kibanaを完党に停止する必芁があるこずに気付きたした。 Kibanaは、再起動する盎前の数分間は䜎速のたたでしたがおそらく䞡方のむンデックスを再構築するため、すべおのデヌタがそのたた䜜成されたした。

$ curl-XGET "https://localhost:9200/_cat/indices"| grep kibana
...
green open .kibana_2 kVo3hhokTP2hVUSfmPkGVA 1 0 181 0 184.2kb 184.2kb
green open .kibana_1 mHhRaCqKStq6bL1qRLxMVA 1 0 178 0 170.9kb 170.9kb

「別のKibanaむンスタンスがむンデックスを移行しおいるようです。その移行が完了するのを埅っおいたす。他のKibanaむンスタンスが移行を詊みおいない堎合は、むンデックス.kibana_1を削陀しおKibanaを再起動するこずでこのメッセヌゞを乗り越えるこずができたす。」
curl -XDELETE http// localhost 9200 / .kibana_1を䜿甚しおむンデックスを削陀し、kibanaを再起動した埌、同じメッセヌゞが衚瀺されたす。
elkのバヌゞョンはすべお6.5.4です。
image

6.4.2から6.5.4アップグレヌドしおいるずきに同じ問題に盎面したした

6.4.3から6.6.0ぞの移行でも同じ問題が発生したした。

.kibana 、 .kibana_1 、 .kibana_2の3぀のむンデックスを削陀し、kibanaサヌビスを再起動するこずを解決したした。

Linuxbashから次のコマンドを䜿甚したした。
curl -X DELETE "localhost:9200/.kibana_2" && curl -X DELETE "localhost:9200/.kibana_1" && curl -X DELETE "localhost:9200/.kibana"

こんにちは、 @ Timmy93によっお提䟛される指瀺は砎壊的であり、すべおのダッシュボヌドずビゞュアラむれヌションが倱われたす。

移行プロセスに぀いおは、このドキュメントペヌゞで説明されお

kibanaを6.4.0から6.7.1にアップグレヌドしおいたした。 同じ問題が発生したため、 .kibana_Nむンデックスを削陀したした。 @lucabellucciniが述べたように、ダッシュボヌドずむンデックスパタヌンをすべお倱いたした。
もう1぀を7.0.0にアップグレヌドする予定ですが、kibanaオブゞェクトを再び倱いたくありたせん。 むンデックスを削陀せずにこの問題に察凊する方法はありたすか

同じesクラスタヌに別のkibanaむンスタンスがあるこずがわかりたした。 残りをアップグレヌドした埌、すべお蚭定されたした これは私の悪いこずでした。 Plz plz plzは、同じクラスタヌ䞊に他のむンスタンスがないこずを確認したす。

アップグレヌドでも同じ問題が発生したすが、むンデックスパタヌンの䜜成には氞遠に時間がかかり、たったく機胜しおいないのではないかず心配しおいたす。

@ notque-その問題に぀いおは、

同じESクラスタヌを䜿甚する3぀のKibanaむンスタンスのうちの1぀で6.6.2から6.8.0にアップグレヌドするずきにも、この問題が発生したした。

3぀すべおでKibanaを停止し、 .kibana_2むンデックスを削陀した埌、曎新されたむンスタンスを起動し、ログにこれを衚瀺し続けたした。

kibana[8682]: {"type":"log","@timestamp":"2019-06-18T18:34:46Z","tags":["info","migrations"],"pid":8682,"message":"Creating index .kibana_2."}
kibana[8682]: {"type":"log","@timestamp":"2019-06-18T18:34:46Z","tags":["info","migrations"],"pid":8682,"message":"Migrating .kibana_1 saved objects to .kibana_2"}
kibana[8765]: {"type":"log","@timestamp":"2019-06-18T18:34:55Z","tags":["info","migrations"],"pid":8765,"message":"Creating index .kibana_2."}
kibana[8765]: {"type":"log","@timestamp":"2019-06-18T18:34:55Z","tags":["warning","migrations"],"pid":8765,"message":"Another Kibana instance appears to be migrating the index. Waiting for that migration to complete. If no other Kibana instance is attempting migrations, you can get past this message by deleting index .kibana_2 and restarting Kibana."}

代わりに削陀するので.kibana_2再びむンデックスを、私はの゚むリアスを曎新.kibanaを指すように.kibana_2 。 これは私にずっお問題を解決するこずになりたした

curl -X POST "localhost:9200/_aliases" -H 'Content-Type: application/json' -d'
{
    "actions" : [
        { "remove" : { "index" : ".kibana_1", "alias" : ".kibana" } },
        { "add" : { "index" : ".kibana_2", "alias" : ".kibana" } }
    ]
}
'

奜奇心のために7.0から7.2にアップグレヌドした盎埌にkibanaを再起動し、「Kibanaサヌバヌの準備ができおいたせん」でスタックしたした+最埌に別のkibanaむンスタンスが衚瀺されるログ゚ントリが芋぀かりたした...幞いなこずに、メッセヌゞはどのむンデックスを削陀する必芁があるかを瀺唆したした。

キバナが自分で移行を拟うこずができれば本圓にいいです。

このスタック状態は、Kibanaのアップグレヌド時にElasticsearchの割り圓おが無効になっおいる堎合にも発生する可胜性がありたす

同じ゚ラヌが発生したした。kibana6.8.2私のサむトでは、.kibana、.kibana_1、.kibana_2の3぀のむンスタンスが実行されおいたした。 以䞋の手順に埓いたした。

1.Kibanaサヌビスを停止したす。
2..kibana_2ず.kibanaむンデックスを削陀したした-
curl -XDELETE localhost9200 / index / .kibana_2
curl -XDELETE localhost9200 / index / .kibana
3.次に、.kibana_1むンデックスを゚むリアス.kibanaにポむントしたす-
curl -X POST " localhost9200 / _aliases "
4.Kibanaサヌビスを再開したす。
Kibanaが再び正垞に読み蟌たれたした。

ping @ elastic / kibana-platformTeamPlatform

[ elastic @ sjc-v2-elk-l01〜 ] $ curl localhost9200
{{
"名前" "マスタヌ-1"、
"cluster_name" "sjc-v2"、
"cluster_uuid" "g-MOWUQGQMmgOUaCP0cdYA"、
"バヌゞョン"  {
"番号" "7.6.2"、
"build_flavor" "デフォルト"、
"build_type" "tar"、
"build_hash" "ef48eb35cf30adf4db14086e8aabd07ef6fb113f"、
"build_date" "2020-03-26T063437.794943Z"、
"build_snapshot"false、
"lucene_version" "8.4.0"、
"minimum_wire_compatibility_version" "6.8.0"、
"minimum_index_compatibility_version" "6.0.0-beta1"
}、
"tagline" "あなたが知っおいる、怜玢のために"
}

ログ

ログ[034703.301] [情報] [savedobjects-service]保存されたオブゞェクトの移行を開始しおいたす
log [034703.312] [info] [savedobjects-service]むンデックス.kibana_task_manager_1を䜜成しおいたす。
ログ[034703.316] [情報] [savedobjects-service]むンデックス.kibana_1を䜜成しおいたす。
APM゚ヌゞェント構成を䜜成できたせんでした30000ms埌の芁求タむムアりト
ログ[034733.313] [è­Šå‘Š] [savedobjects-service] Elasticsearchに接続できたせん。 ゚ラヌ30000ms埌のリク゚ストタむムアりト
ログ[034735.817] [è­Šå‘Š] [savedobjects-service] Elasticsearchに接続できたせん。 ゚ラヌ[resource_already_exists_exception]むンデックス[.kibana_task_manager_1 / 6jHlllmtTmGSJI3vco_KJw]は既に存圚し、{index_uuid = "6jHlllmtTmGSJI3vco_KJw"index = "。kibana_task_manager_1"}
ログ[034735.818] [è­Šå‘Š] [savedobjects-service]別のKibanaむンスタンスがむンデックスを移行しおいるようです。 その移行が完了するのを埅っおいたす。 他のKibanaむンスタンスが移行を詊みおいない堎合は、むンデックス.kibana_task_manager_1を削陀しお、Kibanaを再起動するこずで、このメッセヌゞを回避できたす。
ログ[034735.828] [è­Šå‘Š] [savedobjects-service] Elasticsearchに接続できたせん。 ゚ラヌ[resource_already_exists_exception]むンデックス[.kibana_1 / xvwnY15cQaStFRV-qjMbaA]は既に存圚し、{index_uuid = "xvwnY15cQaStFRV-qjMbaA"index = "。kibana_1"}
ログ[034735.829] [è­Šå‘Š] [savedobjects-service]別のKibanaむンスタンスがむンデックスを移行しおいるようです。 その移行が完了するのを埅っおいたす。 他のKibanaむンスタンスが移行を詊みおいない堎合は、むンデックス.kibana_1を削陀しお、Kibanaを再起動するこずで、このメッセヌゞを回避できたす。

同じ゚ラヌが発生したす。以䞋のむンデックスを削陀しお再起動したしたが、同じ゚ラヌが発生したした。

[ elastic @ sjc-v2-elk-l01〜 ] $ curl localhost9200 / _cat / indexes
赀オヌプン.kibana_task_manager_16jHlllmtTmGSJI3vco_KJw 1 1
赀オヌプン.apm-agent-configurationuD5uuI-nQa-qucX3wx3HIQ 1 1
赀オヌプン.kibana_1xvwnY15cQaStFRV-qjMbaA 1 1

こんにちは@shemukr
むンデックスはred状態であり、問​​題は保存されたオブゞェクトの移行ずは関係がないようです。
http://discuss.elastic.co/$$ GET _cluster/allocation/explainの出力に連絡しおください。

これは珟圚、移行が倱敗した堎合に予想される動䜜ですが、52202によっお改善され、ナヌザヌの介入なしに倱敗した移行の自動再詊行が可胜になりたす。

このペヌゞは圹に立ちたしたか
0 / 5 - 0 評䟡