こんにちは皆さん
何が悪いのかわからない。
初めて実行しようとした後:
$ helm install stable/mongodb-replicaset
Error: no available release name found
私はRBACを「無効」にしました
kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts
しかし、何も変わっていません。
$ helm install stable/mongodb-replicaset
Error: no available release name found
kubernetes
$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}
兜
$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
ヘルムレポ
$ helm search | grep mongo
stable/mongodb 0.4.17 NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset 2.1.2 NoSQL document-oriented database that stores JS...
ティラーポッド
$ kubectl get pods --all-namespaces | grep tiller
kube-system tiller-deploy-5cd755f8f-c8nnl 1/1 Running 0 22m
````
tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
Kubernetes1.8のサポートはhelmV2.7.0で最近追加されたばかりなので、Helmv2.6.2が1.8クラスターで動作することは期待できません。 v2.7.0-rc1リリースを試して、それが機能するかどうかを確認できますか? v2.7.0-rc1バイナリをローカルにインストールし、 helm reset && helm init
を実行すると、うまくいくはずです。 ありがとう! :)
@bacongobblerヒントをありがとう、しかしその一致を変更しなかった
helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
そして私がそれを再試行するとき:
$ helm install stable/mongodb-replicaset
Error: no available release name found
次のログで:
[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found
OK...
三毛猫のフランネルを交換して走りました
https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286に従って、次のコマンドでエラーが解決されました。
kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
多くのアプローチの後、最終的に、これは私のために働きました、ありがとう!
kubectl create serviceaccount --namespacekube-システム耕うん機
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount": "tiller"}}}}'
上記の3行で、私もこれを解決しました。
kubectlクライアント:1.9.6
kubectlサーバー:1.8.7
ヘルムクライアント:2.8.2
ヘルムサーバー:2.8.2
問題が発生し、記載されている解決策が機能していません:
Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"
また、minikueをオンにしてhelm list
を実行すると、次のエラーが発生しました。
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused
@viane try helm init --service-account default
; これは別のチケットですが、同じ一般的なエラーが発生します。
@viane次の手順を試してください。 (おそらく、耕うん機のサービスと展開をkubectl delete
する必要があります。)
$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller
それは私のためにそれを修正しました。
helm reset && helm init
は私には機能せず、上記のRBACソリューションも機能しませんでした。
最後に、Tillerを削除し、 https :
kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default
同じ問題が発生しました。 それから私はフォローしてみました
kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
とともにkubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
「サーバーからのエラー(BadRequest):オブジェクトキー文字列の先頭を探している無効な文字 's'」というメッセージが表示されました
それから私は次のコマンドを試しました
$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller
私はメッセージを受け取りました:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]
私を助けてください!...
以下は私の情報です:
ヘルムバージョン
Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
kubectlバージョン
Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}
ミニクベバージョンminikube version: v0.25.0
奇妙なことに、5月9日にHelmを使用してstable / nginx-ingressを正常にインストールし、次にKubernetesを削除して(練習用)、今日Kubernetesを再インストールして、stable / nginx-ingressを再度インストールしました。エラー。
よろしくお願いします
@ nguyenhuuloc304同じ問題が発生しました。 cluster-admin
ClusterRoleを作成する必要がありました。
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
annotations:
rbac.authorization.kubernetes.io/autoupdate: "true"
creationTimestamp: null
labels:
kubernetes.io/bootstrapping: rbac-defaults
name: cluster-admin
rules:
- apiGroups:
- '*'
resources:
- '*'
verbs:
- '*'
- nonResourceURLs:
- '*'
verbs:
- '*'
これをガイドのどこかに追加することが非常に重要だと思います。 AzureのAKSは、デフォルトのcluster-adminロールを提供しないため、ユーザーが作成する必要があります。
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778で確認できるように、これはACSでも当てはまりました。
これは、redisをヘルムインストールしようとしたときにうまくいきました。
kubectl create serviceaccount --namespacekube-システム耕うん機
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
helm init --service-account tiller --upgrade
ヘルム更新リポジトリ。 #これがパズルの最後のピースでした
helm install stable / redis --version 3.3.5
こっちも一緒、
kubeクライアント:v1.10.4
kubeサーバー:v1.9.6
ヘルムクライアント/サーバーv2.9.1
# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found
# helm search | grep prometheus
coreos/grafana 0.0.35 Grafana instance for kube-prometheus
coreos/kube-prometheus 0.0.82 Manifests, dashboards, and alerting rules for e...
coreos/prometheus 0.0.43 Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator 0.0.26 0.20.0 Provides easy monitoring definitions for Kubern...
stable/prometheus 6.7.2 2.2.1 Prometheus is a monitoring system and time seri...
この行を実行して機能しました。投稿していただきありがとうございます。 : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME: ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED
Error: no available release name found
が表示されるまでに時間がかかるのはなぜですか? 正直なところ、エラーメッセージが表示されるまでに5分かかるので、それを機能させるために必要な40,000の作業には5m * 40,000かかります。
私にとって、単一のソリューションは機能しませんでした。 ただし、ミニクベとティラーを再インストールし、最初にこの手順を実行しました。
クラスターで役割ベースのアクセス制御(RBAC)が有効になっている場合は、先に進む前にサービスアカウントとルールを構成することをお勧めします。
これは確かにドキュメントに記載されていますが、この段落の後に表示されるため、少し混乱します。
minikubeや、共有が問題にならないプライベートネットワーク上のクラスターなど、完全に制御するクラスターでHelmを使用している場合は、セキュリティ構成を適用しないデフォルトのインストールで問題ありません。これは間違いなく最も簡単です。 追加のセキュリティ手順なしでHelmをインストールするには、Helmをインストールしてから、Helmを初期化します。
以下の手順は、helmv2.11.0およびkube1.12.1バージョンでも私の問題を解決しました。
$ kubectl create serviceaccount --namespacekube-システム耕うん機
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
$ helm init --service-accounttiler
sudo iptables -P FORWARD ACCEPT
上記のコマンドは、エラーを取り除くために私がしなければならなかったすべてです..他の解決策のどれも私のために働いていないようでした。
よろしく
ランガ
同じ方法ですが、テラフォームを使用します。
resource "kubernetes_service_account" "tiller" {
metadata {
name = "tiller"
namespace = "kube-system"
}
}
resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {
metadata {
name = "tiller-cluster-rule"
}
role_ref {
kind = "ClusterRole"
name = "cluster-admin"
api_group = "rbac.authorization.k8s.io"
}
subject {
kind = "ServiceAccount"
namespace = "kube-system"
name = "tiller"
api_group = ""
}
provisioner "local-exec" {
command = "helm init --service-account tiller"
}
}
これを試しましたか
sudo iptables -P FORWARD ACCEPT
よろしく
ランガ
私は上記のすべてのオプションを無駄に試しましたが、rangapvによって提案されたものがうまくいきました。 ありがとうございました。
上記は何も機能しませんでした。
上記の解決策はどれも機能していません。
$ kubectlバージョン
クライアントバージョン:version.Info {Major: "1"、Minor: "12"、GitVersion: "v1.12.4"、GitCommit: "f49fa022dbe63faafd0da106ef7e05a29721d3f1"、GitTreeState: "clean"、BuildDate: "2018-12-14T07:10: 00Z "、GoVersion:" go1.10.4 "、コンパイラ:" gc "、プラットフォーム:" darwin / amd64 "}
サーバーバージョン:version.Info {Major: "1"、Minor: "13"、GitVersion: "v1.13.2"、GitCommit: "cff46ab41ff0bb44d8584413b598ad8360ec1def"、GitTreeState: "clean"、BuildDate: "2019-01-10T23:28: 14Z "、GoVersion:" go1.11.4 "、コンパイラ:" gc "、プラットフォーム:" linux / amd64 "}
$ヘルムバージョン
クライアント:&version.Version {SemVer: "v2.12.3"、GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"、GitTreeState: "clean"}
サーバー:&version.Version {SemVer: "v2.12.3"、GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"、GitTreeState: "clean"}
$ kubectl create serviceaccount --namespacekube-システム耕うん機
サーバーからのエラー(AlreadyExists):serviceaccounts "tiller"はすでに存在します
Ravis-MacBook-Pro-2:.kube ravi $ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
サーバーからのエラー(AlreadyExists):clusterrolebindings.rbac.authorization.k8s.io "tiller-cluster-rule"は既に存在します
Ravis-MacBook-Pro-2:.kube ravi $ helm init --service-account tiller --upgrade
$ HELM_HOMEは/Users/ravi/.helmで構成されています。
Tiller(Helmサーバー側コンポーネント)が現在のバージョンにアップグレードされました。
ハッピーヘルミング!
Ravis-MacBook-Pro-2:.kube ravi $ helm update repo
コマンド「update」は非推奨です。「helmrepoupdate」を使用してください
チャートリポジトリから最新のものを取得している間、しばらくお待ちください...
...ローカルチャートリポジトリをスキップする
...「安定した」チャートリポジトリから更新を正常に取得しました
更新が完了しました。 ⎈ハッピーヘルミング!⎈
Ravis-MacBook-Pro-2:.kube ravi $ helmインストールstable / redis
エラー:利用可能なリリース名が見つかりません
ねえ、
クラスタロール管理者権限のない、より安全なソリューション:
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
apiVersion: v1
metadata:
name: tiller
rules:
- apiGroups:
- ""
resources:
- configmaps
verbs:
- create
- get
- list
- update
- delete
- apiGroups:
- ""
resources:
- namespaces
verbs:
- get
EOF
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
これにより、上記のエラーが修正されます。
耕うん機チャートをプロジェクトに配置する場合は、耕うん機の編集権限を付与する必要があります。
kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller
上記の解決策はどれも私にはうまくいきませんでしたが、次のリンクの説明はうまくいきました。
上記の解決策はどれも私にはうまくいきませんでしたが、次のリンクの説明はうまくいきました。
おかげで仲間、それは動作します
最も参考になるコメント
https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286に従って、次のコマンドでエラーが解決されました。