Helm: エラー:利用可能なリリース名が見つかりません

作成日 2017年10月23日  ·  27コメント  ·  ソース: helm/helm

こんにちは皆さん
何が悪いのかわからない。

初めて実行しようとした後:

$ helm install stable/mongodb-replicaset
Error: no available release name found

私はRBACを「無効」にしました

kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts 

しかし、何も変わっていません。

$ helm install stable/mongodb-replicaset
Error: no available release name found

kubernetes

$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}

ヘルムレポ

$ helm search | grep mongo
stable/mongodb                  0.4.17  NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset       2.1.2   NoSQL document-oriented database that stores JS...

ティラーポッド

$ kubectl get pods --all-namespaces | grep tiller
kube-system   tiller-deploy-5cd755f8f-c8nnl               1/1       Running   0          22m
````

tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
questiosupport

最も参考になるコメント

https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286に従って、次のコマンドでエラーが解決されました。

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

全てのコメント27件

Kubernetes1.8のサポートはhelmV2.7.0で最近追加されたばかりなので、Helmv2.6.2が1.8クラスターで動作することは期待できません。 v2.7.0-rc1リリースを試して、それが機能するかどうかを確認できますか? v2.7.0-rc1バイナリをローカルにインストールし、 helm reset && helm initを実行すると、うまくいくはずです。 ありがとう! :)

@bacongobblerヒントをありがとう、しかしその一致を変更しなかった

helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}

そして私がそれを再試行するとき:

$ helm install stable/mongodb-replicaset
Error: no available release name found

次のログで:

[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found

OK...
三毛猫のフランネルを交換して走りました

https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286に従って、次のコマンドでエラーが解決されました。

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

多くのアプローチの後、最終的に、これは私のために働きました、ありがとう!

kubectl create serviceaccount --namespacekube-システム耕うん機
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount": "tiller"}}}}'

上記の3行で、私もこれを解決しました。
kubectlクライアント:1.9.6
kubectlサーバー:1.8.7
ヘルムクライアント:2.8.2
ヘルムサーバー:2.8.2

問題が発生し、記載されている解決策が機能していません:

Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"

また、minikueをオンにしてhelm listを実行すると、次のエラーが発生しました。
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused

@viane try helm init --service-account default ; これは別のチケットですが、同じ一般的なエラーが発生します。

@viane次の手順を試してください。 (おそらく、耕うん機のサービスと展開をkubectl deleteする必要があります。)

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

それは私のためにそれを修正しました。

helm reset && helm initは私には機能せず、上記のRBACソリューションも機能しませんでした。
最後に、Tillerを削除し、 https

kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default

同じ問題が発生しました。 それから私はフォローしてみました

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

とともに
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
「サーバーからのエラー(BadRequest):オブジェクトキー文字列の先頭を探している無効な文字 's'」というメッセージが表示されました

それから私は次のコマンドを試しました

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

私はメッセージを受け取りました:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]

私を助けてください!...
以下は私の情報です:
ヘルムバージョン

Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}

kubectlバージョン

Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}

ミニクベバージョン
minikube version: v0.25.0

奇妙なことに、5月9日にHelmを使用してstable / nginx-ingressを正常にインストールし、次にKubernetesを削除して(練習用)、今日Kubernetesを再インストールして、stable / nginx-ingressを再度インストールしました。エラー。

よろしくお願いします

@ nguyenhuuloc304同じ問題が発生しました。 cluster-admin ClusterRoleを作成する必要がありました。

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  creationTimestamp: null
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
  name: cluster-admin
rules:
- apiGroups:
  - '*'
  resources:
  - '*'
  verbs:
  - '*'
- nonResourceURLs:
  - '*'
  verbs:
  - '*'

これをガイドのどこかに追加することが非常に重要だと思います。 AzureのAKSは、デフォルトのcluster-adminロールを提供しないため、ユーザーが作成する必要があります。
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778で確認できるように、これはACSでも当てはまりました。

これは、redisをヘルムインストールしようとしたときにうまくいきました。
kubectl create serviceaccount --namespacekube-システム耕うん機
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
helm init --service-account tiller --upgrade
ヘルム更新リポジトリ。 #これがパズルの最後のピースでした
helm install stable / redis --version 3.3.5

こっちも一緒、
kubeクライアント:v1.10.4
kubeサーバー:v1.9.6
ヘルムクライアント/サーバーv2.9.1

# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found

# helm search | grep prometheus
coreos/grafana                          0.0.35                                          Grafana instance for kube-prometheus
coreos/kube-prometheus                  0.0.82                                          Manifests, dashboards, and alerting rules for e...
coreos/prometheus                       0.0.43                                          Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator              0.0.26          0.20.0                          Provides easy monitoring definitions for Kubern...
stable/prometheus                       6.7.2           2.2.1                           Prometheus is a monitoring system and time seri...

この行を実行して機能しました。投稿していただきありがとうございます。 : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME:   ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED

Error: no available release name foundが表示されるまでに時間がかかるのはなぜですか? 正直なところ、エラーメッセージが表示されるまでに5分かかるので、それを機能させるために必要な40,000の作業には5m * 40,000かかります。

私にとって、単一のソリューションは機能しませんでした。 ただし、ミニクベとティラーを再インストールし、最初にこの手順を実行しました。

クラスターで役割ベースのアクセス制御(RBAC)が有効になっている場合は、先に進む前にサービスアカウントとルールを構成することをお勧めします。

これは確かにドキュメントに記載されていますが、この段落の後に表示されるため、少し混乱します。

minikubeや、共有が問題にならないプライベートネットワーク上のクラスターなど、完全に制御するクラスターでHelmを使用している場合は、セキュリティ構成を適用しないデフォルトのインストールで問題ありません。これは間違いなく最も簡単です。 追加のセキュリティ手順なしでHelmをインストールするには、Helmをインストールしてから、Helmを初期化します。

以下の手順は、helmv2.11.0およびkube1.12.1バージョンでも私の問題を解決しました。

$ kubectl create serviceaccount --namespacekube-システム耕うん機
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
$ helm init --service-accounttiler

sudo iptables -P FORWARD ACCEPT

上記のコマンドは、エラーを取り除くために私がしなければならなかったすべてです..他の解決策のどれも私のために働いていないようでした。

よろしく
ランガ

同じ方法ですが、テラフォームを使用します。

  resource "kubernetes_service_account" "tiller" {
    metadata {
      name = "tiller"
      namespace = "kube-system"
    }
  }

  resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {

    metadata {
      name = "tiller-cluster-rule"
    }

    role_ref {
      kind = "ClusterRole"
      name = "cluster-admin"
      api_group = "rbac.authorization.k8s.io"
    }

    subject {
      kind = "ServiceAccount"
      namespace = "kube-system"
      name = "tiller"
      api_group = ""
    }

    provisioner "local-exec" {
      command = "helm init --service-account tiller"
    }
  }

これを試しましたか
sudo iptables -P FORWARD ACCEPT
よろしく
ランガ

私は上記のすべてのオプションを無駄に試しましたが、rangapvによって提案されたものがうまくいきました。 ありがとうございました。

上記は何も機能しませんでした。

上記の解決策はどれも機能していません。

$ kubectlバージョン
クライアントバージョン:version.Info {Major: "1"、Minor: "12"、GitVersion: "v1.12.4"、GitCommit: "f49fa022dbe63faafd0da106ef7e05a29721d3f1"、GitTreeState: "clean"、BuildDate: "2018-12-14T07:10: 00Z "、GoVersion:" go1.10.4 "、コンパイラ:" gc "、プラットフォーム:" darwin / amd64 "}
サーバーバージョン:version.Info {Major: "1"、Minor: "13"、GitVersion: "v1.13.2"、GitCommit: "cff46ab41ff0bb44d8584413b598ad8360ec1def"、GitTreeState: "clean"、BuildDate: "2019-01-10T23:28: 14Z "、GoVersion:" go1.11.4 "、コンパイラ:" gc "、プラットフォーム:" linux / amd64 "}

$ヘルムバージョン
クライアント:&version.Version {SemVer: "v2.12.3"、GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"、GitTreeState: "clean"}
サーバー:&version.Version {SemVer: "v2.12.3"、GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"、GitTreeState: "clean"}

$ kubectl create serviceaccount --namespacekube-システム耕うん機
サーバーからのエラー(AlreadyExists):serviceaccounts "tiller"はすでに存在します
Ravis-MacBook-Pro-2:.kube ravi $ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
サーバーからのエラー(AlreadyExists):clusterrolebindings.rbac.authorization.k8s.io "tiller-cluster-rule"は既に存在します
Ravis-MacBook-Pro-2:.kube ravi $ helm init --service-account tiller --upgrade
$ HELM_HOMEは/Users/ravi/.helmで構成されています。

Tiller(Helmサーバー側コンポーネント)が現在のバージョンにアップグレードされました。
ハッピーヘルミング!
Ravis-MacBook-Pro-2:.kube ravi $ helm update repo
コマンド「update」は非推奨です。「helmrepoupdate」を使用してください

チャートリポジトリから最新のものを取得している間、しばらくお待ちください...
...ローカルチャートリポジトリをスキップする
...「安定した」チャートリポジトリから更新を正常に取得しました
更新が完了しました。 ⎈ハッピーヘルミング!⎈

Ravis-MacBook-Pro-2:.kube ravi $ helmインストールstable / redis
エラー:利用可能なリリース名が見つかりません

ねえ、

クラスタロール管理者権限のない、より安全なソリューション:

  1. $ {TILLER_NAMESPACE}に次のロールを作成します。
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
  apiVersion: v1
  metadata:
    name: tiller
  rules:
  - apiGroups:
    - ""
    resources:
    - configmaps
    verbs:
    - create
    - get
    - list
    - update
    - delete
  - apiGroups:
    - ""
    resources:
    - namespaces
    verbs:
    - get
EOF
  1. サービスアカウントを作成し、ローカルロールをバインドし、パッチをデプロイします
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

これにより、上記のエラーが修正されます。

耕うん機チャートをプロジェクトに配置する場合は、耕うん機の編集権限を付与する必要があります。

kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller

上記の解決策はどれも私にはうまくいきませんでしたが、次のリンクの説明はうまくいきました。

https://scriptcrunch.com/helm-error-no-available-release/

上記の解決策はどれも私にはうまくいきませんでしたが、次のリンクの説明はうまくいきました。

https://scriptcrunch.com/helm-error-no-available-release/

おかげで仲間、それは動作します

このページは役に立ちましたか?
0 / 5 - 0 評価