Helm: Ошибка: не найдено доступного названия выпуска

Созданный на 23 окт. 2017  ·  27Комментарии  ·  Источник: helm/helm

Привет народ
я просто понятия не имею, что происходит не так.

после первой попытки запустить:

$ helm install stable/mongodb-replicaset
Error: no available release name found

я "отключил" RBAC

kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts 

но ничего не изменилось:

$ helm install stable/mongodb-replicaset
Error: no available release name found

Кубернеты

$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

шлем

$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}

репо руля

$ helm search | grep mongo
stable/mongodb                  0.4.17  NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset       2.1.2   NoSQL document-oriented database that stores JS...

стручок румпеля

$ kubectl get pods --all-namespaces | grep tiller
kube-system   tiller-deploy-5cd755f8f-c8nnl               1/1       Running   0          22m
````

tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
questiosupport

Самый полезный комментарий

Согласно https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, следующие команды разрешили ошибку для меня:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Все 27 Комментарий

Поддержка Kubernetes 1.8 только недавно была добавлена ​​в helm v2.7.0, поэтому я не ожидал, что Helm v2.6.2 будет работать с кластером 1.8. Можете ли вы попробовать версию v2.7.0-rc1 и посмотреть, работает ли она? Установка двоичного файла v2.7.0-rc1 локально и запуск helm reset && helm init должны помочь. Спасибо! :)

@bacongobbler благодарит за подсказку, но не изменил совпадение

helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}

и когда я попробую еще раз:

$ helm install stable/mongodb-replicaset
Error: no available release name found

со следующим журналом:

[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found

ОК...
Я заменил фланель через ситцевую ткань, и она заработала

Согласно https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, следующие команды разрешили ошибку для меня:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

после многих подходов, наконец, это сработало для меня, спасибо!

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec": {"template": {"spec": {"serviceAccount": "tiller"}}}}'

Вышеупомянутые 3 строки также разрешили это для меня.
клиент kubectl: 1.9.6
сервер kubectl: 1.8.7
клиент helm: 2.8.2
рулевой сервер: 2.8.2

Возникает проблема, и указанное решение не работает для:

Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"

Также, выполнив helm list с включенным minikue, я получил ошибку
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused

@viane try helm init --service-account default ; это другой билет, но он приводит к той же общей ошибке.

@viane Попробуйте выполнить следующие действия. (Вам, вероятно, потребуется kubectl delete для обслуживания и развертывания румпеля.)

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Это исправило это для меня.

helm reset && helm init у меня не сработали, как и решения RBAC, описанные выше.
Наконец, он снова заработал, удалив Tiller, а затем используя предложение в https://github.com/kubernetes/helm/issues/3055#issuecomment -385296641:

kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default

Я столкнулся с той же проблемой. тогда я попробовал следовать

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

с
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
Я получил сообщение «Ошибка сервера (BadRequest): недопустимый символ 'ищет начало строки ключа объекта»

а затем я попробовал следующие команды

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Я получил сообщение:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]

Помогите, пожалуйста!...
Ниже моя информация:
версия руля

Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}

версия kubectl

Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}

версия minikube
minikube version: v0.25.0

Странно то, что я использовал Helm для установки стабильного / nginx-ingress 9 мая и успешно, затем я удалил Kubernetes (для практики), затем переустановил Kubernetes сегодня и снова установил стабильный / nginx-ingress .... Операции описаны выше. ошибка.

Большое спасибо за вашу поддержку заранее

@ nguyenhuuloc304 Я столкнулся с той же проблемой. Мне пришлось сделать cluster-admin ClusterRole.

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  creationTimestamp: null
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
  name: cluster-admin
rules:
- apiGroups:
  - '*'
  resources:
  - '*'
  verbs:
  - '*'
- nonResourceURLs:
  - '*'
  verbs:
  - '*'

Я думаю, что очень важно добавить это где-нибудь в руководстве. AKS в Azure не предоставляет роль администратора кластера по умолчанию, и пользователь должен ее создать.
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
то же самое было и с ACS, как мы видим здесь: https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778

Это сработало для меня, когда я попытался установить redis:
kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
helm init --service-account tiller --upgrade
репозиторий обновлений руля. # Это был последний кусочек пазла
helm install stable / redis --version 3.3.5

То же самое,
клиент kube: v1.10.4
сервер кубе: v1.9.6
клиент руля / erver v2.9.1

# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found

# helm search | grep prometheus
coreos/grafana                          0.0.35                                          Grafana instance for kube-prometheus
coreos/kube-prometheus                  0.0.82                                          Manifests, dashboards, and alerting rules for e...
coreos/prometheus                       0.0.43                                          Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator              0.0.26          0.20.0                          Provides easy monitoring definitions for Kubern...
stable/prometheus                       6.7.2           2.2.1                           Prometheus is a monitoring system and time seri...

Просто запустил эту строку и заработал, спасибо за публикацию! : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME:   ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED

Почему появляется Error: no available release name found так долго? Честно говоря, мне требуется 5 минут, чтобы получить сообщение об ошибке, поэтому 40 000 вещей, которые я должен попытаться заставить его работать, занимают 5 м * 40 000

Для меня ни одно решение не сработало. Однако я переустановил minikube и tiller, и сначала сделал этот шаг:

Если в вашем кластере включен контроль доступа на основе ролей (RBAC), вы можете настроить учетную запись службы и правила, прежде чем продолжить.

Это действительно упоминается в документации, но это немного сбивает с толку, поскольку появляется после этого абзаца:

Если вы используете Helm в кластере, который вы полностью контролируете, например minikube или кластере в частной сети, в котором совместное использование не является проблемой, установка по умолчанию, которая не применяет конфигурацию безопасности, прекрасна и определенно самая простая. Чтобы установить Helm без дополнительных мер безопасности, установите Helm, а затем инициализируйте Helm.

Приведенные ниже инструкции решили мою проблему также для версий helm v2.11.0 и kube 1.12.1.

$ kubectl create serviceaccount - namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
$ helm init - сервис-аккаунт tiller

sudo iptables -P ВПЕРЕД ПРИНЯТЬ

Приведенная выше команда - это все, что мне нужно было сделать, чтобы избавиться от ошибки. Ни одно другое решение не помогло мне.

С Уважением
Ранга

Точно так же, но с терраформом.

  resource "kubernetes_service_account" "tiller" {
    metadata {
      name = "tiller"
      namespace = "kube-system"
    }
  }

  resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {

    metadata {
      name = "tiller-cluster-rule"
    }

    role_ref {
      kind = "ClusterRole"
      name = "cluster-admin"
      api_group = "rbac.authorization.k8s.io"
    }

    subject {
      kind = "ServiceAccount"
      namespace = "kube-system"
      name = "tiller"
      api_group = ""
    }

    provisioner "local-exec" {
      command = "helm init --service-account tiller"
    }
  }

Вы пробовали это
sudo iptables -P ВПЕРЕД ПРИНЯТЬ
С Уважением
Ранга

Я напрасно пробовал все вышеперечисленные варианты, и тот, который предложил rangapv, у меня сработал. Спасибо.

Ничего из вышеперечисленного не работало.

Ни одно из вышеупомянутых решений не работает.

версия $ kubectl
Версия клиента: version.Info {Major: «1», Minor: «12», GitVersion: «v1.12.4», GitCommit: «f49fa022dbe63faafd0da106ef7e05a29721d3f1», GitTreeState: «clean», BuildDate: «2018-12-14T07: 10: 00Z ", GoVersion:" go1.10.4 ", компилятор:" gc ", платформа:" darwin / amd64 "}
Версия сервера: version.Info {Major: «1», Minor: «13», GitVersion: «v1.13.2», GitCommit: «cff46ab41ff0bb44d8584413b598ad8360ec1def», GitTreeState: «clean», BuildDate: «2019-01-10T23: 28: 14Z ", GoVersion:" go1.11.4 ", компилятор:" gc ", платформа:" linux / amd64 "}

версия $ helm
Клиент: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}
Сервер: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}

$ kubectl create serviceaccount - namespace kube-system tiller
Ошибка сервера (уже существует): serviceaccounts "tiller" уже существует
Ravis-MacBook-Pro-2: .kube ravi $ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
Ошибка сервера (уже существует): clusterrolebindings.rbac.authorization.k8s.io "tiller-cluster-rule" уже существует
Ravis-MacBook-Pro-2: .kube ravi $ helm init --service-account tiller --upgrade
$ HELM_HOME настроен в /Users/ravi/.helm.

Tiller (серверный компонент Helm) обновлен до текущей версии.
Счастливого Хелминга!
Ravis-MacBook-Pro-2: репозиторий обновлений .kube ravi $ helm
Команда "update" устарела, используйте 'helm repo update'

Подождите, пока мы будем брать последние новости из ваших репозиториев диаграмм ...
... Пропустить локальное хранилище диаграмм
... Успешно получил обновление из "стабильного" репозитория графиков
Обновление завершено. Счастливого Хелминга! ⎈

Ravis-MacBook-Pro-2: .kube ravi $ helm установить стабильный / redis
Ошибка: не найдено доступного названия выпуска

Привет,

более безопасное решение без разрешения администратора роли кластера:

  1. Создайте следующую роль в $ {TILLER_NAMESPACE}:
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
  apiVersion: v1
  metadata:
    name: tiller
  rules:
  - apiGroups:
    - ""
    resources:
    - configmaps
    verbs:
    - create
    - get
    - list
    - update
    - delete
  - apiGroups:
    - ""
    resources:
    - namespaces
    verbs:
    - get
EOF
  1. Создание учетной записи службы, привязка локальной роли и развертывание исправлений
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Это должно исправить указанную выше ошибку.

Если вы хотите развернуть диаграммы румпеля для проекта, вам необходимо предоставить разрешения на редактирование румпеля:

kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller

Ни одно из вышеперечисленных решений не помогло мне, но инструкции по следующей ссылке сработали.

https://scriptcrunch.com/helm-error-no-available-release/

Ни одно из вышеперечисленных решений не помогло мне, но инструкции по следующей ссылке сработали.

https://scriptcrunch.com/helm-error-no-available-release/

Спасибо приятель, это работает

Была ли эта страница полезной?
0 / 5 - 0 рейтинги