Helm: Error: no se encontró ningún nombre de versión disponible

Creado en 23 oct. 2017  ·  27Comentarios  ·  Fuente: helm/helm

Hola amigos
Simplemente no tengo ni idea de lo que va mal.

después de intentar ejecutar por primera vez:

$ helm install stable/mongodb-replicaset
Error: no available release name found

i "inhabilitado" RBAC

kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts 

pero nada ha cambiado:

$ helm install stable/mongodb-replicaset
Error: no available release name found

kubernetes

$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

timón

$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}

repositorios de helms

$ helm search | grep mongo
stable/mongodb                  0.4.17  NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset       2.1.2   NoSQL document-oriented database that stores JS...

vaina del timón

$ kubectl get pods --all-namespaces | grep tiller
kube-system   tiller-deploy-5cd755f8f-c8nnl               1/1       Running   0          22m
````

tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
questiosupport

Comentario más útil

Según https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, los siguientes comandos resolvieron el error por mí:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Todos 27 comentarios

La compatibilidad con Kubernetes 1.8 se agregó recientemente en helm v2.7.0, por lo que no esperaría que Helm v2.6.2 funcione con un clúster 1.8. ¿Puedes probar la versión v2.7.0-rc1 y ver si funciona? Instalar el binario v2.7.0-rc1 localmente y ejecutar helm reset && helm init debería ser suficiente. ¡Gracias! :)

@bacongobbler gracias por una pista, pero no cambió esa coincidencia

helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}

y cuando lo intento de nuevo:

$ helm install stable/mongodb-replicaset
Error: no available release name found

con el siguiente registro:

[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found

OK...
Reemplacé la franela a través de calicó y se puso en marcha

Según https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, los siguientes comandos resolvieron el error por mí:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

después de muchos acercamientos, finalmente, esto funcionó para mí, ¡gracias!

kubectl create serviceaccount - espacio de nombres kube-system tiller
kubectl crear clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec": {"template": {"spec": {"serviceAccount": "tiller"}}}}'

Las 3 líneas anteriores también resolvieron esto para mí.
cliente kubectl: 1.9.6
servidor kubectl: 1.8.7
cliente de timón: 2.8.2
servidor de timón: 2.8.2

Aparece un problema y la solución mencionada no funciona para:

Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"

También al ejecutar helm list con minikue activado, obtuve el error de
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused

@viane prueba helm init --service-account default ; es otro ticket pero da como resultado el mismo error genérico.

@viane Pruebe los siguientes pasos. (Probablemente necesitará kubectl delete el servicio y la implementación del timón).

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Eso me lo arregló.

helm reset && helm init no funcionó para mí, ni tampoco las soluciones RBAC anteriores.
Finalmente, volvió a funcionar eliminando Tiller y luego usando la sugerencia en https://github.com/kubernetes/helm/issues/3055#issuecomment -385296641:

kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default

Encontré el mismo problema. luego intenté seguir

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

con el
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
Recibí el mensaje "Error del servidor (BadRequest): caracteres no válidos buscando el comienzo de la cadena de clave del objeto"

y luego intenté seguir los comandos

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Recibí el mensaje:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]

¡Por favor, ayúdame!...
A continuación se muestra mi información:
versión de timón

Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}

versión kubectl

Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}

versión minikube
minikube version: v0.25.0

Lo extraño es que estaba usando Helm para instalar estable / nginx-ingress el 9 de mayo y con éxito, luego eliminé Kubernetes (para practicar), luego volví a instalar Kubernetes hoy e instale estable / nginx-ingress nuevamente ... Ops superó error.

Muchas gracias por su apoyo de antemano.

@ nguyenhuuloc304 Me encontré con el mismo problema. Tuve que hacer el cluster-admin ClusterRole.

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  creationTimestamp: null
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
  name: cluster-admin
rules:
- apiGroups:
  - '*'
  resources:
  - '*'
  verbs:
  - '*'
- nonResourceURLs:
  - '*'
  verbs:
  - '*'

Creo que es muy importante agregar esto en algún lugar de la guía. AKS en azure no proporciona el rol de administrador de clúster predeterminado y un usuario tiene que crearlo.
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
Este también fue el caso en ACS, como podemos ver aquí: https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778

Esto funcionó para mí cuando intenté instalar redis:
kubectl create serviceaccount - espacio de nombres kube-system tiller
kubectl crear clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
helm init --service-account tiller --upgrade
repositorio de actualización de helm. # Esta fue la última pieza del rompecabezas
helm install stable / redis - versión 3.3.5

Aquí igual,
cliente de kube: v1.10.4
servidor kube: v1.9.6
cliente de helm / erver v2.9.1

# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found

# helm search | grep prometheus
coreos/grafana                          0.0.35                                          Grafana instance for kube-prometheus
coreos/kube-prometheus                  0.0.82                                          Manifests, dashboards, and alerting rules for e...
coreos/prometheus                       0.0.43                                          Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator              0.0.26          0.20.0                          Provides easy monitoring definitions for Kubern...
stable/prometheus                       6.7.2           2.2.1                           Prometheus is a monitoring system and time seri...

Acabo de ejecutar esta línea y funcionó, ¡gracias por publicarla! : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME:   ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED

¿Por qué tardan tanto en aparecer Error: no available release name found ? Honestamente, me toma 5 minutos recibir el mensaje de error, por lo que las 40,000 cosas que tengo que intentar para que funcione toman 5 m * 40,000

Para mí, ni una sola solución funcionó. Sin embargo, reinstalé el minikube y el timón e hice este paso primero:

Si su clúster tiene habilitado el Control de acceso basado en roles (RBAC), es posible que desee configurar una cuenta de servicio y reglas antes de continuar.

De hecho, esto se menciona en la documentación, pero es un poco confuso ya que aparece después de este párrafo:

Si está utilizando Helm en un clúster que controla por completo, como minikube o un clúster en una red privada en el que compartir no es una preocupación, la instalación predeterminada, que no aplica ninguna configuración de seguridad, está bien y definitivamente es la más fácil. Para instalar Helm sin pasos de seguridad adicionales, instale Helm y luego inicialice Helm.

Las siguientes instrucciones también resolvieron mi problema para las versiones helm v2.11.0 y kube 1.12.1.

$ kubectl crear cuenta de servicio - espacio de nombres kube-system tiller
$ kubectl crear clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
$ helm init - tiller de cuenta de servicio

sudo iptables -P ADELANTE ACEPTAR

El comando anterior es todo lo que tuve que hacer para deshacerme del error ... ninguna de las otras soluciones parecía funcionar para mí.

Saludos
Ranga

De la misma forma pero con terraform.

  resource "kubernetes_service_account" "tiller" {
    metadata {
      name = "tiller"
      namespace = "kube-system"
    }
  }

  resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {

    metadata {
      name = "tiller-cluster-rule"
    }

    role_ref {
      kind = "ClusterRole"
      name = "cluster-admin"
      api_group = "rbac.authorization.k8s.io"
    }

    subject {
      kind = "ServiceAccount"
      namespace = "kube-system"
      name = "tiller"
      api_group = ""
    }

    provisioner "local-exec" {
      command = "helm init --service-account tiller"
    }
  }

Intentaste esto
sudo iptables -P ADELANTE ACEPTAR
Saludos
Ranga

Probé todas las opciones anteriores en vano y la sugerida por rangapv funcionó para mí. Gracias.

Nada de lo anterior funcionó.

Ninguna de las soluciones mencionadas anteriormente funciona.

$ versión kubectl
Versión del cliente: version.Info {Major: "1", Minor: "12", GitVersion: "v1.12.4", GitCommit: "f49fa022dbe63faafd0da106ef7e05a29721d3f1", GitTreeState: "clean", BuildDate: "2018-12-14T07: 10: 00Z ", GoVersion:" go1.10.4 ", Compilador:" gc ", Plataforma:" darwin / amd64 "}
Versión del servidor: version.Info {Major: "1", Minor: "13", GitVersion: "v1.13.2", GitCommit: "cff46ab41ff0bb44d8584413b598ad8360ec1def", GitTreeState: "clean", BuildDate: "2019-01-10T23: 28: 14Z ", GoVersion:" go1.11.4 ", Compilador:" gc ", Plataforma:" linux / amd64 "}

$ versión de timón
Cliente: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}
Servidor: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}

$ kubectl crear cuenta de servicio - espacio de nombres kube-system tiller
Error del servidor (AlreadyExists): las cuentas de servicio "tiller" ya existen
Ravis-MacBook-Pro-2: .kube ravi $ kubectl crear clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
Error del servidor (AlreadyExists): clusterrolebindings.rbac.authorization.k8s.io "tiller-cluster-rule" ya existe
Ravis-MacBook-Pro-2: .kube ravi $ helm init --service-account tiller --upgrade
$ HELM_HOME se ha configurado en /Users/ravi/.helm.

Tiller (el componente del lado del servidor de Helm) se ha actualizado a la versión actual.
¡Feliz Helming!
Ravis-MacBook-Pro-2: repositorio de actualización de .kube ravi $ helm
El comando "actualizar" está en desuso, use 'helm repo update'

Agárrate fuerte mientras tomamos lo último de tus repositorios de gráficos ...
... Omitir el repositorio de gráficos local
... Obtuve con éxito una actualización del repositorio de gráficos "estable"
Actualizacion completa. ⎈ ¡Feliz Helming! ⎈

Ravis-MacBook-Pro-2: .kube ravi $ helm instalar estable / redis
Error: no se encontró ningún nombre de versión disponible

Oye,

una solución más segura sin permiso de administrador de rol de clúster:

  1. Crea la siguiente función en $ {TILLER_NAMESPACE}:
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
  apiVersion: v1
  metadata:
    name: tiller
  rules:
  - apiGroups:
    - ""
    resources:
    - configmaps
    verbs:
    - create
    - get
    - list
    - update
    - delete
  - apiGroups:
    - ""
    resources:
    - namespaces
    verbs:
    - get
EOF
  1. Cree una cuenta de servicio, vincule el rol local e implemente el parche
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Esto debería corregir el error anterior.

Si desea implementar gráficos de timón en un proyecto, debe otorgar permisos de edición de timón:

kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller

Ninguna de las soluciones anteriores funcionó para mí, pero las instrucciones en el siguiente enlace sí lo hicieron.

https://scriptcrunch.com/helm-error-no-available-release/

Ninguna de las soluciones anteriores funcionó para mí, pero las instrucciones en el siguiente enlace sí lo hicieron.

https://scriptcrunch.com/helm-error-no-available-release/

Gracias amigo, funciona

¿Fue útil esta página
0 / 5 - 0 calificaciones