Helm: Erro: nenhum nome de lançamento disponível foi encontrado

Criado em 23 out. 2017  ·  27Comentários  ·  Fonte: helm/helm

Oi pessoal
eu simplesmente não tenho ideia do que está errado.

após a primeira tentativa de execução:

$ helm install stable/mongodb-replicaset
Error: no available release name found

eu "desativei" o RBAC

kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts 

mas nada mudou:

$ helm install stable/mongodb-replicaset
Error: no available release name found

Kubernetes

$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

leme

$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}

Helms Repos

$ helm search | grep mongo
stable/mongodb                  0.4.17  NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset       2.1.2   NoSQL document-oriented database that stores JS...

pod do leme

$ kubectl get pods --all-namespaces | grep tiller
kube-system   tiller-deploy-5cd755f8f-c8nnl               1/1       Running   0          22m
````

tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
questiosupport

Comentários muito úteis

Por https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, os seguintes comandos resolveram o erro para mim:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Todos 27 comentários

O suporte ao Kubernetes 1.8 foi adicionado apenas recentemente ao helm v2.7.0, então eu não esperaria que o Helm v2.6.2 funcionasse com um cluster 1.8. Você pode experimentar a versão v2.7.0-rc1 e ver se funciona? Instalar o binário v2.7.0-rc1 localmente e executar helm reset && helm init deve resolver. Obrigado! :)

@bacongobbler obrigado pela dica, mas não mudou essa correspondência

helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}

e quando eu tento de novo:

$ helm install stable/mongodb-replicaset
Error: no available release name found

com o seguinte log:

[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found

OK...
Eu substituí a flanela por chita e

Por https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286, os seguintes comandos resolveram o erro para mim:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

depois de muitas abordagens, finalmente, funcionou para mim, obrigado!

kubectl create serviceaccount --namespace kube-system leme
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec": {"template": {"spec": {"serviceAccount": "tiller"}}}}'

As 3 linhas acima também resolveram isso para mim.
cliente kubectl: 1.9.6
servidor kubectl: 1.8.7
cliente do leme: 2.8.2
servidor de leme: 2.8.2

O problema aparece e a solução mencionada não está funcionando para:

Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"

Além disso, ao executar helm list com minikue ativado, obtive o erro de
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused

@viane, experimente helm init --service-account default ; é outro tíquete, mas resulta no mesmo erro genérico.

@viane Experimente os seguintes passos. (Provavelmente, você precisará kubectl delete o serviço e a implantação do leme.)

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Isso resolveu para mim.

helm reset && helm init não funcionou para mim, nem as soluções RBAC acima.
Finalmente fiz funcionar novamente excluindo o Tiller e usando a sugestão em https://github.com/kubernetes/helm/issues/3055#issuecomment -385296641:

kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default

Eu encontrei o mesmo problema. então eu tentei seguir

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

com o
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
Recebi a mensagem "Erro do servidor (BadRequest): caractere inválido procurando o início da string da chave do objeto"

e então tentei seguir os comandos

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

Recebi a mensagem:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]

Por favor me ajude!...
Abaixo estão minhas informações:
versão do leme

Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}

versão kubectl

Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}

versão minikube
minikube version: v0.25.0

O estranho é que eu estava usando o Helm para instalar o stable / nginx-ingress em 9 de maio e com sucesso, depois excluí o Kubernetes (para praticar), reinstalei o Kubernetes hoje e instalei o stable / nginx-ingress novamente ... Ops superou erro.

Muito obrigado pelo seu apoio antecipadamente

@ nguyenhuuloc304 Encontrei o mesmo problema. Eu tive que fazer o cluster-admin ClusterRole.

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  creationTimestamp: null
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
  name: cluster-admin
rules:
- apiGroups:
  - '*'
  resources:
  - '*'
  verbs:
  - '*'
- nonResourceURLs:
  - '*'
  verbs:
  - '*'

Acho que é realmente importante adicionar isso em algum lugar do guia. O AKS no azure não fornece função de administrador de cluster padrão e um usuário deve criá-la.
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
este também foi o caso no ACS, como podemos ver aqui: https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778

Isso funcionou para mim, pois tentei instalar o redis do comando:
kubectl create serviceaccount --namespace kube-system leme
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
helm init --service-account tiller --upgrade
repositório de atualização do leme. # Esta foi a última peça do quebra-cabeça
helm install stable / redis - versão 3.3.5

Mesmo aqui,
cliente kube: v1.10.4
servidor kube: v1.9.6
cliente helm / erver v2.9.1

# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found

# helm search | grep prometheus
coreos/grafana                          0.0.35                                          Grafana instance for kube-prometheus
coreos/kube-prometheus                  0.0.82                                          Manifests, dashboards, and alerting rules for e...
coreos/prometheus                       0.0.43                                          Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator              0.0.26          0.20.0                          Provides easy monitoring definitions for Kubern...
stable/prometheus                       6.7.2           2.2.1                           Prometheus is a monitoring system and time seri...

Só corri essa linha e funcionou, obrigado por postar! : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME:   ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED

Por que demora tanto para Error: no available release name found aparecer? Sinceramente, leva 5 minutos para eu receber a mensagem de erro, então as 40.000 coisas que tenho que tentar para fazer funcionar levam 5m * 40.000

Para mim, nem uma única solução funcionou. No entanto, reinstalei o minikube e também o leme e fiz esta etapa primeiro:

Se o seu cluster tiver o controle de acesso baseado em função (RBAC) habilitado, você pode configurar uma conta de serviço e regras antes de continuar.

Isso é realmente mencionado na documentação, mas é um pouco confuso, pois aparece após este parágrafo:

Se você estiver usando o Helm em um cluster que você controla completamente, como o minikube ou um cluster em uma rede privada em que o compartilhamento não é uma preocupação, a instalação padrão - que não aplica nenhuma configuração de segurança - está bem e é definitivamente a mais fácil. Para instalar o Helm sem etapas de segurança adicionais, instale o Helm e inicialize o Helm.

As instruções abaixo também resolveram meu problema para as versões do helm v2.11.0 e kube 1.12.1.

$ kubectl create serviceaccount --namespace kube-system leme
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
$ helm init --service-account tiller

sudo iptables -P FORWARD ACCEPT

O comando acima é tudo que eu tive que fazer para me livrar do erro .. nenhuma das outras soluções parecia funcionar para mim.

Cumprimentos
Ranga

Da mesma forma, mas com terraform.

  resource "kubernetes_service_account" "tiller" {
    metadata {
      name = "tiller"
      namespace = "kube-system"
    }
  }

  resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {

    metadata {
      name = "tiller-cluster-rule"
    }

    role_ref {
      kind = "ClusterRole"
      name = "cluster-admin"
      api_group = "rbac.authorization.k8s.io"
    }

    subject {
      kind = "ServiceAccount"
      namespace = "kube-system"
      name = "tiller"
      api_group = ""
    }

    provisioner "local-exec" {
      command = "helm init --service-account tiller"
    }
  }

Você tentou isso
sudo iptables -P FORWARD ACCEPT
Cumprimentos
Ranga

Tentei todas as opções acima em vão e a sugerida por rangapv funcionou para mim. Obrigada.

Nada acima funcionou.

Nenhuma das soluções mencionadas acima está funcionando.

versão $ kubectl
Versão do cliente: version.Info {Major: "1", Minor: "12", GitVersion: "v1.12.4", GitCommit: "f49fa022dbe63faafd0da106ef7e05a29721d3f1", GitTreeState: "clean", BuildDate: "2018-12-14T07: 10: 00Z ", GoVersion:" go1.10.4 ", Compilador:" gc ", Plataforma:" darwin / amd64 "}
Versão do servidor: version.Info {Major: "1", Minor: "13", GitVersion: "v1.13.2", GitCommit: "cff46ab41ff0bb44d8584413b598ad8360ec1def", GitTreeState: "clean", BuildDate: "2019-01-10T23: 28: 14Z ", GoVersion:" go1.11.4 ", Compilador:" gc ", Plataforma:" linux / amd64 "}

versão $ helm
Cliente: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}
Servidor: & version.Version {SemVer: "v2.12.3", GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e", GitTreeState: "clean"}

$ kubectl create serviceaccount --namespace kube-system leme
Erro do servidor (AlreadyExists): serviceaccounts "tiller" já existe
Ravis-MacBook-Pro-2: .kube ravi $ kubectl criar clusterrolebinding tiller-cluster-rule --clusterrole = cluster-admin --serviceaccount = kube- system: tiller
Erro do servidor (AlreadyExists): clusterrolebindings.rbac.authorization.k8s.io "tiller-cluster-rule" já existe
Ravis-MacBook-Pro-2: .kube ravi $ helm init --service-account tiller --upgrade
$ HELM_HOME foi configurado em /Users/ravi/.helm.

O Tiller (o componente do lado do servidor do Helm) foi atualizado para a versão atual.
Happy Helming!
Ravis-MacBook-Pro-2: repositório de atualização .kube ravi $ helm
O comando "update" está obsoleto, use 'helm repo update'

Aguarde enquanto pegamos as últimas novidades de seus repositórios de gráficos ...
... Pular repositório gráfico local
... Foi obtido com sucesso uma atualização do repositório de gráficos "estável"
Atualização completa. ⎈ Feliz Helming! ⎈

Ravis-MacBook-Pro-2: .kube ravi $ helm install stable / redis
Erro: nenhum nome de lançamento disponível foi encontrado

Ei,

uma solução mais segura sem permissão de administrador de função de cluster:

  1. Crie a seguinte função em $ {TILLER_NAMESPACE}:
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
  apiVersion: v1
  metadata:
    name: tiller
  rules:
  - apiGroups:
    - ""
    resources:
    - configmaps
    verbs:
    - create
    - get
    - list
    - update
    - delete
  - apiGroups:
    - ""
    resources:
    - namespaces
    verbs:
    - get
EOF
  1. Crie uma conta de serviço, vincule a função local e aplique o patch
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

Isso deve corrigir o erro acima.

Se você deseja implantar gráficos de perfilagem para projetar, é necessário conceder permissões de edição de perfilamento:

kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller

Nenhuma das soluções acima funcionou para mim, mas as instruções no link a seguir funcionaram.

https://scriptcrunch.com/helm-error-no-available-release/

Nenhuma das soluções acima funcionou para mim, mas as instruções no link a seguir funcionaram.

https://scriptcrunch.com/helm-error-no-available-release/

Obrigado cara funciona

Esta página foi útil?
0 / 5 - 0 avaliações