helm 2.6.1 client et serveur
k8s 1.7.4 (même comportement avec 1.7.0 également)
J'ai vu plusieurs problèmes discutant de la "connexion perdue au pod", mais aucun que je reconnaisse comme correspondant à notre cas.
Lorsque je lance des rapports helm delete --purge _releaseName_
helm
portforward.go:178] lost connection to pod
Error: transport is closing
Pourtant, le delete
semble avoir réussi. Toutes les ressources k8s définies par le graphique sont nettoyées comme prévu. Le journal du tiller ressemble à ceci :
[storage] 2017/09/28 14:14:19 getting release history for "xxx"
[tiller] 2017/09/28 14:14:19 uninstall: Deleting xxx
[tiller] 2017/09/28 14:14:19 executing 0 pre-delete hooks for xxx
[tiller] 2017/09/28 14:14:19 hooks complete for pre-delete xxx
[storage] 2017/09/28 14:14:19 updating release "xxx.v1"
(many lines of "Starting delete for yyy" and "Using reaper for deleting yyy" omitted here)
[tiller] 2017/09/28 14:16:42 executing 0 post-delete hooks for xxx
[tiller] 2017/09/28 14:16:42 hooks complete for post-delete xxx
[tiller] 2017/09/28 14:16:42 purge requested for xxx
[storage] 2017/09/28 14:16:42 deleting release "xxx.v1"
C'est la fin du journal. Il ne contient aucune erreur ni exception.
k8s ne signale aucun redémarrage de la nacelle de la barre franche.
Le temps écoulé, depuis l'extérieur et depuis le journal, est d'environ 2 minutes 30 secondes, bien en deçà de la valeur de délai d'attente par défaut pour l'opération delete
.
Où puis-je rechercher plus d'informations sur ce qui ne va pas et qui cause cette erreur ?
Merci.
Cela ressemble à https://github.com/kubernetes/helm/issues/2025 s'il est bien en deçà du délai d'attente par défaut (5 minutes). Pouvez-vous vérifier l'équilibreur de charge devant votre API maître kubernetes et commenter ce problème à l'avenir ? De cette façon, nous pouvons garder la discussion en un seul endroit. Merci! ❤️
J'ai également vu l'erreur Error: transport is closing
lorsque j'ai exécuté helm install
, et après avoir fait rm -rf ~/.helm
, l'erreur n'a plus été vue. Je suppose que la suppression du cache helm ( rm -rf ~/.helm
) peut résoudre l'erreur.
J'ai pu corriger cela en ajoutant les informations de l'hôte Tiller à la commande helm install.
--host=10.111.221.14:443
Vous pouvez obtenir votre IP de tiller via cette méthode
$ kubectl get svc -n kube-system tiller-deploy
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
tiller-deploy ClusterIP 10.111.221.14 <none> 44134/TCP 34h
Exemple de commande complète
helm install stable/grafana --name=grafana --host=10.111.221.14:4413
Je sais que c'est un peu un travail de contournement, mais toutes les autres fonctions de helm fonctionnent correctement après l'installation via cette méthode. Je n'ai pas eu à ajouter à nouveau les informations sur l'hôte après l'installation initiale pour effectuer des mises à niveau ou des restaurations. J'espère que cela t'aides!
Commentaire le plus utile
J'ai pu corriger cela en ajoutant les informations de l'hôte Tiller à la commande helm install.
--host=10.111.221.14:443
Vous pouvez obtenir votre IP de tiller via cette méthode
$ kubectl get svc -n kube-system tiller-deploy
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
tiller-deploy ClusterIP 10.111.221.14 <none> 44134/TCP 34h
Exemple de commande complète
helm install stable/grafana --name=grafana --host=10.111.221.14:4413
Je sais que c'est un peu un travail de contournement, mais toutes les autres fonctions de helm fonctionnent correctement après l'installation via cette méthode. Je n'ai pas eu à ajouter à nouveau les informations sur l'hôte après l'installation initiale pour effectuer des mises à niveau ou des restaurations. J'espère que cela t'aides!