helm 2.6.1 клиент и сервер
k8s 1.7.4 (то же поведение и с 1.7.0)
Я видел несколько проблем, в которых обсуждалась «потеря связи с модулем», но ни одна из них не соответствовала нашему случаю.
Когда я запускаю отчеты helm delete --purge _releaseName_
helm
portforward.go:178] lost connection to pod
Error: transport is closing
И все же delete
похоже, преуспели. Все ресурсы k8s, определенные диаграммой, очищаются должным образом. Журнал румпеля выглядит так:
[storage] 2017/09/28 14:14:19 getting release history for "xxx"
[tiller] 2017/09/28 14:14:19 uninstall: Deleting xxx
[tiller] 2017/09/28 14:14:19 executing 0 pre-delete hooks for xxx
[tiller] 2017/09/28 14:14:19 hooks complete for pre-delete xxx
[storage] 2017/09/28 14:14:19 updating release "xxx.v1"
(many lines of "Starting delete for yyy" and "Using reaper for deleting yyy" omitted here)
[tiller] 2017/09/28 14:16:42 executing 0 post-delete hooks for xxx
[tiller] 2017/09/28 14:16:42 hooks complete for post-delete xxx
[tiller] 2017/09/28 14:16:42 purge requested for xxx
[storage] 2017/09/28 14:16:42 deleting release "xxx.v1"
Это конец журнала. Он не содержит ошибок или исключений.
k8s сообщает об отсутствии перезапуска румпеля.
Истекшее время извне и из журнала составляет около 2 мин 30 с, что значительно меньше значения тайм-аута по умолчанию для операции delete
.
Где еще я могу найти дополнительную информацию о том, что не так, что вызывает эту ошибку?
Спасибо.
Это выглядит как https://github.com/kubernetes/helm/issues/2025, если время ожидания значительно меньше установленного по умолчанию (5 минут). Можете ли вы проверить балансировщик нагрузки на вашем главном API Kubernetes и прокомментировать эту проблему в дальнейшем? Таким образом, мы сможем сохранить обсуждение в одном месте. Спасибо! ❤️
Я также видел ошибку Error: transport is closing
когда я запускал helm install
, и после выполнения rm -rf ~/.helm
ошибка больше не появлялась. Предположительно, удаление кэша руля ( rm -rf ~/.helm
) может устранить ошибку.
Я смог исправить это, добавив информацию о хосте tiller в команду установки helm.
--host=10.111.221.14:443
Вы можете получить IP-адрес своего румпеля с помощью этого метода
$ kubectl get svc -n kube-system tiller-deploy
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
tiller-deploy ClusterIP 10.111.221.14 <none> 44134/TCP 34h
Полный пример команды
helm install stable/grafana --name=grafana --host=10.111.221.14:4413
Я знаю, что это небольшая работа, но все остальные функции helm работают правильно после установки с помощью этого метода. Мне не пришлось снова добавлять информацию о хосте после первоначальной установки для выполнения обновлений или откатов. Надеюсь это поможет!
Самый полезный комментарий
Я смог исправить это, добавив информацию о хосте tiller в команду установки helm.
--host=10.111.221.14:443
Вы можете получить IP-адрес своего румпеля с помощью этого метода
$ kubectl get svc -n kube-system tiller-deploy
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
tiller-deploy ClusterIP 10.111.221.14 <none> 44134/TCP 34h
Полный пример команды
helm install stable/grafana --name=grafana --host=10.111.221.14:4413
Я знаю, что это небольшая работа, но все остальные функции helm работают правильно после установки с помощью этого метода. Мне не пришлось снова добавлять информацию о хосте после первоначальной установки для выполнения обновлений или откатов. Надеюсь это поможет!