Helm: خطأ: لم يتم العثور على اسم إصدار متاح

تم إنشاؤها على ٢٣ أكتوبر ٢٠١٧  ·  27تعليقات  ·  مصدر: helm/helm

مرحبا يا رفاق
ليس لدي أي فكرة عما يحدث.

بعد المحاولة الأولى للركض:

$ helm install stable/mongodb-replicaset
Error: no available release name found

أنا "المعوقين" RBAC

kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts 

لكن لم يتغير شيء:

$ helm install stable/mongodb-replicaset
Error: no available release name found

kubernetes

$ kubectl version
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.0", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.1", GitCommit:"f38e43b221d08850172a9a4ea785a86a3ffa3b3a", GitTreeState:"clean", BuildDate:"2017-10-11T23:16:41Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"}

القياده

$ helm version
Client: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.6.2", GitCommit:"be3ae4ea91b2960be98c07e8f73754e67e87963c", GitTreeState:"clean"}

هيلمز ريبو

$ helm search | grep mongo
stable/mongodb                  0.4.17  NoSQL document-oriented database that stores JS...
stable/mongodb-replicaset       2.1.2   NoSQL document-oriented database that stores JS...

جراب الحارث

$ kubectl get pods --all-namespaces | grep tiller
kube-system   tiller-deploy-5cd755f8f-c8nnl               1/1       Running   0          22m
````

tiller log
```bash
[tiller] 2017/10/23 19:12:50 preparing install for
[storage] 2017/10/23 19:12:50 getting release "busted-shark.v1"
[storage/driver] 2017/10/23 19:13:20 get: failed to get "busted-shark.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/busted-shark.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:20 info: generated name busted-shark is taken. Searching again.
[storage] 2017/10/23 19:13:20 getting release "lucky-rabbit.v1"
[storage/driver] 2017/10/23 19:13:50 get: failed to get "lucky-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:13:50 info: generated name lucky-rabbit is taken. Searching again.
[storage] 2017/10/23 19:13:50 getting release "exiled-lynx.v1"
[storage/driver] 2017/10/23 19:14:20 get: failed to get "exiled-lynx.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/exiled-lynx.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:20 info: generated name exiled-lynx is taken. Searching again.
[storage] 2017/10/23 19:14:20 getting release "eloping-echidna.v1"
[storage/driver] 2017/10/23 19:14:50 get: failed to get "eloping-echidna.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/eloping-echidna.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:14:50 info: generated name eloping-echidna is taken. Searching again.
[storage] 2017/10/23 19:14:50 getting release "soft-salamander.v1"
[storage/driver] 2017/10/23 19:15:20 get: failed to get "soft-salamander.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/soft-salamander.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/23 19:15:20 info: generated name soft-salamander is taken. Searching again.
[tiller] 2017/10/23 19:15:20 warning: No available release names found after 5 tries
[tiller] 2017/10/23 19:15:20 failed install prepare step: no available release name found
questiosupport

التعليق الأكثر فائدة

حسب https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286 ، حلت الأوامر التالية الخطأ بالنسبة لي:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

ال 27 كومينتر

تمت إضافة دعم Kubernetes 1.8 مؤخرًا فقط في الإصدار v2.7.0 من helm ، لذلك لا أتوقع أن يعمل Helm v2.6.2 مع مجموعة 1.8. هل يمكنك تجربة الإصدار v2.7.0-rc1 ومعرفة ما إذا كان ذلك يعمل؟ يجب أن يؤدي تثبيت الإصدار الثنائي v2.7.0-rc1 محليًا وتشغيل helm reset && helm init إلى تنفيذ الحيلة. شكرا! :)

شكرًا على bacongobbler على التلميح ، لكن لم يغير تلك المباراة

helm version
Client: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.7.0", GitCommit:"08c1144f5eb3e3b636d9775617287cc26e53dba4", GitTreeState:"clean"}

وعندما أحاول مرة أخرى:

$ helm install stable/mongodb-replicaset
Error: no available release name found

بالسجل التالي:

[tiller] 2017/10/26 18:11:22 preparing install for
[storage] 2017/10/26 18:11:22 getting release "listless-toucan.v1"
[storage/driver] 2017/10/26 18:11:36 get: failed to get "zealous-panther.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/zealous-panther.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:36 info: generated name zealous-panther is taken. Searching again.
[storage] 2017/10/26 18:11:36 getting release "terrifying-serval.v1"
[storage/driver] 2017/10/26 18:11:52 get: failed to get "listless-toucan.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/listless-toucan.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:11:52 info: generated name listless-toucan is taken. Searching again.
[storage] 2017/10/26 18:11:52 getting release "jittery-rat.v1"
[storage/driver] 2017/10/26 18:12:06 get: failed to get "terrifying-serval.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/terrifying-serval.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:06 info: generated name terrifying-serval is taken. Searching again.
[storage] 2017/10/26 18:12:06 getting release "wayfaring-dachshund.v1"
[storage/driver] 2017/10/26 18:12:22 get: failed to get "jittery-rat.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/jittery-rat.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:22 info: generated name jittery-rat is taken. Searching again.
[storage] 2017/10/26 18:12:22 getting release "lucky-arachnid.v1"
[storage/driver] 2017/10/26 18:12:36 get: failed to get "wayfaring-dachshund.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/wayfaring-dachshund.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:36 info: generated name wayfaring-dachshund is taken. Searching again.
[storage] 2017/10/26 18:12:36 getting release "gangly-lambkin.v1"
[storage/driver] 2017/10/26 18:12:52 get: failed to get "lucky-arachnid.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/lucky-arachnid.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:12:52 info: generated name lucky-arachnid is taken. Searching again.
[storage] 2017/10/26 18:12:52 getting release "boiling-kudu.v1"
[storage/driver] 2017/10/26 18:13:06 get: failed to get "gangly-lambkin.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/gangly-lambkin.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:06 info: generated name gangly-lambkin is taken. Searching again.
[storage] 2017/10/26 18:13:06 getting release "quoting-sloth.v1"
[storage/driver] 2017/10/26 18:13:22 get: failed to get "boiling-kudu.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/boiling-kudu.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:22 info: generated name boiling-kudu is taken. Searching again.
[storage] 2017/10/26 18:13:22 getting release "nordic-rabbit.v1"
[storage/driver] 2017/10/26 18:13:36 get: failed to get "quoting-sloth.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/quoting-sloth.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:36 info: generated name quoting-sloth is taken. Searching again.
[tiller] 2017/10/26 18:13:36 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:36 failed install prepare step: no available release name found
[storage/driver] 2017/10/26 18:13:52 get: failed to get "nordic-rabbit.v1": Get https://10.96.0.1:443/api/v1/namespaces/kube-system/configmaps/nordic-rabbit.v1: dial tcp 10.96.0.1:443: i/o timeout
[tiller] 2017/10/26 18:13:52 info: generated name nordic-rabbit is taken. Searching again.
[tiller] 2017/10/26 18:13:52 warning: No available release names found after 5 tries
[tiller] 2017/10/26 18:13:52 failed install prepare step: no available release name found

نعم...
لقد استبدلت الفانيلا على الرغم من كاليكو وبدأت تعمل

حسب https://github.com/kubernetes/helm/issues/2224#issuecomment -356344286 ، حلت الأوامر التالية الخطأ بالنسبة لي:

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

بعد عدة طرق ، نجح هذا أخيرًا ، شكرًا!

kubectl إنشاء حساب serviceaccount - مساحة اسم kube-system الحارث
kubectl إنشاء clusterrolebinding الحارث - الكتلة - قاعدة - clusterrole = إدارة الكتلة --serviceaccount = kube- النظام: الحارث
نشر تصحيح kubectl --namespace kube-systemILLer -loy -p '{"spec": {"template": {"spec": {"serviceAccount": "tiller"}}}'

الخطوط الثلاثة المذكورة أعلاه حلّت هذا الأمر بالنسبة لي أيضًا.
عميل kubectl: 1.9.6
خادم kubectl: 1.8.7
عميل الدفة: 2.8.2
خادم الدفة: 2.8.2

ظهرت مشكلة والحل المذكور لا يعمل من أجل:

Kube Client Version: 1.10.1
Kube Server Version: 1.10.1
Helm Client: "v2.9.0"
Helm Server: "v2.9.0"

أيضًا من خلال تنفيذ helm list مع تشغيل minikue ، حصلت على خطأ قدره
Error: Get http://localhost:8080/api/v1/namespaces/kube-system/configmaps?labelSelector=OWNER%!D(MISSING)TILLER: dial tcp 127.0.0.1:8080: connect: connection refused

viane جرب helm init --service-account default ؛ إنها تذكرة أخرى ولكنها تؤدي إلى نفس الخطأ العام.

viane جرب الخطوات التالية. (ستحتاج على الأرجح إلى kubectl delete خدمة الحراثة والنشر.)

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

هذا أصلحها بالنسبة لي.

helm reset && helm init لم تنجح معي ، ولا حلول RBAC أعلاه.
أخيرًا ، نجحت في العمل مرة أخرى عن طريق حذف Tiller ثم استخدام الاقتراح في https://github.com/kubernetes/helm/issues/3055#issuecomment -385296641:

kubectl delete deployment tiller-deploy --namespace kube-system
helm init --upgrade --service-account default

واجهت نفس المشكلة. ثم حاولت المتابعة

kubectl create serviceaccount --namespace kube-system tiller
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

مع ال
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'
تلقيت الرسالة "خطأ من الخادم (BadRequest): شخصية غير صالحة تبحث عن بداية سلسلة مفاتيح الكائن"

ثم حاولت اتباع الأوامر

$ kubectl create serviceaccount --namespace kube-system tiller
$ kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
$ helm init --service-account tiller

حصلت على رسالة:
failed: clusterroles.rbac.authorization.k8s.io .... [clusterroles.rbac.authorization.k8s.io "cluster-admin" not found]

من فضلك ساعدنى!...
فيما يلي معلوماتي:
إصدار الدفة

Client: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.9.0", GitCommit:"f6025bb9ee7daf9fee0026541c90a6f557a3e0bc", GitTreeState:"clean"}

نسخة kubectl

Client Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.0", GitCommit:"925c127ec6b946659ad0fd596fa959be43f0cc05", GitTreeState:"clean", BuildDate:"2017-12-15T21:07:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"windows/amd64"}
Server Version: version.Info{Major:"1", Minor:"9", GitVersion:"v1.9.6", GitCommit:"9f8ebd171479bec0ada837d7ee641dec2f8c6dd1", GitTreeState:"clean", BuildDate:"2018-03-21T15:13:31Z", GoVersion:"go1.9.3", Compiler:"gc", Platform:"linux/amd64"}

نسخة minikube
minikube version: v0.25.0

الغريب أنني كنت أستخدم Helm لتثبيت ملف ثابت / nginx-ingress في 9 مايو ونجحت في ذلك ، ثم قمت بحذف Kubernetes (للتدريب) ، ثم أعدت تثبيت Kubernetes اليوم وقمت بتثبيت مستقر / nginx-ingress مرة أخرى ... خطأ.

شكرا جزيلا لدعمك مقدما

@ nguyenhuuloc304 واجهت نفس المشكلة. كان علي أن أصنع ClusterRole cluster-admin .

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  creationTimestamp: null
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
  name: cluster-admin
rules:
- apiGroups:
  - '*'
  resources:
  - '*'
  verbs:
  - '*'
- nonResourceURLs:
  - '*'
  verbs:
  - '*'

أعتقد أنه من المهم حقًا إضافة هذا في مكان ما في الدليل. لا يوفر AKS على azure دور مسؤول الكتلة الافتراضي ويجب على المستخدم إنشاؤه.
https://github.com/jenkins-x/jx/issues/485#issuecomment -376804810
كان هذا هو الحال أيضًا على ACS كما نرى هنا: https://github.com/Azure/acs-engine/issues/1892#issuecomment -353960778

لقد نجح هذا بالنسبة لي عندما حاولت إدارة تثبيت redis:
kubectl إنشاء حساب serviceaccount - مساحة اسم kube-system الحارث
kubectl إنشاء clusterrolebinding الحارث - الكتلة - قاعدة - clusterrole = إدارة الكتلة --serviceaccount = kube- النظام: الحارث
محرك رأس - خدمة - حساب الحارث - ترقية
مدير تحديث الريبو. # كانت هذه آخر قطعة في اللغز
تثبيت helm ثابت / redis - الإصدار 3.3.5

كذلك هنا،
عميل kube: v1.10.4
خادم kube: v1.9.6
عميل helm / erver v2.9.1

# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
Error: no available release name found

# helm search | grep prometheus
coreos/grafana                          0.0.35                                          Grafana instance for kube-prometheus
coreos/kube-prometheus                  0.0.82                                          Manifests, dashboards, and alerting rules for e...
coreos/prometheus                       0.0.43                                          Prometheus instance created by the CoreOS Prome...
coreos/prometheus-operator              0.0.26          0.20.0                          Provides easy monitoring definitions for Kubern...
stable/prometheus                       6.7.2           2.2.1                           Prometheus is a monitoring system and time seri...

فقط ركضت هذا الخط وعملت ، شكرا لنشره! : kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller

#kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller
clusterrolebinding.rbac.authorization.k8s.io "tiller-cluster-rule" created
[root@ip-172-31-90-223 charts]# helm install stable/prometheus --namespace=monitoring --set rbac.create="true"
NAME:   ungaged-sloth
LAST DEPLOYED: Thu Jun 14 23:52:31 2018
NAMESPACE: monitoring
STATUS: DEPLOYED

لماذا يستغرق ظهور Error: no available release name found وقتًا طويلاً؟ بصراحة ، يستغرق الأمر 5 دقائق حتى أتلقى رسالة الخطأ ، لذا فإن 40 ألف شيء يجب أن أحاول تشغيله يستغرق 5 ملايين * 40 ألف

بالنسبة لي ، لم ينجح حل واحد. ومع ذلك ، قمت بإعادة تثبيت minikube وكذلك الحارث وقمت بهذه الخطوة أولاً:

إذا تم تمكين التحكم في الوصول المستند إلى الدور (RBAC) في مجموعتك ، فقد ترغب في تكوين حساب الخدمة والقواعد قبل المتابعة.

هذا مذكور بالفعل في الوثائق ولكنه محير بعض الشيء لأنه يظهر بعد هذه الفقرة:

إذا كنت تستخدم Helm على مجموعة تتحكم فيها تمامًا ، مثل minikube أو مجموعة على شبكة خاصة لا تمثل المشاركة فيها مصدر قلق ، فإن التثبيت الافتراضي - الذي لا يطبق أي تكوين أمان - يكون جيدًا ، وهو بالتأكيد الأسهل. لتثبيت Helm بدون خطوات أمان إضافية ، قم بتثبيت Helm ثم قم بتهيئة Helm.

حلت الإرشادات أدناه مشكلتي أيضًا لإصدارات helm v2.11.0 و kube 1.12.1.

kubectl $ قم بإنشاء حساب serviceaccount - مساحة اسم kube-system الحارث
$ kubectl إنشاء حراثة ربط عنقودية - قاعدة عنقودية - clusterrole = إدارة الكتلة --serviceaccount = kube- النظام: الحارث
حراثة حساب الخدمة $ helm init

sudo iptables -P قبول للأمام

الأمر أعلاه هو كل ما كان علي فعله للتخلص من الخطأ .. لا يبدو أن أيًا من الحلول الأخرى يعمل معي.

يعتبر
رانجا

بنفس الطريقة ولكن مع التضاريس.

  resource "kubernetes_service_account" "tiller" {
    metadata {
      name = "tiller"
      namespace = "kube-system"
    }
  }

  resource "kubernetes_cluster_role_binding" "tiller-cluster-rule" {

    metadata {
      name = "tiller-cluster-rule"
    }

    role_ref {
      kind = "ClusterRole"
      name = "cluster-admin"
      api_group = "rbac.authorization.k8s.io"
    }

    subject {
      kind = "ServiceAccount"
      namespace = "kube-system"
      name = "tiller"
      api_group = ""
    }

    provisioner "local-exec" {
      command = "helm init --service-account tiller"
    }
  }

هل جربت هذا
sudo iptables -P قبول للأمام
يعتبر
رانجا

لقد جربت جميع الخيارات المذكورة أعلاه دون جدوى والخيار الذي اقترحه rangapv يعمل معي. شكرا لك.

لا شيء أعلاه يعمل.

لا يعمل أي من الحلول المذكورة أعلاه.

نسخة $ kubectl
إصدار العميل: version.Info {Major: "1"، Minor: "12"، GitVersion: "v1.12.4"، GitCommit: "f49fa022dbe63faafd0da106ef7e05a29721d3f1"، GitTreeState: "clean"، BuildDate: "2018-12-14T07: 10: 00Z "، GoVersion:" go1.10.4 "، المترجم:" gc "، النظام الأساسي:" darwin / amd64 "}
إصدار الخادم: version.Info {Major: "1"، Minor: "13"، GitVersion: "v1.13.2"، GitCommit: "cff46ab41ff0bb44d8584413b598ad8360ec1def"، GitTreeState: "clean"، BuildDate: "2019-01-10T23: 28: 14Z "، GoVersion:" go1.11.4 "، المترجم:" gc "، النظام الأساسي:" linux / amd64 "}

إصدار الدفة
العميل: & version.Version {SemVer: "v2.12.3"، GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"، GitTreeState: "clean"}
الخادم: & version.Version {SemVer: "v2.12.3"، GitCommit: "eecf22f77df5f65c823aacd2dbd30ae6c65f186e"، GitTreeState: "clean"}

kubectl $ قم بإنشاء حساب serviceaccount - مساحة اسم kube-system الحارث
خطأ من الخادم (بالفعل موجود): serviceaccounts "الحارث" موجود بالفعل
Ravis-MacBook-Pro-2: .kube ravi $ kubectl إنشاء clusterrolebinding الحارث - الكتلة - القاعدة - clusterrole = إدارة الكتلة --serviceaccount = kube- النظام: الحارث
خطأ من الخادم (بالفعل موجود): clusterrolebindings.rbac.authorization.k8s.io "قاعدة مجموعة الحراثة" موجودة بالفعل
Ravis-MacBook-Pro-2: .kube ravi $ helm init - خدمة حرث حساب - ترقية
تم تكوين HELM_HOME $ في /Users/ravi/.helm.

تمت ترقية Tiller (مكون Helm من جانب الخادم) إلى الإصدار الحالي.
هيلمينج سعيد!
Ravis-MacBook-Pro-2: .kube ravi $ helm update repo
تم إيقاف تشغيل الأمر "update" ، استخدم "helm repo update"

انتظر قليلاً بينما نحصل على الأحدث من مستودعات المخططات الخاصة بك ...
... تخطي مستودع الرسم البياني المحلي
... تم الحصول على تحديث بنجاح من مستودع المخططات "المستقر"
تحديث كاملة. ⎈ هلمنج سعيد!

Ravis-MacBook-Pro-2: .kube ravi $ helm install stabil / redis
خطأ: لم يتم العثور على اسم إصدار متاح

مهلا،

حل أكثر أمانًا بدون إذن مسؤول دور الكتلة:

  1. أنشئ الدور التالي في $ {TILLER_NAMESPACE}:
TILLER_NAMESPACE='your tiller namespace'
cat <<EOF | kubectl create -n ${TILLER_NAMESPACE} -f -
- kind: Role
  apiVersion: v1
  metadata:
    name: tiller
  rules:
  - apiGroups:
    - ""
    resources:
    - configmaps
    verbs:
    - create
    - get
    - list
    - update
    - delete
  - apiGroups:
    - ""
    resources:
    - namespaces
    verbs:
    - get
EOF
  1. قم بإنشاء حساب خدمة ، وربط الدور المحلي ونشر التصحيح
kubectl create serviceaccount --namespace ${TILLER_NAMESPACE} tiller
kubectl create rolebinding tiller-rule --role=tiller --serviceaccount=${TILLER_NAMESPACE}:tiller
kubectl patch deploy --namespace ${TILLER_NAMESPACE} tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}'

هذا يجب أن يصلح الخطأ أعلاه.

إذا كنت ترغب في نشر مخططات الحارث للمشروع ، فأنت بحاجة إلى منح أذونات التحرير للحارث:

kubectl create rolebinding tiller-edit-rights -n ${YOUR-PROJECT_NAMESPACE} --clusterrole=edit --serviceaccount=${TILLER_NAMESPACE}:tiller

لم يعمل أي من الحلول المذكورة أعلاه بالنسبة لي ، لكن الإرشادات الموجودة على الرابط التالي تعمل.

https://scriptcrunch.com/helm-error-no-available-release/

لم يعمل أي من الحلول المذكورة أعلاه بالنسبة لي ، لكن الإرشادات الموجودة على الرابط التالي تعمل.

https://scriptcrunch.com/helm-error-no-available-release/

شكرا يا صديقي ، إنه يعمل

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات

القضايا ذات الصلة

KavinduZoysa picture KavinduZoysa  ·  3تعليقات

libesz picture libesz  ·  3تعليقات

InAnimaTe picture InAnimaTe  ·  3تعليقات

dkirrane picture dkirrane  ·  3تعليقات

antoniaklja picture antoniaklja  ·  3تعليقات