@danehans Merci d'avoir
cc @idvoretskyi Pour info
problĂšme xref ipv6Â : https://github.com/kubernetes/kubernetes/issues/1443
@danehans :wave: Veuillez l'indiquer dans le tableau de suivi des fonctionnalités 1.9
si cette fonctionnalité a besoin de documentation. Si oui, veuillez ouvrir un PR et ajouter un lien vers la feuille de calcul de suivi. Merci d'avance!
@zacharysarah Je n'ai accÚs aux commentaires qu'au tableau de suivi des fonctionnalités 1.9, j'ai donc ajouté des commentaires pour l'exigence de documents IPv6.
cc: @mmueen
@zacharysarah le journal des modifications de la version 1.9 doit-il ĂȘtre mis Ă jour manuellement pour rĂ©fĂ©rencer l'un des PR IPv6 ou https://github.com/kubernetes/kubernetes/issues/1443 ?
@danehans Quand tu dis changelog, tu veux dire les notes de version ?
/cc @Bradamant3 pour la visibilité des notes de version
Oui, j'essaie de comprendre si quelque chose doit ĂȘtre ajoutĂ© aux notes de version 1.9, et si oui, quel processus suivre. Merci.
Cela devrait avoir une note de version
/cc @Bradamant3 @nickchase VisibilitĂ© de la note de version ! ïž
Le brouillon de la note de version de
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit
Vous pouvez suivre les instructions en haut du document.
xréf : https://groups.google.com/forum/#!topic/kubernetes -sig-release/x6ySPIJkMN4 par @enisoc
@xiangpengzhao J'ai mis à jour les notes de version 1.9 avec les détails de support ipv6. S'il vous plaßt laissez-moi savoir si le contenu add'l ipv6 est requis pour les notes de version 1.9.
@danehans Je pense que les détails que vous avez ajoutés sont assez bons :+1: . Mais personnellement, j'aimerais voir les PR associés (s'ils existent) pour les balles.
@danehans J'ai Before Upgrading
. Je ne pense pas que nous devrions les mettre lĂ .
@xiangpengzhao La seule préoccupation que j'ai est que plusieurs PR ont été utilisés pour les différentes balles.
@xiangpengzhao J'ai déplacé le contenu IPv6 pour les notes de version 1.9. S'il vous plaßt laissez-moi savoir si vous avez d'autres préoccupations.
@danehans That LGTM :)
J'utilise Kubernetes sur IPv6 uniquement (v1.8.x) depuis un certain temps maintenant,
et le plus gros problĂšme Ă rĂ©soudre, je pense, est de dĂ©tecter si IPv6 est activĂ© pour arrĂȘter d'utiliser ClusterIPs (10.32.xx) sur les clusters.
@ valentin2105 pouvez-vous s'il vous plaĂźt ouvrir un problĂšme dans k/k pour suivre cela si vous pensez qu'il s'agit d'un problĂšme qui doit ĂȘtre rĂ©solu ?
https://github.com/kubernetes/kubernetes/issues
@danehans
Des plans pour cela dans 1.11?
Si tel est le cas, pouvez-vous vous assurer que la fonctionnalité est à jour avec les éléments appropriés :
stage/{alpha,beta,stable}
sig/*
kind/feature
cc @idvoretskyi
@leblancd mĂšne la charge IPv6. Je vais le laisser commenter.
@justaugustus - Cela devrait probablement ĂȘtre divisĂ© en 2 problĂšmes distincts :
Prise en charge IPv6 uniquement : version 1.9, Alpha
Prise en charge de la double pile : version 1.11, Alpha
Je pense que ce problÚme (#508) est suffisant pour la prise en charge d'IPv6 uniquement, et un nouveau problÚme sera nécessaire pour la double pile.
/ fonction gentille
@leblancd
@justaugustus
IPv6 uniquement fonctionne correctement sur les versions v1.9 et v1.10 et Ă©galement en double pile.
@justaugustus :
ProblÚme de fonctionnalité Dual-Stack
Cette fonctionnalité actuelle n'a pas de jalon, nous aimerions donc vérifier et voir s'il y a des plans pour cela dans Kubernetes 1.12.
Si tel est le cas, veuillez vous assurer que ce problÚme est à jour avec TOUTES les informations suivantes :
Définissez les éléments suivants :
Une fois cette fonctionnalitĂ© correctement mise Ă jour, veuillez envoyer un ping explicite Ă @justaugustus , @kacole2 , @robertsandoval , @rajendar38 pour noter qu'elle est prĂȘte Ă ĂȘtre incluse dans la feuille de calcul de suivi des fonctionnalitĂ©s pour Kubernetes 1.12 .
Veuillez vous assurer que tous les PR pour les fonctionnalités incluent également des notes de version pertinentes.
Bonne expédition !
PS Ceci a été envoyé via l'automatisation
Salut @leblancd
Existe-t-il un plan pour rendre la version bĂȘta du support IPv6 dans K8s 1.12 ? Si vous vous en souvenez, j'avais posĂ© des questions sur l'Ă©tat de la prise en charge de la double pile dans https://github.com/kubernetes/features/issues/563. Comme la double pile a encore du travail Ă faire, j'essaie de dĂ©terminer si nous ne pouvons vivre qu'avec le support IPv6 pour le moment, mais c'est toujours en alpha, donc au cas oĂč vous pourriez partager une date provisoire sur le moment oĂč IPv6 peut devenir bĂȘta /GA, ce sera vraiment utile.
@navjotsingh83 Quel point vous manque Ă propos d'IPv6 dans Kubernetes ?
Salut @valentin2105
Nous n'avons pas encore configurĂ© et utilisĂ© IPv6 dans K8. Mais avant d'entrer dans les dĂ©tails, j'ai postĂ© cette question parce qu'il s'agit toujours d'une fonctionnalitĂ© alpha, donc mĂȘme si cela fonctionne (ce qui pourrait ĂȘtre le cas), nous ne pouvons pas avoir de fonctionnalitĂ©s alpha en production. Nous sommes maintenant en phase de PoC/planification pour savoir si nous devons ou non dĂ©ployer notre application sur K8 dans la prochaine version, donc en fonction du moment oĂč la fonctionnalitĂ© deviendra bĂȘta (au moins) ou GA (prĂ©fĂ©rĂ©e), nous prendrons une dĂ©cision go/nogo .
Salut @navjotsingh83 - La prise en charge d'IPv6 uniquement devrait ĂȘtre bĂȘta dans K8s 1.13. Ce qui manque pour que la fonctionnalitĂ© IPv6 uniquement soit considĂ©rĂ©e comme bĂȘta, c'est le CI Kubernetes IPv6 uniquement, et c'est en cours. Voici la proposition initiale d'un CI K8s (utilisant un cluster multinĆud virtualisĂ© dans un environnement GCE) : https://github.com/kubernetes/test-infra/pull/7529. Cette proposition de CI a du succĂšs, mais le groupe test-infra m'a demandĂ© de passer de l'utilisation d'un cluster basĂ© sur GCE au dĂ©ploiement d'un cluster multinĆud directement dans un conteneur Prow (pour Ă©liminer la dĂ©pendance aux opĂ©rations GCE). Cela se traduit par une architecture Docker-in-Docker-in-Docker, qui a Ă©tĂ© un peu difficile Ă mettre en Ćuvre. Je m'attends Ă avoir un nouveau CI PR dans une semaine qui s'exĂ©cute dans un conteneur Prow local, mais cela nĂ©cessitera une autre sĂ©rie d'examens avant d'ĂȘtre fusionnĂ©.
Y a-t-il quelque chose de spĂ©cifique re. le support double pile dont vous avez besoin ? En d'autres termes, si la prise en charge d'IPv6 uniquement Ă©tait bĂȘta/GA, serait-ce suffisant ? J'aimerais savoir si ce que nous avons proposĂ© dans la spĂ©cification Ă double pile correspond Ă ce dont vous avez besoin.
Salut @leblancd @danehans
Cette amĂ©lioration a dĂ©jĂ Ă©tĂ© suivie, nous aimerions donc vĂ©rifier et voir s'il est prĂ©vu que cela gradue les Ă©tapes dans Kubernetes 1.13. Cette version est destinĂ©e Ă ĂȘtre plus « stable » et aura un calendrier agressif. Veuillez n'inclure cette amĂ©lioration que si vous ĂȘtes sĂ»r qu'elle respectera les dĂ©lais suivants :
Docs (espace réservé PRs ouvert) : 11/8
Code Slush : 11/9
Début du gel du code : 15/11
Documents terminés et révisés : 27/11
Veuillez prendre un moment pour mettre à jour les jalons de votre message d'origine pour un suivi futur et envoyer un ping à feuille de suivi des améliorations 1.13
Nous encourageons également maintenant que chaque nouvelle amélioration s'aligne sur un KEP. Si un KEP a été créé, veuillez créer un lien vers celui-ci dans le message d'origine ou profitez-en pour développer un KEP.
Merci!
@leblancd merci pour la mise à jour ici, trÚs intéressante. Heureux de voir que cela se concrétise enfin avec la 1.13.
Bonjour,
Je me demandais quel est l'état supposé actuel de la prise en charge d'IPv6 ? Si j'essaie d'amorcer un cluster en utilisant
kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64
Le résultat est que le serveur API n'est pas joignable par la suite :
root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
Vérification des conteneurs créés :
root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a55623e52447 k8s.gcr.io/pause:3.1 "/pause" 7 minutes ago Up 7 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33 ab81d7360408 "kube-scheduler --adâŠ" 24 minutes ago Up 24 minutes k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30 26e6f1db2a52 "kube-controller-manâŠ" 24 minutes ago Up 24 minutes k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5 3cab8e1b9802 "etcd --advertise-clâŠ" 24 minutes ago Up 24 minutes k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
Il ne semble pas y avoir de mappage de port pour 8080 - ne devrait-il pas y en avoir un ?
Salut @telmich ,
Je ne connais pas grand-chose Ă KubeADM, mais ce que je sais, c'est qu'IPv6 sur Kubernetes fonctionne trĂšs bien.
Comme je vois votre commande, je vais vous suggérer d'utiliser des crochets autour de vos adresses v6 comme [2a0a:e5...]
Salut @valentin2105 !
C'est formidable d'entendre qu'IPv6 devrait fonctionner, mais comment amorcer un cluster kubernetes sans kubeadm ?
Syntaxe Re [] : elle est généralement utilisée pour une seule adresse IPv6, pas pour les plages et kubeadm échoue immédiatement lors de son utilisation :
root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~#
J'ai pris le temps d'écrire mes conclusions jusqu'à présent sur https://redmine.ungleich.ch/issues/6255 et actuellement, je prétends qu'il n'y a aucun moyen de configurer un cluster IPv6 uniquement à l'aide de kubeadm pour le moment.
Ătant donnĂ© que je suis un dĂ©butant k8s, je me demande 2 choses :
Pour la derniĂšre question : j'ai dĂ©jĂ jetĂ© un Ćil aux diffĂ©rentes phases de kubeadm et j'ai essayĂ© de rĂ©pliquer l'init en procĂ©dant phase par phase, mais ce qui n'est pas clair pour moi, quand/comment modifier les options pour etcd, apiserver, contrĂŽleur pour que je puisse le contrĂŽler plus finement?
Vous devriez dĂ©boguer quel composant plante pendant que vous le lancez avec kubeadm, c'est peut-ĂȘtre Ă propos de CNI ? Je ne sais pas si le pont hĂŽte-local prend en charge IPv6 dans cni.
Si vous voulez essayer de configurer la v6 uniquement et peut-ĂȘtre comparer avec votre configuration kubeadm, consultez ma recette Saltstack qui fonctionne en IPv6 car je l'utilise dans quelques clusters v6 uniquement.
https://github.com/valentin2105/Kubernetes-Saltstack
@danehans Bonjour - Je suis le responsable de l'amélioration pour la version 1.14 et je vérifie ce problÚme pour voir quel travail (le cas échéant) est prévu pour la version 1.14. Le gel des améliorations est le 29 janvier et je tiens à rappeler que toutes les améliorations doivent avoir un KEP
@claurence Aucun travail IPv6 n'est prévu pour la 1.14.
Bonjour @danehans , je suis le Enhancement Lead pour la 1.15. Cette fonctionnalitĂ© va-t-elle passer les Ă©tapes alpha/bĂȘta/stable dans la version 1.15 ? S'il vous plaĂźt laissez-moi savoir afin qu'il puisse ĂȘtre suivi correctement et ajoutĂ© Ă la feuille de calcul. Toutes les amĂ©liorations nĂ©cessitent un KEP avant d'ĂȘtre Ă©galement promues.
Une fois le codage commencĂ©, veuillez rĂ©pertorier tous les PR k/k pertinents dans ce numĂ©ro afin qu'ils puissent ĂȘtre suivis correctement.
@thockin @BenTheElder Je pense qu'il peut ĂȘtre possible de graduer les clusters ipv6 uniquement en version bĂȘta dans 1.15.
Si nous fusionnons ceci https://github.com/kubernetes-sigs/kind/pull/348 je peux travailler sur les tests défaillants pendant ce cycle https://github.com/kubernetes/kubernetes/issues/70248 et ajouter un travail au CI
Qu'en penses-tu?
@kacole2 Malheureusement, je ne travaille plus sur IPv6.
Est-ce que quelqu'un travaille sur le support IPv6 natif (non dual stack) dans k8s ?
@telmich Cela devrait ĂȘtre possible aujourd'hui. Jetez un Ćil Ă https://github.com/leblancd/kube-v6 pour une bonne prĂ©sentation de l'Ă©tat actuel.
Salut @danehans - Je suis une ombre d'améliorations pour la 1.16.
Cette fonctionnalitĂ© va-t-elle passer les Ă©tapes alpha/beta/stable dans la version 1.16 ? Veuillez me le faire savoir afin qu'il puisse ĂȘtre ajoutĂ© Ă la feuille de calcul de suivi 1.16 .
Une fois le dĂ©veloppement commencĂ© ou s'il l'a dĂ©jĂ fait, veuillez rĂ©pertorier tous les PR k/k pertinents dans ce numĂ©ro afin qu'ils puissent ĂȘtre suivis correctement.
J'ai remarquĂ© qu'il n'y a pas de KEP liĂ© dans la description du problĂšme ; pour rappel, chaque amĂ©lioration nĂ©cessite un KEP dans un Ă©tat implĂ©mentable avec des critĂšres d'obtention du diplĂŽme expliquant les exigences de chaque Ă©tape alpha/bĂȘta/stable.
Pour rappel, les dates d'étape 1.16 sont : Enhancement Freeze 7/30 et Code Freeze 8/29.
Merci!
@mariantalla Je ne travaille plus sur la fonctionnalitĂ©. Vous voudrez peut-ĂȘtre demander Ă sig network de voir si quelqu'un d'autre envisage de s'occuper de l'obtention du diplĂŽme.
@ lachie83 c'est quelque chose à évoquer avec SIG-Network dans vos réunions.
Ouais. Permettez-moi de mettre cela sur l'agenda du réseau SIG
Je soumettrai un PR avec un KEP pour passer d'IPv6 Ă BĂȘta au cours de ce cycle
Merci @aojea , j'ajouterai les deux (ceci et https://github.com/kubernetes/enhancements/issues/1138) comme suivi pour la v1.16, ciblant beta
et At Risk
tandis que KEP n'est pas fusionné.
Ătes-vous d' accord pour que dĂ©signe Ă©galement comme propriĂ©taire de ce problĂšme et que
@mariantalla
HĂ©, @aojea, je suis le responsable de la publication des documents v1.16.
Cette amélioration (ou le travail prévu pour la v1.16) nécessite-t-elle de nouveaux documents (ou modifications) ?
Juste un rappel amical, nous recherchons un PR contre k/website (branche dev-1.16) dĂ» d'ici le vendredi 23 aoĂ»t. Ce serait formidable si c'Ă©tait le dĂ©but de la documentation complĂšte, mais mĂȘme un PR d'espace rĂ©servĂ© est acceptable. Faites moi savoir si vous avez des questions!
HĂ©, @aojea, je suis le responsable de la publication des documents v1.16.
Cette amélioration (ou le travail prévu pour la v1.16) nécessite-t-elle de nouveaux documents (ou modifications) ?
Juste un rappel amical, nous recherchons un PR contre k/website (branche dev-1.16) dĂ» d'ici le vendredi 23 aoĂ»t. Ce serait formidable si c'Ă©tait le dĂ©but de la documentation complĂšte, mais mĂȘme un PR d'espace rĂ©servĂ© est acceptable. Faites moi savoir si vous avez des questions!
@neolit123 @timothysc Je pense que je peux ajouter une section aux docs kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm comme Configuring your Kubernetes cluster to use IPv6
, qu'en pensez-vous ? Est-ce que ça marche pour vous?
@aojea
dépend de ce que vous prévoyez d'ajouter à la doc?
ces sections mentionnent déjà que ipv6 est pris en charge par kubeadm :
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
/assign @aojea
/ unassign @danehans
HĂ© @aojea - juste un petit rappel que le gel des amĂ©liorations đ„¶est demain. Cette amĂ©lioration est menacĂ©e pour le moment, car son KEP n'est pas encore fusionnĂ©.
Je crois que le KEP est suivi dans #1138 . Pouvons-nous regrouper cela dans ce problÚme ?
ces sections mentionnent déjà que ipv6 est pris en charge par kubeadm :
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
@simplytunde semble que la documentation
semble que la documentation destinée à l'utilisateur est déjà couverte
Je ne dirais pas que kubeadm est la seule documentation destinée aux utilisateurs pour la prise en charge d'IPv6, mais je m'en remettrai à SIG Network et aux mainteneurs de cette fonctionnalité.
@aojea @danehans @lachie83
Enhancement Freeze est passĂ© pour la 1.16. Le KEP Ă #1139 n'a jamais Ă©tĂ© fusionnĂ© et maintenant il est supprimĂ© du jalon 1.16. Si cela souhaite ĂȘtre rajoutĂ©, veuillez dĂ©poser une exception et cela nĂ©cessitera l'approbation du responsable de la publication .
/jalon clair
@kacole2 merci pour le suivi, ciblons alors 1,17.
Salut @aojea -- Les améliorations 1.17 mÚnent ici. Je voulais vérifier et voir si vous pensez que cette amélioration passera à alpha/beta/stable en 1.17 ?
Le calendrier de diffusion actuel est le suivant :
Lundi 23 septembre - DĂ©but du cycle de publication
Mardi 15 octobre, EOD PST - Gel des améliorations
Jeudi 14 novembre, EOD PST - Gel du code
Mardi 19 novembre - Les documents doivent ĂȘtre complĂ©tĂ©s et rĂ©visĂ©s
Lundi 9 décembre - Sortie de Kubernetes 1.17.0
Si vous le faites, une fois le codage commencĂ©, veuillez rĂ©pertorier tous les PR k/k pertinents dans ce numĂ©ro afin qu'ils puissent ĂȘtre suivis correctement. ??
Merci!
@mrbobbytables selon le KEP il ne manque qu'une chose c'est le travail CI dans un fournisseur de cloud
[x] Il a CI utilisant un environnement de test kubernetes
[ ] Il a CI utilisant au moins un fournisseur de cloud
Impressionnant. L'ajoutera pour ĂȘtre suivi en tant que diplĂŽmĂ© en version bĂȘta đ
Bonjour @aojea, je suis l'une des ombres des docs v1.17.
Cette amélioration pour (ou le travail prévu pour la v1.17) nécessite-t-elle de nouveaux documents (ou des modifications aux documents existants) ? Sinon, pouvez-vous s'il vous plaßt mettre à jour la feuille de suivi des améliorations 1.17 (ou faites-le moi savoir et je le ferai)
Si c'est le cas, juste un rappel amical, nous recherchons un PR contre k/website (branche dev-1.17) dû d'ici le vendredi 8 novembre, il peut simplement s'agir d'un PR d'espace réservé pour le moment. Faites moi savoir si vous avez des questions!
@irvifa
Cela vous dérange-t-il de mettre à jour la feuille de suivi des améliorations ?
Nous n'aurons pas besoin de plus de documents comme expliqué ici https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858
D'accord, merci pour la confirmation @aojea . J'ai mis à jour la feuille de suivi comme demandé.
Salut @aojea , les amĂ©liorations 1.17 mĂšnent ici đ Il ne semble pas qu'il y ait de PR k/k ou autres qui soient en suspens, mais comment se prĂ©sentent les choses concernant la derniĂšre tĂąche ? "_Il a CI utilisant au moins un fournisseur de cloud_"
Salut @aojea , 1.17 Les améliorations mÚnent ici Il ne semble pas qu'il y ait de PR k/k ou autres qui soient exceptionnels, mais comment se présentent les choses concernant la derniÚre tùche ? "_Il a CI utilisant au moins un fournisseur de cloud_"
c'est WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , mais je ne peux pas garantir que je peux le faire :man_shruging:
Salut @aojea. Le gel du code est Ă 17h PT aujourd'hui pour le cycle de version 1.17.
Pensez-vous que https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 sera fusionné d'ici là  ? ??
Je sais que cela ne fait pas partie de k/k et n'est pas exactement soumis au gel, mais idéalement, nous aurions tout en place d'ici là .
ciblons 1.18 @mrbobbytables , cela a beaucoup d'inconnues et je ne peux pas consacrer assez de temps :man_shrugging:
Ăa ira! Merci pour la rĂ©ponse rapide
/jalon v1.18
Salut @aojea -- 1.18 Améliorations ombre ici. Je voulais vérifier et voir si vous pensez que cette amélioration passera à [alpha|beta|stable] en 1.18 ?
Le calendrier de diffusion actuel est le suivant :
Lundi 6 janvier - DĂ©but du cycle de publication
Mardi 28 janvier EOD PST - Gel des améliorations
Jeudi 5 mars, EOD PST - Gel du code
Lundi 16 mars - Les documents doivent ĂȘtre complĂ©tĂ©s et rĂ©visĂ©s
Mardi 24 mars - Sortie de Kubernetes 1.18.0
Pour ĂȘtre incluse dans la version, cette amĂ©lioration doit avoir un KEP fusionnĂ© dans le statut implementable
. Le KEP doit également avoir des critÚres d'obtention du diplÎme et un plan de test définis.
Si vous souhaitez inclure cette amĂ©lioration, une fois le codage commencĂ©, veuillez rĂ©pertorier tous les PR k/k pertinents dans ce numĂ©ro afin qu'ils puissent ĂȘtre suivis correctement. ??
Nous suivrons les améliorations ici : http://bit.ly/k8s-1-18-enhancements
Merci!
salut @kikisdeliveryservice
Le KEP a été fusionné https://github.com/kubernetes/enhancements/pull/1139 et est de implementable
Il ne manque qu'un élément :
Il a CI utilisant au moins un fournisseur de cloud
et nous pourrons faire passer IPv6 en version bĂȘta en 1.18
cc: @lachie83 @aramase
merci @aojea !
Salut @aojea -
Seth ici, Docs shadow sur l'Ă©quipe de publication 1.18.
Ce travail d'amélioration prévu pour la version 1.18 nécessite-t-il de nouveaux documents ou des modifications aux documents existants ?
Sinon, pouvez-vous s'il vous plaßt mettre à jour la feuille de suivi des améliorations 1.18 (ou faites-le moi savoir et je le ferai)
Si des mises à jour de la documentation sont nécessaires, rappelez que les PR d'espace réservé contre k/website (branche dev-1.18) sont dus d'ici le vendredi 28 février.
Faites moi savoir si vous avez des questions!
@sethmccombs une question, un article de blog sur la fonctionnalité compte-t-il comme une mise à jour de la documentation ?
Salut @aojea !
Pour rappel, le Code Freeze est le jeudi 5 mars. Pouvez-vous s'il vous plaĂźt lier tous les PR k/k ou tout autre PR qui devrait ĂȘtre suivi pour cette amĂ©lioration ?
Merci!
L'équipe des améliorations 1.18
@aramase avez-vous un lien pour suivre le travail IPv6 sur Azure, afin que l'équipe d'amélioration puisse suivre la fonctionnalité ?
@aojea - Le @karenhchu en tant que responsable des communications)
hey @aojea @aramase pourriez-vous
@jeremyrickard J'ai créé l'espace réservé PR dans test-infra pour le travail - https://github.com/kubernetes/test-infra/pull/16461
Autres PR qui devront ĂȘtre fusionnĂ©s avant -
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781
Je termine les tests et supprimerai ensuite les WIP.
Salut @aojea @aramase
Comme la date limite des relations publiques pour les espaces réservés aux documents est demain. Si cette amélioration a besoin de docs. Veuillez créer un PR d'espace réservé contre la branche dev-1.18 dÚs que possible.
Merci!
/jalon clair
Salut, @aojea @aramase car il n'y a pas de PR d'espace réservé aux documents pour cette amélioration et n'a reçu aucune mise à jour sur le front des documents. nous avons dépassé la date limite pour les relations publiques d'espace réservé aux documents. Nous supprimons donc cette amélioration de la version 1.18. Si vous souhaitez demander une exception. Veuillez vous référer à https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md
Merci!
Désolé, aucune mise à jour de la documentation n'est nécessaire :smile:
/jalon v1.18
Quelle fonctionnalitĂ© IPv6 a atterri dans Kubernetes 1.18 ? S'agit-il d'une double pile ou d'IPv6 uniquement en version bĂȘta ?
Je suis confus car rien n'a changé dans la doc.
Quelle fonctionnalitĂ© IPv6 a atterri dans Kubernetes 1.18 ? S'agit-il d'une double pile ou d'IPv6 uniquement en version bĂȘta ?
Je suis confus car rien n'a changé dans la doc.
Ce problĂšme ne suit que l'ipv6, passĂ© Ă la version bĂȘta en 1.18
La double pile est alpha et est suivie dans d'autres problĂšmes/KEP
/jalon clair
(suppression de ce problÚme d'amélioration du jalon v1.18 lorsque le jalon est terminé)
Salut @aojea @danehans ,
1.19 Les améliorations sont ombrées ici. Je voulais vérifier et voir si vous pensez que cette amélioration sera diplÎmée en 1.19 ?
Pour avoir cette partie de la version :
The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.
Le calendrier de diffusion actuel est le suivant :
Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released
Faites-le moi savoir et je l'ajouterai Ă la feuille de suivi 1.19 (http://bit.ly/k8s-1-19-enhancements). Une fois le codage commencĂ©, veuillez rĂ©pertorier tous les PR k/k pertinents dans ce numĂ©ro afin qu'ils puissent ĂȘtre suivis correctement. ??
Merci!
Merci @kikisdeliveryservice , mais je pense que nous devrions maintenant nous concentrer sur la double pile.
Aucun changement ici pendant cette version
Les problÚmes deviennent obsolÚtes aprÚs 90 jours d'inactivité.
Marquez le problÚme comme récent avec /remove-lifecycle stale
.
Les problÚmes périmés pourrissent aprÚs 30 jours supplémentaires d'inactivité et finissent par se fermer.
Si ce problĂšme peut ĂȘtre rĂ©solu en toute sĂ©curitĂ© maintenant, veuillez le faire avec /close
.
Envoyez vos commentaires Ă sig-testing, kubernetes/test-infra et/ou fejta .
/cycle de vie périmé
/supprimer le cycle de vie périmé
Salut @aojea @danehans
Les améliorations mÚnent ici. Avez-vous l'intention d'obtenir ce diplÎme en 1.20 ?
Merci,
Kirsten
Salut @aojea @danehans
Les améliorations mÚnent ici. Avez-vous l'intention d'obtenir ce diplÎme en 1.20 ?
non :sourire:
Merci pour la mise Ă jour!
Existe-t-il une documentation sur la façon de vérifier les opérations IPv6 uniquement ? google ne m'a conduit qu'à ipv4 ou ipv6 dualstack.
Existe-t-il une documentation sur la façon de vérifier les opérations IPv6 uniquement ? google ne m'a conduit qu'à ipv4 ou ipv6 dualstack.
qu'entends-tu par "vérifier" ?
L'installation pour IPv6 uniquement est la mĂȘme que pour IPv4, il vous suffit d'utiliser des adresses et des sous-rĂ©seaux IPv6 dans votre configuration, aucune modification supplĂ©mentaire n'est nĂ©cessaire.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
Peut confirmer. J'exécute 1.17.x en mode IPv6 uniquement. Suivez simplement le guide IPv4 et utilisez les adresses IPv6. C'est en gros ça.
Commentaire le plus utile
/jalon v1.18