Enhancements: Добавлена ​​поддержка IPv6

Созданный на 1 нояб. 2017  ·  99Комментарии  ·  Источник: kubernetes/enhancements

Описание функции

  • Однострочное описание функции (может использоваться в качестве примечания к выпуску): добавляет поддержку IPv6, позволяя использовать все возможности Kubernetes с использованием сети IPv6 вместо сети IPv4.
  • Основное контактное лицо (исполнитель): @danehans
  • Ответственные SIG: sig-network
  • PR предложения по расширению Kubernetes: # 1139
  • Рецензент (ы) - (для LGTM) рекомендуют иметь 2+ рецензентов (по крайней мере, одного из файла OWNERS кодовой области), согласившихся на рецензирование. Рецензенты из нескольких компаний предпочли: @thockin @bowei @luxas
  • Утверждающий (вероятно, из SIG / области, к которой принадлежит функция): @thockin
  • Функциональная цель (какая цель соответствует какой вехе):

    • Цель альфа-версии 1.9

kinfeature sinetwork stagbeta trackeno

Самый полезный комментарий

/ milestone v1.18

Все 99 Комментарий

@danehans Спасибо за сообщение об этой проблеме!
cc @idvoretskyi К вашему сведению

@danehans : wave: укажите на доске отслеживания функций 1.9
нужна ли для этой функции документация. Если да, откройте PR и добавьте ссылку в таблицу отслеживания. Заранее спасибо!

@zacharysarah У меня есть доступ только для комментариев к доске отслеживания функций 1.9, поэтому я добавил комментарии для требования документации IPv6.

Копия: @mmueen

@zacharysarah , нужно ли вручную обновлять PR IPv6 или https://github.com/kubernetes/kubernetes/issues/1443?

@danehans Когда вы говорите

/ cc @ Bradamant3 для видимости примечаний к выпуску

Да, я пытаюсь понять, нужно ли что-нибудь добавить в примечания к выпуску 1.9, и если да, то какой процесс следует выполнить. Спасибо.

Здесь должно быть примечание к выпуску

/ cc @ Bradamant3 @nickchase Доступность примечаний к выпуску! ☝️

Черновик примечания к выпуску
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit

Вы можете следовать инструкциям в верхней части документа.

xref: https://groups.google.com/forum/#!topic/kubernetes -sig-release / x6ySPIJkMN4 от @enisoc

@xiangpengzhao Я обновил примечания к выпуску 1.9 подробностями о поддержке ipv6. Пожалуйста, дайте мне знать, требуется ли дополнительный контент ipv6 для примечаний к выпуску 1.9.

@danehans Я думаю, что добавленные вами подробности достаточно хороши: +1:. Но лично я хотел бы увидеть связанные PR (если они есть) для пуль.

  • Добавлена ​​поддержка IPv6 alpha. Примечательные детали поддержки IPv6 включают:

    • Поддержка развертываний кластеров Kubernetes только для IPv6. Эта функция не обеспечивает поддержку двойного стека.

    • Поддержка уровней управления и данных в Kubernetes IPv6.

    • Поддержка развертывания кластера Kubernetes IPv6 с помощью kubeadm.

    • Поддержка бэкэнда iptables kube-proxy с использованием ip6tables.

    • Для работы в сети модулей IPv6 полагается на двоичные файлы CNI 0.6.0.

    • Хотя другие плагины CNI поддерживают IPv6, только плагины моста CNI и local-ipam были протестированы для альфа-версии.

    • Добавляет поддержку IPv6 для kube-dns с использованием записей SRV.

    • Предостережения

    • HostPorts не поддерживаются.

    • Сетевая маска IPv6 для сети cidr модуля или кластера должна быть / 66 или больше. Например: 2001: db1 :: / 66, 2001: dead: beef :: / 76, 2001: cafe :: / 118 поддерживаются. 2001: db1 :: / 64 не поддерживается

      `` ''

@danehans Я еще раз взглянул на примечание к выпуску и обнаружил, что вы поместили детали ipv6 в раздел Before Upgrading . Я не думаю, что мы должны их туда помещать.

@xiangpengzhao Единственное, что меня беспокоит, это то, что для разных пуль использовалось несколько PR.

@xiangpengzhao Я переместил содержимое IPv6 в примечания к выпуску 1.9. Пожалуйста, дайте мне знать, если у вас возникнут какие-либо вопросы.

@danehans That LGTM :)

Некоторое время я использую Kubernetes только для IPv6 (v1.8.x),
и, я думаю, самая большая проблема, которую необходимо решить, - это определить, включен ли IPv6, чтобы прекратить использование ClusterIP (10.32.xx) в кластерах.

@ valentin2105, не могли бы вы открыть проблему в k / k, чтобы отследить это, если вы считаете, что эту проблему следует решить?
https://github.com/kubernetes/kubernetes/issues

@danehans
Какие планы на это в 1.11?

Если да, не могли бы вы убедиться, что функция актуальна с соответствующими:

  • Описание
  • Веха
  • Цессионарий (и)
  • Ярлыки:

    • stage/{alpha,beta,stable}

    • sig/*

    • kind/feature

cc @idvoretskyi

@leblancd лидирует в области IPv6. Я позволю ему прокомментировать.

@justaugustus - Вероятно, это следует разбить на 2 отдельных вопроса:
Поддержка только IPv6: выпуск 1.9, альфа
Поддержка двух стеков: выпуск 1.11, альфа
Я думаю, что этой проблемы (№ 508) достаточно для поддержки IPv6-Only, а для двойного стека потребуется новая проблема.

/ kind feature

@leblancd

  • Планируется ли какая-либо работа по поддержке только IPv6 в версии 1.11? Если да, не могли бы вы сообщить нам, отслеживает ли он альфа-, бета-версию или стабильную версию, чтобы мы могли установить ориентир?
  • Не могли бы вы открыть вопрос с соответствующими деталями для поддержки Dual-Stack?

@justaugustus
Только IPv6 отлично работает с выпусками v1.9 и v1.10, а также с двойным стеком.

У этой функции нет вех, поэтому мы хотели бы проверить и посмотреть, есть ли какие-либо планы на это в Kubernetes 1.12.

Если да, убедитесь, что эта проблема актуальна и содержит ВСЕ следующую информацию:

  • Однострочное описание функции (может использоваться как примечание к выпуску):
  • Основное контактное лицо (исполнитель):
  • Ответственные SIG:
  • Ссылка на проектное предложение (репозиторий сообщества):
  • Ссылка на e2e и / или модульные тесты:
  • Рецензент (ы) - (для LGTM) рекомендуют иметь 2+ рецензентов (по крайней мере, одного из файла OWNERS кодовой области), согласившихся на рецензирование. Рецензенты из нескольких компаний предпочли:
  • Утверждающий (вероятно, из SIG / области, к которой принадлежит объект):
  • Функциональная цель (какая цель соответствует какой вехе):

    • Цель альфа-выпуска (xy)

    • Цель выпуска бета-версии (xy)

    • Стабильная цель выпуска (xy)

Установите следующее:

  • Описание
  • Цессионарий (и)
  • Ярлыки:

    • stage / {альфа, бета, стабильный}

    • sig / *

    • вид / особенность

После того, как эта функция будет соответствующим образом обновлена, пожалуйста, явным образом ping @justaugustus , @ kacole2 , @robertsandoval , @ rajendar38, чтобы отметить, что она готова для включения в электронную таблицу отслеживания функций для Kubernetes 1.12 .


Обратите внимание, что замораживание функций наступит завтра, 31 июля , после чего любые неполные проблемы с функциями потребуют принятия запроса на

Кроме того, обратите внимание на следующие сроки:

  • Крайний срок подачи документов (PR с открытыми заполнителями): 21 августа.
  • Заморозка тестового набора: 28 августа

Убедитесь, что все PR для функций также содержат соответствующие примечания к выпуску.

Удачной доставки!

PS Это было отправлено через автоматизацию

Привет @leblancd

Есть ли планы сделать бета-версию поддержки IPv6 в K8s 1.12? Если вы помните, я спрашивал о статусе поддержки двойного стека в https://github.com/kubernetes/features/issues/563. Поскольку над двойным стеком еще предстоит поработать, я пытаюсь понять, сможем ли мы жить только с поддержкой IPv6 на данный момент, но он все еще находится в альфа-версии, поэтому на случай, если вы можете сообщить ориентировочную дату, когда IPv6 может стать бета-версией / GA, это действительно будет полезно.

@ navjotsingh83 Что вам не хватает в отношении IPv6 в Kubernetes?

Привет @ valentin2105

Мы еще не настроили и не использовали IPv6 в K8s. Но прежде чем вдаваться в это, я разместил этот вопрос, потому что это все еще альфа-функция, поэтому даже она работает (что может быть), у нас не может быть альфа-функций в производстве. Сейчас мы находимся на этапе PoC / планирования относительно того, следует ли нам развертывать наше приложение на K8 или нет в следующем выпуске, поэтому в зависимости от того, когда функция станет бета-версией (по крайней мере) или GA (предпочтительно), мы примем решение go / no .

Привет @ navjotsingh83 - поддержка только IPv6 должна быть бета-версией в K8s 1.13. Чего не хватает для того, чтобы функция только IPv6 считалась бета-версией, так это Kubernetes IPv6-only CI, и это находится в разработке. Вот первоначальное предложение для K8s CI (с использованием виртуализированного многоузлового кластера в среде GCE): https://github.com/kubernetes/test-infra/pull/7529. Это предложение CI имеет поддержку, но группа test-infra попросила меня изменить это с использования кластера на основе GCE на развертывание многоузлового кластера непосредственно в контейнере Prow (чтобы исключить зависимость от операций GCE). Это приводит к архитектуре Docker-in-Docker-in-Docker, которую было немного сложно заставить работать. Я ожидаю, что в течение недели появится новый CI PR, который будет работать в локальном контейнере Prow, но затем потребуется еще один раунд проверок перед объединением.

Есть что-нибудь конкретное по поводу. поддержка двух стеков, которая вам нужна? Другими словами, если бы поддержка только IPv6 была бета / GA, было бы этого достаточно? Мне интересно услышать, соответствует ли то, что мы предложили в спецификации двойного стека, тому, что вам нужно.

Привет @leblancd @danehans
Это улучшение отслеживалось и раньше, поэтому мы хотели бы проверить и посмотреть, есть ли какие-либо планы по переходу этапов в Kubernetes 1.13. Этот выпуск нацелен на то, чтобы быть более «стабильным» и иметь агрессивные сроки. Пожалуйста, включайте это улучшение только в том случае, если есть высокий уровень уверенности, что оно будет соответствовать следующим срокам:
Документы (PR с открытыми заполнителями): 8/11
Кодекс Slush: 11/9
Начало замораживания кода: 15/11
Документы заполнены и проверены: 27 ноября

Уделите время, чтобы обновить вехи в исходном сообщении для будущего отслеживания, и ping лист отслеживания улучшений 1.13.

Мы также теперь поощряем то, что каждое новое улучшение согласуется с KEP. Если KEP был создан, пожалуйста, дайте ссылку на него в исходном сообщении или воспользуйтесь возможностью, чтобы разработать KEP.

Спасибо!

@leblancd спасибо за обновление, очень интересно. Рад видеть, что в версии 1.13 это наконец реализовано.

Привет,

Мне было интересно, каково текущее предполагаемое состояние поддержки IPv6? Если я попытаюсь запустить кластер, используя

kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64

В результате после этого сервер API становится недоступным:

root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?

Проверка созданных контейнеров:

root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps 
CONTAINER ID        IMAGE                  COMMAND                  CREATED             STATUS              PORTS               NAMES
a55623e52447        k8s.gcr.io/pause:3.1   "/pause"                 7 minutes ago       Up 7 minutes                            k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33        ab81d7360408           "kube-scheduler --ad…"   24 minutes ago      Up 24 minutes                           k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30        26e6f1db2a52           "kube-controller-man…"   24 minutes ago      Up 24 minutes                           k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5        3cab8e1b9802           "etcd --advertise-cl…"   24 minutes ago      Up 24 minutes                           k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0

Кажется, что для 8080 нет сопоставления портов - разве не должно быть?

Привет @telmich!

Я мало что знаю о KubeADM, но знаю, что IPv6 в Kubernetes работает нормально.

Поскольку я вижу вашу команду, я предлагаю вам использовать скобки вокруг ваших адресов v6, например [2a0a: e5 ...]

Привет, @ valentin2105 !

Приятно слышать, что IPv6 должен работать, но как мне запустить кластер kubernetes без kubeadm?

Синтаксис Re []: обычно он используется для одного адреса ipv6, а не для диапазонов, и kubeadm сразу дает сбой при его использовании:

root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~# 

Я нашел время, чтобы записать свои выводы на https://redmine.ungleich.ch/issues/6255, и в настоящее время я утверждаю, что на данный момент нет возможности настроить кластер только для IPv6 с помощью kubeadm.

Учитывая, что я новичок в k8s, мне интересно 2 вещи:

  • Я ошибаюсь в своей претензии?
  • Если я прав в своем заявлении, как мне все же настроить кластер Kubernetes в режиме только IPv6?

По последнему вопросу: я уже посмотрел на различные фазы kubeadm и попытался воспроизвести init, выполняя поэтапно, но что мне непонятно, когда / как изменить параметры etcd, apiserver, controller так что я могу контролировать его более мелкозернистый?

Вы должны отладить, какой компонент вылетает при запуске с помощью kubeadm, может быть, дело в CNI? Я не знаю, поддерживает ли мост хост-локальный IPv6 в cni.

Если вы хотите попробовать настроить только v6 и, возможно, сравнить с настройкой kubeadm, проверьте мой рецепт Saltstack, который работает в Ipv6, поскольку я использую его в нескольких кластерах только для v6.
https://github.com/valentin2105/Kubernetes-Saltstack

@danehans Привет! Я являюсь ведущим специалистом по усовершенствованию версии 1.14, и я проверяю эту проблему, чтобы узнать, какие работы (если таковые имеются) планируются для выпуска 1.14. Заморозка улучшений 29 января, и я хочу напомнить, что все улучшения должны иметь KEP

@claurence В планируется никаких работ по IPv6.

Привет @danehans! Я руководитель

Как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать.

@thockin @BenTheElder Я думаю, что в 1.15 возможно сделать кластеры только с ipv6 бета-версией.
Если мы объединим этот https://github.com/kubernetes-sigs/kind/pull/348, я смогу работать над неудачными тестами во время этого цикла https://github.com/kubernetes/kubernetes/issues/70248 и добавить задание в CI
Что вы думаете?

@ kacole2 К сожалению, я больше не работаю над IPv6.

Кто-нибудь работает над нативной (без двойного стека) поддержкой IPv6 в k8s?

@telmich Это должно быть возможно сегодня. Взгляните на https://github.com/leblancd/kube-v6, чтобы получить хорошее представление о текущем состоянии.

Привет, @danehans! Я тень улучшений для 1.16.

Будет ли эта функция переходить на стадии альфа / бета / стабильная версия 1.16? Пожалуйста, дайте мне знать, чтобы его можно было добавить в таблицу отслеживания 1.16 .

Как только разработка начнется или если она уже началась, перечислите все соответствующие PR в этом выпуске, чтобы их можно было должным образом отслеживать.

Я заметил, что в описании проблемы нет ссылки на KEP; Напоминаем, что для каждого улучшения требуется KEP в реализуемом состоянии с критериями градации, объясняющими требования к каждой альфа / бета / стабильной стадии.

Напоминаем, что контрольные даты 1.16: «Заморозка улучшений» 7/30 и «Заморозка кода» 8/29.

Спасибо!

@mariantalla Я больше не работаю над этой функцией. Вы можете попросить sig network узнать, не планирует ли кто-нибудь еще заниматься градацией функции.

@ lachie83, это то, что нужно

Ага. Позвольте мне внести это в повестку дня SIG-сетей

Я отправлю PR с KEP для перехода IPv6 в бета-версию в течение этого цикла

Спасибо @aojea , я добавлю оба (это и https://github.com/kubernetes/enhancements/issues/1138), как отслеживается для v1.16, с таргетингом на beta и At Risk пока KEP не сливается.

Вы согласны с тем, что я назначил вас владельцем и для решения этой проблемы и @danehans для сохранения его

@mariantalla 👍

Привет, @aojea Я руководитель выпуска документации

Требуются ли для этого улучшения (или работы, запланированной в версии 1.16) какие-либо новые документы (или модификации)?

Напоминаем, что нам нужен PR-адрес k / website (ветка dev-1.16) до пятницы, 23 августа. Было бы здорово, если бы это начало полной документации, но приемлем даже PR-заполнитель. Дайте знать, если у вас появятся вопросы!

Привет, @aojea Я руководитель выпуска документации

Требуются ли для этого улучшения (или работы, запланированной в версии 1.16) какие-либо новые документы (или модификации)?

Напоминаем, что нам нужен PR-адрес k / website (ветка dev-1.16) до пятницы, 23 августа. Было бы здорово, если бы это начало полной документации, но приемлем даже PR-заполнитель. Дайте знать, если у вас появятся вопросы!

@ neolit123 @timothysc Я думаю, что могу добавить раздел в документы kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm, например Configuring your Kubernetes cluster to use IPv6 , что ты думаешь? Работает ли это для вас?

@aojea
зависит от того, что вы планируете добавить в документы?

в этих разделах уже упоминается, что ipv6 поддерживается kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

/ assign @aojea
/ отменить назначение

Привет, @aojea - просто напомню, что Завтра улучшения замораживают. В настоящий момент это улучшение находится под угрозой, поскольку его KEP еще не объединен.

Я считаю, что KEP отслеживается в № 1138. Можем ли мы свернуть это в эту проблему?

в этих разделах уже упоминается, что ipv6 поддерживается kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

@simplytunde кажется, что документация, ориентированная на пользователя, уже покрыта

кажется, что документация, ориентированная на пользователя, уже покрыта

Я бы не сказал, что kubeadm - единственная пользовательская документация по поддержке IPv6, но буду полагаться на SIG Network и тех, кто поддерживает эту функцию.

@aojea @danehans @ lachie83
Заморозка улучшения перешла на 1.16. KEP по адресу # 1139 никогда не объединялся, и теперь его убирают с рубежа 1,16. Если вы хотите, чтобы это было добавлено повторно, подайте исключение, и для этого потребуется одобрение руководителя выпуска .

/ milestone clear

@ kacole2 спасибо за нацелимся на 1.17.

Привет, @aojea - 1.17 Здесь

Текущий график выпуска:

Понедельник, 23 сентября - начинается цикл выпуска.
Вторник, 15 октября, EOD (тихоокеанское стандартное время) - замораживание улучшений
Четверг, 14 ноября, EOD (тихоокеанское стандартное время) - Code Freeze
Вторник, 19 ноября - документы должны быть заполнены и проверены.
9 декабря, понедельник - релиз Kubernetes 1.17.0

Если вы это сделаете, как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать. 👍

Спасибо!

@mrbobbytables согласно KEP, отсутствует только одна вещь, это задание CI в облачном провайдере.

IPv6 переход к бета-версии

Критерии окончания

Потрясающий. Добавлю его для отслеживания перехода к бета-версии 👍

Привет @aojea Я один из теней в документации v1.17.
Требуются ли для этого улучшения (или работы, запланированной в версии 1.17) какие-либо новые документы (или модификации существующих документов)? Если нет, не могли бы вы обновить лист отслеживания улучшений 1.17 (или дайте мне знать, и я сделаю это)

Если это так, просто дружеское напоминание, что мы ищем PR против k / website (ветка dev-1.17) к пятнице, 8 ноября, в настоящее время это может быть просто PR-агент. Дайте знать, если у вас появятся вопросы!

@irvifa
Не возражаете ли вы обновить лист отслеживания улучшений?
Нам не потребуется больше документов, как описано здесь https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858.

Хорошо, спасибо за подтверждение @aojea . Я обновил лист отслеживания по запросу.

Привет, @aojea , 1.17. Здесь ведутся улучшения 👋 Не похоже, что есть какие-то выдающиеся PR или что-то подобное, но как обстоят дела с последней задачей? "_У него есть CI с использованием хотя бы одного облачного провайдера_"

Привет, @aojea , 1.17 Здесь приводятся улучшения. Не похоже, что есть какие-то выдающиеся PR и тому подобное, но как обстоят дела с последней задачей? "_У него есть CI с использованием хотя бы одного облачного провайдера_"

это WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , но я не могу гарантировать, что смогу это сделать: man_shrugging:

👋 Привет, @aojea. Заморозка кода для цикла выпуска 1.17 состоится сегодня в 17:00 по тихоокеанскому времени.
Как вы думаете, https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 к тому времени будет объединен? 😬

Я знаю, что это не часть k / k и точно не подлежит замораживанию, но в идеале у нас к тому времени все будет готово.

давайте нацелимся на 1.18

Сделаю! Спасибо за быстрый ответ 👍
/ milestone v1.18

Привет @aojea - 1.18 Улучшения тени здесь. Я хотел проверить и посмотреть, будет ли это улучшение в версии 1.18 перейти на [альфа | бета | стабильная]?
Текущий график выпуска:
Понедельник, 6 января - начинается цикл выпуска
Вторник, 28 января, EOD (тихоокеанское стандартное время) - замораживание улучшений
Четверг, 5 марта, EOD (тихоокеанское стандартное время) - Code Freeze
Понедельник, 16 марта - документы должны быть заполнены и проверены.
24 марта, вторник - релиз Kubernetes 1.18.0
Для включения в выпуск это улучшение должно иметь объединенный KEP в статусе implementable . KEP также должен иметь критерии выхода и план тестирования.
Если вы хотите включить это усовершенствование, как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было отслеживать должным образом. 👍
Мы будем отслеживать улучшения здесь: http://bit.ly/k8s-1-18-enhancements
Спасибо!

привет @kikisdeliveryservice
KEP был объединен https://github.com/kubernetes/enhancements/pull/1139 и составляет implementable

Отсутствует только один элемент:

У него есть CI с использованием как минимум одного облачного провайдера

и мы сможем перевести IPv6 в бета-версию в 1.18.

Копия: @ lachie83 @aramase

спасибо @aojea !

Привет @aojea -

Сет здесь, Докс - тень команды разработчиков версии 1.18.

Требуются ли для этой работы по усовершенствованию, запланированной в версии 1.18, какие-либо новые документы или модификации существующих документов?

Если нет, не могли бы вы обновить лист отслеживания улучшений 1.18 (или дайте мне знать, и я сделаю это)

Если требуются обновления документации, напомните, что PR-заполнители для k / website (ветка dev-1.18) должны быть выполнены к пятнице, 28 февраля.

Дайте знать, если у вас появятся вопросы!

@sethmccombs один вопрос,

Привет @aojea !

Напоминаем, что замораживание кодов - четверг, 5 марта. Не могли бы вы связать все PR k / k или любые другие PR, которые следует отслеживать для этого улучшения?

Спасибо!
Команда улучшений 1.18

@aramase у вас есть ссылка для отслеживания задания IPv6 в Azure, чтобы группа разработчиков могла отслеживать эту функцию?

@aojea - @karenhchu, как руководитель комм.)

Привет, @aojea @aramase, не могли бы вы

@jeremyrickard Я создал PR-заполнитель PR в test-infra для работы - https://github.com/kubernetes/test-infra/pull/16461

Другие PR, которые нужно будет объединить раньше -
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781

Я заканчиваю тестирование и удаляю WIP.

Привет, @aojea @aramase
Крайний срок PR - завтра. Если для этого улучшения требуется файл doc. Пожалуйста, поднимите PR-заполнитель для ветки dev-1.18 как можно скорее.

Спасибо!

/ milestone clear

Привет, @aojea @aramase, так как для этого улучшения нет PR-заполнителя документации, и мы не получали никаких обновлений на фронте документации. мы перешли крайний срок PR для заполнителя документации. Поэтому мы удаляем это улучшение из версии 1.18. Если вы хотите запросить исключение. См. Https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md

Спасибо!

Извините, обновление документации не требуется: smile:

/ milestone v1.18

Какая функция IPv6 реализована в Kubernetes 1.18? Это двойной стек или IPv6 только перешел на бета-версию?
Я запутался, потому что в документации ничего не изменилось.

Какая функция IPv6 реализована в Kubernetes 1.18? Это двойной стек или IPv6 только перешел на бета-версию?
Я запутался, потому что в документации ничего не изменилось.

Эта проблема отслеживает только ipv6, бета-версия перешла в 1.18

Двойной стек является альфа-версией и отслеживается в другом выпуске / KEP

/ milestone clear

(устранение этой проблемы улучшения из этапа v1.18 по завершении этапа)

Привет, @aojea @danehans!

1.19 Улучшения тени здесь. Я хотел проверить и узнать, выйдет ли это улучшение в версии 1.19?

Чтобы получить эту часть релиза:

The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.

Текущий график выпуска:

Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released

Пожалуйста, дайте мне знать, и я добавлю его в лист отслеживания 1.19 (http://bit.ly/k8s-1-19-enhancements). Как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать. 👍

Спасибо!

Спасибо @kikisdeliveryservice , но я думаю, что теперь мы должны сосредоточиться на двойном стеке.
В этом выпуске изменений нет

Проблемы устаревают после 90 дней бездействия.
Отметьте проблему как новую с помощью /remove-lifecycle stale .
Устаревшие выпуски гниют после дополнительных 30 дней бездействия и в конечном итоге закрываются.

Если сейчас проблему можно безопасно закрыть, сделайте это с помощью /close .

Отправьте отзыв в sig-testing, kubernetes / test-infra и / или fejta .
/ жизненный цикл устаревший

/ remove-жизненный цикл устаревший

Привет, @aojea @danehans

Улучшения ведут сюда. Есть ли в планах перейти к версии 1.20?

Спасибо,
Кирстен

Привет, @aojea @danehans

Улучшения ведут сюда. Есть ли в планах перейти к версии 1.20?

нету: улыбка:

Спасибо за обновления!

Есть ли документация о том, как проверить операции только с ipv6? Google привел меня только к двойному стеку ipv4 или ipv6.

Есть ли документация о том, как проверить операции только с ipv6? Google привел меня только к двойному стеку ipv4 или ipv6.

что вы имеете в виду под "подтверждением"?

Установка только для IPv6 такая же, как и для IPv4, только вам нужно использовать IPv6-адреса и подсети в вашей конфигурации, никаких дополнительных изменений не требуется.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node

Могу подтвердить. Я запускаю 1.17.x в режиме только ipv6. Просто следуйте руководству по IPv4 и используйте адреса IPv6. Вот в основном это.

Была ли эта страница полезной?
0 / 5 - 0 рейтинги