@danehans Спасибо за сообщение об этой проблеме!
cc @idvoretskyi К вашему сведению
Проблема с xref ipv6: https://github.com/kubernetes/kubernetes/issues/1443
@danehans : wave: укажите на доске отслеживания функций 1.9
нужна ли для этой функции документация. Если да, откройте PR и добавьте ссылку в таблицу отслеживания. Заранее спасибо!
@zacharysarah У меня есть доступ только для комментариев к доске отслеживания функций 1.9, поэтому я добавил комментарии для требования документации IPv6.
Копия: @mmueen
@zacharysarah , нужно ли вручную обновлять PR IPv6 или https://github.com/kubernetes/kubernetes/issues/1443?
@danehans Когда вы говорите
/ cc @ Bradamant3 для видимости примечаний к выпуску
Да, я пытаюсь понять, нужно ли что-нибудь добавить в примечания к выпуску 1.9, и если да, то какой процесс следует выполнить. Спасибо.
Здесь должно быть примечание к выпуску
/ cc @ Bradamant3 @nickchase Доступность примечаний к выпуску! ☝️
Черновик примечания к выпуску
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit
Вы можете следовать инструкциям в верхней части документа.
xref: https://groups.google.com/forum/#!topic/kubernetes -sig-release / x6ySPIJkMN4 от @enisoc
@xiangpengzhao Я обновил примечания к выпуску 1.9 подробностями о поддержке ipv6. Пожалуйста, дайте мне знать, требуется ли дополнительный контент ipv6 для примечаний к выпуску 1.9.
@danehans Я думаю, что добавленные вами подробности достаточно хороши: +1:. Но лично я хотел бы увидеть связанные PR (если они есть) для пуль.
@danehans Я еще раз взглянул на примечание к выпуску и обнаружил, что вы поместили детали ipv6 в раздел Before Upgrading
. Я не думаю, что мы должны их туда помещать.
@xiangpengzhao Единственное, что меня беспокоит, это то, что для разных пуль использовалось несколько PR.
@xiangpengzhao Я переместил содержимое IPv6 в примечания к выпуску 1.9. Пожалуйста, дайте мне знать, если у вас возникнут какие-либо вопросы.
@danehans That LGTM :)
Некоторое время я использую Kubernetes только для IPv6 (v1.8.x),
и, я думаю, самая большая проблема, которую необходимо решить, - это определить, включен ли IPv6, чтобы прекратить использование ClusterIP (10.32.xx) в кластерах.
@ valentin2105, не могли бы вы открыть проблему в k / k, чтобы отследить это, если вы считаете, что эту проблему следует решить?
https://github.com/kubernetes/kubernetes/issues
@danehans
Какие планы на это в 1.11?
Если да, не могли бы вы убедиться, что функция актуальна с соответствующими:
stage/{alpha,beta,stable}
sig/*
kind/feature
cc @idvoretskyi
@leblancd лидирует в области IPv6. Я позволю ему прокомментировать.
@justaugustus - Вероятно, это следует разбить на 2 отдельных вопроса:
Поддержка только IPv6: выпуск 1.9, альфа
Поддержка двух стеков: выпуск 1.11, альфа
Я думаю, что этой проблемы (№ 508) достаточно для поддержки IPv6-Only, а для двойного стека потребуется новая проблема.
/ kind feature
@leblancd
@justaugustus
Только IPv6 отлично работает с выпусками v1.9 и v1.10, а также с двойным стеком.
@justaugustus :
Проблема с функцией двойного стека
У этой функции нет вех, поэтому мы хотели бы проверить и посмотреть, есть ли какие-либо планы на это в Kubernetes 1.12.
Если да, убедитесь, что эта проблема актуальна и содержит ВСЕ следующую информацию:
Установите следующее:
После того, как эта функция будет соответствующим образом обновлена, пожалуйста, явным образом ping @justaugustus , @ kacole2 , @robertsandoval , @ rajendar38, чтобы отметить, что она готова для включения в электронную таблицу отслеживания функций для Kubernetes 1.12 .
Убедитесь, что все PR для функций также содержат соответствующие примечания к выпуску.
Удачной доставки!
PS Это было отправлено через автоматизацию
Привет @leblancd
Есть ли планы сделать бета-версию поддержки IPv6 в K8s 1.12? Если вы помните, я спрашивал о статусе поддержки двойного стека в https://github.com/kubernetes/features/issues/563. Поскольку над двойным стеком еще предстоит поработать, я пытаюсь понять, сможем ли мы жить только с поддержкой IPv6 на данный момент, но он все еще находится в альфа-версии, поэтому на случай, если вы можете сообщить ориентировочную дату, когда IPv6 может стать бета-версией / GA, это действительно будет полезно.
@ navjotsingh83 Что вам не хватает в отношении IPv6 в Kubernetes?
Привет @ valentin2105
Мы еще не настроили и не использовали IPv6 в K8s. Но прежде чем вдаваться в это, я разместил этот вопрос, потому что это все еще альфа-функция, поэтому даже она работает (что может быть), у нас не может быть альфа-функций в производстве. Сейчас мы находимся на этапе PoC / планирования относительно того, следует ли нам развертывать наше приложение на K8 или нет в следующем выпуске, поэтому в зависимости от того, когда функция станет бета-версией (по крайней мере) или GA (предпочтительно), мы примем решение go / no .
Привет @ navjotsingh83 - поддержка только IPv6 должна быть бета-версией в K8s 1.13. Чего не хватает для того, чтобы функция только IPv6 считалась бета-версией, так это Kubernetes IPv6-only CI, и это находится в разработке. Вот первоначальное предложение для K8s CI (с использованием виртуализированного многоузлового кластера в среде GCE): https://github.com/kubernetes/test-infra/pull/7529. Это предложение CI имеет поддержку, но группа test-infra попросила меня изменить это с использования кластера на основе GCE на развертывание многоузлового кластера непосредственно в контейнере Prow (чтобы исключить зависимость от операций GCE). Это приводит к архитектуре Docker-in-Docker-in-Docker, которую было немного сложно заставить работать. Я ожидаю, что в течение недели появится новый CI PR, который будет работать в локальном контейнере Prow, но затем потребуется еще один раунд проверок перед объединением.
Есть что-нибудь конкретное по поводу. поддержка двух стеков, которая вам нужна? Другими словами, если бы поддержка только IPv6 была бета / GA, было бы этого достаточно? Мне интересно услышать, соответствует ли то, что мы предложили в спецификации двойного стека, тому, что вам нужно.
Привет @leblancd @danehans
Это улучшение отслеживалось и раньше, поэтому мы хотели бы проверить и посмотреть, есть ли какие-либо планы по переходу этапов в Kubernetes 1.13. Этот выпуск нацелен на то, чтобы быть более «стабильным» и иметь агрессивные сроки. Пожалуйста, включайте это улучшение только в том случае, если есть высокий уровень уверенности, что оно будет соответствовать следующим срокам:
Документы (PR с открытыми заполнителями): 8/11
Кодекс Slush: 11/9
Начало замораживания кода: 15/11
Документы заполнены и проверены: 27 ноября
Уделите время, чтобы обновить вехи в исходном сообщении для будущего отслеживания, и ping лист отслеживания улучшений 1.13.
Мы также теперь поощряем то, что каждое новое улучшение согласуется с KEP. Если KEP был создан, пожалуйста, дайте ссылку на него в исходном сообщении или воспользуйтесь возможностью, чтобы разработать KEP.
Спасибо!
@leblancd спасибо за обновление, очень интересно. Рад видеть, что в версии 1.13 это наконец реализовано.
Привет,
Мне было интересно, каково текущее предполагаемое состояние поддержки IPv6? Если я попытаюсь запустить кластер, используя
kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64
В результате после этого сервер API становится недоступным:
root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
Проверка созданных контейнеров:
root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a55623e52447 k8s.gcr.io/pause:3.1 "/pause" 7 minutes ago Up 7 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33 ab81d7360408 "kube-scheduler --ad…" 24 minutes ago Up 24 minutes k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30 26e6f1db2a52 "kube-controller-man…" 24 minutes ago Up 24 minutes k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5 3cab8e1b9802 "etcd --advertise-cl…" 24 minutes ago Up 24 minutes k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
Кажется, что для 8080 нет сопоставления портов - разве не должно быть?
Привет @telmich!
Я мало что знаю о KubeADM, но знаю, что IPv6 в Kubernetes работает нормально.
Поскольку я вижу вашу команду, я предлагаю вам использовать скобки вокруг ваших адресов v6, например [2a0a: e5 ...]
Привет, @ valentin2105 !
Приятно слышать, что IPv6 должен работать, но как мне запустить кластер kubernetes без kubeadm?
Синтаксис Re []: обычно он используется для одного адреса ipv6, а не для диапазонов, и kubeadm сразу дает сбой при его использовании:
root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~#
Я нашел время, чтобы записать свои выводы на https://redmine.ungleich.ch/issues/6255, и в настоящее время я утверждаю, что на данный момент нет возможности настроить кластер только для IPv6 с помощью kubeadm.
Учитывая, что я новичок в k8s, мне интересно 2 вещи:
По последнему вопросу: я уже посмотрел на различные фазы kubeadm и попытался воспроизвести init, выполняя поэтапно, но что мне непонятно, когда / как изменить параметры etcd, apiserver, controller так что я могу контролировать его более мелкозернистый?
Вы должны отладить, какой компонент вылетает при запуске с помощью kubeadm, может быть, дело в CNI? Я не знаю, поддерживает ли мост хост-локальный IPv6 в cni.
Если вы хотите попробовать настроить только v6 и, возможно, сравнить с настройкой kubeadm, проверьте мой рецепт Saltstack, который работает в Ipv6, поскольку я использую его в нескольких кластерах только для v6.
https://github.com/valentin2105/Kubernetes-Saltstack
@danehans Привет! Я являюсь ведущим специалистом по усовершенствованию версии 1.14, и я проверяю эту проблему, чтобы узнать, какие работы (если таковые имеются) планируются для выпуска 1.14. Заморозка улучшений 29 января, и я хочу напомнить, что все улучшения должны иметь KEP
@claurence В планируется никаких работ по IPv6.
Привет @danehans! Я руководитель
Как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать.
@thockin @BenTheElder Я думаю, что в 1.15 возможно сделать кластеры только с ipv6 бета-версией.
Если мы объединим этот https://github.com/kubernetes-sigs/kind/pull/348, я смогу работать над неудачными тестами во время этого цикла https://github.com/kubernetes/kubernetes/issues/70248 и добавить задание в CI
Что вы думаете?
@ kacole2 К сожалению, я больше не работаю над IPv6.
Кто-нибудь работает над нативной (без двойного стека) поддержкой IPv6 в k8s?
@telmich Это должно быть возможно сегодня. Взгляните на https://github.com/leblancd/kube-v6, чтобы получить хорошее представление о текущем состоянии.
Привет, @danehans! Я тень улучшений для 1.16.
Будет ли эта функция переходить на стадии альфа / бета / стабильная версия 1.16? Пожалуйста, дайте мне знать, чтобы его можно было добавить в таблицу отслеживания 1.16 .
Как только разработка начнется или если она уже началась, перечислите все соответствующие PR в этом выпуске, чтобы их можно было должным образом отслеживать.
Я заметил, что в описании проблемы нет ссылки на KEP; Напоминаем, что для каждого улучшения требуется KEP в реализуемом состоянии с критериями градации, объясняющими требования к каждой альфа / бета / стабильной стадии.
Напоминаем, что контрольные даты 1.16: «Заморозка улучшений» 7/30 и «Заморозка кода» 8/29.
Спасибо!
@mariantalla Я больше не работаю над этой функцией. Вы можете попросить sig network узнать, не планирует ли кто-нибудь еще заниматься градацией функции.
@ lachie83, это то, что нужно
Ага. Позвольте мне внести это в повестку дня SIG-сетей
Я отправлю PR с KEP для перехода IPv6 в бета-версию в течение этого цикла
Спасибо @aojea , я добавлю оба (это и https://github.com/kubernetes/enhancements/issues/1138), как отслеживается для v1.16, с таргетингом на beta
и At Risk
пока KEP не сливается.
Вы согласны с тем, что я назначил вас владельцем и для решения этой проблемы и @danehans для сохранения его
@mariantalla 👍
Привет, @aojea Я руководитель выпуска документации
Требуются ли для этого улучшения (или работы, запланированной в версии 1.16) какие-либо новые документы (или модификации)?
Напоминаем, что нам нужен PR-адрес k / website (ветка dev-1.16) до пятницы, 23 августа. Было бы здорово, если бы это начало полной документации, но приемлем даже PR-заполнитель. Дайте знать, если у вас появятся вопросы!
Привет, @aojea Я руководитель выпуска документации
Требуются ли для этого улучшения (или работы, запланированной в версии 1.16) какие-либо новые документы (или модификации)?
Напоминаем, что нам нужен PR-адрес k / website (ветка dev-1.16) до пятницы, 23 августа. Было бы здорово, если бы это начало полной документации, но приемлем даже PR-заполнитель. Дайте знать, если у вас появятся вопросы!
@ neolit123 @timothysc Я думаю, что могу добавить раздел в документы kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm, например Configuring your Kubernetes cluster to use IPv6
, что ты думаешь? Работает ли это для вас?
@aojea
зависит от того, что вы планируете добавить в документы?
в этих разделах уже упоминается, что ipv6 поддерживается kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
/ assign @aojea
/ отменить назначение
Привет, @aojea - просто напомню, что Завтра улучшения замораживают. В настоящий момент это улучшение находится под угрозой, поскольку его KEP еще не объединен.
Я считаю, что KEP отслеживается в № 1138. Можем ли мы свернуть это в эту проблему?
в этих разделах уже упоминается, что ipv6 поддерживается kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
@simplytunde кажется, что документация, ориентированная на пользователя, уже покрыта
кажется, что документация, ориентированная на пользователя, уже покрыта
Я бы не сказал, что kubeadm - единственная пользовательская документация по поддержке IPv6, но буду полагаться на SIG Network и тех, кто поддерживает эту функцию.
@aojea @danehans @ lachie83
Заморозка улучшения перешла на 1.16. KEP по адресу # 1139 никогда не объединялся, и теперь его убирают с рубежа 1,16. Если вы хотите, чтобы это было добавлено повторно, подайте исключение, и для этого потребуется одобрение руководителя выпуска .
/ milestone clear
@ kacole2 спасибо за нацелимся на 1.17.
Привет, @aojea - 1.17 Здесь
Текущий график выпуска:
Понедельник, 23 сентября - начинается цикл выпуска.
Вторник, 15 октября, EOD (тихоокеанское стандартное время) - замораживание улучшений
Четверг, 14 ноября, EOD (тихоокеанское стандартное время) - Code Freeze
Вторник, 19 ноября - документы должны быть заполнены и проверены.
9 декабря, понедельник - релиз Kubernetes 1.17.0
Если вы это сделаете, как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать. 👍
Спасибо!
@mrbobbytables согласно KEP, отсутствует только одна вещь, это задание CI в облачном провайдере.
[x] У него есть CI с использованием тестовой среды kubernetes.
[] У него есть CI с использованием как минимум одного облачного провайдера.
Потрясающий. Добавлю его для отслеживания перехода к бета-версии 👍
Привет @aojea Я один из теней в документации v1.17.
Требуются ли для этого улучшения (или работы, запланированной в версии 1.17) какие-либо новые документы (или модификации существующих документов)? Если нет, не могли бы вы обновить лист отслеживания улучшений 1.17 (или дайте мне знать, и я сделаю это)
Если это так, просто дружеское напоминание, что мы ищем PR против k / website (ветка dev-1.17) к пятнице, 8 ноября, в настоящее время это может быть просто PR-агент. Дайте знать, если у вас появятся вопросы!
@irvifa
Не возражаете ли вы обновить лист отслеживания улучшений?
Нам не потребуется больше документов, как описано здесь https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858.
Хорошо, спасибо за подтверждение @aojea . Я обновил лист отслеживания по запросу.
Привет, @aojea , 1.17. Здесь ведутся улучшения 👋 Не похоже, что есть какие-то выдающиеся PR или что-то подобное, но как обстоят дела с последней задачей? "_У него есть CI с использованием хотя бы одного облачного провайдера_"
Привет, @aojea , 1.17 Здесь приводятся улучшения. Не похоже, что есть какие-то выдающиеся PR и тому подобное, но как обстоят дела с последней задачей? "_У него есть CI с использованием хотя бы одного облачного провайдера_"
это WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , но я не могу гарантировать, что смогу это сделать: man_shrugging:
👋 Привет, @aojea. Заморозка кода для цикла выпуска 1.17 состоится сегодня в 17:00 по тихоокеанскому времени.
Как вы думаете, https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 к тому времени будет объединен? 😬
Я знаю, что это не часть k / k и точно не подлежит замораживанию, но в идеале у нас к тому времени все будет готово.
давайте нацелимся на 1.18
Сделаю! Спасибо за быстрый ответ 👍
/ milestone v1.18
Привет @aojea - 1.18 Улучшения тени здесь. Я хотел проверить и посмотреть, будет ли это улучшение в версии 1.18 перейти на [альфа | бета | стабильная]?
Текущий график выпуска:
Понедельник, 6 января - начинается цикл выпуска
Вторник, 28 января, EOD (тихоокеанское стандартное время) - замораживание улучшений
Четверг, 5 марта, EOD (тихоокеанское стандартное время) - Code Freeze
Понедельник, 16 марта - документы должны быть заполнены и проверены.
24 марта, вторник - релиз Kubernetes 1.18.0
Для включения в выпуск это улучшение должно иметь объединенный KEP в статусе implementable
. KEP также должен иметь критерии выхода и план тестирования.
Если вы хотите включить это усовершенствование, как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было отслеживать должным образом. 👍
Мы будем отслеживать улучшения здесь: http://bit.ly/k8s-1-18-enhancements
Спасибо!
привет @kikisdeliveryservice
KEP был объединен https://github.com/kubernetes/enhancements/pull/1139 и составляет implementable
Отсутствует только один элемент:
У него есть CI с использованием как минимум одного облачного провайдера
и мы сможем перевести IPv6 в бета-версию в 1.18.
Копия: @ lachie83 @aramase
спасибо @aojea !
Привет @aojea -
Сет здесь, Докс - тень команды разработчиков версии 1.18.
Требуются ли для этой работы по усовершенствованию, запланированной в версии 1.18, какие-либо новые документы или модификации существующих документов?
Если нет, не могли бы вы обновить лист отслеживания улучшений 1.18 (или дайте мне знать, и я сделаю это)
Если требуются обновления документации, напомните, что PR-заполнители для k / website (ветка dev-1.18) должны быть выполнены к пятнице, 28 февраля.
Дайте знать, если у вас появятся вопросы!
@sethmccombs один вопрос,
Привет @aojea !
Напоминаем, что замораживание кодов - четверг, 5 марта. Не могли бы вы связать все PR k / k или любые другие PR, которые следует отслеживать для этого улучшения?
Спасибо!
Команда улучшений 1.18
@aramase у вас есть ссылка для отслеживания задания IPv6 в Azure, чтобы группа разработчиков могла отслеживать эту функцию?
@aojea - @karenhchu, как руководитель комм.)
Привет, @aojea @aramase, не могли бы вы
@jeremyrickard Я создал PR-заполнитель PR в test-infra для работы - https://github.com/kubernetes/test-infra/pull/16461
Другие PR, которые нужно будет объединить раньше -
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781
Я заканчиваю тестирование и удаляю WIP.
Привет, @aojea @aramase
Крайний срок PR - завтра. Если для этого улучшения требуется файл doc. Пожалуйста, поднимите PR-заполнитель для ветки dev-1.18 как можно скорее.
Спасибо!
/ milestone clear
Привет, @aojea @aramase, так как для этого улучшения нет PR-заполнителя документации, и мы не получали никаких обновлений на фронте документации. мы перешли крайний срок PR для заполнителя документации. Поэтому мы удаляем это улучшение из версии 1.18. Если вы хотите запросить исключение. См. Https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md
Спасибо!
Извините, обновление документации не требуется: smile:
/ milestone v1.18
Какая функция IPv6 реализована в Kubernetes 1.18? Это двойной стек или IPv6 только перешел на бета-версию?
Я запутался, потому что в документации ничего не изменилось.
Какая функция IPv6 реализована в Kubernetes 1.18? Это двойной стек или IPv6 только перешел на бета-версию?
Я запутался, потому что в документации ничего не изменилось.
Эта проблема отслеживает только ipv6, бета-версия перешла в 1.18
Двойной стек является альфа-версией и отслеживается в другом выпуске / KEP
/ milestone clear
(устранение этой проблемы улучшения из этапа v1.18 по завершении этапа)
Привет, @aojea @danehans!
1.19 Улучшения тени здесь. Я хотел проверить и узнать, выйдет ли это улучшение в версии 1.19?
Чтобы получить эту часть релиза:
The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.
Текущий график выпуска:
Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released
Пожалуйста, дайте мне знать, и я добавлю его в лист отслеживания 1.19 (http://bit.ly/k8s-1-19-enhancements). Как только начнется кодирование, перечислите все соответствующие PR в этом выпуске, чтобы их можно было правильно отслеживать. 👍
Спасибо!
Спасибо @kikisdeliveryservice , но я думаю, что теперь мы должны сосредоточиться на двойном стеке.
В этом выпуске изменений нет
Проблемы устаревают после 90 дней бездействия.
Отметьте проблему как новую с помощью /remove-lifecycle stale
.
Устаревшие выпуски гниют после дополнительных 30 дней бездействия и в конечном итоге закрываются.
Если сейчас проблему можно безопасно закрыть, сделайте это с помощью /close
.
Отправьте отзыв в sig-testing, kubernetes / test-infra и / или fejta .
/ жизненный цикл устаревший
/ remove-жизненный цикл устаревший
Привет, @aojea @danehans
Улучшения ведут сюда. Есть ли в планах перейти к версии 1.20?
Спасибо,
Кирстен
Привет, @aojea @danehans
Улучшения ведут сюда. Есть ли в планах перейти к версии 1.20?
нету: улыбка:
Спасибо за обновления!
Есть ли документация о том, как проверить операции только с ipv6? Google привел меня только к двойному стеку ipv4 или ipv6.
Есть ли документация о том, как проверить операции только с ipv6? Google привел меня только к двойному стеку ipv4 или ipv6.
что вы имеете в виду под "подтверждением"?
Установка только для IPv6 такая же, как и для IPv4, только вам нужно использовать IPv6-адреса и подсети в вашей конфигурации, никаких дополнительных изменений не требуется.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
Могу подтвердить. Я запускаю 1.17.x в режиме только ipv6. Просто следуйте руководству по IPv4 и используйте адреса IPv6. Вот в основном это.
Самый полезный комментарий
/ milestone v1.18