Enhancements: Se agregó compatibilidad con IPv6

Creado en 1 nov. 2017  ·  99Comentarios  ·  Fuente: kubernetes/enhancements

Característica Descripción

  • Descripción de la función de una línea (se puede usar como nota de la versión): agrega soporte para IPv6, lo que permite capacidades completas de Kubernetes usando redes IPv6 en lugar de redes IPv4.
  • Contacto principal (cesionario): @danehans
  • Responsables SIG: sig-network
  • Propuesta de mejora de Kubernetes PR: n.º 1139
  • Revisores: (para LGTM) recomiendan tener más de 2 revisores (al menos uno del archivo de PROPIETARIOS de área de código) que estén de acuerdo para revisar. Revisores de varias empresas preferidos: @thockin @bowei @luxas
  • Aprobador (probablemente de SIG / área a la que pertenece la función): @thockin
  • Objetivo de función (qué objetivo es igual a qué hito):

    • Objetivo de lanzamiento alfa 1.9

kinfeature sinetwork stagbeta trackeno

Comentario más útil

/ hito v1.18

Todos 99 comentarios

@danehans ¡ Gracias por presentar este problema de función!
cc @idvoretskyi FYI

@danehans : wave: indíquelo en el panel de seguimiento de funciones 1.9
si esta función necesita documentación. En caso afirmativo, abra un PR y agregue un enlace a la hoja de cálculo de seguimiento. ¡Gracias por adelantado!

@zacharysarah Solo tengo acceso a comentarios al panel de seguimiento de funciones 1.9, así que agregué comentarios para el requisito de documentos IPv6.

cc: @mmueen

@zacharysarah, ¿el registro de cambios de la versión 1.9 debe actualizarse manualmente para hacer referencia a cualquiera de los IPv6 PR o https://github.com/kubernetes/kubernetes/issues/1443?

@danehans Cuando dices registro de cambios, ¿te refieres a las notas de la versión?

/ cc @ Bradamant3 para la visibilidad de las notas de la versión

Sí, estoy tratando de entender si es necesario agregar algo a las notas de la versión 1.9 y, de ser así, qué proceso seguir. Gracias.

Esto debería tener una nota de lanzamiento

/ cc @ Bradamant3 @nickchase ¡Visibilidad de la nota de lanzamiento! ☝️

El borrador de la nota de lanzamiento de
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit

Puede seguir las instrucciones en la parte superior del documento.

xref: https://groups.google.com/forum/#!topic/kubernetes -sig-release / x6ySPIJkMN4 por @enisoc

@xiangpengzhao He actualizado las notas de la versión 1.9 con los detalles de soporte de ipv6. Por favor, avíseme si se requiere contenido adicional de ipv6 para las notas de la versión 1.9.

@danehans Creo que los detalles que agregaste son lo suficientemente buenos: +1:. Pero personalmente me gustaría ver los RP asociados (si existen) para las viñetas.

  • Se ha agregado compatibilidad con IPv6 alfa. Los detalles notables de compatibilidad con IPv6 incluyen:

    • Compatibilidad con implementaciones de clústeres de Kubernetes solo para IPv6. Esta función no proporciona soporte de doble pila.

    • Soporte para planos de datos y control de IPv6 Kubernetes.

    • Compatibilidad con implementaciones de clústeres IPv6 de Kubernetes mediante kubeadm.

    • Soporte para el backend de iptables kube-proxy usando ip6tables.

    • Se basa en binarios CNI 0.6.0 para redes de pods IPv6.

    • Aunque otros complementos de CNI son compatibles con IPv6, solo se han probado los complementos de puente CNI y local-ipam para la versión alfa.

    • Agrega compatibilidad con IPv6 para kube-dns usando registros SRV.

    • Advertencias

    • Los HostPorts no son compatibles.

    • Una máscara de red IPv6 para la red cidr de pod o clúster debe ser / 66 o más. Por ejemplo: 2001: db1 :: / 66, 2001: dead: beef :: / 76, 2001: cafe :: / 118 son compatibles. 2001: db1 :: / 64 no es compatible

      ''

@danehans Eché otro vistazo a la nota de la versión y descubrí que pusiste los detalles de ipv6 en la sección Before Upgrading . No creo que debamos ponerlos ahí.

@xiangpengzhao La única preocupación que tengo es que se usaron varios RP para las diferentes viñetas.

@xiangpengzhao He movido el contenido de IPv6 para las notas de la versión 1.9. Hágame saber si tiene más inquietudes.

@danehans That LGTM :)

Utilizo Kubernetes solo en IPv6 (v1.8.x) desde hace un tiempo,
y el mayor problema a resolver, creo, es detectar si IPv6 está habilitado para dejar de usar ClusterIPs (10.32.xx) en clústeres.

@ valentin2105 ¿puede abrir un problema en k / k para rastrear esto si cree que es un problema que debe resolverse?
https://github.com/kubernetes/kubernetes/issues

@danehans
¿Algún plan para esto en 1.11?

Si es así, ¿puede asegurarse de que la función esté actualizada con lo siguiente?

  • Descripción
  • Hito
  • Cesionario (s)
  • Etiquetas:

    • stage/{alpha,beta,stable}

    • sig/*

    • kind/feature

cc @idvoretskyi

@leblancd lidera la carga de IPv6. Dejaré que comente.

@justaugustus : esto probablemente debería dividirse en 2 problemas separados:
Soporte solo para IPv6: Versión 1.9, Alpha
Compatibilidad con doble pila: versión 1.11, Alpha
Creo que este problema (n. ° 508) es suficiente para el soporte de solo IPv6, y se necesitará un nuevo problema para doble pila.

/ tipo de característica

@leblancd

  • ¿Se está planificando algún trabajo para el soporte exclusivo de IPv6 en la versión 1.11? Si es así, ¿puede informarnos si está rastreando alfa, beta o estable, para que podamos establecer el hito?
  • ¿Le importaría abrir un problema con los detalles apropiados para la compatibilidad con Dual-Stack?

@justaugustus
Solo IPv6 funciona bien en versiones v1.9 y v1.10 y también en pila dual.

Esta característica actual no tiene ningún hito, por lo que nos gustaría verificar y ver si hay algún plan para esto en Kubernetes 1.12.

Si es así, asegúrese de que este problema esté actualizado con TODA la siguiente información:

  • Descripción de la función de una línea (se puede utilizar como nota de la versión):
  • Contacto principal (cesionario):
  • SIG responsables:
  • Enlace de propuesta de diseño (repositorio comunitario):
  • Enlace a e2e y / o pruebas unitarias:
  • Revisores: (para LGTM) recomiendan tener más de 2 revisores (al menos uno del archivo de PROPIETARIOS de área de código) que estén de acuerdo para revisar. Los revisores de varias empresas prefieren:
  • Aprobador (probablemente de SIG / área a la que pertenece la característica):
  • Objetivo de función (qué objetivo es igual a qué hito):

    • Objetivo de liberación alfa (xy)

    • Objetivo de lanzamiento beta (xy)

    • Objetivo de liberación estable (xy)

Configure lo siguiente:

  • Descripción
  • Cesionario (s)
  • Etiquetas:

    • etapa / {alfa, beta, estable}

    • sig / *

    • tipo / característica

Una vez que esta función se haya actualizado adecuadamente, haga ping explícitamente a @ kacole2 , @robertsandoval , @ rajendar38 para tener en cuenta que está lista para incluirse en la hoja de cálculo de seguimiento de funciones para Kubernetes 1.12 .


Tenga en cuenta que la congelación de funciones es mañana, 31 de julio , después de lo cual cualquier problema de funciones incompletas requerirá que se acepte una solicitud de excepción en el hito.

Además, tenga en cuenta los siguientes plazos relevantes:

  • Fecha límite de documentos (RRPP de marcador de posición abierto): 21 de agosto
  • Congelación de casos de prueba: 8/28

Asegúrese de que todos los RP de las funciones también incluyan notas de la versión relevantes.

¡Feliz envío!

PD: esto se envió a través de la automatización

Hola @leblancd

¿Hay algún plan para hacer que el soporte de IPv6 sea beta en K8s 1.12? Si recuerda, le había preguntado sobre el estado de soporte de doble pila en https://github.com/kubernetes/features/issues/563. Como la pila dual todavía tiene más trabajo por hacer, estoy tratando de averiguar si solo podemos vivir con el soporte de IPv6 a partir de ahora, pero todavía está en alfa, por lo que en caso de que pueda compartir una fecha tentativa sobre cuándo IPv6 puede convertirse en beta / GA, será de gran ayuda.

@ navjotsingh83 ¿Qué punto le falta sobre IPv6 en Kubernetes?

Hola @ valentin2105

Todavía no hemos configurado ni utilizado IPv6 en K8s. Pero antes de entrar en eso, la razón por la que publiqué esta pregunta es porque todavía es una función alfa, por lo que incluso si funciona (lo que podría ser), no podemos tener funciones alfa en producción. Ahora estamos en la fase de PoC / planificación sobre si debemos implementar nuestra aplicación en K8 o no en la próxima versión, por lo que, en función de cuándo la función se convertirá en beta (al menos) o GA (preferida), tomaremos una decisión de ir / no. .

Hola @ navjotsingh83 : el soporte solo para IPv6 debería ser Beta en K8s 1.13. Lo que falta para que la función solo para IPv6 se considere Beta es el CI de Kubernetes solo para IPv6, y esto está en proceso. Aquí está la propuesta inicial para un CI K8s (usando un clúster multinodo virtualizado en un entorno GCE): https://github.com/kubernetes/test-infra/pull/7529. Esta propuesta de CI tiene tracción, pero el grupo de prueba-infra me pidió que cambiara esto de usar un clúster basado en GCE a implementar un clúster multinodo directamente en un contenedor Prow (para eliminar la dependencia de las operaciones de GCE). Esto da como resultado una arquitectura Docker-in-Docker-in-Docker, que ha sido un poco difícil de poner en funcionamiento. Espero tener un nuevo CI PR dentro de una semana que se ejecute dentro de un contenedor Prow local, pero luego necesitará otra ronda de revisiones antes de fusionarse.

¿Hay algo específico re. soporte de doble pila que necesita? En otras palabras, si el soporte solo para IPv6 fuera beta / GA, ¿sería suficiente? Me interesa saber si lo que hemos propuesto en la especificación de doble pila va por buen camino para lo que necesita.

Hola @leblancd @danehans
Esta mejora ya se ha rastreado antes, por lo que nos gustaría verificar y ver si hay algún plan para que esto gradúe las etapas en Kubernetes 1.13. Esta versión está destinada a ser más "estable" y tendrá una línea de tiempo agresiva. Incluya esta mejora solo si existe un alto nivel de confianza en que cumplirá con los siguientes plazos:
Documentos (RRPP de marcador de posición abierto): 8/11
Código Slush: 11/9
Comienza la congelación de código: 15/11
Documentos completos y revisados: 27/11

Tómese un momento para actualizar los hitos en su publicación original para un seguimiento futuro y haga ping a hoja de seguimiento de mejoras 1.13

Ahora también alentamos que cada nueva mejora se alinee con un KEP. Si se ha creado un KEP, conéctelo en la publicación original o aproveche la oportunidad para desarrollar un KEP.

¡Gracias!

@leblancd gracias por la actualización aquí, muy interesante. Me alegra ver que esto finalmente se hace realidad con 1.13.

Hola,

Me preguntaba cuál es el supuesto estado actual de la compatibilidad con IPv6. Si intento arrancar un clúster usando

kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64

El resultado es que no se puede acceder al servidor API después:

root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?

Comprobando los contenedores creados:

root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps 
CONTAINER ID        IMAGE                  COMMAND                  CREATED             STATUS              PORTS               NAMES
a55623e52447        k8s.gcr.io/pause:3.1   "/pause"                 7 minutes ago       Up 7 minutes                            k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33        ab81d7360408           "kube-scheduler --ad…"   24 minutes ago      Up 24 minutes                           k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30        26e6f1db2a52           "kube-controller-man…"   24 minutes ago      Up 24 minutes                           k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5        3cab8e1b9802           "etcd --advertise-cl…"   24 minutes ago      Up 24 minutes                           k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0

Parece que no hay mapeo de puertos para 8080, ¿no debería haber uno?

Hola @telmich ,

No sé mucho sobre KubeADM, pero lo que sé es que IPv6 en Kubernetes funciona bien.

Como veo su comando, le sugeriré que use corchetes alrededor de sus direcciones v6 como [2a0a: e5 ...]

¡Hola @ valentin2105 !

Es genial escuchar que IPv6 debería funcionar, pero ¿cómo podría iniciar un clúster de kubernetes sin kubeadm?

Sintaxis re []: esto se usa generalmente para una sola dirección ipv6, no para rangos y kubeadm falla de inmediato al usarlo:

root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~# 

Me tomé el tiempo para escribir mis hallazgos hasta ahora en https://redmine.ungleich.ch/issues/6255 y actualmente afirmo que no hay forma de configurar un clúster solo IPv6 usando kubeadm en este momento.

Dado que soy un novato en k8s, me pregunto 2 cosas:

  • ¿Me equivoco con mi reclamo?
  • Si tengo razón sobre mi reclamo, ¿cómo configuro un clúster de Kubernetes en modo solo IPv6?

Para la última pregunta: ya eché un vistazo a las diferentes fases de kubeadm e intenté replicar el init haciendo fase por fase, pero lo que no me queda claro, cuándo / cómo modificar las opciones para etcd, apiserver, controller para que pueda controlarlo de forma más fina?

Debería depurar qué componente se bloquea mientras lo ejecuta con kubeadm, ¿tal vez se trate de CNI? No sé si el puente host-local admite IPv6 en cni.

Si desea intentar configurar solo v6 y tal vez comparar con su configuración de kubeadm, verifique mi receta de Saltstack que funciona en Ipv6 ya que la uso en algunos clústeres solo de v6.
https://github.com/valentin2105/Kubernetes-Saltstack

@danehans Hola: Soy el líder de la mejora para la versión 1.14 y estoy revisando este problema para ver qué trabajo (si corresponde) se está planificando para la versión 1.14. La congelación de las mejoras es el 29 de enero y quiero recordar que todas las mejoras deben tener un KEP

@claurence No se está planificando ningún trabajo de IPv6 para 1.14.

Hola @danehans , soy el líder de mejora de 1.15. ¿Esta característica va a graduar las etapas alfa / beta / estable en 1.15? Házmelo saber para poder realizar un seguimiento adecuado y agregarlo a la hoja de cálculo. Todas las mejoras también requieren un KEP antes de ser promocionadas.

Una vez que comience la codificación, enumere todos los RP k / k relevantes en este número para que se puedan rastrear correctamente.

@thockin @BenTheElder Creo que puede ser factible graduar los clústeres solo de ipv6 como beta en 1.15.
Si fusionamos esto https://github.com/kubernetes-sigs/kind/pull/348 puedo trabajar en las pruebas fallidas durante este ciclo https://github.com/kubernetes/kubernetes/issues/70248 y agregar un trabajo a la CI
¿Qué piensas?

@ kacole2 Desafortunadamente, ya no trabajo en IPv6.

¿Alguien está trabajando en soporte de IPv6 nativo (no dual stack) en k8s?

@telmich Esto debería ser posible hoy. Eche un vistazo a https://github.com/leblancd/kube-v6 para obtener una buena descripción del estado actual.

Hola @danehans : soy una sombra de Mejoras para 1.16.

¿Esta función va a graduar las etapas alfa / beta / estable en 1.16? Por favor, avíseme para que se pueda agregar a la hoja de cálculo de seguimiento 1.16 .

Una vez que comience el desarrollo o si ya lo ha hecho, enumere todos los RP k / k relevantes en este número para que se puedan rastrear correctamente.

Noté que no hay ningún vínculo KEP en la descripción del problema; Como recordatorio, cada mejora requiere un KEP en un estado implementable con los Criterios de graduación que explican los requisitos de cada etapa alfa / beta / estable.

Como recordatorio, las fechas de hitos de 1.16 son: Enhancement Freeze 7/30 y Code Freeze 8/29.

¡Gracias!

@mariantalla Ya no estoy trabajando en la función. Es posible que desee preguntarle a la red sig para ver si alguien más está planeando manejar la graduación de la función.

@ lachie83 esto es algo para mencionar con SIG-Network en sus reuniones.

Sí. Permítanme incluir esto en la agenda de redes SIG

Enviaré un PR con un KEP para graduar IPv6 a Beta durante este ciclo

Gracias @aojea , beta y At Risk mientras que KEP no se fusiona.

¿Está bien que le asigne como propietario para este problema también y que anule la asignación de

@mariantalla 👍

Hola, @aojea soy el líder de lanzamiento de documentos v1.16.

¿Esta mejora (o el trabajo planificado para v1.16) requiere algún documento nuevo (o modificaciones)?

Solo un recordatorio amistoso que estamos buscando un PR contra k / website (branch dev-1.16) para el viernes 23 de agosto. Sería genial si es el comienzo de la documentación completa, pero incluso un PR de marcador de posición es aceptable. ¡Hazme saber si tienes alguna pregunta!

Hola, @aojea soy el líder de lanzamiento de documentos v1.16.

¿Esta mejora (o el trabajo planificado para v1.16) requiere algún documento nuevo (o modificaciones)?

Solo un recordatorio amistoso que estamos buscando un PR contra k / website (branch dev-1.16) para el viernes 23 de agosto. Sería genial si es el comienzo de la documentación completa, pero incluso un PR de marcador de posición es aceptable. ¡Hazme saber si tienes alguna pregunta!

@ neolit123 @timothysc Creo que puedo agregar una sección a los documentos de kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm como Configuring your Kubernetes cluster to use IPv6 , ¿qué te parece? ¿Funciona para ti?

@aojea
depende de lo que planeas agregar a los documentos?

estas secciones ya mencionan que ipv6 es compatible con kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

/ asignar @aojea
/ anular la asignación de

Hola @aojea , solo un recordatorio rápido de que Enhancements Freeze es mañana. Esta mejora está en riesgo en este momento, porque su KEP aún no se ha fusionado.

Creo que se está rastreando el KEP en el n. ° 1138. ¿Podemos colapsar eso en este tema?

estas secciones ya mencionan que ipv6 es compatible con kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

@simplytunde parece que la documentación de cara al usuario ya está cubierta

parece que la documentación de cara al usuario ya está cubierta

Yo no diría que kubeadm es la única documentación de cara al usuario para el soporte de IPv6, pero se referirá a SIG Network y los mantenedores de esta función.

@aojea @danehans @ lachie83
Enhancement Freeze ha pasado por 1,16. El KEP en el n. ° 1139 nunca se fusionó y ahora se eliminará del hito de 1,16. Si desea volver a agregarlo, presente una excepción y requerirá la aprobación del líder de lanzamiento .

/ hito claro

@ kacole2 gracias por el seguimiento,

Hola @aojea - 1.17 Las mejoras conducen aquí. Quería registrarme y ver si crees que esta Mejora se graduará en alfa / beta / estable en 1.17.

El calendario de lanzamiento actual es:

Lunes 23 de septiembre: comienza el ciclo de lanzamiento
Martes, 15 de octubre, EOD PST - Congelación de mejoras
Jueves, 14 de noviembre, EOD PST - Code Freeze
Martes 19 de noviembre: los documentos deben completarse y revisarse
Lunes 9 de diciembre: lanzamiento de Kubernetes 1.17.0

Si lo hace, una vez que comience la codificación, enumere todos los RP k / k relevantes en este número para que se puedan rastrear correctamente. 👍

¡Gracias!

@mrbobbytables según el KEP, solo falta una cosa que es el trabajo de CI en un proveedor de nube

IPv6 graduándose a beta

Criterios de graduación

Impresionante. Lo agregará para que se registre como graduado a beta 👍

Hola @aojea , soy una de las sombras de los documentos v1.17.
¿Esta mejora para (o el trabajo planificado para v1.17) requiere algún documento nuevo (o modificaciones a los documentos existentes)? Si no es así, ¿puede actualizar la hoja de seguimiento de mejoras 1.17 (o avíseme y lo haré)?

Si es así, solo un recordatorio amistoso de que estamos buscando un PR contra k / website (branch dev-1.17) que vence el viernes 8 de noviembre, puede ser un PR de marcador de posición en este momento. ¡Hazme saber si tienes alguna pregunta!

@irvifa
¿Le importaría actualizar la hoja de seguimiento de mejoras?
No necesitaremos más documentos como se explica aquí https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858

Vale, gracias por la confirmación @aojea . Actualicé la hoja de seguimiento según lo solicitado.

Hola @aojea , 1.17 Las mejoras conducen aquí 👋 No parece que haya k / k PR o similares que sean sobresalientes, pero ¿cómo se ven las cosas con respecto a la última tarea? "_Tiene CI usando al menos un proveedor de nube_"

Hola @aojea , 1.17 Las mejoras conducen aquí. No parece que haya k / k PRs o similares que sean sobresalientes, pero ¿cómo están las cosas con respecto a la última tarea? "_Tiene CI usando al menos un proveedor de nube_"

es WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , pero no puedo garantizar que pueda hacerlo: man_shrugging:

👋 Hola @aojea. La congelación del código es hoy a las 5 pm PT para el ciclo de lanzamiento de 1.17.
¿Crees que https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 se fusionará para entonces? 😬

Sé que no es parte de k / k y no está exactamente sujeto a la congelación, pero lo ideal sería que lo tuviéramos todo para entonces.

Apuntemos a 1.18

¡Servirá! Gracias por la rápida respuesta 👍
/ hito v1.18

Hola @aojea - 1.18 Mejoras en la sombra aquí. Quería registrarme y ver si crees que esta Mejora se graduará en [alpha | beta | estable] en 1.18.
El calendario de lanzamiento actual es:
Lunes 6 de enero: comienza el ciclo de lanzamiento
Martes 28 de enero EOD PST - Congelación de mejoras
Jueves, 5 de marzo, EOD PST - Code Freeze
Lunes 16 de marzo: los documentos deben completarse y revisarse
Martes 24 de marzo: lanzamiento de Kubernetes 1.18.0
Para ser incluido en el lanzamiento, esta mejora debe tener un KEP combinado en el estado implementable . El KEP también debe tener un criterio de graduación y un plan de pruebas definido.
Si desea incluir esta mejora, una vez que comience la codificación, enumere todos los RP k / k relevantes en este número para que se puedan rastrear correctamente. 👍
Seguiremos las mejoras aquí: http://bit.ly/k8s-1-18-enhancements
¡Gracias!

hola @kikisdeliveryservice
El KEP se fusionó https://github.com/kubernetes/enhancements/pull/1139 y es implementable

Solo falta un elemento:

Tiene CI usando al menos un proveedor de nube

y podremos graduar IPv6 a beta en 1.18

cc: @ lachie83 @aramase

gracias @aojea !

Hola @aojea -

Aquí Seth, Docs sigue al equipo de lanzamiento de la versión 1.18.

¿Este trabajo de mejora planificado para la versión 1.18 requiere algún documento nuevo o modificaciones a los documentos existentes?

Si no es así, ¿puede actualizar la hoja de seguimiento de mejoras 1.18 (o avíseme y lo haré)?

Si se requieren actualizaciones de documentos, recuerde que los PR de marcador de posición en el sitio web k / (sucursal dev-1.18) vencen antes del viernes 28 de febrero.

¡Hazme saber si tienes alguna pregunta!

@sethmccombs una pregunta, ¿una publicación de blog sobre la función cuenta como una actualización de documento?

Hola @aojea !

Como recordatorio, el Code Freeze es el jueves 5 de marzo. ¿Puede vincular todos los RP de k / k o cualquier otro RP que deba ser rastreado para esta mejora?

¡Gracias!
El equipo de mejoras de 1.18

@aramase , ¿tiene un vínculo para rastrear el trabajo de IPv6 en Azure, para que el equipo de mejoras pueda rastrear la característica?

@aojea : el repositorio del sitio web contiene publicaciones de blog, pero el proceso de publicación para ellos es un poco diferente al de los documentos regulares, puedo obtener más información (CC-ing @karenhchu como líder de comunicaciones)

oye @aojea @aramase, ¿ podrías vincularnos a ese PR para el trabajo de IPv6 en Azure para nosotros?

@jeremyrickard He creado el marcador de posición PR en test-infra para el trabajo: https://github.com/kubernetes/test-infra/pull/16461

Otros RP que deberán fusionarse antes:
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781

Estoy terminando de probar y luego eliminaré los WIP.

Hola @aojea @aramase
Como marcador de posición de documentos, la fecha límite de relaciones públicas es mañana. Si esta mejora necesita docs. Genere un marcador de posición PR contra la rama dev-1.18 lo antes posible.

¡Gracias!

/ hito claro

Hola, @aojea @aramase, ya que no hay PR de marcador de posición de documentos para esta mejora y no recibí ninguna actualización en el frente de los documentos. hemos cruzado la fecha límite de relaciones públicas del marcador de posición de documentos. Por lo tanto, eliminaremos esta mejora de la versión 1.18. Si desea solicitar una excepción. Consulte https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md

¡Gracias!

Lo sentimos, no es necesario actualizar el documento: smile:

/ hito v1.18

¿Qué función de IPv6 llegó a Kubernetes 1.18? ¿Es doble pila o IPv6 solo se graduó a beta?
Estoy confundido porque nada cambió en los documentos.

¿Qué función de IPv6 llegó a Kubernetes 1.18? ¿Es doble pila o IPv6 solo se graduó a beta?
Estoy confundido porque nada cambió en los documentos.

Este problema solo rastrea ipv6, se graduó a beta en 1.18

La pila dual es alfa y se rastrea en otro problema / KEP

/ hito claro

(eliminando este problema de mejora del hito v1.18 cuando se complete el hito)

Hola @aojea @danehans ,

1.19 Mejoras en la sombra aquí. Quería registrarme y ver si crees que esta Mejora se graduará en 1.19.

Para tener esta parte del lanzamiento:

The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.

El calendario de lanzamiento actual es:

Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released

Házmelo saber y lo agregaré a la hoja de seguimiento 1.19 (http://bit.ly/k8s-1-19-enhancements). Una vez que comience la codificación, enumere todos los RP k / k relevantes en este número para que se puedan rastrear correctamente. 👍

¡Gracias!

Gracias @kikisdeliveryservice , pero creo que deberíamos centrarnos ahora en doble pila.
No hay cambios aquí durante este lanzamiento.

Los problemas se vuelven obsoletos después de 90 días de inactividad.
Marque el problema como nuevo con /remove-lifecycle stale .
Los problemas obsoletos se pudren después de 30 días adicionales de inactividad y finalmente se cierran.

Si es seguro cerrar este problema ahora, hágalo con /close .

Envíe sus comentarios a sig-testing, kubernetes / test-infra y / o fejta .
/ ciclo de vida obsoleto

/ remove-lifecycle stale

Hola @aojea @danehans

Las mejoras conducen aquí. ¿Algún plan para graduar esto en 1.20?

Gracias,
Kirsten

Hola @aojea @danehans

Las mejoras conducen aquí. ¿Algún plan para graduar esto en 1.20?

nope: sonrisa:

¡gracias por la actualización!

¿Existe alguna documentación sobre cómo verificar las operaciones de solo ipv6? google solo me lleva a ipv4 o ipv6 dualstack.

¿Existe alguna documentación sobre cómo verificar las operaciones de solo ipv6? google solo me lleva a ipv4 o ipv6 dualstack.

¿Qué quieres decir con "verificar"?

La instalación solo para IPv6 es la misma que en IPv4, solo necesita usar direcciones IPv6 y subredes en su configuración, no se necesitan cambios adicionales.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node

Puede confirmar. Ejecuto 1.17.x en modo solo ipv6. Simplemente siga la guía de IPv4 y use direcciones IPv6. Eso es básicamente todo.

¿Fue útil esta página
0 / 5 - 0 calificaciones

Temas relacionados

justaugustus picture justaugustus  ·  3Comentarios

xing-yang picture xing-yang  ·  13Comentarios

povsister picture povsister  ·  5Comentarios

boynux picture boynux  ·  3Comentarios

justaugustus picture justaugustus  ·  7Comentarios