Enhancements: Suporte IPv6 adicionado

Criado em 1 nov. 2017  ·  99Comentários  ·  Fonte: kubernetes/enhancements

Descrição do Recurso

  • Descrição de recurso de uma linha (pode ser usada como uma nota de lançamento): Adiciona suporte para IPv6, permitindo recursos completos do Kubernetes usando rede IPv6 em vez de rede IPv4.
  • Contato principal (cessionário): @danehans
  • SIGs responsáveis: sig-network
  • PR da proposta de aprimoramento do Kubernetes: nº 1139
  • Revisor (es) - (para LGTM) recomendam que mais de 2 revisores (pelo menos um do arquivo OWNERS da área de código) concordem em revisar. Revisores de várias empresas preferem: @thockin @bowei @luxas
  • Aprovador (provavelmente do SIG / área à qual o recurso pertence): @thockin
  • Meta de recurso (qual meta é igual a qual marco):

    • Meta de lançamento alfa 1.9

kinfeature sinetwork stagbeta trackeno

Comentários muito úteis

/ milestone v1.18

Todos 99 comentários

@danehans Obrigado por registrar este problema de recurso!
cc @idvoretskyi FYI

@danehans : wave: Por favor, indique no quadro de rastreamento de recursos 1.9
se esse recurso precisa de documentação. Em caso afirmativo, abra um PR e adicione um link para a planilha de acompanhamento. Desde já, obrigado!

@zacharysarah Eu só tenho acesso para comentários no quadro de rastreamento de recursos 1.9, então adicionei comentários para o requisito de documentos IPv6.

cc: @mmueen

@zacharysarah o changelog da versão 1.9 precisa ser atualizado manualmente para fazer referência a qualquer um dos PRs IPv6 ou https://github.com/kubernetes/kubernetes/issues/1443?

@danehans Quando você diz changelog, quer dizer as notas de lançamento?

/ cc @ Bradamant3 para visibilidade das notas de lançamento

Sim, estou tentando entender se algo precisa ser adicionado às notas de versão 1.9 e, em caso afirmativo, qual processo seguir. Obrigada.

Isso deve ter uma nota de lançamento

/ cc @ Bradamant3 @nickchase Visibilidade da nota de lançamento! ☝️

O rascunho da nota de versão do
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit

Você pode seguir as orientações na parte superior do documento.

xref: https://groups.google.com/forum/#!topic/kubernetes -sig-release / x6ySPIJkMN4 por @enisoc

@xiangpengzhao Eu atualizei as notas de versão 1.9 com os detalhes de suporte do ipv6. Informe-me se o conteúdo add'l ipv6 é necessário para as notas de versão 1.9.

@danehans Acho que os detalhes que você adicionou são bons o suficiente: +1:. Mas, pessoalmente, gostaria de ver os PRs associados (se existentes) para os marcadores.

  • Suporte a IPv6 alpha foi adicionado. Os detalhes notáveis ​​do suporte IPv6 incluem:

    • Suporte para implantações de cluster Kubernetes somente IPv6. Este recurso não oferece suporte para pilha dupla.

    • Suporte para controle de Kubernetes IPv6 e planos de dados.

    • Suporte para implantações de cluster IPv6 do Kubernetes usando kubeadm.

    • Suporte para o backend kube-proxy do iptables usando ip6tables.

    • Depende de binários CNI 0.6.0 para rede de pod IPv6.

    • Embora outros plug-ins CNI suportem IPv6, apenas a ponte CNI e os plug-ins local-ipam foram testados para a versão alfa.

    • Adiciona suporte IPv6 para kube-dns usando registros SRV.

    • Ressalvas

    • HostPorts não são suportados.

    • Uma máscara de rede IPv6 para rede pod ou cluster cidr deve ser / 66 ou mais. Por exemplo: 2001: db1 :: / 66, 2001: dead: beef :: / 76, 2001: cafe :: / 118 são suportados. 2001: db1 :: / 64 não é compatível

      `` `

@danehans Dei outra olhada na nota de lançamento e descobri que você colocou os detalhes do ipv6 na seção Before Upgrading . Não acho que devemos colocá-los lá.

@xiangpengzhao A única preocupação que tenho é que vários PRs foram usados ​​para os diferentes marcadores.

@xiangpengzhao Mudei o conteúdo IPv6 para as notas de versão 1.9. Entre em contato se tiver mais dúvidas.

@danehans That LGTM :)

Eu uso o Kubernetes somente no IPv6 (v1.8.x) por um tempo agora,
e o maior problema a resolver, eu acho, é detectar se o IPv6 está habilitado para parar de usar ClusterIPs (10.32.xx) em clusters.

@ valentin2105 você pode abrir um problema em k / k para rastrear isso se achar que é um problema que deve ser resolvido?
https://github.com/kubernetes/kubernetes/issues

@danehans
Algum plano para isso em 1.11?

Em caso afirmativo, certifique-se de que o recurso está atualizado com o apropriado:

  • Descrição
  • Marco histórico
  • Cessionário (s)
  • Rótulos:

    • stage/{alpha,beta,stable}

    • sig/*

    • kind/feature

cc @idvoretskyi

@leblancd está liderando a

@justaugustus - Isso provavelmente deve ser dividido em 2 questões distintas:
Suporte apenas para IPv6: Versão 1.9, Alpha
Suporte Dual-Stack: Versão 1.11, Alpha
Acho que este problema (# 508) é suficiente para suporte somente IPv6, e um novo problema será necessário para pilha dupla.

/ tipo recurso

@leblancd

  • Há algum trabalho sendo planejado para suporte somente IPv6 na versão 1.11? Em caso afirmativo, você pode nos informar se está rastreando alfa, beta ou estável, para que possamos definir o marco?
  • Você se importaria de abrir um problema com os detalhes apropriados para suporte Dual-Stack?

@justaugustus
Somente IPv6 funciona bem nas versões v1.9 e v1.10 e também na pilha dupla.

Este recurso atual não tem marco, então gostaríamos de verificar e ver se há algum plano para isso no Kubernetes 1.12.

Em caso afirmativo, certifique-se de que este problema está atualizado com TODAS as seguintes informações:

  • Descrição do recurso de uma linha (pode ser usada como uma nota de versão):
  • Contato principal (cessionário):
  • SIGs responsáveis:
  • Link da proposta de design (repositório da comunidade):
  • Link para e2e e / ou testes de unidade:
  • Revisor (es) - (para LGTM) recomendam que mais de 2 revisores (pelo menos um do arquivo OWNERS da área de código) concordem em revisar. Revisores de várias empresas preferidos:
  • Aprovador (provavelmente do SIG / área à qual pertence o recurso):
  • Meta de recurso (qual meta é igual a qual marco):

    • Alvo de liberação alfa (xy)

    • Meta de lançamento beta (xy)

    • Alvo de liberação estável (xy)

Defina o seguinte:

  • Descrição
  • Cessionário (s)
  • Rótulos:

    • estágio / {alfa, beta, estável}

    • sig / *

    • tipo / recurso

Assim que este recurso for devidamente atualizado, execute ping explicitamente em @justaugustus , @ kacole2 , @robertsandoval , @ rajendar38 para observar que está pronto para ser incluído na Planilha de rastreamento de recursos do Kubernetes 1.12 .


Observe que o Congelamento de Recursos é amanhã, 31 de julho , após o qual qualquer problema de recurso incompleto exigirá que uma solicitação de Exceção seja aceita no marco.

Além disso, esteja ciente dos seguintes prazos relevantes:

  • Prazo do Docs (abrir espaço reservado para PRs): 21/08
  • Congelamento do caso de teste: 28/08

Certifique-se de que todos os PRs para recursos tenham notas de versão relevantes incluídas também.

Frete feliz!

PS Este foi enviado via automação

Oi @leblancd

Existe um plano para tornar o suporte IPv6 beta no K8s 1.12? Se você se lembra, perguntei sobre o status de suporte de pilha dupla em https://github.com/kubernetes/features/issues/563. Como a pilha dupla ainda tem mais trabalho a fazer, estou tentando descobrir se podemos viver apenas com o suporte IPv6 por agora, mas ainda está em alfa, então caso você possa compartilhar uma data provisória de quando o IPv6 pode se tornar beta / GA, será muito útil.

@ navjotsingh83 Qual ponto está faltando para você sobre o IPv6 no Kubernetes?

Olá @ valentin2105

Ainda não configuramos e usamos o IPv6 no K8s. Mas antes de entrar nisso, postei esta pergunta porque ainda é um recurso alfa, então mesmo que funcione (o que pode), não podemos ter recursos alfa em produção. Estamos agora na fase de PoC / planejamento sobre se devemos implantar nosso aplicativo em K8s ou não na próxima versão, portanto, com base em quando o recurso se tornará beta (pelo menos) ou GA (preferencial), tomaremos uma decisão go / nogo .

Hi @ navjotsingh83 - O suporte apenas para IPv6 deve ser Beta no K8s 1.13. O que está faltando para o recurso somente IPv6 ser considerado Beta é a CI somente IPv6 do Kubernetes, e isso está em andamento. Aqui está a proposta inicial para um CI K8s (usando um cluster multinó virtualizado em um ambiente GCE): https://github.com/kubernetes/test-infra/pull/7529. Esta proposta de CI tem tração, mas fui solicitado pelo grupo de teste-infra para mudar isso de usar um cluster baseado em GCE para implantar um cluster multinó diretamente em um contêiner Prow (para eliminar a dependência de operações GCE). Isso resulta em uma arquitetura Docker-in-Docker-in-Docker, que tem sido um pouco desafiadora para funcionar. Espero ter um novo PR de CI lançado dentro de uma semana, executado dentro de um contêiner Prow local, mas então isso vai precisar de outra rodada de revisões antes de ser mesclado.

Existe algo específico em relação a isso. suporte de pilha dupla de que você precisa? Em outras palavras, se o suporte apenas para IPv6 fosse beta / GA, isso seria suficiente? Estou interessado em saber se o que propusemos na especificação de pilha dupla está no caminho certo para o que você precisa.

Olá @leblancd @danehans
Esse aprimoramento já foi rastreado antes, portanto, gostaríamos de verificar e ver se há algum plano de graduar estágios no Kubernetes 1.13. Esta versão é destinada a ser mais 'estável' e terá um cronograma agressivo. Inclua este aprimoramento apenas se houver um alto nível de confiança de que ele atenderá aos seguintes prazos:
Docs (abrir espaço reservado para PRs): 11/8
Código Slush: 11/9
Início do congelamento de código: 15/11
Documentos completos e revisados: 27/11

Por favor, reserve um momento para atualizar os marcos em sua postagem original para rastreamento futuro e ping @ kacole2 se precisar ser incluído na Folha de rastreamento de melhorias 1.13

Também estamos encorajando que cada novo aprimoramento se alinhe com um KEP. Se um KEP foi criado, por favor, coloque um link para ele na postagem original ou aproveite a oportunidade para desenvolver um KEP.

Obrigado!

@leblancd obrigado pela atualização aqui, muito interessante. Fico feliz em ver que isso finalmente está se concretizando com o 1.13.

Olá,

Eu estava me perguntando, qual é o suposto estado atual do suporte IPv6? Se eu tentar inicializar um cluster usando

kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64

O resultado é que o servidor API não pode ser acessado posteriormente:

root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?

Verificando os contêineres criados:

root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps 
CONTAINER ID        IMAGE                  COMMAND                  CREATED             STATUS              PORTS               NAMES
a55623e52447        k8s.gcr.io/pause:3.1   "/pause"                 7 minutes ago       Up 7 minutes                            k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33        ab81d7360408           "kube-scheduler --ad…"   24 minutes ago      Up 24 minutes                           k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30        26e6f1db2a52           "kube-controller-man…"   24 minutes ago      Up 24 minutes                           k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5        3cab8e1b9802           "etcd --advertise-cl…"   24 minutes ago      Up 24 minutes                           k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7        k8s.gcr.io/pause:3.1   "/pause"                 24 minutes ago      Up 24 minutes                           k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0

Parece não haver mapeamento de porta para 8080 - não deveria haver um?

Olá @telmich ,

Não sei muito sobre o KubeADM, mas o que sei é que o IPv6 no Kubernetes funciona muito bem.

Pelo que vejo seu comando, vou sugerir que você use colchetes em torno de seus endereços v6 como [2a0a: e5 ...]

Ei @ valentin2105 !

É ótimo saber que o IPv6 deve funcionar, mas como eu inicializaria um cluster do kubernetes sem o kubeadm?

Sintaxe Re []: geralmente é usada para um único endereço ipv6, não para intervalos, e o kubeadm falha imediatamente ao usá-lo:

root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~# 

Eu anotei minhas descobertas até agora em https://redmine.ungleich.ch/issues/6255 e atualmente afirmo que não há como configurar um cluster somente IPv6 usando kubeadm no momento.

Dado que sou um novato no K8s, gostaria de saber 2 coisas:

  • Estou errado sobre minha reclamação?
  • Se eu estiver certo sobre minha afirmação, como faço para configurar um cluster Kubernetes no modo somente IPv6?

Para a última pergunta: eu já dei uma olhada nas diferentes fases do kubeadm e tentei replicar o init fazendo fase por fase, mas o que não está claro para mim, quando / como modificar as opções para etcd, apiserver, controlador para que eu possa controlá-lo de forma mais refinada?

Você deve depurar qual falha de componente enquanto você os inicia com o kubeadm, talvez seja sobre CNI? Não sei se a ponte host-local suporta IPv6 em cni.

Se você quiser tentar configurar apenas a v6 e talvez comparar com a configuração do kubeadm, verifique minha receita do Saltstack que funciona no Ipv6 porque eu a uso em alguns clusters apenas da v6.
https://github.com/valentin2105/Kubernetes-Saltstack

@danehans Olá - sou o líder do aprimoramento para 1.14 e estou verificando este problema para ver que trabalho (se houver) está sendo planejado para o lançamento 1.14. O congelamento de aprimoramentos é 29 de janeiro e quero lembrar que todos os aprimoramentos devem ter um KEP

@claurence Nenhum trabalho IPv6 está sendo planejado para 1.14.

Olá @danehans , sou o líder de aprimoramento do 1.15. Este recurso estará graduando os estágios alfa / beta / estável no 1.15? Informe-me para que possa ser rastreado corretamente e adicionado à planilha. Todas as melhorias exigem um KEP antes de serem promovidas também.

Assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados corretamente.

@thockin @BenTheElder Acho que pode ser viável graduar clusters somente ipv6 como beta no 1.15.
Se juntarmos este https://github.com/kubernetes-sigs/kind/pull/348 , posso trabalhar nos testes de falha durante este ciclo https://github.com/kubernetes/kubernetes/issues/70248 e adicionar um trabalho para o CI
O que você acha?

@ kacole2 Infelizmente, não estou mais trabalhando no IPv6.

Alguém está trabalhando com suporte IPv6 nativo (pilha não dupla) em k8s?

@telmich Isso deve ser possível hoje. Dê uma olhada em https://github.com/leblancd/kube-v6 para uma boa explicação do estado atual.

Olá @danehans , sou uma sombra de Aprimoramentos para 1.16.

Este recurso estará graduando os estágios alfa / beta / estável no 1.16? Informe-me para que possa ser adicionado à planilha de rastreamento 1.16 .

Assim que o desenvolvimento começar ou se já tiver começado, liste todos os PRs de k / k relevantes nesta edição para que possam ser rastreados adequadamente.

Percebi que não há KEP vinculado à descrição do problema; como um lembrete, todo aprimoramento requer um KEP em um estado implementável com Critérios de Graduação explicando os requisitos de cada estágio alfa / beta / estável.

Como um lembrete, 1.16 datas de marco são: Enhancement Freeze 7/30 e Code Freeze 8/29.

Obrigado!

@mariantalla Não estou mais trabalhando no recurso. Você pode pedir à sig network para ver se mais alguém está planejando lidar com a graduação de recursos.

@ lachie83, isso é algo para trazer à tona com a SIG-Network em suas reuniões.

Sim. Deixe-me colocar isso na agenda da rede SIG

Vou enviar um PR com um KEP para graduar IPv6 para Beta durante este ciclo

Obrigado @aojea , vou adicionar ambos (this e https://github.com/kubernetes/enhancements/issues/1138) como rastreado para v1.16, direcionando beta e At Risk enquanto KEP não é mesclado.

Aceita que eu cancele a atribuição de

@mariantalla 👍

Ei, @aojea , sou o líder de lançamento de documentos

Este aprimoramento (ou o trabalho planejado para v1.16) requer novos documentos (ou modificações)?

Apenas um lembrete amigável de que estamos procurando um PR contra k / website (branch dev-1.16) que deve ser feito na sexta-feira, 23 de agosto. Seria ótimo se fosse o início da documentação completa, mas até mesmo um PR de espaço reservado é aceitável. Deixe-me saber se você tiver alguma dúvida!

Ei, @aojea , sou o líder de lançamento de documentos

Este aprimoramento (ou o trabalho planejado para v1.16) requer novos documentos (ou modificações)?

Apenas um lembrete amigável de que estamos procurando um PR contra o k / website (branch dev-1.16) com vencimento até sexta-feira, 23 de agosto. Seria ótimo se fosse o início da documentação completa, mas até mesmo um PR de espaço reservado é aceitável. Deixe-me saber se você tiver alguma dúvida!

@ neolit123 @timothysc acho que posso adicionar uma seção aos documentos do kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm como Configuring your Kubernetes cluster to use IPv6 , o que você acha? Funciona para você?

@aojea
depende do que você planeja adicionar aos documentos?

essas seções já mencionam que o ipv6 é compatível com kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

/ assign @aojea
/ unassign @danehans

Ei @aojea - apenas um lembrete rápido de que o Enhancements Freeze é amanhã. Este aprimoramento está em risco no momento, porque seu KEP ainda não foi fundido.

Eu acredito que o KEP está sendo rastreado em # 1138. Podemos resumir isso neste problema?

essas seções já mencionam que o ipv6 é compatível com kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network

@simplytunde parece que a documentação voltada para o usuário já está coberta

parece que a documentação voltada para o usuário já está coberta

Eu não diria que o kubeadm é a única documentação voltada para o usuário para suporte ao IPv6, mas vai adiar para a rede SIG e os mantenedores deste recurso.

@aojea @danehans @ lachie83
O Congelamento de Aprimoramento passou para 1.16. O KEP em # 1139 nunca foi fundido e agora está sendo removido do marco 1.16. Se quiser ser adicionado novamente, registre uma exceção e será necessária a aprovação do líder de lançamento .

/ marco claro

@ kacole2 obrigado pelo acompanhamento, vamos direcionar para 1.17 então.

Olá @aojea - 1.17 As melhorias

A programação de lançamento atual é:

Segunda-feira, 23 de setembro - Começa o ciclo de lançamento
Terça-feira, 15 de outubro, EOD PST - Congelamento de melhorias
Quinta-feira, 14 de novembro, EOD PST - Código Congelado
Terça-feira, 19 de novembro - os documentos devem ser preenchidos e revisados
Segunda-feira, 9 de dezembro - Kubernetes 1.17.0 lançado

Em caso afirmativo, assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados corretamente. 👍

Obrigado!

@mrbobbytables de acordo com o KEP, só falta uma coisa que é o trabalho de CI em um provedor de nuvem

IPv6 passando para beta

Critérios de Graduação

Impressionante. Irá adicioná-lo para ser rastreado como graduação para beta 👍

Olá @aojea , sou uma das sombras do docs v1.17.
Este aprimoramento para (ou o trabalho planejado para v1.17) requer novos documentos (ou modificações nos documentos existentes)? Se não, você pode atualizar a Folha de Rastreador de Aprimoramento 1.17 (ou me avise e eu o farei)

Em caso afirmativo, apenas um lembrete amigável de que estamos procurando um PR contra k / website (branch dev-1.17) com vencimento até sexta-feira, 8 de novembro, pode ser apenas um PR no momento. Deixe-me saber se você tiver alguma dúvida!

@irvifa
Você se importa em atualizar a folha do rastreador de melhorias?
Não exigiremos mais documentos, conforme explicado aqui https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858

Ok, obrigado pela confirmação @aojea . Eu atualizei a folha de rastreamento conforme solicitado.

Olá @aojea , 1.17 Melhorias lideram aqui 👋 Não parece que haja k / k PRs ou algo parecido que esteja pendente, mas como estão as coisas em relação à última tarefa? "_Tem CI usando pelo menos um provedor de nuvem_"

Olá @aojea , 1.17 Melhorias lideradas aqui. Parece que não há k / k PRs ou similares que estejam pendentes, mas como estão as coisas em relação à última tarefa? "_Tem CI usando pelo menos um provedor de nuvem_"

é WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , mas não posso garantir que vou conseguir: man_shrugging:

👋 Olá @aojea. O congelamento do código ocorre às 17h (horário do Pacífico) hoje para o ciclo de lançamento 1.17.
Você acha que https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 será mesclado até então? 😬

Sei que não faz parte de k / k e não está exatamente sujeito ao congelamento, mas o ideal é que já tenhamos tudo pronto.

vamos direcionar 1.18 @mrbobbytables , isso tem muitas incógnitas e não consigo dedicar tempo suficiente: man_shrugging:

Vai fazer! Obrigado pela resposta rápida 👍
/ milestone v1.18

Olá @aojea - 1.18 Enhancements shadow here. Gostaria de verificar se você acha que este aprimoramento será alterado para [alfa | beta | estável] no 1.18?
A programação de lançamento atual é:
Segunda-feira, 6 de janeiro - Começa o ciclo de lançamento
Terça-feira, 28 de janeiro EOD PST - Congelamento de melhorias
Quinta-feira, 5 de março, EOD PST - Código Congelado
Segunda-feira, 16 de março - os documentos devem ser preenchidos e revisados
Terça-feira, 24 de março - Kubernetes 1.18.0 lançado
Para ser incluído no lançamento, este aprimoramento deve ter um KEP mesclado no status implementable . O KEP também deve ter critérios de graduação e um Plano de Teste definido.
Se você gostaria de incluir este aprimoramento, uma vez que a codificação comece, liste todos os PRs k / k relevantes nesta edição para que eles possam ser rastreados adequadamente. 👍
Estaremos rastreando as melhorias aqui: http://bit.ly/k8s-1-18-enhancements
Obrigado!

oi @kikisdeliveryservice
O KEP foi mesclado https://github.com/kubernetes/enhancements/pull/1139 e é implementable

Apenas um item está faltando:

Possui CI usando pelo menos um provedor de nuvem

e poderemos mudar o IPv6 para beta em 1.18

cc: @ lachie83 @aramase

obrigado @aojea !

Ei @aojea -

Seth aqui, Docs sombra na equipe de lançamento 1.18.

Este trabalho de aprimoramento planejado para 1.18 requer novos documentos ou modificações nos documentos existentes?

Se não, você pode atualizar a Folha de Rastreador de Aprimoramento 1.18 (ou me avise e eu o farei)

Se atualizações de documentos forem necessárias, lembre-se de que os PRs de espaço reservado para k / website (branch dev-1.18) são devidos até sexta-feira, 28 de fevereiro.

Deixe-me saber se você tiver alguma dúvida!

@sethmccombs uma pergunta, uma postagem de blog sobre o recurso conta como uma atualização de documento?

Oi @aojea !

Como um lembrete de que o Code Freeze é quinta-feira, 5 de março. Você pode vincular todos os PRs k / k ou quaisquer outros PRs que devam ser rastreados para este aprimoramento?

Obrigado!
A equipe de aprimoramentos do 1.18

@aramase , você tem um link para rastrear o trabalho IPv6 no Azure, para que a equipe de melhorias possa rastrear o recurso?

@aojea - O @karenhchu como líder de comunicação)

ei @aojea @aramase, você poderia vincular a esse PR para o trabalho IPv6 no Azure para nós?

@jeremyrickard Eu criei o espaço reservado PR em test-infra para o trabalho - https://github.com/kubernetes/test-infra/pull/16461

Outros PRs que precisarão ser mesclados antes -
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781

Estou terminando o teste e irei remover os WIPs.

Oi @aojea @aramase
Como o espaço reservado para documentos, o prazo de PR é amanhã. Se este aprimoramento precisar de documentos. Aumente um PR de espaço reservado para o branch dev-1.18 o mais rápido possível.

Obrigado!

/ marco claro

Olá, @aojea @aramase, já que não há nenhum marcador de posição de documentos para esse aprimoramento e não recebemos nenhuma atualização na frente de documentos. ultrapassamos o prazo de RP do espaço reservado para documentos. Portanto, estamos removendo esse aprimoramento da versão 1.18. Se você quiser solicitar uma exceção. Consulte https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md

Obrigado!

Desculpe, não há necessidade de atualização de documento: smile:

/ milestone v1.18

Qual recurso IPv6 chegou ao Kubernetes 1.18? É dual stack ou IPv6 graduado apenas para beta?
Estou confuso porque nada mudou nos documentos.

Qual recurso IPv6 chegou ao Kubernetes 1.18? É dual stack ou IPv6 graduado apenas para beta?
Estou confuso porque nada mudou nos documentos.

Este problema acompanha apenas ipv6, graduado para beta em 1.18

A pilha dupla é alfa e é rastreada em outra edição / KEP

/ marco claro

(removendo este problema de aprimoramento do marco v1.18 quando o marco é concluído)

Olá @aojea @danehans ,

1.19 Aprimoramentos sombra aqui. Gostaria de verificar e ver se você acha que este aprimoramento será concluído em 1.19?

Para ter esta parte do lançamento:

The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.

A programação de lançamento atual é:

Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released

Informe-me e irei adicioná-lo à folha de acompanhamento 1.19 (http://bit.ly/k8s-1-19-enhancements). Assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados de maneira adequada. 👍

Obrigado!

Obrigado @kikisdeliveryservice , mas acho que devemos nos concentrar agora em pilha dupla.
Nenhuma mudança aqui durante este lançamento

Os problemas ficam obsoletos após 90 dias de inatividade.
Marque o problema como novo com /remove-lifecycle stale .
Problemas obsoletos apodrecem após 30 dias adicionais de inatividade e, eventualmente, fecham.

Se for seguro encerrar este problema agora, faça-o com /close .

Envie feedback para sig-testing, kubernetes / test-infra e / ou fejta .
/ lifecycle stale

/ remove-lifecycle stale

Olá @aojea @danehans

Melhorias liderar aqui. Algum plano de graduar isso em 1.20?

Obrigado,
Kirsten

Olá @aojea @danehans

Melhorias liderar aqui. Algum plano de graduar isso em 1.20?

não: sorria:

obrigado pela atualização!

Existe alguma documentação sobre como verificar as operações somente ipv6? google apenas me leva ao ipv4 ou ipv6 dualstack.

Existe alguma documentação sobre como verificar as operações somente ipv6? google apenas me leva ao ipv4 ou ipv6 dualstack.

o que você quer dizer com "verificar"?

A instalação apenas para IPv6 é a mesma que para IPv4, apenas você precisa usar endereços IPv6 e sub-redes em sua configuração, sem necessidade de alterações adicionais.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node

Pode confirmar. Eu executo 1.17.x no modo somente ipv6. Basta seguir o guia IPv4 e usar endereços IPv6. É basicamente isso.

Esta página foi útil?
0 / 5 - 0 avaliações