@danehans Obrigado por registrar este problema de recurso!
cc @idvoretskyi FYI
xref ipv6 issue: https://github.com/kubernetes/kubernetes/issues/1443
@danehans : wave: Por favor, indique no quadro de rastreamento de recursos 1.9
se esse recurso precisa de documentação. Em caso afirmativo, abra um PR e adicione um link para a planilha de acompanhamento. Desde já, obrigado!
@zacharysarah Eu só tenho acesso para comentários no quadro de rastreamento de recursos 1.9, então adicionei comentários para o requisito de documentos IPv6.
cc: @mmueen
@zacharysarah o changelog da versão 1.9 precisa ser atualizado manualmente para fazer referência a qualquer um dos PRs IPv6 ou https://github.com/kubernetes/kubernetes/issues/1443?
@danehans Quando você diz changelog, quer dizer as notas de lançamento?
/ cc @ Bradamant3 para visibilidade das notas de lançamento
Sim, estou tentando entender se algo precisa ser adicionado às notas de versão 1.9 e, em caso afirmativo, qual processo seguir. Obrigada.
Isso deve ter uma nota de lançamento
/ cc @ Bradamant3 @nickchase Visibilidade da nota de lançamento! ☝️
O rascunho da nota de versão do
https://docs.google.com/document/d/1veHHyDH9VoNTwP6yy9u2Q7Jj1hnBJGVPv3NPHInImgU/edit
Você pode seguir as orientações na parte superior do documento.
xref: https://groups.google.com/forum/#!topic/kubernetes -sig-release / x6ySPIJkMN4 por @enisoc
@xiangpengzhao Eu atualizei as notas de versão 1.9 com os detalhes de suporte do ipv6. Informe-me se o conteúdo add'l ipv6 é necessário para as notas de versão 1.9.
@danehans Acho que os detalhes que você adicionou são bons o suficiente: +1:. Mas, pessoalmente, gostaria de ver os PRs associados (se existentes) para os marcadores.
@danehans Dei outra olhada na nota de lançamento e descobri que você colocou os detalhes do ipv6 na seção Before Upgrading
. Não acho que devemos colocá-los lá.
@xiangpengzhao A única preocupação que tenho é que vários PRs foram usados para os diferentes marcadores.
@xiangpengzhao Mudei o conteúdo IPv6 para as notas de versão 1.9. Entre em contato se tiver mais dúvidas.
@danehans That LGTM :)
Eu uso o Kubernetes somente no IPv6 (v1.8.x) por um tempo agora,
e o maior problema a resolver, eu acho, é detectar se o IPv6 está habilitado para parar de usar ClusterIPs (10.32.xx) em clusters.
@ valentin2105 você pode abrir um problema em k / k para rastrear isso se achar que é um problema que deve ser resolvido?
https://github.com/kubernetes/kubernetes/issues
@danehans
Algum plano para isso em 1.11?
Em caso afirmativo, certifique-se de que o recurso está atualizado com o apropriado:
stage/{alpha,beta,stable}
sig/*
kind/feature
cc @idvoretskyi
@leblancd está liderando a
@justaugustus - Isso provavelmente deve ser dividido em 2 questões distintas:
Suporte apenas para IPv6: Versão 1.9, Alpha
Suporte Dual-Stack: Versão 1.11, Alpha
Acho que este problema (# 508) é suficiente para suporte somente IPv6, e um novo problema será necessário para pilha dupla.
/ tipo recurso
@leblancd
@justaugustus
Somente IPv6 funciona bem nas versões v1.9 e v1.10 e também na pilha dupla.
@justaugustus :
Problema de recurso Dual-Stack
Este recurso atual não tem marco, então gostaríamos de verificar e ver se há algum plano para isso no Kubernetes 1.12.
Em caso afirmativo, certifique-se de que este problema está atualizado com TODAS as seguintes informações:
Defina o seguinte:
Assim que este recurso for devidamente atualizado, execute ping explicitamente em @justaugustus , @ kacole2 , @robertsandoval , @ rajendar38 para observar que está pronto para ser incluído na Planilha de rastreamento de recursos do Kubernetes 1.12 .
Certifique-se de que todos os PRs para recursos tenham notas de versão relevantes incluídas também.
Frete feliz!
PS Este foi enviado via automação
Oi @leblancd
Existe um plano para tornar o suporte IPv6 beta no K8s 1.12? Se você se lembra, perguntei sobre o status de suporte de pilha dupla em https://github.com/kubernetes/features/issues/563. Como a pilha dupla ainda tem mais trabalho a fazer, estou tentando descobrir se podemos viver apenas com o suporte IPv6 por agora, mas ainda está em alfa, então caso você possa compartilhar uma data provisória de quando o IPv6 pode se tornar beta / GA, será muito útil.
@ navjotsingh83 Qual ponto está faltando para você sobre o IPv6 no Kubernetes?
Olá @ valentin2105
Ainda não configuramos e usamos o IPv6 no K8s. Mas antes de entrar nisso, postei esta pergunta porque ainda é um recurso alfa, então mesmo que funcione (o que pode), não podemos ter recursos alfa em produção. Estamos agora na fase de PoC / planejamento sobre se devemos implantar nosso aplicativo em K8s ou não na próxima versão, portanto, com base em quando o recurso se tornará beta (pelo menos) ou GA (preferencial), tomaremos uma decisão go / nogo .
Hi @ navjotsingh83 - O suporte apenas para IPv6 deve ser Beta no K8s 1.13. O que está faltando para o recurso somente IPv6 ser considerado Beta é a CI somente IPv6 do Kubernetes, e isso está em andamento. Aqui está a proposta inicial para um CI K8s (usando um cluster multinó virtualizado em um ambiente GCE): https://github.com/kubernetes/test-infra/pull/7529. Esta proposta de CI tem tração, mas fui solicitado pelo grupo de teste-infra para mudar isso de usar um cluster baseado em GCE para implantar um cluster multinó diretamente em um contêiner Prow (para eliminar a dependência de operações GCE). Isso resulta em uma arquitetura Docker-in-Docker-in-Docker, que tem sido um pouco desafiadora para funcionar. Espero ter um novo PR de CI lançado dentro de uma semana, executado dentro de um contêiner Prow local, mas então isso vai precisar de outra rodada de revisões antes de ser mesclado.
Existe algo específico em relação a isso. suporte de pilha dupla de que você precisa? Em outras palavras, se o suporte apenas para IPv6 fosse beta / GA, isso seria suficiente? Estou interessado em saber se o que propusemos na especificação de pilha dupla está no caminho certo para o que você precisa.
Olá @leblancd @danehans
Esse aprimoramento já foi rastreado antes, portanto, gostaríamos de verificar e ver se há algum plano de graduar estágios no Kubernetes 1.13. Esta versão é destinada a ser mais 'estável' e terá um cronograma agressivo. Inclua este aprimoramento apenas se houver um alto nível de confiança de que ele atenderá aos seguintes prazos:
Docs (abrir espaço reservado para PRs): 11/8
Código Slush: 11/9
Início do congelamento de código: 15/11
Documentos completos e revisados: 27/11
Por favor, reserve um momento para atualizar os marcos em sua postagem original para rastreamento futuro e ping @ kacole2 se precisar ser incluído na Folha de rastreamento de melhorias 1.13
Também estamos encorajando que cada novo aprimoramento se alinhe com um KEP. Se um KEP foi criado, por favor, coloque um link para ele na postagem original ou aproveite a oportunidade para desenvolver um KEP.
Obrigado!
@leblancd obrigado pela atualização aqui, muito interessante. Fico feliz em ver que isso finalmente está se concretizando com o 1.13.
Olá,
Eu estava me perguntando, qual é o suposto estado atual do suporte IPv6? Se eu tentar inicializar um cluster usando
kubeadm init --pod-network-cidr 2a0a:e5c0:102:3::/64 --apiserver-advertise-address=2a0a:e5c0:2:12:400:f0ff:fea9:c401 --service-cidr 2a0a:e5c0:102:6::/64
O resultado é que o servidor API não pode ser acessado posteriormente:
root<strong i="10">@ubuntu</strong>:/etc/kubernetes/manifests# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
Verificando os contêineres criados:
root<strong i="14">@ubuntu</strong>:/etc/kubernetes/manifests# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a55623e52447 k8s.gcr.io/pause:3.1 "/pause" 7 minutes ago Up 7 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_fec7f583ea75dd4fc232913538c9fba1_0
cefb94378d33 ab81d7360408 "kube-scheduler --ad…" 24 minutes ago Up 24 minutes k8s_kube-scheduler_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
c569ef8d9e30 26e6f1db2a52 "kube-controller-man…" 24 minutes ago Up 24 minutes k8s_kube-controller-manager_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
a25693b556e5 3cab8e1b9802 "etcd --advertise-cl…" 24 minutes ago Up 24 minutes k8s_etcd_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
9e85d0f7873d k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-scheduler-ubuntu_kube-system_44b569a35761491825f4e7253fbf0543_0
d6516a6656a7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-controller-manager-ubuntu_kube-system_fe38083b94da6f6c5a89788091e3bcb6_0
8dab4c0348a9 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_kube-apiserver-ubuntu_kube-system_84183f750feaa89bfaa9d456805fdc7a_0
b561f8c07ff7 k8s.gcr.io/pause:3.1 "/pause" 24 minutes ago Up 24 minutes k8s_POD_etcd-ubuntu_kube-system_7db86297afa09dfaa5049a791ed76555_0
Parece não haver mapeamento de porta para 8080 - não deveria haver um?
Olá @telmich ,
Não sei muito sobre o KubeADM, mas o que sei é que o IPv6 no Kubernetes funciona muito bem.
Pelo que vejo seu comando, vou sugerir que você use colchetes em torno de seus endereços v6 como [2a0a: e5 ...]
Ei @ valentin2105 !
É ótimo saber que o IPv6 deve funcionar, mas como eu inicializaria um cluster do kubernetes sem o kubeadm?
Sintaxe Re []: geralmente é usada para um único endereço ipv6, não para intervalos, e o kubeadm falha imediatamente ao usá-lo:
root<strong i="9">@k8s1</strong>:~# kubeadm init --pod-network-cidr '[2a0a:e5c0:102:3::/64]' --service-cidr '[2a0a:e5c0:102:6::/64]'
[serviceSubnet: Invalid value: "[2a0a:e5c0:102:6::/64]": couldn't parse subnet, podSubnet: Invalid value: "[2a0a:e5c0:102:3::/64]": couldn't parse subnet, KubeProxyConfiguration.ClusterCIDR: Invalid value: "[2a0a:e5c0:102:3::/64]": must be a valid CIDR block (e.g. 10.100.0.0/16)]
root<strong i="10">@k8s1</strong>:~#
Eu anotei minhas descobertas até agora em https://redmine.ungleich.ch/issues/6255 e atualmente afirmo que não há como configurar um cluster somente IPv6 usando kubeadm no momento.
Dado que sou um novato no K8s, gostaria de saber 2 coisas:
Para a última pergunta: eu já dei uma olhada nas diferentes fases do kubeadm e tentei replicar o init fazendo fase por fase, mas o que não está claro para mim, quando / como modificar as opções para etcd, apiserver, controlador para que eu possa controlá-lo de forma mais refinada?
Você deve depurar qual falha de componente enquanto você os inicia com o kubeadm, talvez seja sobre CNI? Não sei se a ponte host-local suporta IPv6 em cni.
Se você quiser tentar configurar apenas a v6 e talvez comparar com a configuração do kubeadm, verifique minha receita do Saltstack que funciona no Ipv6 porque eu a uso em alguns clusters apenas da v6.
https://github.com/valentin2105/Kubernetes-Saltstack
@danehans Olá - sou o líder do aprimoramento para 1.14 e estou verificando este problema para ver que trabalho (se houver) está sendo planejado para o lançamento 1.14. O congelamento de aprimoramentos é 29 de janeiro e quero lembrar que todos os aprimoramentos devem ter um KEP
@claurence Nenhum trabalho IPv6 está sendo planejado para 1.14.
Olá @danehans , sou o líder de aprimoramento do 1.15. Este recurso estará graduando os estágios alfa / beta / estável no 1.15? Informe-me para que possa ser rastreado corretamente e adicionado à planilha. Todas as melhorias exigem um KEP antes de serem promovidas também.
Assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados corretamente.
@thockin @BenTheElder Acho que pode ser viável graduar clusters somente ipv6 como beta no 1.15.
Se juntarmos este https://github.com/kubernetes-sigs/kind/pull/348 , posso trabalhar nos testes de falha durante este ciclo https://github.com/kubernetes/kubernetes/issues/70248 e adicionar um trabalho para o CI
O que você acha?
@ kacole2 Infelizmente, não estou mais trabalhando no IPv6.
Alguém está trabalhando com suporte IPv6 nativo (pilha não dupla) em k8s?
@telmich Isso deve ser possível hoje. Dê uma olhada em https://github.com/leblancd/kube-v6 para uma boa explicação do estado atual.
Olá @danehans , sou uma sombra de Aprimoramentos para 1.16.
Este recurso estará graduando os estágios alfa / beta / estável no 1.16? Informe-me para que possa ser adicionado à planilha de rastreamento 1.16 .
Assim que o desenvolvimento começar ou se já tiver começado, liste todos os PRs de k / k relevantes nesta edição para que possam ser rastreados adequadamente.
Percebi que não há KEP vinculado à descrição do problema; como um lembrete, todo aprimoramento requer um KEP em um estado implementável com Critérios de Graduação explicando os requisitos de cada estágio alfa / beta / estável.
Como um lembrete, 1.16 datas de marco são: Enhancement Freeze 7/30 e Code Freeze 8/29.
Obrigado!
@mariantalla Não estou mais trabalhando no recurso. Você pode pedir à sig network para ver se mais alguém está planejando lidar com a graduação de recursos.
@ lachie83, isso é algo para trazer à tona com a SIG-Network em suas reuniões.
Sim. Deixe-me colocar isso na agenda da rede SIG
Vou enviar um PR com um KEP para graduar IPv6 para Beta durante este ciclo
Obrigado @aojea , vou adicionar ambos (this e https://github.com/kubernetes/enhancements/issues/1138) como rastreado para v1.16, direcionando beta
e At Risk
enquanto KEP não é mesclado.
Aceita que eu cancele a atribuição de
@mariantalla 👍
Ei, @aojea , sou o líder de lançamento de documentos
Este aprimoramento (ou o trabalho planejado para v1.16) requer novos documentos (ou modificações)?
Apenas um lembrete amigável de que estamos procurando um PR contra k / website (branch dev-1.16) que deve ser feito na sexta-feira, 23 de agosto. Seria ótimo se fosse o início da documentação completa, mas até mesmo um PR de espaço reservado é aceitável. Deixe-me saber se você tiver alguma dúvida!
Ei, @aojea , sou o líder de lançamento de documentos
Este aprimoramento (ou o trabalho planejado para v1.16) requer novos documentos (ou modificações)?
Apenas um lembrete amigável de que estamos procurando um PR contra o k / website (branch dev-1.16) com vencimento até sexta-feira, 23 de agosto. Seria ótimo se fosse o início da documentação completa, mas até mesmo um PR de espaço reservado é aceitável. Deixe-me saber se você tiver alguma dúvida!
@ neolit123 @timothysc acho que posso adicionar uma seção aos documentos do kubeadm https://github.com/kubernetes/website/tree/master/content/en/docs/setup/production-environment/tools/kubeadm como Configuring your Kubernetes cluster to use IPv6
, o que você acha? Funciona para você?
@aojea
depende do que você planeja adicionar aos documentos?
essas seções já mencionam que o ipv6 é compatível com kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
/ assign @aojea
/ unassign @danehans
Ei @aojea - apenas um lembrete rápido de que o Enhancements Freeze é amanhã. Este aprimoramento está em risco no momento, porque seu KEP ainda não foi fundido.
Eu acredito que o KEP está sendo rastreado em # 1138. Podemos resumir isso neste problema?
essas seções já mencionam que o ipv6 é compatível com kubeadm:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod -network
@simplytunde parece que a documentação voltada para o usuário já está coberta
parece que a documentação voltada para o usuário já está coberta
Eu não diria que o kubeadm é a única documentação voltada para o usuário para suporte ao IPv6, mas vai adiar para a rede SIG e os mantenedores deste recurso.
@aojea @danehans @ lachie83
O Congelamento de Aprimoramento passou para 1.16. O KEP em # 1139 nunca foi fundido e agora está sendo removido do marco 1.16. Se quiser ser adicionado novamente, registre uma exceção e será necessária a aprovação do líder de lançamento .
/ marco claro
@ kacole2 obrigado pelo acompanhamento, vamos direcionar para 1.17 então.
Olá @aojea - 1.17 As melhorias
A programação de lançamento atual é:
Segunda-feira, 23 de setembro - Começa o ciclo de lançamento
Terça-feira, 15 de outubro, EOD PST - Congelamento de melhorias
Quinta-feira, 14 de novembro, EOD PST - Código Congelado
Terça-feira, 19 de novembro - os documentos devem ser preenchidos e revisados
Segunda-feira, 9 de dezembro - Kubernetes 1.17.0 lançado
Em caso afirmativo, assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados corretamente. 👍
Obrigado!
@mrbobbytables de acordo com o KEP, só falta uma coisa que é o trabalho de CI em um provedor de nuvem
[x] Possui CI usando um ambiente de teste Kubernetes
[] Possui CI usando pelo menos um Provedor de Nuvem
Impressionante. Irá adicioná-lo para ser rastreado como graduação para beta 👍
Olá @aojea , sou uma das sombras do docs v1.17.
Este aprimoramento para (ou o trabalho planejado para v1.17) requer novos documentos (ou modificações nos documentos existentes)? Se não, você pode atualizar a Folha de Rastreador de Aprimoramento 1.17 (ou me avise e eu o farei)
Em caso afirmativo, apenas um lembrete amigável de que estamos procurando um PR contra k / website (branch dev-1.17) com vencimento até sexta-feira, 8 de novembro, pode ser apenas um PR no momento. Deixe-me saber se você tiver alguma dúvida!
@irvifa
Você se importa em atualizar a folha do rastreador de melhorias?
Não exigiremos mais documentos, conforme explicado aqui https://github.com/kubernetes/enhancements/issues/508#issuecomment -516064858
Ok, obrigado pela confirmação @aojea . Eu atualizei a folha de rastreamento conforme solicitado.
Olá @aojea , 1.17 Melhorias lideram aqui 👋 Não parece que haja k / k PRs ou algo parecido que esteja pendente, mas como estão as coisas em relação à última tarefa? "_Tem CI usando pelo menos um provedor de nuvem_"
Olá @aojea , 1.17 Melhorias lideradas aqui. Parece que não há k / k PRs ou similares que estejam pendentes, mas como estão as coisas em relação à última tarefa? "_Tem CI usando pelo menos um provedor de nuvem_"
é WIP https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 , mas não posso garantir que vou conseguir: man_shrugging:
👋 Olá @aojea. O congelamento do código ocorre às 17h (horário do Pacífico) hoje para o ciclo de lançamento 1.17.
Você acha que https://github.com/kubernetes-sigs/cluster-api-provider-aws/pull/1322 será mesclado até então? 😬
Sei que não faz parte de k / k e não está exatamente sujeito ao congelamento, mas o ideal é que já tenhamos tudo pronto.
vamos direcionar 1.18 @mrbobbytables , isso tem muitas incógnitas e não consigo dedicar tempo suficiente: man_shrugging:
Vai fazer! Obrigado pela resposta rápida 👍
/ milestone v1.18
Olá @aojea - 1.18 Enhancements shadow here. Gostaria de verificar se você acha que este aprimoramento será alterado para [alfa | beta | estável] no 1.18?
A programação de lançamento atual é:
Segunda-feira, 6 de janeiro - Começa o ciclo de lançamento
Terça-feira, 28 de janeiro EOD PST - Congelamento de melhorias
Quinta-feira, 5 de março, EOD PST - Código Congelado
Segunda-feira, 16 de março - os documentos devem ser preenchidos e revisados
Terça-feira, 24 de março - Kubernetes 1.18.0 lançado
Para ser incluído no lançamento, este aprimoramento deve ter um KEP mesclado no status implementable
. O KEP também deve ter critérios de graduação e um Plano de Teste definido.
Se você gostaria de incluir este aprimoramento, uma vez que a codificação comece, liste todos os PRs k / k relevantes nesta edição para que eles possam ser rastreados adequadamente. 👍
Estaremos rastreando as melhorias aqui: http://bit.ly/k8s-1-18-enhancements
Obrigado!
oi @kikisdeliveryservice
O KEP foi mesclado https://github.com/kubernetes/enhancements/pull/1139 e é implementable
Apenas um item está faltando:
Possui CI usando pelo menos um provedor de nuvem
e poderemos mudar o IPv6 para beta em 1.18
cc: @ lachie83 @aramase
obrigado @aojea !
Ei @aojea -
Seth aqui, Docs sombra na equipe de lançamento 1.18.
Este trabalho de aprimoramento planejado para 1.18 requer novos documentos ou modificações nos documentos existentes?
Se não, você pode atualizar a Folha de Rastreador de Aprimoramento 1.18 (ou me avise e eu o farei)
Se atualizações de documentos forem necessárias, lembre-se de que os PRs de espaço reservado para k / website (branch dev-1.18) são devidos até sexta-feira, 28 de fevereiro.
Deixe-me saber se você tiver alguma dúvida!
@sethmccombs uma pergunta, uma postagem de blog sobre o recurso conta como uma atualização de documento?
Oi @aojea !
Como um lembrete de que o Code Freeze é quinta-feira, 5 de março. Você pode vincular todos os PRs k / k ou quaisquer outros PRs que devam ser rastreados para este aprimoramento?
Obrigado!
A equipe de aprimoramentos do 1.18
@aramase , você tem um link para rastrear o trabalho IPv6 no Azure, para que a equipe de melhorias possa rastrear o recurso?
@aojea - O @karenhchu como líder de comunicação)
ei @aojea @aramase, você poderia vincular a esse PR para o trabalho IPv6 no Azure para nós?
@jeremyrickard Eu criei o espaço reservado PR em test-infra para o trabalho - https://github.com/kubernetes/test-infra/pull/16461
Outros PRs que precisarão ser mesclados antes -
https://github.com/kubernetes/kubernetes/pull/88448
https://github.com/Azure/aks-engine/pull/2781
Estou terminando o teste e irei remover os WIPs.
Oi @aojea @aramase
Como o espaço reservado para documentos, o prazo de PR é amanhã. Se este aprimoramento precisar de documentos. Aumente um PR de espaço reservado para o branch dev-1.18 o mais rápido possível.
Obrigado!
/ marco claro
Olá, @aojea @aramase, já que não há nenhum marcador de posição de documentos para esse aprimoramento e não recebemos nenhuma atualização na frente de documentos. ultrapassamos o prazo de RP do espaço reservado para documentos. Portanto, estamos removendo esse aprimoramento da versão 1.18. Se você quiser solicitar uma exceção. Consulte https://github.com/kubernetes/sig-release/blob/master/releases/EXCEPTIONS.md
Obrigado!
Desculpe, não há necessidade de atualização de documento: smile:
/ milestone v1.18
Qual recurso IPv6 chegou ao Kubernetes 1.18? É dual stack ou IPv6 graduado apenas para beta?
Estou confuso porque nada mudou nos documentos.
Qual recurso IPv6 chegou ao Kubernetes 1.18? É dual stack ou IPv6 graduado apenas para beta?
Estou confuso porque nada mudou nos documentos.
Este problema acompanha apenas ipv6, graduado para beta em 1.18
A pilha dupla é alfa e é rastreada em outra edição / KEP
/ marco claro
(removendo este problema de aprimoramento do marco v1.18 quando o marco é concluído)
Olá @aojea @danehans ,
1.19 Aprimoramentos sombra aqui. Gostaria de verificar e ver se você acha que este aprimoramento será concluído em 1.19?
Para ter esta parte do lançamento:
The KEP PR must be merged in an implementable state
The KEP must have test plans
The KEP must have graduation criteria.
A programação de lançamento atual é:
Monday, April 13: Week 1 - Release cycle begins
Tuesday, May 19: Week 6 - Enhancements Freeze
Thursday, June 25: Week 11 - Code Freeze
Thursday, July 9: Week 14 - Docs must be completed and reviewed
Tuesday, August 4: Week 17 - Kubernetes v1.19.0 released
Informe-me e irei adicioná-lo à folha de acompanhamento 1.19 (http://bit.ly/k8s-1-19-enhancements). Assim que a codificação começar, liste todos os PRs k / k relevantes nesta edição para que possam ser rastreados de maneira adequada. 👍
Obrigado!
Obrigado @kikisdeliveryservice , mas acho que devemos nos concentrar agora em pilha dupla.
Nenhuma mudança aqui durante este lançamento
Os problemas ficam obsoletos após 90 dias de inatividade.
Marque o problema como novo com /remove-lifecycle stale
.
Problemas obsoletos apodrecem após 30 dias adicionais de inatividade e, eventualmente, fecham.
Se for seguro encerrar este problema agora, faça-o com /close
.
Envie feedback para sig-testing, kubernetes / test-infra e / ou fejta .
/ lifecycle stale
/ remove-lifecycle stale
Olá @aojea @danehans
Melhorias liderar aqui. Algum plano de graduar isso em 1.20?
Obrigado,
Kirsten
Olá @aojea @danehans
Melhorias liderar aqui. Algum plano de graduar isso em 1.20?
não: sorria:
obrigado pela atualização!
Existe alguma documentação sobre como verificar as operações somente ipv6? google apenas me leva ao ipv4 ou ipv6 dualstack.
Existe alguma documentação sobre como verificar as operações somente ipv6? google apenas me leva ao ipv4 ou ipv6 dualstack.
o que você quer dizer com "verificar"?
A instalação apenas para IPv6 é a mesma que para IPv4, apenas você precisa usar endereços IPv6 e sub-redes em sua configuração, sem necessidade de alterações adicionais.
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#initializing -your-control-plane-node
Pode confirmar. Eu executo 1.17.x no modo somente ipv6. Basta seguir o guia IPv4 e usar endereços IPv6. É basicamente isso.
Comentários muito úteis
/ milestone v1.18