Scikit-learn: Torne as descrições random_state mais informativas e consulte o Glossário

Criado em 29 jan. 2018  ·  60Comentários  ·  Fonte: scikit-learn/scikit-learn

Recentemente, adicionamos um glossário à nossa documentação, que descreve os parâmetros comuns entre outras coisas. Devemos agora substituir as descrições dos parâmetros random_state para torná-los mais concisos e informativos (consulte # 10415). Por exemplo, em vez de

    random_state : int, RandomState instance or None, optional, default: None
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

em ambos KMeans e MiniBatchKMeans, podemos ter:

KMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.


MiniBatchKMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization and
        random reassignment.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.

Portanto, a descrição deve se concentrar em qual é o impacto de random_state no algoritmo.

Os colaboradores interessados ​​em contribuir com essa mudança devem assumir um módulo de cada vez, inicialmente.

A lista de estimadores a serem modificados é a seguinte:

Lista de arquivos para modificar usando o script kwinata

  • [x] [sklearn / dummy.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/dummy.py) - 59
  • [x] [sklearn / multioutput.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multioutput.py) - 578 , 738
  • [] [sklearn / kernel_approximation.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/kernel_approximation.py) - 41 , 143 , 470
  • [] [sklearn / multiclass.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multiclass.py) - 687
  • [x] [sklearn / random_projection.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/random_projection.py) - 178 , 245 , 464 , 586
  • [x] [sklearn / feature_extraction / image.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_extraction/image.py) - 368 , 502
  • [x] [sklearn / utils / random.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/random.py) - 39 relações públicas abertas
  • [x] [sklearn / utils / extmath.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/extmath.py) - 185 , 297
  • [x] [sklearn / ensemble / _hist_gradient_boosting / gradient_boosting.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/gradient_boosting.py) - 736 , 918
  • [x] [sklearn / ensemble / _hist_gradient_boosting / binning.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/binning.py) - 37 , 112

  • [x] [sklearn / ensemble / _bagging.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_bagging.py) - 503 , 902

  • [x] [sklearn / ensemble / _gb.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_gb.py) - 887 , 1360
  • [x] [sklearn / ensemble / _forest.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_forest.py) - 965 , 1282 , 1559 , 1868 , 2103
  • [x] [sklearn / ensemble / _iforest.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_iforest.py) - 109
  • [] [sklearn / ensemble / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_base.py) - 52
  • [x] [sklearn / ensemble / _weight_boosting.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_weight_boosting.py) - 188 , 324 , 479 , 900 , 1022
  • [x] [sklearn / decomposition / _truncated_svd.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_truncated_svd.py) - 59 PR aberto
  • [x] [sklearn / decomposition / _kernel_pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_kernel_pca.py) - 79 Open PR
  • [x] [sklearn / decomposition / _dict_learning.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_dict_learning.py) - 364 , 485 , 692 , 1135 , 1325 Open PR
  • [x] [sklearn / decomposition / _fastica.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_fastica.py) - 205 , 344 PR aberto
  • [x] [sklearn / decomposition / _nmf.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_nmf.py) - 290 , 475 , 966 , 1159 Aberto PR
  • [x] [sklearn / decomposition / _pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_pca.py) - 192 Open PR
  • [x] [sklearn / decomposition / _sparse_pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_sparse_pca.py) - 82 , 285 PR aberto
  • [x] [sklearn / decomposition / _lda.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_lda.py) - 60 , 79 , 225 PR aberto
  • [x] [sklearn / decomposition / _factor_analysis.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_factor_analysis.py) - 92 PR aberto
  • [x] [sklearn / cluster / _kmeans.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_kmeans.py) - 56 , 241 , 380 , 583 , 700 , 1150 , 1370
  • [x] [sklearn / cluster / _spectral.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_spectral.py) - 41 , 197 , 313
  • [x] [sklearn / cluster / _bicluster.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_bicluster.py) - 236 , 383
  • [x] [sklearn / cluster / _mean_shift.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_mean_shift.py) - 48
  • [x] [sklearn / preprocessing / _data.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/preprocessing/_data.py) - 2178 , 2607
  • [x] [sklearn / impute / _iterative.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/impute/_iterative.py) - 125
  • [x] [sklearn / linear_model / _ransac.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ransac.py) - 152 PR aberto
  • [x] [sklearn / linear_model / _coordinate_descent.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_coordinate_descent.py) - 580 , 860 , 1313 , 1487 , 1665 , 1851 , 2016 , 2192 Open PR
  • [x] [sklearn / linear_model / _sag.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_sag.py) - 154 PR aberto
  • [x] [sklearn / linear_model / _perceptron.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_perceptron.py) - 55 Open PR
  • [x] [sklearn / linear_model / _passive_aggressive.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_passive_aggressive.py) - 76 , 322 Open PR
  • [x] [sklearn / linear_model / _logistic.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_logistic.py) - 587 , 924 , 1100 , 1658 Aberto PR
  • [x] [sklearn / linear_model / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_base.py) - 65
  • [x] [sklearn / linear_model / _stochastic_gradient.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_stochastic_gradient.py) - 369 , 811 , 1419 Open PR
  • [x] [sklearn / linear_model / _theil_sen.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_theil_sen.py) - 243 Open PR
  • [x] [sklearn / linear_model / _ridge.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ridge.py) - 325 , 693 , 853 Open PR
  • [x] [sklearn / tree / _classes.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/tree/_classes.py) - 653 , 1033 , 1322 , 1552
  • [x] [sklearn / feature_selection / _mutual_info.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_selection/_mutual_info.py) - 226 , 335 , 414
  • [x] [sklearn / metrics / cluster / _unsupervised.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/metrics/cluster/_unsupervised.py) - 80
  • [x] [sklearn / svm / _classes.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_classes.py) - 90 , 312 , 546 , 752 Aberto PR
  • [x] [sklearn / svm / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_base.py) - 853 Open PR
  • [x] [sklearn / inspect / _permutation_importance.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/inspection/_permutation_importance.py) - 81
  • [x] [sklearn / gaussian_process / _gpr.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpr.py) - 109 , 382
  • [x] [sklearn / gaussian_process / _gpc.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpc.py) - 110 , 537
  • [x] [sklearn / manifold / _spectral_embedding.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_spectral_embedding.py) - 171 , 387
  • [x] [sklearn / manifold / _locally_linear.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_locally_linear.py) - 146 , 252 , 584
  • [x] [sklearn / manifold / _t_sne.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_t_sne.py) - 558
  • [x] [sklearn / manifold / _mds.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_mds.py) - 51 , 198 , 314
  • [x] [sklearn / utils / _testing.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/_testing.py) - 521
  • [x] [sklearn / utils / __ init__.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/__init__.py) - 478 , 623
  • [x] [sklearn / datasets / _kddcup99.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_kddcup99.py) - 79
  • [x] [sklearn / datasets / _covtype.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_covtype.py) - 69
  • [x] [sklearn / datasets / _rcv1.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_rcv1.py) - 114
  • [x] [sklearn / datasets / _samples_generator.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_samples_generator.py) - 127 , 323 , 440 , 531 , 618 , 688 , 767 , 904 , 965 , 1030 , 1106 , 1159 , 1218 , 1258 , 1307 , 1368 , 1420 , 1483 , 1571 , 1662
  • [x] [sklearn / datasets / _olivetti_faces.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_olivetti_faces.py) - 64
  • [x] [sklearn / datasets / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_base.py) - 157
  • [x] [sklearn / datasets / _twenty_newsgroups.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_twenty_newsgroups.py) - 187
  • [x] [sklearn / blend / _bayesian_mixture.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_bayesian_mixture.py) - 166
  • [x] [sklearn / blend / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_base.py) - 139
  • [x] [sklearn / blend / _gaussian_mixture.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_gaussian_mixture.py) - 504
  • [x] [sklearn / model_selection / _validation.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_validation.py) - 1006 , 1176
  • [x] [sklearn / model_selection / _split.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_split.py) - 382 , 588 , 1091 , 1196 , 1250 , 1390 , 1492 , 1605 , 2049 PR aberto
  • [x] [sklearn / model_selection / _search.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_search.py) - 207 , 1299
  • [x] [sklearn / neural_network / _multilayer_perceptron.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_multilayer_perceptron.py) - 782 , 1174
  • [x] [sklearn / neural_network / _rbm.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_rbm.py) - 59
  • [x] [sklearn / neighbours / _kde.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbours/_kde.py) - 233
  • [x] [sklearn / neighbours / _nca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbours/_nca.py) - 112
  • [x] [sklearn / covariance / _robust_covariance.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_robust_covariance.py) - 63 , 233 , 328 , 545
  • [x] [sklearn / covariance / _elliptic_envelope.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_elliptic_envelope.py) - 40
Documentation Moderate Sprint good first issue

Comentários muito úteis

Queremos trabalhar em sklearn / preprocessing / _data.py - 2178, 2607
@rachelcjordan e @ fabi-cast

wimlds #SciKitLearnSprint

Todos 60 comentários

Olá @jnothman , posso resolver este problema? Obrigado

Solicite um módulo / subpacote e vá ...

Em 30 de janeiro de 2018 às 00h24, Somya Anand [email protected] escreveu:

Olá @jnothman https://github.com/jnothman , Posso resolver esse problema? Obrigado

-
Você está recebendo isso porque foi mencionado.
Responda a este e-mail diretamente, visualize-o no GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548#issuecomment-361243951 ,
ou silenciar o tópico
https://github.com/notifications/unsubscribe-auth/AAEz62ie2pMFVg7uM6_MVnmWKRX-efgHks5tPcaHgaJpZM4Rwij3
.

@jnothman Me desculpe por ser ingênuo, mas você pode explicar melhor o módulo / submódulo? Quer dizer, você está se referindo a um subpacote como Kmeans, por exemplo?

Acho que @jnothman significa apenas começar com um arquivo, por exemplo sklearn / cluster / k_means_.py, atualizar o random_state docstring como no post superior e abrir um PR.

um subpacote é algo como sklearn.cluster

Obrigado. Vou fazer isso e abrir um PR.

Oi! @jnothman

Você também gostaria de substituir os comentários a seguir, conforme vistos em grid_search.py? Eles têm uma linha extra em comparação com a compartilhada por você.

random_state : int, RandomState instance or None, optional (default=None)
        Pseudo random number generator state used for random uniform sampling
        from lists of possible values instead of scipy.stats distributions.
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

Posso pegar grid_search.py ​​e k_means.py (KMeans).

deixe grid_search.py ​​sozinho. está obsoleto. A ideia é minimizar o
conteúdo que se repete e fica disponível no glossário, para que possamos
dar aos usuários uma descrição mais informativa sobre o papel de random_state em
o estimador particular.

Obrigado @jnothman. Precisarei entender esses algoritmos antes de substituir essas informações random_state?

Você precisará entender os algoritmos de forma ampla, mas não todos os detalhes de
sua implementação. Você precisará encontrar onde random_state
é usado, se a randomização no algoritmo não for completamente óbvia.
Em alguns casos, pode ser apropriado nem mesmo dar muito mais detalhes do que
apenas ligando para o glossário; vamos ter que ver como vai.

Ok, obrigado. Vou começar a examinar os algoritmos lentamente.

Cumprimentos,
Shivam Rastogi

Eu abri uma solicitação pull # 10614

Uma vez que @ aby0 ainda não reivindicou o módulo sklearn.cluster. Eu gostaria de reivindicar todo o módulo. Por favor, deixe-me saber se eu posso trabalhar nisso ou se devo trabalhar em outra coisa.

Alguma atualização pessoal? É um feriado longo para nós, então me diga se eu posso escolher este.

Vou pegar o módulo datasets , pois já estou vasculhando as docstrings por # 10731.

Estou reivindicando o módulo linear_model . vai levantar um PR em breve. # 11900 gerado.

A seguir, reivindicando o módulo decomposition .

Lista de verificação dos módulos onde isso precisa ser feito:

  • [] desenvolvedores
  • [ ] covariância
  • [x] decomposição
  • [] manequim.py
  • [] conjunto
  • [] feature_extraction
  • [] feature_selection
  • [] processo_ gaussian
  • [] kernel_approximation.py
  • [x] linear_model via # 11900
  • [ ] múltiplo
  • [ ] Métricas
  • [] mistura
  • [] model_selection
  • [] multiclass.py
  • [] multioutput.py
  • [ ] vizinhos
  • [ ] rede neural
  • [ ] pré-processando
  • [] random_projection.py
  • [] svm
  • [ ] árvore
  • [ ] útil

Tivemos alguns problemas para chegar a um consenso sobre como encontrar o equilíbrio certo
aqui iirc

Portanto, preste atenção aos PRs anteriores combinados acima

@jnothman obrigado! atualizará os PRs para mencionar a reprodutibilidade ao passar um int.

disposto a assumir todos os outros módulos em outro PR, uma vez que estes tenham sido revisados ​​...

Estou reivindicando covariância.

@BlackTeaAndCoffee , esteja ciente, o formato da string doc ainda não foi finalizado, discussões estão acontecendo nos outros PRs listados aqui. Então você pode querer dar uma olhada também.

Estou reivindicando feature_extraction

@jnothman , @NicolasHug , acabou de descobrir o # 15222 e uma série de RP relacionadas a ele que não levei em consideração ao resumir este ... alguns deles nunca foram revisados ​​... :(
Para deixar as coisas claras para os sprints, gostaria de saber se podemos encerrar um desses dois problemas: se sim, qual? Como posso evitar informações duplicadas. Agradecemos a sua colaboração.

Eu não estava ciente desse problema (deveria ter verificado melhor), estou feliz em fechar https://github.com/scikit-learn/scikit-learn/issues/15222 em favor deste aqui

Seguindo o comentário de @jnothman, talvez esse problema mereça um rótulo de 'Moderado'?

Queremos trabalhar em ensemble / _hist_gradient_boosting / binning.
@mojc e eu.

wimlds

@anaisabeldhero e eu queremos trabalhar no manifold / *
#wimlds #SciKitLearnSprint

@ daphn3k e eu trabalharemos em sklearn / gaussian_process /

wimlds #SciKitLearnSprint

Queremos trabalhar em sklearn / preprocessing / _data.py - 2178, 2607
@rachelcjordan e @ fabi-cast

wimlds #SciKitLearnSprint

Eu e @Malesche queremos fazer o sklearn / inspect / _permutation_importance.py

WiMLDS

reivindicando o arquivo sklearn / metrics / cluster / _unsupervised.py! #wimlds

@ daphn3k e eu também consideramos a covariância / * e os vizinhos / * #wimlds

alegar:
sklearn / dummy.py - 59
sklearn / multioutput.py - 578, 738
sklearn / kernel_approximation.py - 41, 143, 470
sklearn / multiclass.py - 687
sklearn / random_projection.py - 178, 245, 464, 586

PSA: por favor, use a frase original

Passe um int para resultados reproduzíveis em várias chamadas de função.

em vez do que estou vendo nos PRs no momento:

Use um int para tornar a aleatoriedade determinística

o que não é correto, uma vez que o RNG é sempre determinístico, independentemente do que é passado

CC @adrinjalali já que acho que você está no sprint

trabalhando na rede neural e mistura

PSA: por favor, use a frase original

Passe um int para resultados reproduzíveis em várias chamadas de função.

em vez do que estou vendo nos PRs no momento:

Use um int para tornar a aleatoriedade determinística

o que não é correto, uma vez que o RNG é sempre determinístico, independentemente do que é passado

CC @adrinjalali já que acho que você está no sprint

Olá @NicolasHug, pretendia comentar um PR, suponho ... qual? :)

vai trabalhar em scikit-learn / sklearn / model_selection / _validation.py

@cmarmo Esse foi um comentário geral para todos os PRs. Eu vi um e comentei lá, depois vi um segundo e descobri que era um padrão que seria melhor abordado na fonte

@cmarmo Esse foi um comentário geral para todos os PRs. Eu vi um e comentei lá, depois vi um segundo e descobri que era um padrão que seria melhor abordado na fonte

Desculpe @NicolasHug , que pena, não achei o comentário fácil de rastrear.

@NicolasHug A frase original foi corrigida nos commits de @anaisabeldhero e de mim

Eu e a @Olks afirmamos sklearn / utils / extmath.py - 185, 297

Reivindicar sklearn / ensemble / _iforest.py - 109

Reivindicar sklearn / neural_network / _multilayer_perceptron.py - 782, 1174

Reivindique sklearn / ensemble / _weight_boosting.py - 188, 324, 479, 900, 1022

Reivindique sklearn / multioutput.py - 578, 738

Alegar :
sklearn / blend / _bayesian_mixture.py - 166
sklearn / blend / _base.py - 139
sklearn / blend / _gaussian_mixture.py - 504

Reivindicar sklearn / ensemble / _gb.py - 887, 1360

Reivindique sklearn / ensemble / _hist_gradient_boosting / gradient_boosting.py - 736, 918

Reivindicar sklearn / neural_network / _rbm.py - 59

Alegar :

sklearn / svm / _classes.py - 90, 312, 546, 752
sklearn / svm / _base.py - 853

Alegar:

sklearn / feature_selection / _mutual_info.py - 226, 335, 414
sklearn / metrics / cluster / _unsupervised.py - 80
sklearn / utils / _testing.py - 521
sklearn / utils / init.py - 478, 623

Alegar :

sklearn / dummy.py - 59
sklearn / random_projection.py - 178, 245, 464, 586

@DatenBiene @GregoireMialon Obrigado por todas as suas contribuições durante o último sprint. Existem apenas 3 módulos desmarcados!

Você estaria interessado / teria tempo / motivação para lidar com isso (sem pressão!)?

Oi Jérémie! Vou tentar dar uma olhada nisso logo

Le mer. 12 de fevereiro. 2020 à 15:53, Jérémie du Boisberranger <
notificaçõ[email protected]> a écrit:

@DatenBiene https://github.com/DatenBiene @GregoireMialon
https://github.com/GregoireMialon Obrigado por todas as suas contribuições
durante o último sprint. Existem apenas 3 módulos desmarcados!

Você estaria interessado / teria tempo / motivação para lidar com eles (não
pressão !) ?

-
Você está recebendo isso porque foi mencionado.
Responda a este e-mail diretamente, visualize-o no GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548?email_source=notifications&email_token=AFY4624NQL3EAFLBGPUNAE3RCQEO3A5CNFSM4EOCFD32YY3PNVWWK3TUL52HS4DFVREXG43VMVBW63LNMVXHJKTDN5WW2ZLOORPWSZGOELRBT2A#issuecomment-585243112 ,
ou cancelar
https://github.com/notifications/unsubscribe-auth/AFY4625457AU7OL4E4EUVOTRCQEO3ANCNFSM4EOCFD3Q
.

Olá @jeremiedbb! Vou tentar terminar os 3 módulos restantes hoje 😃

Alegar:

sklearn / kernel_approximation.py - 41, 143, 470
sklearn / multiclass.py - 687
sklearn / ensemble / _base.py - 52

Olá @jnothman e @jeremiedbb , parece que todos os arquivos foram modificados. Eu ficaria feliz em ajudar se você encontrar algum problema remanescente.

Muito obrigado @DatenBiene e todos os colaboradores que trabalharam para encerrar esta edição!
Acho que podemos fechar este enorme!
Sinta-se à vontade para abrir novos problemas específicos se algo ainda estiver faltando random_state descrição de

Esta página foi útil?
0 / 5 - 0 avaliações