Scikit-learn: Rendez les descriptions random_state plus informatives et reportez-vous au glossaire

Créé le 29 janv. 2018  ·  60Commentaires  ·  Source: scikit-learn/scikit-learn

Nous avons récemment ajouté un glossaire à notre documentation, qui décrit entre autres les paramètres communs. Nous devrions maintenant remplacer les descriptions des paramètres random_state pour les rendre plus concises et informatives (voir #10415). Par exemple, au lieu de

    random_state : int, RandomState instance or None, optional, default: None
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

dans KMeans et MiniBatchKMeans, nous pourrions avoir :

KMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.


MiniBatchKMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization and
        random reassignment.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.

Par conséquent, la description doit se concentrer sur l'impact de random_state sur l'algorithme.

Les contributeurs intéressés à contribuer à ce changement doivent commencer par un module à la fois.

La liste des estimateurs à modifier est la suivante :

Liste des fichiers à modifier à l'aide du script kwinata

  • [x] [sklearn/dummy.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/dummy.py) - 59
  • [x] [sklearn/multioutput.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multioutput.py) - 578 , 738
  • [ ] [sklearn/kernel_approximation.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/kernel_approximation.py) - 41 , 143 , 470
  • [ ] [sklearn/multiclass.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multiclass.py) - 687
  • [x] [sklearn/random_projection.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/random_projection.py) - 178 , 245 , 464 , 586
  • [x] [sklearn/feature_extraction/image.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_extraction/image.py) - 368 , 502
  • [x] [sklearn/utils/random.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/random.py) - 39 relations publiques ouvertes
  • [x] [sklearn/utils/extmath.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/extmath.py) - 185 , 297
  • [x] [sklearn/ensemble/_hist_gradient_boosting/gradient_boosting.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/gradient_boosting.py) - 736 , 918
  • [x] [sklearn/ensemble/_hist_gradient_boosting/binning.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/binning.py) - 37 , 112

  • [x] [sklearn/ensemble/_bagging.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_bagging.py) - 503 , 902

  • [x] [sklearn/ensemble/_gb.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_gb.py) - 887 , 1360
  • [x] [sklearn/ensemble/_forest.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_forest.py) - 965 , 1282 , 1559 , 1868 , 2103
  • [x] [sklearn/ensemble/_iforest.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_iforest.py) - 109
  • [ ] [sklearn/ensemble/_base.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_base.py) - 52
  • [x] [sklearn/ensemble/_weight_boosting.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_weight_boosting.py) - 188 , 324 , 479 , 900 , 1022
  • [x] [sklearn/decomposition/_truncated_svd.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_truncated_svd.py) - 59 Open PR
  • [x] [sklearn/decomposition/_kernel_pca.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_kernel_pca.py) - 79 Open PR
  • [x] [sklearn/decomposition/_dict_learning.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_dict_learning.py) - 364 , 485 , 692 , 1135 , 1325 RP ouvert
  • [x] [sklearn/decomposition/_fastica.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_fastica.py) - 205 , 344 Open PR
  • [x] [sklearn/decomposition/_nmf.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_nmf.py) - 290 , 475 , 966 , 1159 Ouvert RP
  • [x] [sklearn/decomposition/_pca.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_pca.py) - 192 Open PR
  • [x] [sklearn/decomposition/_sparse_pca.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_sparse_pca.py) - 82 , 285 Open PR
  • [x] [sklearn/decomposition/_lda.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_lda.py) - 60 , 79 , 225 Open PR
  • [x] [sklearn/decomposition/_factor_analysis.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_factor_analysis.py) - 92 Open PR
  • [x] [sklearn/cluster/_kmeans.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_kmeans.py) - 56 , 241 , 380 , 583 , 700 , 1150 , 1370
  • [x] [sklearn/cluster/_spectral.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_spectral.py) - 41 , 197 , 313
  • [x] [sklearn/cluster/_bicluster.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_bicluster.py) - 236 , 383
  • [x] [sklearn/cluster/_mean_shift.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_mean_shift.py) - 48
  • [x] [sklearn/preprocessing/_data.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/preprocessing/_data.py) - 2178 , 2607
  • [x] [sklearn/impute/_iterative.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/impute/_iterative.py) - 125
  • [x] [sklearn/linear_model/_ransac.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ransac.py) - 152 Open PR
  • [x] [sklearn/linear_model/_coordinate_descent.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_coordinate_descent.py) - 580 , 860 , 1313 , 1487 , 1665 , 1851 , 2016 , 2192 RP ouvert
  • [x] [sklearn/linear_model/_sag.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_sag.py) - 154 Open PR
  • [x] [sklearn/linear_model/_perceptron.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_perceptron.py) - 55 Open PR
  • [x] [sklearn/linear_model/_passive_aggressive.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_passive_aggressive.py) - 76 , 322 Open PR
  • [x] [sklearn/linear_model/_logistic.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_logistic.py) - 587 , 924 , 1100 , 1658 Ouvert RP
  • [x] [sklearn/linear_model/_base.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_base.py) - 65
  • [x] [sklearn/linear_model/_stochastique_gradient.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_stochastique_gradient.py) - 369 , 811 , 1419 Open PR
  • [x] [sklearn/linear_model/_theil_sen.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_theil_sen.py) - 243 Open PR
  • [x] [sklearn/linear_model/_ridge.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ridge.py) - 325 , 693 , 853 Open PR
  • [x] [sklearn/tree/_classes.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/tree/_classes.py) - 653 , 1033 , 1322 , 1552
  • [x] [sklearn/feature_selection/_mutual_info.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_selection/_mutual_info.py) - 226 , 335 , 414
  • [x] [sklearn/metrics/cluster/_unsupervised.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/metrics/cluster/_unsupervised.py) - 80
  • [x] [sklearn/svm/_classes.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_classes.py) - 90 , 312 , 546 , 752 Ouvert RP
  • [x] [sklearn/svm/_base.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_base.py) - 853 Open PR
  • [x] [sklearn/inspection/_permutation_importance.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/inspection/_permutation_importance.py) - 81
  • [x] [sklearn/gaussian_process/_gpr.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpr.py) - 109 , 382
  • [x] [sklearn/gaussian_process/_gpc.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpc.py) - 110 , 537
  • [x] [sklearn/manifold/_spectral_embedding.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_spectral_embedding.py) - 171 , 387
  • [x] [sklearn/manifold/_locally_linear.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_locally_linear.py) - 146 , 252 , 584
  • [x] [sklearn/manifold/_t_sne.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_t_sne.py) - 558
  • [x] [sklearn/manifold/_mds.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_mds.py) - 51 , 198 , 314
  • [x] [sklearn/utils/_testing.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/_testing.py) - 521
  • [x] [sklearn/utils/__init__.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/__init__.py) - 478 , 623
  • [x] [sklearn/datasets/_kddcup99.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_kddcup99.py) - 79
  • [x] [sklearn/datasets/_covtype.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_covtype.py) - 69
  • [x] [sklearn/datasets/_rcv1.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_rcv1.py) - 114
  • [x] [sklearn/datasets/_samples_generator.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_samples_generator.py) - 127 , 323 , 440 , 531 , 618 , 688 , 767 , 904 , 965 , 1030 , 1106 , 1159 , 1218 , 1258 , 1307 , 1368 , 1420 , 1483 , 1571 , 1662
  • [x] [sklearn/datasets/_olivetti_faces.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_olivetti_faces.py) - 64
  • [x] [sklearn/datasets/_base.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_base.py) - 157
  • [x] [sklearn/datasets/_twenty_newsgroups.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_twenty_newsgroups.py) - 187
  • [x] [sklearn/mixture/_bayesian_mixture.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_bayesian_mixture.py) - 166
  • [x] [sklearn/mixture/_base.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_base.py) - 139
  • [x] [sklearn/mixture/_gaussian_mixture.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_gaussian_mixture.py) - 504
  • [x] [sklearn/model_selection/_validation.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_validation.py) - 1006 , 1176
  • [x] [sklearn/model_selection/_split.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_split.py) - 382 , 588 , 1091 , 1196 , 1250 , 1390 , 1492 , 1605 , 2049 RP ouvert
  • [x] [sklearn/model_selection/_search.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_search.py) - 207 , 1299
  • [x] [sklearn/neural_network/_multilayer_perceptron.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_multilayer_perceptron.py) - 782 , 1174
  • [x] [sklearn/neural_network/_rbm.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_rbm.py) - 59
  • [x] [sklearn/neighbors/_kde.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbors/_kde.py) - 233
  • [x] [sklearn/neighbors/_nca.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbors/_nca.py) - 112
  • [x] [sklearn/covariance/_robust_covariance.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_robust_covariance.py) - 63 , 233 , 328 , 545
  • [x] [sklearn/covariance/_elliptic_envelope.py](https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_elliptic_envelope.py) - 40
Documentation Moderate Sprint good first issue

Commentaire le plus utile

Nous voulons travailler sur sklearn/preprocessing/_data.py - 2178, 2607
@rachelcjordan et @fabi-cast

wimlds #SciKitLearnSprint

Tous les 60 commentaires

Salut @jnothman , puis-je prendre ce problème ? Merci

Réclamez un module/sous-package et lancez-vous...

Le 30 janvier 2018 à 00h24, Somya Anand [email protected] a écrit :

Salut @jnothman https://github.com/jnothman , Puis-je prendre ce problème ? Merci

-
Vous recevez ceci parce que vous avez été mentionné.
Répondez directement à cet e-mail, consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548#issuecomment-361243951 ,
ou couper le fil
https://github.com/notifications/unsubscribe-auth/AAEz62ie2pMFVg7uM6_MVnmWKRX-efgHks5tPcaHgaJpZM4Rwij3
.

@jnothman Je suis désolé d'être naïf, mais pouvez-vous élaborer sur le module/sous-module ? Je veux dire, faites-vous référence à un sous-ensemble comme Kmeans par exemple ?

Je pense que @jnothman signifie simplement commencer avec un fichier, par exemple sklearn/cluster/k_means_.py, mettre à jour la docstring random_state comme dans le post du haut et ouvrir un PR.

un sous-paquet est quelque chose comme sklearn.cluster

Merci. Fera cela et ouvrira un PR.

Salut! @jnothman

Souhaitez-vous également remplacer les commentaires suivants tels qu'ils apparaissent dans grid_search.py ? Ils ont une ligne supplémentaire par rapport à celle que vous partagez.

random_state : int, RandomState instance or None, optional (default=None)
        Pseudo random number generator state used for random uniform sampling
        from lists of possible values instead of scipy.stats distributions.
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

Je peux prendre grid_search.py ​​et k_means.py(KMeans).

laissez grid_search.py ​​tranquille. il est obsolète. L'idée est de minimiser la
contenu qui est répété, et disponible dans le glossaire, afin que nous puissions
donner aux utilisateurs la description la plus informative sur le rôle de random_state dans
l'estimateur particulier.

Merci @jnothman. Aurai-je besoin de comprendre ces algorithmes avant de pouvoir remplacer ces informations random_state ?

Vous devrez comprendre les algorithmes dans leur ensemble, mais pas tous les détails de
leur mise en œuvre. Vous devrez être en mesure de trouver où random_state
est utilisé, si la randomisation dans l'algorithme n'est pas complètement évidente.
Dans certains cas, il peut être approprié de ne même pas donner beaucoup plus de détails que
juste un lien vers le glossaire ; il faudra voir comment ça se passe.

D'accord, merci. Je vais commencer à parcourir les algorithmes lentement.

Salutations,
Shivam Rastogi

J'ai ouvert une pull request #10614

Puisque @aby0 n'a pas encore réclamé le module sklearn.cluster. Je voudrais réclamer le module entier. S'il vous plaît laissez-moi savoir si je peux travailler dessus ou si je devrais travailler sur autre chose.

Une mise à jour les gars? Ce sont de longues vacances pour nous, alors faites-moi savoir si je peux choisir cela.

Je vais prendre le module datasets puisque je fouille déjà dans les docstrings pour #10731.

Je réclame le module linear_model . soulèvera un PR bientôt. #11900 élevé.

Réclamer le module decomposition ensuite.

Liste de contrôle des modules où cela doit être fait :

  • [ ] développeurs
  • [ ] covariance
  • [x] décomposition
  • [ ] mannequin.py
  • [ ] ensemble
  • [ ] extraction de caractéristiques
  • [ ] sélection de fonctionnalité
  • [ ] processus_gaussien
  • [ ] kernel_approximation.py
  • [x] linear_model via #11900
  • [ ] collecteur
  • [ ] métriques
  • [ ] mélange
  • [ ] sélection_modèle
  • [ ] multiclasse.py
  • [ ] multisortie.py
  • [ ] voisins
  • [ ] réseau neuronal
  • [ ] prétraitement
  • [ ] projection_aléatoire.py
  • [ ] svm
  • [ ] arbre
  • [ ] utilitaires

Nous avons eu du mal à parvenir à un consensus sur la manière de trouver le bon équilibre
ici, iirc

Faites donc attention aux PR précédents fusionnés ci-dessus

@jnothman merci ! mettra à jour les PRs pour mentionner la reproductibilité lors du passage d'un int.

disposé à reprendre tous les autres modules dans un autre PR, une fois ceux-ci passés en revue...

Je revendique la covariance.

@BlackTeaAndCoffee , sachez que le format de la chaîne doc n'est pas encore finalisé, des discussions ont eu lieu sur les autres PR répertoriés ici. Alors vous voudrez peut-être jeter un coup d'œil aussi.

Je réclame feature_extraction

@jnothman , @NicolasHug , vient de découvrir le #15222 et un certain nombre de relations publiques qui s'y rapportent que je n'ai pas pris en compte pour résumer celui-ci... certains d'entre eux n'ont jamais été examinés... :(
Afin de clarifier les choses pour les sprints, je me demande si nous pouvons clôturer l'un de ces deux problèmes : si oui, lequel ? Comme je peux éviter les informations dupliquées. Merci pour votre collaboration.

Je n'étais pas au courant de ce problème (j'aurais dû mieux vérifier), je suis heureux de fermer https://github.com/scikit-learn/scikit-learn/issues/15222 en faveur de celui-ci

Suite au commentaire de @jnothman, ce problème pourrait peut-être mériter une étiquette « Modéré » ?

Nous voulons travailler sur ensemble/_hist_gradient_boosting/binning.
@mojc et moi.

les sorcières

@anaisabeldhero et moi voulons travailler sur manifold/*
#wimlds #SciKitLearnSprint

@daphn3k et moi allons travailler sur sklearn/gaussian_process/

wimlds #SciKitLearnSprint

Nous voulons travailler sur sklearn/preprocessing/_data.py - 2178, 2607
@rachelcjordan et @fabi-cast

wimlds #SciKitLearnSprint

Moi et @Malesche voulons prendre le sklearn/inspection/_permutation_importance.py

WiMLDS

revendiquant le fichier sklearn/metrics/cluster/_unsupervised.py ! #wimlds

@daphn3k et je prends aussi la covariance/* et les voisins/* #wimlds

Réclamer:
sklearn/dummy.py - 59
sklearn/multioutput.py - 578, 738
sklearn/kernel_approximation.py - 41, 143, 470
sklearn/multiclass.py - 687
sklearn/random_projection.py - 178, 245, 464, 586

Message d'intérêt public : veuillez utiliser la phrase originale

Passez un int pour des résultats reproductibles sur plusieurs appels de fonction.

au lieu de ce que je vois dans les relations publiques en ce moment :

Utilisez un int pour rendre le caractère aléatoire déterministe

ce qui n'est pas correct, puisque le RNG est toujours déterministe quel que soit ce qui est passé

CC @adrinjalali puisque je pense que tu es au sprint

travailler sur le réseau de neurones et le mélange

Message d'intérêt public : veuillez utiliser la phrase originale

Passez un int pour des résultats reproductibles sur plusieurs appels de fonction.

au lieu de ce que je vois dans les relations publiques en ce moment :

Utilisez un int pour rendre le caractère aléatoire déterministe

ce qui n'est pas correct, puisque le RNG est toujours déterministe quel que soit ce qui est passé

CC @adrinjalali puisque je pense que tu es au sprint

Salut @NicolasHug, c'était pour commenter un PR, je suppose... lequel ? :)

va travailler sur scikit-learn/sklearn/model_selection/_validation.py

@cmarmo C'était un commentaire général pour tous les PR. J'en ai vu un et j'y ai commenté, puis j'en ai vu un deuxième et j'ai compris que c'était un modèle qui serait mieux traité à la source

@cmarmo C'était un commentaire général pour tous les PR. J'en ai vu un et j'y ai commenté, puis j'en ai vu un deuxième et j'ai compris que c'était un modèle qui serait mieux traité à la source

Désolé @NicolasHug , mon mauvais, je n'ai pas trouvé le commentaire facile à tracer.

@NicolasHug La phrase originale a été corrigée dans les commits de @anaisabeldhero et moi

Moi et @Olks revendiquons sklearn/utils/extmath.py - 185, 297

Revendication sklearn/ensemble/_iforest.py - 109

Réclamer sklearn/neural_network/_multilayer_perceptron.py - 782, 1174

Réclamer sklearn/ensemble/_weight_boosting.py - 188, 324, 479, 900, 1022

Réclamer sklearn/multioutput.py - 578, 738

Réclamer :
sklearn/mixture/_bayesian_mixture.py - 166
sklearn/mixture/_base.py - 139
sklearn/mixture/_gaussian_mixture.py - 504

Réclamer sklearn/ensemble/_gb.py - 887, 1360

Réclamer sklearn/ensemble/_hist_gradient_boosting/gradient_boosting.py - 736, 918

Réclamer sklearn/neural_network/_rbm.py - 59

Réclamer :

sklearn/svm/_classes.py - 90, 312, 546, 752
sklearn/svm/_base.py - 853

Réclamer:

sklearn/feature_selection/_mutual_info.py - 226, 335, 414
sklearn/metrics/cluster/_unsupervised.py - 80
sklearn/utils/_testing.py - 521
sklearn/utils/init.py - 478, 623

Réclamer :

sklearn/dummy.py - 59
sklearn/random_projection.py - 178, 245, 464, 586

@DatenBiene @GregoireMialon Merci pour toutes vos contributions lors du dernier sprint. Il ne reste que 3 modules non cochés !

Seriez-vous intéressé/auriez-vous le temps/la motivation pour vous y attaquer (pas de pression !) ?

Salut Jérémie ! je vais essayer d'y jeter un oeil prochainement

Le mer. 12 févr. 2020 à 15:53, Jérémie du Boisberranger <
[email protected]> un écrit :

@DatenBiene https://github.com/DatenBiene @GregoireMialon
https://github.com/GregoireMialon Merci pour toutes vos contributions
lors du dernier sprint. Il ne reste que 3 modules non cochés !

Seriez-vous intéressé / avez-vous le temps / avez-vous la motivation pour vous attaquer à ceux-ci (non
pression !) ?

-
Vous recevez ceci parce que vous avez été mentionné.
Répondez directement à cet e-mail, consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548?email_source=notifications&email_token=AFY4624NQL3EAFLBGPUNAE3RCQEO3A5CNFSM4EOCFD32YY3PNVWWK3TUL52HS4DFVREXG43VMHJW63LNMVA5CNFSM4EOCFD32YY3PNVWWK3TUL52HS4DFVREXG43VMHJW63LNMVA
ou se désinscrire
https://github.com/notifications/unsubscribe-auth/AFY4625457AU7OL4E4EUVOTRCQEO3ANCNFSM4EOCFD3Q
.

Salut @jeremiedbb ! Je vais essayer de finir les 3 modules restants aujourd'hui 😃

Réclamer:

sklearn/kernel_approximation.py - 41, 143, 470
sklearn/multiclass.py - 687
sklearn/ensemble/_base.py - 52

Salut @jnothman et @jeremiedbb , ressemble à tous les fichiers qui ont été modifiés. Je serais heureux de vous aider si vous trouvez des problèmes restants.

Merci beaucoup @DatenBiene et tous les contributeurs qui ont travaillé pour clore ce problème !
Je pense que nous pouvons fermer cet énorme!
N'hésitez pas à ouvrir de nouveaux problèmes spécifiques s'il manque encore quelque chose dans la description de random_state .

Cette page vous a été utile?
0 / 5 - 0 notes