Scikit-learn: Ajouter des exemples aux documents de classe

Créé le 12 nov. 2014  ·  165Commentaires  ·  Source: scikit-learn/scikit-learn

__MISE À JOUR 23 mai 202__

Voici une liste des classes restantes :

  • [ ] feature_selection.SelectorMixin
  • [x] calibration.CalibratedClassifierCV ( #15134 )
  • [ ] decomposition.DictionaryLearning ( #16907 )
  • [ ] decomposition.MiniBatchDictionaryLearning ( #16907 )
  • [ ] décomposition.SparseCoder ( #15233 )
  • [ ] ensemble.GradientBoostingClassifier
  • [x] processus_gaussien.kernels.CompoundKernel
  • [ ] processus_gaussien.kernels.Hyperparameter
  • [ ] processus_gaussien.kernels.Kernel
  • [ ] processus_gaussien.kernels.PairwiseKernel
  • [ ] inspection.PartialDependenceDisplay
  • [x] linear_model.PoissonRegressor
  • [x] linear_model.TweedieRegressor
  • [x] linear_model.GammaRegressor
  • [x] metrics.ConfusionMatrixDisplay
  • [x] metrics.PrecisionRecallDisplay
  • [ ] mélange.BayesianGaussianMélange
  • [ ] mélange.GaussianMélange
  • [ ] multioutput.ClassifierChain ( #15211 )
  • [x] multioutput.RegressorChain ( #15215 )
  • [ ] voisins.BallTree
  • [ ] voisins.DistanceMetric
  • [ ] voisins.KDTree

La plupart des docs des classes manquent d'exemples. Ce serait bien d'ajouter un ou deux exemples similaires à celui-ci, http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html
image

Documentation Easy good first issue

Commentaire le plus utile

Clôturez ceci car tous les PR ont été fusionnés et il n'y a plus de classes pertinentes sans exemples.
Merci @j2heng d' avoir aidé au triage pendant le sprint !

Tous les 165 commentaires

Je suppose que vous voulez dire un petit extrait de code/doctest utilisant chaque estimateur.

C'est l'une des raisons pour lesquelles j'ai ajouté des liens automatiques vers des liens pertinents
exemples de la galerie lors de l'affichage de la référence API compilée, par exemple
http://scikit-learn.org/dev/modules/generated/sklearn.manifold.Isomap.html#examples -using-sklearn-manifold-isomap.
Malheureusement, il n'y avait pas de moyen simple de les rendre où
les exemples doctest le font (et ils ont donc été relégués à la fin du
page qui est hors de la génération numpydoc).

Le 12 novembre 2014 à 23h06, Manoj Kumar [email protected] a écrit :

La plupart des docs des classes manquent d'exemples. ce serait bien d'en rajouter un
ou deux exemples similaires à celui-ci,
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html

-
Répondez directement à cet e-mail ou consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846.

Oui, je voulais dire probablement une ou deux doublures (par exemple) https://github.com/scikit-learn/scikit-learn/pull/3802/files#diff -1741ad6b05f1eb0fd71af8bad0e001c7R321 juste pour montrer l'API.

C'est l'une des raisons pour lesquelles j'ai ajouté des liens automatiques vers des exemples pertinents de la galerie lors de l'affichage de la référence API compilée

C'est génial. Je ne l'avais pas remarqué avant !

C'est génial. Je ne l'avais pas remarqué avant !

Uniquement en dév. Et caché en bas de la page :(

Où d'autre pensez-vous que ce serait mieux?

Au-dessous de la description de la classe et au-dessus des paramètres ?

N'importe où avant la description de la méthode conviendrait. Les descriptions de méthodes peuvent occuper beaucoup d'espace vertical sur la page de référence de l'API, il est donc peu probable que quelqu'un les dépasse à la recherche d'exemples.

Désolé pour la réponse tardive. Je suppose que ce n'est pas trop facile à faire? Sinon tu l'aurais fait toi-même ?

Non, c'est encore plus hack que l'approche actuelle !

Le 19 novembre 2014 à 21h59, Manoj Kumar [email protected] a écrit :

Désolé pour la réponse tardive. Je suppose que ce n'est pas trop facile à faire? Autre
tu l'aurais fait toi même ?

-
Répondez directement à cet e-mail ou consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846#issuecomment -63623385
.

Que diriez-vous d'ajouter simplement des exemples à la docstring des classes manquantes ?

Ce sont les estimateurs ( 98 - 10 / 148 ) auxquels il manque actuellement une section Examples :-

Terminé/WIP

ExtraTreesRegressor
BaggingClassifier
BaggingRegressor

4498 -

AdaBoostRegressor
GradientBoostingRegressor

Pas besoin

ExtraTreeClassifier  # Used only in ensembling
ExtraTreeRegressor # -do-

FAIRE

AffinityPropagation
AgglomerativeClustering
Binarizer
CheckingClassifier
CountVectorizer
DBSCAN
DPGMM
DictionaryLearning
ElasticNet
ElasticNetCV
EmpiricalCovariance
FactorAnalysis
FastICA
FeatureAgglomeration
GaussianRandomProjection
GenericUnivariateSelect
GraphLasso
GraphLassoCV
HashingVectorizer
Imputer
IncrementalPCA
Isomap
KMeans
KernelCenterer
KernelDensity
KernelPCA
LarsCV
LassoCV
LassoLarsCV
LedoitWolf
LinearRegression
LinearSVC
LinearSVR
LocallyLinearEmbedding
LogOddsEstimator
LogisticRegression
LogisticRegressionCV
MDS
MeanEstimator
MeanShift
MinCovDet
MinMaxScaler
MiniBatchDictionaryLearning
MiniBatchKMeans
MiniBatchSparsePCA
MultiTaskLassoCV
Normalizer
Nystroem
OAS
OneClassSVM
OrthogonalMatchingPursuit
OrthogonalMatchingPursuitCV
PLSSVD
PassiveAggressiveClassifier
PassiveAggressiveRegressor
PatchExtractor
Perceptron
PriorProbabilityEstimator
QuantileEstimator
RANSACRegressor
RBFSampler
RandomForestClassifier
RandomForestRegressor
RidgeCV
RidgeClassifier
RidgeClassifierCV
ScaledLogOddsEstimator
SelectFdr
SelectFpr
SelectFwe
SelectKBest
SelectPercentile
ShrunkCovariance
SkewedChi2Sampler
SparsePCA
SparseRandomProjection
SpectralBiclustering
SpectralClustering
SpectralCoclustering
SpectralEmbedding
StandardScaler
TfidfVectorizer
TheilSenRegressor
VBGMM
Ward
WardAgglomeration
ZeroEstimator

Bien sûr, mais ne pensez-vous pas que c'est un peu fastidieux ? Sauf si vous avez un script.

Je voulais en savoir un peu plus sur tous ces estimateurs... Je pense que ce serait un bon moyen de faire ça :) Est-ce que je commence à travailler dessus ?

Sûr!

Je travaille là-dessus.

@ltcguthrie quelle partie ? Il existe de nombreux modèles sur lesquels travailler pour cela.

Je vais commencer par TfidfVectorizer.

Travailler sur RandomForestClassifier et RandomForestRegressor

Travailler sur PassiveAggressiveClassifier, PassiveAggressiveRegressor

Travailler sur LinearSVC, LinearSVR

Travailler sur StandardScaler, MinMaxScaler

Travailler sur ElasticNet, ElasticNetCV

En outre, créé google doc pour la liste des objets terminés/annulés

https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid =0

@lodurality vous pouvez également créer une liste ici avec des cases à cocher

  • [ ] Comme
  • [ ] cette

Je vais le marquer comme 0.21 et bon premier numéro car je pense qu'il sera utile d'inclure un petit exemple pour chaque classe.

travailler sur sklearn/cluster

Salut, je travaille sur l'ajout d'un exemple pour l'Imputer comme première contribution.

Travail sur TfidfVectorizer et CountVectorizer.

On dirait que ceux-ci ont été travaillés dans les #7961 , #8519 et #8525 mais pas encore terminés ou fusionnés.

Travaille également sur HashingVectorizer dans sklearn/feature_extraction/text.py .

Prendre OPTICS . (dépend du #11677)

Prendre sklearn/feature_selection/univariate_selection.py

Je pense que vous pouvez toujours fournir un exemple pour OPTICS même avec le bug :)

@qinhanmin2014 voulez-vous dire un exemple sans valeur aberrante afin qu'il ne montre pas le bogue ? Je suppose que ce serait bien d'avoir un exemple qui montre comment OPTICS détecte une valeur aberrante, et je pense que nous oublierions de changer l'exemple une fois ce bogue corrigé. Je peux écrire une note dans le problème _bug_ pour corriger l'exemple une fois le problème résolu, mais l'exemple initial n'aura pas la valeur aberrante. Dois-je faire ça ?

voulez-vous dire un exemple sans valeur aberrante afin qu'il ne montre pas le bogue ?

Non, je veux dire un avec des valeurs aberrantes, comme DBSCAN

Je n'ai pas examiné le bogue, mais je m'attendrais à ce que OPTICS puisse détecter les valeurs aberrantes correctes la plupart du temps, vous pouvez donc toujours construire un exemple. Si ce n'est pas le cas, je pense que nous devons marquer le bogue comme bloqueur.

Assez juste, je vais essayer de voir si je peux trouver un exemple simple où cela fonctionne bien.

Prendre en charge sklearn/linear_model/ridge.py

affronter sklearn/covariance/graph_lasso_.py

prendre sklearn/linear_model/logistic.py

prendre des cours de preprocessing .

prendre Perceptron

J'ai ajouté l'exemple dans la classe Perceptron mais pour des raisons inconnues, cela ne fonctionnera pas.
Besoin d'aide, je suis novice ! (ps-j'ai déjà créé une pull request).

https://github.com/scikit-learn/scikit-learn/pull/11798

prendre sklearn/random_projection

[[MRG] Exemples de Perceptron dans Perceptron.py vers scikit-learn/scikit-learn/linear_model/perceptron.py #11798

Prendre « sklearn/manifold »

Je travaille sur sklearn.feature_extraction.image.PatchExtractor

Andrea et moi allons travailler sur l'exemple sklearn.cluster.Ward et LedoitWolf. Nous mettons à jour le tracker Excel pour nous assurer que personne ne fait des efforts en double.

Je travaille sur sklearn.decomposition.DictionaryLearning

Nous venons de mettre à jour le google doc de @lodurality ici :
https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid =0

Moi et Shimeng travaillerons sur les manquants.

@andreanr , ce document est un peu ancien et il manque tout un tas de nouvelles classes. Une meilleure idée serait de prendre un module ou un dossier et de couvrir toutes les classes publiques qu'il contient.

@adrinjalali Oui, définitivement, nous terminerons les plus importants de la liste actuelle, puis nous mettrons à jour la liste en fonction des modules mis à jour.

@andreanr travailles-tu aussi sur les cours de ensemble.gradient_boosting ? Sinon, j'aimerais travailler là-dessus.

@daten-kieker vas-y !

Salut,

Reste-t-il quelque chose auquel je pourrais contribuer ?

Merci.

@srividhyaprakash Je n'ai ajouté que des exemples d'estimateurs dans ensemble.gradient_boosting . Vous pouvez jeter un œil aux autres classes.

@daten-kieker, merci pour votre réponse. C'est la première fois que je participe à un dépôt public bien entretenu. Pourriez-vous s'il vous plaît me guider sur un possible guide de démarrage pour valider le style et le format de l'exemple ?
Merci.

@srividhyaprakash , vous pouvez commencer par parcourir ce que vous trouvez dans le guide du développeur . Vous pouvez également demander sur gitter si vous avez des questions pour commencer. Je vous souhaite un joyeux voyage de contribution ici.

Une fois que vous avez commencé sur ce problème particulier, vous pouvez vérifier certaines des demandes d'extraction que vous voyez sur ce fil pour avoir une idée de ce que cela implique.

Bonjour, y a-t-il quelque chose que je pourrais aider?

S'il est toujours disponible, puis-je gérer la docstring LinearRegression ?

@adrinjalali excuses, je viens de lire les différents commits et j'ai vu que vous aviez déjà terminé la LinearRegression en #11975 . Puis-je traiter la docstring LogisticRegression ?

Nous avons un peu perdu la trace de ce qui reste ici. Une contribution serait de vérifier toutes les classes publiques et de lister celles qui ont encore besoin d'un exemple, et de partir de là.

@adrinjalali , je peux compiler une liste de ce qui reste

@adrinjalali , j'étais tellement excité que j'ai oublié de demander, y a-t-il une branche spécifique de ce projet qui a les dernières mises à jour ?

master a les dernières mises à jour. D'un autre côté, une approche pourrait consister à
considérer la documentation API générée (par exemple à
https://github.com/scikit-learn/scikit-learn.github.io/tree/master/dev/modules/generated)
et grep pour les fichiers ne contenant pas class="rubric">Examples

@jnothman , merci, les conseils de grappin étaient sur place. Je vais commencer à compiler la liste aujourd'hui

Vous avez besoin d'aide supplémentaire pour mettre à jour un document existant ou en créer un nouveau.. ?
Cela m'aiderait aussi à démarrer avec l'open source... donc toutes les directions ou travaux seraient appréciés.

Nous avons encore besoin d'une liste mise à jour des classes sans exemples. Ping @Khayyon1 ?

@Khayyon1 avez-vous complété la liste ou avez-vous besoin d'aide ..?

@adrinjalali , je vais devoir l'abandonner car l'école a repris peu de temps après avoir demandé de l'aide et je n'ai pas pu travailler dessus, mes excuses

@adrinjalali alors devrais-je voir quels sont tous les restes de la liste mentionnée par @raghavrv

@coderop2 c'est une liste de 3-4 ans, probablement mieux d'en commencer une nouvelle !

Désolé pour la réponse tardive... Dès que mes examens universitaires seront terminés, je commencerai à compiler une nouvelle liste tout en gardant l'ancienne liste à l'esprit... J'espère que cela suffira à servir de référence pour tout le monde

$ # list those with examples
$ git grep -p '^    Examples$' sklearn | grep '=class ' | sed 's/[^ ]* //;s/(.*//;s/:.*//' | sort > /tmp/classes_with_examples.txt
$ # rough list of all public classes
$ grep '\.[A-Z][a-zA-Z]\+' doc/modules/classes.rst  > /tmp/classes.txt
$ # classes without examples
$ grep -v -wFf /tmp/classes_with_examples.txt /tmp/classes.txt

...
that was incorrect. See below.
...

Pas sûr que ce soit exact

Cela peut être plus précis, a toujours des faux positifs. De plus, en supposant que nous n'ayons pas besoin d'exemples pour les classes Mixin et Warning.

BaggingRegressor
BallTree
BaseEstimator
BayesianGaussianMixture
CalibratedClassifierCV
ClassifierChain
ColumnTransformer
CompoundKernel
ConstantKernel
DictionaryLearning
DistanceMetric
DotProduct
DummyClassifier
DummyRegressor
Exponentiation
ExpSineSquared
ExtraTreeClassifier
ExtraTreeRegressor
ExtraTreesClassifier
ExtraTreesRegressor
FunctionTransformer
GaussianMixture
GradientBoostingClassifier
GradientBoostingRegressor
GraphLasso
GraphLassoCV
GroupShuffleSplit
Hyperparameter
Imputer
IsolationForest
IsotonicRegression
IterativeImputer
KDTree
Kernel
KernelDensity
LocalOutlierFactor
Matern
Memory
MiniBatchDictionaryLearning
MLPClassifier
MLPRegressor
MultiOutputClassifier
MultiOutputRegressor
OAS
OneClassSVM
OneVsOneClassifier
OneVsRestClassifier
OPTICS
OutputCodeClassifier
PairwiseKernel
Parallel
Product
RandomizedSearchCV
RandomTreesEmbedding
RationalQuadratic
RBF
RegressorChain
SelectFromModel
SparseCoder
Sum
TfidfTransformer
WhiteKernel

Oui, j'ai eu la mauvaise recherche, donnant de nombreux faux positifs. C'est mieux:

$ grep -v -f <(cat /tmp/classes_with_examples.txt | sed 's/.*/\\.&$/')  /tmp/classes.txt
   base.BaseEstimator
   base.BiclusterMixin
   base.ClassifierMixin
   base.ClusterMixin
   base.DensityMixin
   base.RegressorMixin
   base.TransformerMixin
   calibration.CalibratedClassifierCV
   cluster.OPTICS
    compose.ColumnTransformer
   covariance.OAS
   decomposition.DictionaryLearning
   decomposition.MiniBatchDictionaryLearning
   decomposition.SparseCoder
   dummy.DummyClassifier
   dummy.DummyRegressor
   ensemble.BaggingClassifier
   ensemble.BaggingRegressor
   ensemble.ExtraTreesClassifier
   ensemble.ExtraTreesRegressor
   ensemble.GradientBoostingClassifier
   ensemble.GradientBoostingRegressor
   ensemble.IsolationForest
   ensemble.RandomTreesEmbedding
   exceptions.ChangedBehaviorWarning
   exceptions.ConvergenceWarning
   exceptions.DataConversionWarning
   exceptions.DataDimensionalityWarning
   exceptions.EfficiencyWarning
   exceptions.NonBLASDotWarning
   exceptions.UndefinedMetricWarning
   feature_extraction.text.TfidfTransformer
   feature_selection.SelectFromModel
  gaussian_process.kernels.CompoundKernel
  gaussian_process.kernels.ConstantKernel
  gaussian_process.kernels.DotProduct
  gaussian_process.kernels.ExpSineSquared
  gaussian_process.kernels.Exponentiation
  gaussian_process.kernels.Hyperparameter
  gaussian_process.kernels.Kernel
  gaussian_process.kernels.Matern
  gaussian_process.kernels.PairwiseKernel
  gaussian_process.kernels.Product
  gaussian_process.kernels.RBF
  gaussian_process.kernels.RationalQuadratic
  gaussian_process.kernels.Sum
  gaussian_process.kernels.WhiteKernel
   isotonic.IsotonicRegression
   impute.IterativeImputer
   mixture.BayesianGaussianMixture
   mixture.GaussianMixture
   model_selection.GroupShuffleSplit
   model_selection.RandomizedSearchCV
    multiclass.OneVsRestClassifier
    multiclass.OneVsOneClassifier
    multiclass.OutputCodeClassifier
    multioutput.ClassifierChain
    multioutput.MultiOutputRegressor
    multioutput.MultiOutputClassifier
    multioutput.RegressorChain
   neighbors.BallTree
   neighbors.DistanceMetric
   neighbors.KDTree
   neighbors.KernelDensity
   neighbors.LocalOutlierFactor
   neural_network.MLPClassifier
   neural_network.MLPRegressor
   preprocessing.FunctionTransformer
   svm.OneClassSVM
   tree.ExtraTreeClassifier
   tree.ExtraTreeRegressor
   utils.Memory
   utils.Parallel
   covariance.GraphLasso
   covariance.GraphLassoCV
   preprocessing.Imputer

C'est 76 alors que votre liste est 62 : elle exclut base.* et exceptions.* ce qui est assez juste, @adrinjalali , tout en incluant des choses étranges comme Sum .

Désolé, nous incluons tous les deux Sum. Bête.

Prendre en charge GroupShuffleSplit

Je travaillerais sur des mannequins (DummyClassifier, DummyRegressor).

Voici la liste actuelle des classes qui pourraient avoir besoin d'exemples :

base.BaseEstimator
base.BiclusterMixin
base.ClassifierMixin
base.ClusterMixin
base.DensityMixin
base.RegressorMixin
base.TransformerMixin
cluster.OPTICS
compose.ColumnTransformer
covariance.OAS
decomposition.DictionaryLearning
decomposition.MiniBatchDictionaryLearning
decomposition.SparseCoder
ensemble.BaggingClassifier
ensemble.BaggingRegressor
ensemble.ExtraTreesClassifier
ensemble.ExtraTreesRegressor
ensemble.GradientBoostingClassifier
ensemble.GradientBoostingRegressor
ensemble.IsolationForest
ensemble.RandomTreesEmbedding
exceptions.ChangedBehaviorWarning
exceptions.ConvergenceWarning
exceptions.DataConversionWarning
exceptions.DataDimensionalityWarning
exceptions.EfficiencyWarning
exceptions.NonBLASDotWarning
exceptions.UndefinedMetricWarning
feature_extraction.text.TfidfTransformer
feature_selection.SelectFromModel
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.ConstantKernel
gaussian_process.kernels.DotProduct
gaussian_process.kernels.ExpSineSquared
gaussian_process.kernels.Exponentiation
gaussian_process.kernels.Hyperparameter
gaussian_process.kernels.Kernel
gaussian_process.kernels.Matern
gaussian_process.kernels.PairwiseKernel
gaussian_process.kernels.Product
gaussian_process.kernels.RBF
gaussian_process.kernels.RationalQuadratic
gaussian_process.kernels.Sum
gaussian_process.kernels.WhiteKernel
impute.IterativeImputer
inspection.PartialDependenceDisplay
metrics.RocCurveDisplay
mixture.BayesianGaussianMixture
mixture.GaussianMixture
multiclass.OneVsRestClassifier
multiclass.OneVsOneClassifier
multiclass.OutputCodeClassifier
multioutput.ClassifierChain
multioutput.MultiOutputRegressor
multioutput.MultiOutputClassifier
multioutput.RegressorChain
neighbors.BallTree
neighbors.DistanceMetric
neighbors.KDTree
neighbors.KernelDensity
neighbors.LocalOutlierFactor
neural_network.MLPClassifier
neural_network.MLPRegressor
preprocessing.FunctionTransformer
svm.LinearSVC
tree.ExtraTreeClassifier
tree.ExtraTreeRegressor
utils.Memory
utils.Parallel

Salut @pspachtholz @MechCoder , j'aimerais travailler là-dessus. Je suis intéressé à contribuer à scikit-learn et pense que cela peut être un bon point de départ.

Merci

@PyExtreme Je pense que vous pouvez simplement aller de l'avant, sélectionner une ou plusieurs classes dans la liste que vous trouvez intéressantes et ajouter des exemples. Je posterais ensuite ce sur quoi vous travaillez ici pour éviter le travail en double. Pour obtenir des conseils, vous pouvez consulter les demandes d'extraction précédemment fusionnées.

@pspachtholz , je récupère _ExtraTreesClassifier_ initialement et après avoir fait un commit, je voudrais récupérer par lots.

Merci

J'ai travaillé sur l'augmentation du gradient.

Ramasser neural_network.MLPClassifier & neural_network.MLPRegressor

Je suis sur svm.LinearSVC

Je travaille sur sklearn.multioutput.MultiOutputClassifier

Salut, je vais travailler sur mixture.BayesianGaussianMixture et mixture.GaussianMixture

Je suis sur feature_extraction.text.TfidfTransformer . Souhaite moi bonne chance!

Je suis sur feature_extraction.text.TfidfTransformer. Souhaite moi bonne chance!

travailler aussi dessus - Peut-être pouvons-nous partager des exemples ?

ramasser ensemble.ExtraTreesClassifier

Je choisis le ensemble.BaggingRegressor

Je travaille sur feature_selection.SelectFromModel

Je choisis des voisins.KernelDensity

Je suis sur ensemble.IsolationForest

sur multiclass.OneVsRestClassifier

Hé, je vais travailler sur les noyaux du processus gaussien, en commençant par gaussian_process.kernels.RBF puis sur les autres noyaux avec @thorbenjensen

Travailler sur ensemble.GradientBoostingClassifier

Travailler sur Perceptron

Travailler sur ensemble.GradientBoostingRegressor

Suivant tree.ExtraTreeClassifier

travailler sur l'ensemble.GradientBoostingRegressor

jeter un œil à multiclass.OutputCodeClassifier

En regardant neighbors.LocalOutlierFactor .

travailler sur ensemble.RandomTreesEmbedding

ramasser ensemble.ExtraTreesClassifier

Salut @jorahn , j'ai déjà soumis un PR à ce sujet.
N'hésitez pas à choisir un autre module.

Je suggère de parcourir les commentaires avant de voir si quelqu'un travaille déjà sur une classe pour éviter le travail en double.
Pour certaines classes, il existe déjà des requêtes mrg (éventuellement obsolètes), où nous pourrions demander aux auteurs s'ils y travaillent toujours activement.

@flaviomorelli @LBrummer @mschaffenroth J'ai déjà fait le dégradé d'ensemble dans ce PR #15151

Vraiment cool d'ailleurs de voir que cela prend de la vitesse :-)

ramasser ensemble.ExtraTreesClassifier

Salut @jorahn , j'ai déjà soumis un PR à ce sujet.
N'hésitez pas à choisir un autre module.

oh, je n'ai pas vu ça sur ce problème. nous avons donc maintenant deux PR pour cela

Perceptron est déjà documenté.

travailler sur tree.ExtraTreeRegressor

travailler sur impute.IterativeImputer

@pspachtholz , je récupère _ExtraTreesClassifier_ initialement et après avoir fait un commit, je voudrais récupérer par lots.

Merci

@jorahn , j'en avais parlé il y a 1 semaine ici seulement et j'y travaillais déjà depuis 1 semaine.

Travailler sur OneVsOneClassifier.

Je vais pour le metrics.RocCurveDisplay

travailler sur multioutput.ClassifierChain

Travailler sur PriorProbabilityEstimator .

Travailler sur multioutput.MultiOutputRegressor

prendre neighbors.BallTree

PriorProbabilityEstimator est obsolète dans la version 0.21 et sera supprimé dans la version 0.23. Ne travaille pas là-dessus.

Travailler sur covariance.OAS

SelectPercentile déjà documenté.

travailler sur ensemble.ExtraTreesRegressor

prendre neighbors.BallTree

il y a déjà quelques exemples pour BallTree et compose.ColumnTransformer

RANSACRegressor déjà documenté.

prendre decomposition.SparseCoder

SelectKBest déjà documenté.

SpectralClustering déjà documenté

Travailler sur IsolationForest

Travailler sur IsolationForest

Salut @zioalex , j'ai déjà un PR pour ça : #15205. Heureux de prendre des suggestions et des commentaires :smiley:

Travailler dans neighbors.DistanceMetric .

travailler sur multioutput.RegressorChain

travailler sur exceptions.ConvergenceWarning

travailler sur exceptions.ChangedBehaviorWarning

travailler sur exceptions.ChangedBehaviorWarning

Après avoir consulté @adrinjalali , nous avons conclu qu'il

Pour votre tranquillité d'esprit soyez comme nous, ne travaillez pas sur exceptions.ChangedBehaviorWarning

Travailler sur exceptions.DataDimensionalityWarning

J'aimerais travailler sur quelques-uns. Je vais commencer par l'optique.

Salut! Je viens de soulever un PR après avoir ajouté un exemple d'extrait de code au clustering K-means. Il s'agit de ma première contribution open source, donc ce serait formidable si quelqu'un pouvait examiner cela et voir s'il a besoin de plus de travail !
Merci et salutations,
Smriti Singh

J'ai parcouru la liste d'octobre dernier et vérifié quelles classes ont déjà fusionné des PR/exemples. Je suppose que les réclamations de l'année dernière ou d'il y a plus longtemps, sur lesquelles rien d'autre ne s'est produit, peuvent être ignorées.
Voici donc une liste de tâches mise à jour :

ne fonctionne pas là-dessus, cela dépend de la version : exceptions.ChangedBehaviorWarning

PR ouverts :

décomposition.SparseCoder #15233

~exceptions.DataDimensionalityWarning #15246~
mélange.BayesianGaussianMélange #15193
mélange.GaussianMélange #15193
multisortie.ClassifierChain #15211
multisortie.RegressorChain #15215

nouveau prs ouvert:
décomposition.DictionaryLearning #16907
~exceptions.EfficiencyWarning #16785~
~exceptions.UndefinedMetricWarning #16784~

Gratuit pour la prise:

(EDIT : ceux de base conviennent mieux au guide du développeur, ignorons-les pour l'instant)
~base.BaseEstimator~
~base.BiclusterMixin~
~base.ClassifierMixin~
~base.ClusterMixin~
~base.DensityMixin~
~base.RegressorMixin~
~base.TransformerMixin~

decomposition.MiniBatchDictionaryLearning

~exceptions.NonBLASDotWarning~

~feature_selection.SelectFromModel~

gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.Hyperparameter
~processus_gaussien.kernels.Kernel~

~inspection.PartialDependanceDisplay~

~multiclass.OneVsOneClassifier~

~multioutput.MultiOutputClassifier~

~utils.Mémoire~
~utils.Parallel~

Mettre à jour.
covariance.OAS #16681
multioutput.MultiOutputRegressor #16698
arbre.ExtraTreeClassifier #16671

voisins.DistanceMetric
voisins.KDTree
voisins.LocalOutlierFactor

exceptions.DataConversionWarning #16704

multiclass.OneVsOneClassifier #16700

Voulons-nous des exemples pour les classes base.* ? Je suppose qu'il est plus logique de mieux les documenter dans le developer guide . WDYT @jnothman @NicolasHug ?

D'accord, c'est mieux pour le guide du développeur. je modifie le commentaire

Je pense qu'il a été fermé par accident.

multioutput.MultiOutputClassifier a déjà des exemples. Doit-il être mis à jour pour inclure un exemple de l'attribut ou doit-il être retiré de la liste À FAIRE ?

Je pense qu'il peut être retiré de la liste. Merci @marenwestermann

Je pense qu'il peut être retiré de la liste. Merci @marenwestermann

D'accord, alors feature_selection.SelectFromModel peut également être supprimé car il contient également des exemples. (Ceux-ci ont été ajoutés en octobre de l'année dernière.)

Concernant utils.Memory et utils.Parallel :
sur le site scikit-learn, ils sont dits "supprimés dans la version 0.23". J'ai vérifié le fichier utils.__init__.py où ces classes vivaient et elles ont été supprimées. Ceux-ci peuvent donc également être retirés de la liste.

Je vais essayer de m'attaquer à gaussian_process.kernels.Kernel :)

En dehors des relations publiques de DictionaryLearning/MiniBatchDictionaryLearning ci-dessus, j'ai également jeté un œil aux classes de voisins.* : elles ont toutes déjà au moins un exemple. Ceux pour voisins.KDTree et voisins.BallTree sont générés à partir de la chaîne de format CLASS_DOC qui se trouve dans le fichier d'inclusion _binary_tree.pxi.

C'est la première fois que je contribue à ce projet. Je voudrais me renseigner sur les classes de voisins.* comprenant :
voisins.DistanceMetric
voisins.KDTree
voisins.LocalOutlierFactor

J'ai jeté un œil à gaussian_process.kernels.Kernel . D'après la documentation, il s'agit de la "classe de base pour tous les noyaux". Par conséquent, tous ses attributs sont des attributs de propriété en lecture seule (méthodes avec des décorateurs @property ). D'après ce que j'ai compris, cela n'a donc aucun sens d'ajouter des exemples à cette classe car elle ne peut être utilisée qu'en combinaison avec une autre classe.
Cependant, si vous faites défiler vers le bas de la page Web de gaussian_process.kernels.Kernel il y a un lien vers un exemple de la façon dont cette classe peut être utilisée. Cela a été ajouté en novembre 2019. Dans cet exemple, la classe SequenceKernel est créée et hérite de la classe Kernel . La classe SequenceKernel n'est pas une fonctionnalité de scikit-learn mais pourrait être une fonctionnalité intéressante à ajouter.

Veuillez me corriger si quelque chose que j'ai écrit ici est faux.

Ouais ça rendrait trop compliqué d'écrire un exemple pour ça. Je suis content qu'il soit retiré de la liste.

@Malesche exceptions.DataDimensionalityWarning est maintenant fermé et peut donc être retiré de la liste TODO.

Concernant inspection.PartialDependenceDisplay :
Dans la description de la classe, il est dit « Il est recommandé d'utiliser plot_partial_dependence pour créer un PartialDependenceDisplay ». J'ai jeté un œil à cette fonction et à l'intérieur, un objet PartialDependenceDisplay est créé et sa méthode plot est appelée. Il existe des exemples d'utilisation de plot_partial_dependence , et je pense donc qu'il n'est pas nécessaire d'ajouter des exemples à inspection.PartialDependenceDisplay . Qu'en penses-tu @adrinjalali ?

d'accord @marenwestermann

exceptions.NonBLASDotWarning peut également être retiré de la liste TODO car une décision de ne pas avoir d'exemples dans exceptions.py a été prise (voir #17040).

@NicolasHug , @amueller juste au cas où vous voudriez utiliser ce problème comme un problème de sprint, vous pouvez trouver ici la liste des classes manquant encore des exemples (merci au script Joel , modifié par lui-même... :) ). J'ai déjà supprimé les classes base et exceptions . Puis-je suggérer de modifier le problème avec la liste juste au début ? Cela facilitera l'identification des classes disponibles. Les RP encore ouvertes des sprints précédents (pas seulement) sont liées dans la liste : je pense qu'il sera utile de les finaliser avant un nouvel événement (merci @thomasjpfan d'avoir déjà commencé quelques reviews).

Merci pour la suggestion @cmarmo , j'ai mis à jour le problème.

Salut, je vais essayer de prendre gaussian_process.kernels.Hyperparameter .

Salut, je vais prendre linear_model.* .

  • linear_model.PoissonRegressor
  • linear_model.TweedieRegressor
  • linear_model.GammaRegressor

Salut, nous allons prendre ensemble.GradientBoostingClassifier

Salut, nous allons prendre ensemble.GradientBoostingClassifier

Celui-ci a déjà un exemple.

Hé, nous prenons maintenant:

  • metrics.ConfusionMatrixDisplay
  • metrics.PrecisionRecallDisplay

@adrinjalali , pouvez-vous vérifier les relations publiques s'il vous plaît ? Merci!

@emdupre et moi allons travailler ci-dessous dans le cadre du sprint de parapluie de données.

  • voisins.BallTree
  • voisins.DistanceMetric
  • voisins.KDTree

Bonjour @adrinjalali , On dirait que nous pouvons déjà voir quelques exemples ci-dessous. Il n'est pas mis à jour dans la liste des tâches. Veuillez suggérer.

  • voisins.BallTree
  • voisins.DistanceMetric
  • voisins.KDTree

Salut je vais travailler sur :

  • décomposition.DictionaryLearning (#16907)
  • decomposition.MiniBatchDictionaryLearning (#16907)
  • décomposition.SparseCoder (#15233)

Bonjour, je vais travailler sur :

  • gaussian_process.kernels.CompoundKernel

Clôturez ceci car tous les PR ont été fusionnés et il n'y a plus de classes pertinentes sans exemples.
Merci @j2heng d' avoir aidé au triage pendant le sprint !

Oh vraiment. La liste en haut est obsolète ?

Oh oui j'ai fusionné l'autre PR.

Cette page vous a été utile?
0 / 5 - 0 notes