__MISE À JOUR 23 mai 202__
Voici une liste des classes restantes :
La plupart des docs des classes manquent d'exemples. Ce serait bien d'ajouter un ou deux exemples similaires à celui-ci, http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html
Je suppose que vous voulez dire un petit extrait de code/doctest utilisant chaque estimateur.
C'est l'une des raisons pour lesquelles j'ai ajouté des liens automatiques vers des liens pertinents
exemples de la galerie lors de l'affichage de la référence API compilée, par exemple
http://scikit-learn.org/dev/modules/generated/sklearn.manifold.Isomap.html#examples -using-sklearn-manifold-isomap.
Malheureusement, il n'y avait pas de moyen simple de les rendre où
les exemples doctest le font (et ils ont donc été relégués à la fin du
page qui est hors de la génération numpydoc).
Le 12 novembre 2014 à 23h06, Manoj Kumar [email protected] a écrit :
La plupart des docs des classes manquent d'exemples. ce serait bien d'en rajouter un
ou deux exemples similaires à celui-ci,
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html-
Répondez directement à cet e-mail ou consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846.
Oui, je voulais dire probablement une ou deux doublures (par exemple) https://github.com/scikit-learn/scikit-learn/pull/3802/files#diff -1741ad6b05f1eb0fd71af8bad0e001c7R321 juste pour montrer l'API.
C'est l'une des raisons pour lesquelles j'ai ajouté des liens automatiques vers des exemples pertinents de la galerie lors de l'affichage de la référence API compilée
C'est génial. Je ne l'avais pas remarqué avant !
C'est génial. Je ne l'avais pas remarqué avant !
Uniquement en dév. Et caché en bas de la page :(
Où d'autre pensez-vous que ce serait mieux?
Au-dessous de la description de la classe et au-dessus des paramètres ?
N'importe où avant la description de la méthode conviendrait. Les descriptions de méthodes peuvent occuper beaucoup d'espace vertical sur la page de référence de l'API, il est donc peu probable que quelqu'un les dépasse à la recherche d'exemples.
Désolé pour la réponse tardive. Je suppose que ce n'est pas trop facile à faire? Sinon tu l'aurais fait toi-même ?
Non, c'est encore plus hack que l'approche actuelle !
Le 19 novembre 2014 à 21h59, Manoj Kumar [email protected] a écrit :
Désolé pour la réponse tardive. Je suppose que ce n'est pas trop facile à faire? Autre
tu l'aurais fait toi même ?-
Répondez directement à cet e-mail ou consultez-le sur GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846#issuecomment -63623385
.
Que diriez-vous d'ajouter simplement des exemples à la docstring des classes manquantes ?
Ce sont les estimateurs ( 98 - 10 / 148 ) auxquels il manque actuellement une section Examples
:-
Terminé/WIP
ExtraTreesRegressor
BaggingClassifier
BaggingRegressor
AdaBoostRegressor
GradientBoostingRegressor
Pas besoin
ExtraTreeClassifier # Used only in ensembling
ExtraTreeRegressor # -do-
FAIRE
AffinityPropagation
AgglomerativeClustering
Binarizer
CheckingClassifier
CountVectorizer
DBSCAN
DPGMM
DictionaryLearning
ElasticNet
ElasticNetCV
EmpiricalCovariance
FactorAnalysis
FastICA
FeatureAgglomeration
GaussianRandomProjection
GenericUnivariateSelect
GraphLasso
GraphLassoCV
HashingVectorizer
Imputer
IncrementalPCA
Isomap
KMeans
KernelCenterer
KernelDensity
KernelPCA
LarsCV
LassoCV
LassoLarsCV
LedoitWolf
LinearRegression
LinearSVC
LinearSVR
LocallyLinearEmbedding
LogOddsEstimator
LogisticRegression
LogisticRegressionCV
MDS
MeanEstimator
MeanShift
MinCovDet
MinMaxScaler
MiniBatchDictionaryLearning
MiniBatchKMeans
MiniBatchSparsePCA
MultiTaskLassoCV
Normalizer
Nystroem
OAS
OneClassSVM
OrthogonalMatchingPursuit
OrthogonalMatchingPursuitCV
PLSSVD
PassiveAggressiveClassifier
PassiveAggressiveRegressor
PatchExtractor
Perceptron
PriorProbabilityEstimator
QuantileEstimator
RANSACRegressor
RBFSampler
RandomForestClassifier
RandomForestRegressor
RidgeCV
RidgeClassifier
RidgeClassifierCV
ScaledLogOddsEstimator
SelectFdr
SelectFpr
SelectFwe
SelectKBest
SelectPercentile
ShrunkCovariance
SkewedChi2Sampler
SparsePCA
SparseRandomProjection
SpectralBiclustering
SpectralClustering
SpectralCoclustering
SpectralEmbedding
StandardScaler
TfidfVectorizer
TheilSenRegressor
VBGMM
Ward
WardAgglomeration
ZeroEstimator
Bien sûr, mais ne pensez-vous pas que c'est un peu fastidieux ? Sauf si vous avez un script.
Je voulais en savoir un peu plus sur tous ces estimateurs... Je pense que ce serait un bon moyen de faire ça :) Est-ce que je commence à travailler dessus ?
Sûr!
Je travaille là-dessus.
@ltcguthrie quelle partie ? Il existe de nombreux modèles sur lesquels travailler pour cela.
Je vais commencer par TfidfVectorizer.
Travailler sur RandomForestClassifier et RandomForestRegressor
Travailler sur PassiveAggressiveClassifier, PassiveAggressiveRegressor
Travailler sur LinearSVC, LinearSVR
Travailler sur StandardScaler, MinMaxScaler
Travailler sur ElasticNet, ElasticNetCV
En outre, créé google doc pour la liste des objets terminés/annulés
https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid =0
@lodurality vous pouvez également créer une liste ici avec des cases à cocher
Je vais le marquer comme 0.21 et bon premier numéro car je pense qu'il sera utile d'inclure un petit exemple pour chaque classe.
travailler sur sklearn/cluster
Salut, je travaille sur l'ajout d'un exemple pour l'Imputer comme première contribution.
Reprise de la régression linéaire : http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html
Travaille également sur HashingVectorizer dans sklearn/feature_extraction/text.py
.
Prendre OPTICS
. (dépend du #11677)
Prendre sklearn/feature_selection/univariate_selection.py
Je pense que vous pouvez toujours fournir un exemple pour OPTICS même avec le bug :)
@qinhanmin2014 voulez-vous dire un exemple sans valeur aberrante afin qu'il ne montre pas le bogue ? Je suppose que ce serait bien d'avoir un exemple qui montre comment OPTICS
détecte une valeur aberrante, et je pense que nous oublierions de changer l'exemple une fois ce bogue corrigé. Je peux écrire une note dans le problème _bug_ pour corriger l'exemple une fois le problème résolu, mais l'exemple initial n'aura pas la valeur aberrante. Dois-je faire ça ?
voulez-vous dire un exemple sans valeur aberrante afin qu'il ne montre pas le bogue ?
Non, je veux dire un avec des valeurs aberrantes, comme DBSCAN
Je n'ai pas examiné le bogue, mais je m'attendrais à ce que OPTICS puisse détecter les valeurs aberrantes correctes la plupart du temps, vous pouvez donc toujours construire un exemple. Si ce n'est pas le cas, je pense que nous devons marquer le bogue comme bloqueur.
Assez juste, je vais essayer de voir si je peux trouver un exemple simple où cela fonctionne bien.
Prendre en charge sklearn/linear_model/ridge.py
affronter sklearn/covariance/graph_lasso_.py
prendre sklearn/linear_model/logistic.py
prendre des cours de preprocessing
.
prendre Perceptron
J'ai ajouté l'exemple dans la classe Perceptron mais pour des raisons inconnues, cela ne fonctionnera pas.
Besoin d'aide, je suis novice ! (ps-j'ai déjà créé une pull request).
prendre sklearn/random_projection
[[MRG] Exemples de Perceptron dans Perceptron.py vers scikit-learn/scikit-learn/linear_model/perceptron.py #11798
Prendre « sklearn/manifold »
Je travaille sur sklearn.feature_extraction.image.PatchExtractor
Andrea et moi allons travailler sur l'exemple sklearn.cluster.Ward et LedoitWolf. Nous mettons à jour le tracker Excel pour nous assurer que personne ne fait des efforts en double.
Je travaille sur sklearn.decomposition.DictionaryLearning
Nous venons de mettre à jour le google doc de @lodurality ici :
https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid =0
Moi et Shimeng travaillerons sur les manquants.
@andreanr , ce document est un peu ancien et il manque tout un tas de nouvelles classes. Une meilleure idée serait de prendre un module ou un dossier et de couvrir toutes les classes publiques qu'il contient.
@adrinjalali Oui, définitivement, nous terminerons les plus importants de la liste actuelle, puis nous mettrons à jour la liste en fonction des modules mis à jour.
@andreanr travailles-tu aussi sur les cours de ensemble.gradient_boosting
? Sinon, j'aimerais travailler là-dessus.
@daten-kieker vas-y !
Salut,
Reste-t-il quelque chose auquel je pourrais contribuer ?
Merci.
@srividhyaprakash Je n'ai ajouté que des exemples d'estimateurs dans ensemble.gradient_boosting
. Vous pouvez jeter un œil aux autres classes.
@daten-kieker, merci pour votre réponse. C'est la première fois que je participe à un dépôt public bien entretenu. Pourriez-vous s'il vous plaît me guider sur un possible guide de démarrage pour valider le style et le format de l'exemple ?
Merci.
@srividhyaprakash , vous pouvez commencer par parcourir ce que vous trouvez dans le guide du développeur . Vous pouvez également demander sur gitter si vous avez des questions pour commencer. Je vous souhaite un joyeux voyage de contribution ici.
Une fois que vous avez commencé sur ce problème particulier, vous pouvez vérifier certaines des demandes d'extraction que vous voyez sur ce fil pour avoir une idée de ce que cela implique.
Bonjour, y a-t-il quelque chose que je pourrais aider?
S'il est toujours disponible, puis-je gérer la docstring LinearRegression ?
@adrinjalali excuses, je viens de lire les différents commits et j'ai vu que vous aviez déjà terminé la LinearRegression en #11975 . Puis-je traiter la docstring LogisticRegression ?
Nous avons un peu perdu la trace de ce qui reste ici. Une contribution serait de vérifier toutes les classes publiques et de lister celles qui ont encore besoin d'un exemple, et de partir de là.
@adrinjalali , je peux compiler une liste de ce qui reste
@adrinjalali , j'étais tellement excité que j'ai oublié de demander, y a-t-il une branche spécifique de ce projet qui a les dernières mises à jour ?
master a les dernières mises à jour. D'un autre côté, une approche pourrait consister à
considérer la documentation API générée (par exemple à
https://github.com/scikit-learn/scikit-learn.github.io/tree/master/dev/modules/generated)
et grep pour les fichiers ne contenant pas class="rubric">Examples
@jnothman , merci, les conseils de grappin étaient sur place. Je vais commencer à compiler la liste aujourd'hui
Vous avez besoin d'aide supplémentaire pour mettre à jour un document existant ou en créer un nouveau.. ?
Cela m'aiderait aussi à démarrer avec l'open source... donc toutes les directions ou travaux seraient appréciés.
Nous avons encore besoin d'une liste mise à jour des classes sans exemples. Ping @Khayyon1 ?
@Khayyon1 avez-vous complété la liste ou avez-vous besoin d'aide ..?
@adrinjalali , je vais devoir l'abandonner car l'école a repris peu de temps après avoir demandé de l'aide et je n'ai pas pu travailler dessus, mes excuses
@adrinjalali alors devrais-je voir quels sont tous les restes de la liste mentionnée par @raghavrv
@coderop2 c'est une liste de 3-4 ans, probablement mieux d'en commencer une nouvelle !
Désolé pour la réponse tardive... Dès que mes examens universitaires seront terminés, je commencerai à compiler une nouvelle liste tout en gardant l'ancienne liste à l'esprit... J'espère que cela suffira à servir de référence pour tout le monde
$ # list those with examples
$ git grep -p '^ Examples$' sklearn | grep '=class ' | sed 's/[^ ]* //;s/(.*//;s/:.*//' | sort > /tmp/classes_with_examples.txt
$ # rough list of all public classes
$ grep '\.[A-Z][a-zA-Z]\+' doc/modules/classes.rst > /tmp/classes.txt
$ # classes without examples
$ grep -v -wFf /tmp/classes_with_examples.txt /tmp/classes.txt
...
that was incorrect. See below.
...
Pas sûr que ce soit exact
Cela peut être plus précis, a toujours des faux positifs. De plus, en supposant que nous n'ayons pas besoin d'exemples pour les classes Mixin et Warning.
BaggingRegressor
BallTree
BaseEstimator
BayesianGaussianMixture
CalibratedClassifierCV
ClassifierChain
ColumnTransformer
CompoundKernel
ConstantKernel
DictionaryLearning
DistanceMetric
DotProduct
DummyClassifier
DummyRegressor
Exponentiation
ExpSineSquared
ExtraTreeClassifier
ExtraTreeRegressor
ExtraTreesClassifier
ExtraTreesRegressor
FunctionTransformer
GaussianMixture
GradientBoostingClassifier
GradientBoostingRegressor
GraphLasso
GraphLassoCV
GroupShuffleSplit
Hyperparameter
Imputer
IsolationForest
IsotonicRegression
IterativeImputer
KDTree
Kernel
KernelDensity
LocalOutlierFactor
Matern
Memory
MiniBatchDictionaryLearning
MLPClassifier
MLPRegressor
MultiOutputClassifier
MultiOutputRegressor
OAS
OneClassSVM
OneVsOneClassifier
OneVsRestClassifier
OPTICS
OutputCodeClassifier
PairwiseKernel
Parallel
Product
RandomizedSearchCV
RandomTreesEmbedding
RationalQuadratic
RBF
RegressorChain
SelectFromModel
SparseCoder
Sum
TfidfTransformer
WhiteKernel
Oui, j'ai eu la mauvaise recherche, donnant de nombreux faux positifs. C'est mieux:
$ grep -v -f <(cat /tmp/classes_with_examples.txt | sed 's/.*/\\.&$/') /tmp/classes.txt
base.BaseEstimator
base.BiclusterMixin
base.ClassifierMixin
base.ClusterMixin
base.DensityMixin
base.RegressorMixin
base.TransformerMixin
calibration.CalibratedClassifierCV
cluster.OPTICS
compose.ColumnTransformer
covariance.OAS
decomposition.DictionaryLearning
decomposition.MiniBatchDictionaryLearning
decomposition.SparseCoder
dummy.DummyClassifier
dummy.DummyRegressor
ensemble.BaggingClassifier
ensemble.BaggingRegressor
ensemble.ExtraTreesClassifier
ensemble.ExtraTreesRegressor
ensemble.GradientBoostingClassifier
ensemble.GradientBoostingRegressor
ensemble.IsolationForest
ensemble.RandomTreesEmbedding
exceptions.ChangedBehaviorWarning
exceptions.ConvergenceWarning
exceptions.DataConversionWarning
exceptions.DataDimensionalityWarning
exceptions.EfficiencyWarning
exceptions.NonBLASDotWarning
exceptions.UndefinedMetricWarning
feature_extraction.text.TfidfTransformer
feature_selection.SelectFromModel
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.ConstantKernel
gaussian_process.kernels.DotProduct
gaussian_process.kernels.ExpSineSquared
gaussian_process.kernels.Exponentiation
gaussian_process.kernels.Hyperparameter
gaussian_process.kernels.Kernel
gaussian_process.kernels.Matern
gaussian_process.kernels.PairwiseKernel
gaussian_process.kernels.Product
gaussian_process.kernels.RBF
gaussian_process.kernels.RationalQuadratic
gaussian_process.kernels.Sum
gaussian_process.kernels.WhiteKernel
isotonic.IsotonicRegression
impute.IterativeImputer
mixture.BayesianGaussianMixture
mixture.GaussianMixture
model_selection.GroupShuffleSplit
model_selection.RandomizedSearchCV
multiclass.OneVsRestClassifier
multiclass.OneVsOneClassifier
multiclass.OutputCodeClassifier
multioutput.ClassifierChain
multioutput.MultiOutputRegressor
multioutput.MultiOutputClassifier
multioutput.RegressorChain
neighbors.BallTree
neighbors.DistanceMetric
neighbors.KDTree
neighbors.KernelDensity
neighbors.LocalOutlierFactor
neural_network.MLPClassifier
neural_network.MLPRegressor
preprocessing.FunctionTransformer
svm.OneClassSVM
tree.ExtraTreeClassifier
tree.ExtraTreeRegressor
utils.Memory
utils.Parallel
covariance.GraphLasso
covariance.GraphLassoCV
preprocessing.Imputer
C'est 76 alors que votre liste est 62 : elle exclut base.*
et exceptions.*
ce qui est assez juste, @adrinjalali , tout en incluant des choses étranges comme Sum
.
Désolé, nous incluons tous les deux Sum. Bête.
Prendre en charge GroupShuffleSplit
Je travaillerais sur des mannequins (DummyClassifier, DummyRegressor).
Voici la liste actuelle des classes qui pourraient avoir besoin d'exemples :
base.BaseEstimator
base.BiclusterMixin
base.ClassifierMixin
base.ClusterMixin
base.DensityMixin
base.RegressorMixin
base.TransformerMixin
cluster.OPTICS
compose.ColumnTransformer
covariance.OAS
decomposition.DictionaryLearning
decomposition.MiniBatchDictionaryLearning
decomposition.SparseCoder
ensemble.BaggingClassifier
ensemble.BaggingRegressor
ensemble.ExtraTreesClassifier
ensemble.ExtraTreesRegressor
ensemble.GradientBoostingClassifier
ensemble.GradientBoostingRegressor
ensemble.IsolationForest
ensemble.RandomTreesEmbedding
exceptions.ChangedBehaviorWarning
exceptions.ConvergenceWarning
exceptions.DataConversionWarning
exceptions.DataDimensionalityWarning
exceptions.EfficiencyWarning
exceptions.NonBLASDotWarning
exceptions.UndefinedMetricWarning
feature_extraction.text.TfidfTransformer
feature_selection.SelectFromModel
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.ConstantKernel
gaussian_process.kernels.DotProduct
gaussian_process.kernels.ExpSineSquared
gaussian_process.kernels.Exponentiation
gaussian_process.kernels.Hyperparameter
gaussian_process.kernels.Kernel
gaussian_process.kernels.Matern
gaussian_process.kernels.PairwiseKernel
gaussian_process.kernels.Product
gaussian_process.kernels.RBF
gaussian_process.kernels.RationalQuadratic
gaussian_process.kernels.Sum
gaussian_process.kernels.WhiteKernel
impute.IterativeImputer
inspection.PartialDependenceDisplay
metrics.RocCurveDisplay
mixture.BayesianGaussianMixture
mixture.GaussianMixture
multiclass.OneVsRestClassifier
multiclass.OneVsOneClassifier
multiclass.OutputCodeClassifier
multioutput.ClassifierChain
multioutput.MultiOutputRegressor
multioutput.MultiOutputClassifier
multioutput.RegressorChain
neighbors.BallTree
neighbors.DistanceMetric
neighbors.KDTree
neighbors.KernelDensity
neighbors.LocalOutlierFactor
neural_network.MLPClassifier
neural_network.MLPRegressor
preprocessing.FunctionTransformer
svm.LinearSVC
tree.ExtraTreeClassifier
tree.ExtraTreeRegressor
utils.Memory
utils.Parallel
Salut @pspachtholz @MechCoder , j'aimerais travailler là-dessus. Je suis intéressé à contribuer à scikit-learn et pense que cela peut être un bon point de départ.
Merci
@PyExtreme Je pense que vous pouvez simplement aller de l'avant, sélectionner une ou plusieurs classes dans la liste que vous trouvez intéressantes et ajouter des exemples. Je posterais ensuite ce sur quoi vous travaillez ici pour éviter le travail en double. Pour obtenir des conseils, vous pouvez consulter les demandes d'extraction précédemment fusionnées.
@pspachtholz , je récupère _ExtraTreesClassifier_ initialement et après avoir fait un commit, je voudrais récupérer par lots.
Merci
J'ai travaillé sur l'augmentation du gradient.
Ramasser neural_network.MLPClassifier
& neural_network.MLPRegressor
Je suis sur svm.LinearSVC
Je travaille sur sklearn.multioutput.MultiOutputClassifier
Salut, je vais travailler sur mixture.BayesianGaussianMixture
et mixture.GaussianMixture
Je suis sur feature_extraction.text.TfidfTransformer
. Souhaite moi bonne chance!
Je suis sur feature_extraction.text.TfidfTransformer. Souhaite moi bonne chance!
travailler aussi dessus - Peut-être pouvons-nous partager des exemples ?
ramasser ensemble.ExtraTreesClassifier
Je choisis le ensemble.BaggingRegressor
Je travaille sur feature_selection.SelectFromModel
Je choisis des voisins.KernelDensity
Je suis sur ensemble.IsolationForest
sur multiclass.OneVsRestClassifier
Hé, je vais travailler sur les noyaux du processus gaussien, en commençant par gaussian_process.kernels.RBF
puis sur les autres noyaux avec @thorbenjensen
Travailler sur ensemble.GradientBoostingClassifier
Travailler sur Perceptron
Travailler sur ensemble.GradientBoostingRegressor
Suivant tree.ExtraTreeClassifier
travailler sur l'ensemble.GradientBoostingRegressor
jeter un œil à multiclass.OutputCodeClassifier
En regardant neighbors.LocalOutlierFactor
.
travailler sur ensemble.RandomTreesEmbedding
ramasser
ensemble.ExtraTreesClassifier
Salut @jorahn , j'ai déjà soumis un PR à ce sujet.
N'hésitez pas à choisir un autre module.
Je suggère de parcourir les commentaires avant de voir si quelqu'un travaille déjà sur une classe pour éviter le travail en double.
Pour certaines classes, il existe déjà des requêtes mrg (éventuellement obsolètes), où nous pourrions demander aux auteurs s'ils y travaillent toujours activement.
@flaviomorelli @LBrummer @mschaffenroth J'ai déjà fait le dégradé d'ensemble dans ce PR #15151
Vraiment cool d'ailleurs de voir que cela prend de la vitesse :-)
ramasser
ensemble.ExtraTreesClassifier
Salut @jorahn , j'ai déjà soumis un PR à ce sujet.
N'hésitez pas à choisir un autre module.
oh, je n'ai pas vu ça sur ce problème. nous avons donc maintenant deux PR pour cela
Perceptron est déjà documenté.
travailler sur tree.ExtraTreeRegressor
travailler sur impute.IterativeImputer
@pspachtholz , je récupère _ExtraTreesClassifier_ initialement et après avoir fait un commit, je voudrais récupérer par lots.
Merci
@jorahn , j'en avais parlé il y a 1 semaine ici seulement et j'y travaillais déjà depuis 1 semaine.
Travailler sur OneVsOneClassifier.
Je vais pour le metrics.RocCurveDisplay
travailler sur multioutput.ClassifierChain
Travailler sur PriorProbabilityEstimator
.
Travailler sur multioutput.MultiOutputRegressor
prendre neighbors.BallTree
PriorProbabilityEstimator
est obsolète dans la version 0.21 et sera supprimé dans la version 0.23. Ne travaille pas là-dessus.
Travailler sur covariance.OAS
SelectPercentile
déjà documenté.
travailler sur ensemble.ExtraTreesRegressor
prendre
neighbors.BallTree
il y a déjà quelques exemples pour BallTree et compose.ColumnTransformer
RANSACRegressor
déjà documenté.
prendre decomposition.SparseCoder
SelectKBest
déjà documenté.
SpectralClustering
déjà documenté
Travailler sur IsolationForest
Travailler sur
IsolationForest
Salut @zioalex , j'ai déjà un PR pour ça : #15205. Heureux de prendre des suggestions et des commentaires :smiley:
Travailler dans neighbors.DistanceMetric
.
travailler sur multioutput.RegressorChain
travailler sur exceptions.ConvergenceWarning
travailler sur exceptions.ChangedBehaviorWarning
travailler sur
exceptions.ChangedBehaviorWarning
Après avoir consulté @adrinjalali , nous avons conclu qu'il
Pour votre tranquillité d'esprit soyez comme nous, ne travaillez pas sur exceptions.ChangedBehaviorWarning
Travailler sur exceptions.DataDimensionalityWarning
J'aimerais travailler sur quelques-uns. Je vais commencer par l'optique.
Salut! Je viens de soulever un PR après avoir ajouté un exemple d'extrait de code au clustering K-means. Il s'agit de ma première contribution open source, donc ce serait formidable si quelqu'un pouvait examiner cela et voir s'il a besoin de plus de travail !
Merci et salutations,
Smriti Singh
J'ai parcouru la liste d'octobre dernier et vérifié quelles classes ont déjà fusionné des PR/exemples. Je suppose que les réclamations de l'année dernière ou d'il y a plus longtemps, sur lesquelles rien d'autre ne s'est produit, peuvent être ignorées.
Voici donc une liste de tâches mise à jour :
ne fonctionne pas là-dessus, cela dépend de la version : exceptions.ChangedBehaviorWarning
décomposition.SparseCoder #15233
~exceptions.DataDimensionalityWarning #15246~
mélange.BayesianGaussianMélange #15193
mélange.GaussianMélange #15193
multisortie.ClassifierChain #15211
multisortie.RegressorChain #15215
nouveau prs ouvert:
décomposition.DictionaryLearning #16907
~exceptions.EfficiencyWarning #16785~
~exceptions.UndefinedMetricWarning #16784~
(EDIT : ceux de base
conviennent mieux au guide du développeur, ignorons-les pour l'instant)
~base.BaseEstimator~
~base.BiclusterMixin~
~base.ClassifierMixin~
~base.ClusterMixin~
~base.DensityMixin~
~base.RegressorMixin~
~base.TransformerMixin~
decomposition.MiniBatchDictionaryLearning
~exceptions.NonBLASDotWarning~
~feature_selection.SelectFromModel~
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.Hyperparameter
~processus_gaussien.kernels.Kernel~
~inspection.PartialDependanceDisplay~
~multiclass.OneVsOneClassifier~
~multioutput.MultiOutputClassifier~
~utils.Mémoire~
~utils.Parallel~
Mettre à jour.
covariance.OAS #16681
multioutput.MultiOutputRegressor #16698
arbre.ExtraTreeClassifier #16671
voisins.DistanceMetric
voisins.KDTree
voisins.LocalOutlierFactor
exceptions.DataConversionWarning #16704
multiclass.OneVsOneClassifier #16700
Voulons-nous des exemples pour les classes base.*
? Je suppose qu'il est plus logique de mieux les documenter dans le developer guide
. WDYT @jnothman @NicolasHug ?
D'accord, c'est mieux pour le guide du développeur. je modifie le commentaire
Je pense qu'il a été fermé par accident.
multioutput.MultiOutputClassifier a déjà des exemples. Doit-il être mis à jour pour inclure un exemple de l'attribut ou doit-il être retiré de la liste À FAIRE ?
Je pense qu'il peut être retiré de la liste. Merci @marenwestermann
Je pense qu'il peut être retiré de la liste. Merci @marenwestermann
D'accord, alors feature_selection.SelectFromModel peut également être supprimé car il contient également des exemples. (Ceux-ci ont été ajoutés en octobre de l'année dernière.)
Concernant utils.Memory
et utils.Parallel
:
sur le site scikit-learn, ils sont dits "supprimés dans la version 0.23". J'ai vérifié le fichier utils.__init__.py
où ces classes vivaient et elles ont été supprimées. Ceux-ci peuvent donc également être retirés de la liste.
Je vais essayer de m'attaquer à gaussian_process.kernels.Kernel
:)
En dehors des relations publiques de DictionaryLearning/MiniBatchDictionaryLearning ci-dessus, j'ai également jeté un œil aux classes de voisins.* : elles ont toutes déjà au moins un exemple. Ceux pour voisins.KDTree et voisins.BallTree sont générés à partir de la chaîne de format CLASS_DOC qui se trouve dans le fichier d'inclusion _binary_tree.pxi.
C'est la première fois que je contribue à ce projet. Je voudrais me renseigner sur les classes de voisins.* comprenant :
voisins.DistanceMetric
voisins.KDTree
voisins.LocalOutlierFactor
J'ai jeté un œil à gaussian_process.kernels.Kernel
. D'après la documentation, il s'agit de la "classe de base pour tous les noyaux". Par conséquent, tous ses attributs sont des attributs de propriété en lecture seule (méthodes avec des décorateurs @property
). D'après ce que j'ai compris, cela n'a donc aucun sens d'ajouter des exemples à cette classe car elle ne peut être utilisée qu'en combinaison avec une autre classe.
Cependant, si vous faites défiler vers le bas de la page Web de gaussian_process.kernels.Kernel
il y a un lien vers un exemple de la façon dont cette classe peut être utilisée. Cela a été ajouté en novembre 2019. Dans cet exemple, la classe SequenceKernel
est créée et hérite de la classe Kernel
. La classe SequenceKernel
n'est pas une fonctionnalité de scikit-learn mais pourrait être une fonctionnalité intéressante à ajouter.
Veuillez me corriger si quelque chose que j'ai écrit ici est faux.
Ouais ça rendrait trop compliqué d'écrire un exemple pour ça. Je suis content qu'il soit retiré de la liste.
@Malesche exceptions.DataDimensionalityWarning
est maintenant fermé et peut donc être retiré de la liste TODO.
Concernant inspection.PartialDependenceDisplay
:
Dans la description de la classe, il est dit « Il est recommandé d'utiliser plot_partial_dependence
pour créer un PartialDependenceDisplay
». J'ai jeté un œil à cette fonction et à l'intérieur, un objet PartialDependenceDisplay
est créé et sa méthode plot
est appelée. Il existe des exemples d'utilisation de plot_partial_dependence
, et je pense donc qu'il n'est pas nécessaire d'ajouter des exemples à inspection.PartialDependenceDisplay
. Qu'en penses-tu @adrinjalali ?
d'accord @marenwestermann
exceptions.NonBLASDotWarning
peut également être retiré de la liste TODO car une décision de ne pas avoir d'exemples dans exceptions.py
a été prise (voir #17040).
@NicolasHug , @amueller juste au cas où vous voudriez utiliser ce problème comme un problème de sprint, vous pouvez trouver ici la liste des classes manquant encore des exemples (merci au script Joel , modifié par lui-même... :) ). J'ai déjà supprimé les classes base
et exceptions
. Puis-je suggérer de modifier le problème avec la liste juste au début ? Cela facilitera l'identification des classes disponibles. Les RP encore ouvertes des sprints précédents (pas seulement) sont liées dans la liste : je pense qu'il sera utile de les finaliser avant un nouvel événement (merci @thomasjpfan d'avoir déjà commencé quelques reviews).
Merci pour la suggestion @cmarmo , j'ai mis à jour le problème.
Salut, je vais essayer de prendre gaussian_process.kernels.Hyperparameter
.
Salut, je vais prendre linear_model.*
.
Salut, nous allons prendre ensemble.GradientBoostingClassifier
Salut, nous allons prendre ensemble.GradientBoostingClassifier
Celui-ci a déjà un exemple.
Hé, nous prenons maintenant:
Hé @adrinjalali , pouvez-vous vérifier les relations publiques s'il vous plaît ? Merci!
@emdupre et moi allons travailler ci-dessous dans le cadre du sprint de parapluie de données.
Bonjour @adrinjalali , On dirait que nous pouvons déjà voir quelques exemples ci-dessous. Il n'est pas mis à jour dans la liste des tâches. Veuillez suggérer.
Salut je vais travailler sur :
Bonjour, je vais travailler sur :
gaussian_process.kernels.CompoundKernel
Clôturez ceci car tous les PR ont été fusionnés et il n'y a plus de classes pertinentes sans exemples.
Merci @j2heng d' avoir aidé au triage pendant le sprint !
Oh vraiment. La liste en haut est obsolète ?
Oh oui j'ai fusionné l'autre PR.
Commentaire le plus utile
Clôturez ceci car tous les PR ont été fusionnés et il n'y a plus de classes pertinentes sans exemples.
Merci @j2heng d' avoir aidé au triage pendant le sprint !