__ ОБНОВЛЕНИЕ 23 мая 202__ г.
Вот список оставшихся классов:
В большинстве документов классов отсутствуют примеры. Было бы здорово добавить один или два примера, подобных этому, http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html
Я предполагаю, что вы имеете в виду небольшой фрагмент кода / тест с использованием каждого оценщика.
Это одна из причин, по которой я добавил автоматические ссылки обратно на соответствующие
примеры из галереи при отображении скомпилированного справочника API, например
http://scikit-learn.org/dev/modules/generated/sklearn.manifold.Isomap.html#examples -using-sklearn-sizes-isomap.
К сожалению, не было простого способа получить эти рендеры там, где
примеры doctest делают (и, следовательно, они были отнесены к концу
страница, которая не принадлежит поколению numpydoc).
12 ноября 2014 г. в 23:06 Манодж Кумар [email protected] написал:
В большинстве документов классов отсутствуют примеры. Было бы здорово добавить один
или два подобных примера,
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Lasso.html-
Ответьте на это письмо напрямую или просмотрите его на GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846.
Да, я имел в виду, вероятно, один или два лайнера (например) https://github.com/scikit-learn/scikit-learn/pull/3802/files#diff -1741ad6b05f1eb0fd71af8bad0e001c7R321, чтобы показать API.
Это одна из причин, по которой я добавил автоматические ссылки обратно на соответствующие примеры из галереи при отображении скомпилированной справки по API.
Это круто. Раньше не замечал!
Это круто. Раньше не замечал!
Только в dev. И спрятан внизу страницы :(
Как думаешь, где еще было бы лучше?
Под описанием класса и над параметрами?
В любом месте перед описанием метода было бы хорошо. Описания методов могут занимать много вертикального места на справочной странице API, поэтому маловероятно, что кто-то пролистает мимо них в поисках примеров.
Извините за задержку с ответом. Я предполагаю, что это сделать не так уж и просто? Иначе вы бы сделали это сами?
Нет, это даже более опасно, чем нынешний подход!
19 ноября 2014 г., 21:59, Манодж Кумар [email protected] написал:
Извините за задержку с ответом. Я предполагаю, что это сделать не так уж и просто? Еще
ты бы сделал это сам?-
Ответьте на это письмо напрямую или просмотрите его на GitHub
https://github.com/scikit-learn/scikit-learn/issues/3846#issuecomment -63623385
.
Как насчет простого добавления примеров в строку документации недостающих классов?
Это оценщики (98-10 / 148), в которых в настоящее время отсутствует раздел Examples
: -
Готово / WIP
ExtraTreesRegressor
BaggingClassifier
BaggingRegressor
AdaBoostRegressor
GradientBoostingRegressor
Не требуется
ExtraTreeClassifier # Used only in ensembling
ExtraTreeRegressor # -do-
СДЕЛАТЬ
AffinityPropagation
AgglomerativeClustering
Binarizer
CheckingClassifier
CountVectorizer
DBSCAN
DPGMM
DictionaryLearning
ElasticNet
ElasticNetCV
EmpiricalCovariance
FactorAnalysis
FastICA
FeatureAgglomeration
GaussianRandomProjection
GenericUnivariateSelect
GraphLasso
GraphLassoCV
HashingVectorizer
Imputer
IncrementalPCA
Isomap
KMeans
KernelCenterer
KernelDensity
KernelPCA
LarsCV
LassoCV
LassoLarsCV
LedoitWolf
LinearRegression
LinearSVC
LinearSVR
LocallyLinearEmbedding
LogOddsEstimator
LogisticRegression
LogisticRegressionCV
MDS
MeanEstimator
MeanShift
MinCovDet
MinMaxScaler
MiniBatchDictionaryLearning
MiniBatchKMeans
MiniBatchSparsePCA
MultiTaskLassoCV
Normalizer
Nystroem
OAS
OneClassSVM
OrthogonalMatchingPursuit
OrthogonalMatchingPursuitCV
PLSSVD
PassiveAggressiveClassifier
PassiveAggressiveRegressor
PatchExtractor
Perceptron
PriorProbabilityEstimator
QuantileEstimator
RANSACRegressor
RBFSampler
RandomForestClassifier
RandomForestRegressor
RidgeCV
RidgeClassifier
RidgeClassifierCV
ScaledLogOddsEstimator
SelectFdr
SelectFpr
SelectFwe
SelectKBest
SelectPercentile
ShrunkCovariance
SkewedChi2Sampler
SparsePCA
SparseRandomProjection
SpectralBiclustering
SpectralClustering
SpectralCoclustering
SpectralEmbedding
StandardScaler
TfidfVectorizer
TheilSenRegressor
VBGMM
Ward
WardAgglomeration
ZeroEstimator
Конечно, но вам не кажется, что это немного утомительно? Если у вас нет сценария.
Я хотел немного узнать обо всех этих оценщиках ... Думаю, это был бы хороший способ сделать это :) Мне начать над этим работать?
Конечно!
Я работаю над этим.
@ltcguthrie какая часть? Для этого есть много моделей.
Начну с TfidfVectorizer.
Работа над RandomForestClassifier и RandomForestRegressor
Работа над PassiveAggressiveClassifier, PassiveAggressiveRegressor
Работа с LinearSVC, LinearSVR
Работаем на StandardScaler, MinMaxScaler
Работаем над ElasticNet, ElasticNetCV
Также создан документ Google для списка выполненных / отмененных объектов.
https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid = 0
@lodurality вы также можете создать здесь список с флажками
Я собираюсь отметить его как 0.21 и хороший первый выпуск, так как я считаю, что будет полезно включить небольшой пример для каждого класса.
работает над sklearn/cluster
Привет, я работаю над добавлением примера для Imputer в качестве первого вклада.
Переход к линейной регрессии: http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html
Также работаю над HashingVectorizer в sklearn/feature_extraction/text.py
.
Принимая OPTICS
. (зависит от # 11677)
Принимая sklearn/feature_selection/univariate_selection.py
Я думаю, вы все еще можете привести пример для ОПТИКИ даже с ошибкой :)
@ qinhanmin2014 вы имеете в виду пример без выброса, чтобы он не показывал ошибку? Думаю, было бы неплохо иметь пример, показывающий, как OPTICS
обнаруживает выброс, и я подозреваю, что мы забудем об изменении примера, как только эта ошибка будет исправлена. Я могу написать примечание к проблеме _bug_, чтобы исправить пример, как только проблема будет устранена, но тогда в исходном примере не будет выброса. Я должен это сделать?
Вы имеете в виду пример без выброса, чтобы он не отображал ошибку?
Нет, я имею в виду тот, у которого есть выбросы, например DBSCAN
Я не изучал ошибку, но ожидаю, что OPTICS может обнаруживать правильные выбросы большую часть времени, так что вы все равно можете построить пример. Если это не так, я думаю, нам нужно пометить ошибку как блокирующую.
Честно говоря, я попробую и посмотрю, смогу ли я найти простой пример, где он работает нормально.
Взять на себя sklearn/linear_model/ridge.py
взяв на себя sklearn/covariance/graph_lasso_.py
принимая sklearn/linear_model/logistic.py
брать уроки preprocessing
.
принимая перцептрон
Я добавил пример в класс Perceptron, но по неизвестным причинам он не сработает.
Нужна помощь, я новичок! (Ps-запрос на перенос уже создавался).
принимая sklearn/random_projection
[[MRG] Примеры персептронов в Perceptron.py к scikit-learn / scikit-learn / linear_model / perceptron.py # 11798
Взять 'склеарн / коллектор'
Я работаю над sklearn.feature_extraction.image.PatchExtractor
Мы с Андреа будем работать над примером sklearn.cluster.Ward и LedoitWolf. Мы обновляем трекер Excel, чтобы никто не предпринимал никаких дублирующих усилий.
Я работаю над sklearn.decomposition.DictionaryLearning
Мы только что обновили документ Google из @lodurality здесь:
https://docs.google.com/spreadsheets/d/19D-RQocsLk4BM7-Xax8hVvIu3XDgwYSUnvja4cMrJww/edit#gid = 0
Я и Шимэн будем работать над недостающими.
@andreanr , этот документ довольно старый, и в нем отсутствует целая куча новых классов. Лучше было бы взять модуль или папку и охватить в ней все общедоступные классы.
@adrinjalali Да, безусловно, мы закончим выдающиеся в текущем списке, а затем мы обновим базу списка обновленных модулей.
@andreanr , ты тоже работаешь над классами в ensemble.gradient_boosting
? В противном случае я бы хотел над этим поработать.
@ daten-kieker, вперед!
Привет,
Есть ли что-нибудь, что я мог бы внести?
Спасибо.
@srividhyaprakash Я только добавил примеры для оценщиков в ensemble.gradient_boosting
. Вы можете взглянуть на другие классы.
@ daten-kieker, Спасибо за ответ. Это мой первый публичный репо с хорошей репо. Не могли бы вы подсказать мне возможное руководство для начинающих по стилю и формату коммита для примера?
Спасибо.
@srividhyaprakash , вы можете начать с того, что найдете в руководстве разработчика . Вы также можете задать вопрос в gitter, если у вас есть вопросы по
Как только вы начнете решать эту конкретную проблему, вы можете проверить некоторые запросы на вытягивание, которые вы видите в этом потоке, чтобы понять, с чем они связаны.
Здравствуйте, есть ли что-нибудь, с чем я мог бы помочь?
Если он все еще доступен, могу ли я разобраться со строкой документации LinearRegression?
@adrinjalali извиняюсь, я только что прочитал различные коммиты и увидел, что вы уже закончили LinearRegression в # 11975. Могу ли я разобраться со строкой документации LogisticRegression?
Мы как бы потеряли из виду то, что здесь осталось. Одним из вкладов было бы фактически проверить все общедоступные классы и перечислить те, которые все еще нуждаются в примере, и взять его оттуда.
@adrinjalali , я могу составить список того, что осталось
@adrinjalali , я так
master имеет последние обновления. С другой стороны, один из подходов может заключаться в
рассмотрите сгенерированную документацию API (например, на
https://github.com/scikit-learn/scikit-learn.github.io/tree/master/dev/modules/generated)
и grep для файлов, не содержащих class="rubric">Examples
@jnothman , спасибо, совет по grepping был точным. Я начну составлять список сегодня
Здесь нужна дополнительная помощь, чтобы обновить существующий документ или создать новый ..?
Это также поможет мне начать работу с открытым исходным кодом ... так что любые направления или работа будут оценены.
Нам все еще нужен обновленный список классов без примеров. Пинг @ Khayyon1?
@ Khayyon1 вы заполнили список или вам нужна помощь ..?
@adrinjalali , мне придется бросить это, потому что школа возобновилась вскоре после того, как я попросил о помощи, и я не смог поработать над этим, мои извинения
@adrinjalali, так что я должен увидеть, что все осталось из списка, упомянутого @raghavrv
@ coderop2 это список 3-4-летней давности, наверное, лучше начать новый!
Прошу прощения за поздний ответ ... Как только мои экзамены в колледже закончатся, я начну составлять новый список, сохраняя при этом старый список ... Надеюсь, этого будет достаточно, чтобы стать справочником для всех
$ # list those with examples
$ git grep -p '^ Examples$' sklearn | grep '=class ' | sed 's/[^ ]* //;s/(.*//;s/:.*//' | sort > /tmp/classes_with_examples.txt
$ # rough list of all public classes
$ grep '\.[A-Z][a-zA-Z]\+' doc/modules/classes.rst > /tmp/classes.txt
$ # classes without examples
$ grep -v -wFf /tmp/classes_with_examples.txt /tmp/classes.txt
...
that was incorrect. See below.
...
Не уверен, что это правда
Это может быть более точным, но все еще есть ложные срабатывания. Кроме того, при условии, что нам не нужны примеры для классов Mixin и Warning.
BaggingRegressor
BallTree
BaseEstimator
BayesianGaussianMixture
CalibratedClassifierCV
ClassifierChain
ColumnTransformer
CompoundKernel
ConstantKernel
DictionaryLearning
DistanceMetric
DotProduct
DummyClassifier
DummyRegressor
Exponentiation
ExpSineSquared
ExtraTreeClassifier
ExtraTreeRegressor
ExtraTreesClassifier
ExtraTreesRegressor
FunctionTransformer
GaussianMixture
GradientBoostingClassifier
GradientBoostingRegressor
GraphLasso
GraphLassoCV
GroupShuffleSplit
Hyperparameter
Imputer
IsolationForest
IsotonicRegression
IterativeImputer
KDTree
Kernel
KernelDensity
LocalOutlierFactor
Matern
Memory
MiniBatchDictionaryLearning
MLPClassifier
MLPRegressor
MultiOutputClassifier
MultiOutputRegressor
OAS
OneClassSVM
OneVsOneClassifier
OneVsRestClassifier
OPTICS
OutputCodeClassifier
PairwiseKernel
Parallel
Product
RandomizedSearchCV
RandomTreesEmbedding
RationalQuadratic
RBF
RegressorChain
SelectFromModel
SparseCoder
Sum
TfidfTransformer
WhiteKernel
Да, я ошибся поиском, дал много ложных срабатываний. Это лучше:
$ grep -v -f <(cat /tmp/classes_with_examples.txt | sed 's/.*/\\.&$/') /tmp/classes.txt
base.BaseEstimator
base.BiclusterMixin
base.ClassifierMixin
base.ClusterMixin
base.DensityMixin
base.RegressorMixin
base.TransformerMixin
calibration.CalibratedClassifierCV
cluster.OPTICS
compose.ColumnTransformer
covariance.OAS
decomposition.DictionaryLearning
decomposition.MiniBatchDictionaryLearning
decomposition.SparseCoder
dummy.DummyClassifier
dummy.DummyRegressor
ensemble.BaggingClassifier
ensemble.BaggingRegressor
ensemble.ExtraTreesClassifier
ensemble.ExtraTreesRegressor
ensemble.GradientBoostingClassifier
ensemble.GradientBoostingRegressor
ensemble.IsolationForest
ensemble.RandomTreesEmbedding
exceptions.ChangedBehaviorWarning
exceptions.ConvergenceWarning
exceptions.DataConversionWarning
exceptions.DataDimensionalityWarning
exceptions.EfficiencyWarning
exceptions.NonBLASDotWarning
exceptions.UndefinedMetricWarning
feature_extraction.text.TfidfTransformer
feature_selection.SelectFromModel
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.ConstantKernel
gaussian_process.kernels.DotProduct
gaussian_process.kernels.ExpSineSquared
gaussian_process.kernels.Exponentiation
gaussian_process.kernels.Hyperparameter
gaussian_process.kernels.Kernel
gaussian_process.kernels.Matern
gaussian_process.kernels.PairwiseKernel
gaussian_process.kernels.Product
gaussian_process.kernels.RBF
gaussian_process.kernels.RationalQuadratic
gaussian_process.kernels.Sum
gaussian_process.kernels.WhiteKernel
isotonic.IsotonicRegression
impute.IterativeImputer
mixture.BayesianGaussianMixture
mixture.GaussianMixture
model_selection.GroupShuffleSplit
model_selection.RandomizedSearchCV
multiclass.OneVsRestClassifier
multiclass.OneVsOneClassifier
multiclass.OutputCodeClassifier
multioutput.ClassifierChain
multioutput.MultiOutputRegressor
multioutput.MultiOutputClassifier
multioutput.RegressorChain
neighbors.BallTree
neighbors.DistanceMetric
neighbors.KDTree
neighbors.KernelDensity
neighbors.LocalOutlierFactor
neural_network.MLPClassifier
neural_network.MLPRegressor
preprocessing.FunctionTransformer
svm.OneClassSVM
tree.ExtraTreeClassifier
tree.ExtraTreeRegressor
utils.Memory
utils.Parallel
covariance.GraphLasso
covariance.GraphLassoCV
preprocessing.Imputer
Это 76, в то время как ваш список 62: он исключает base.*
и exceptions.*
что достаточно справедливо, @adrinjalali , включая такие странные вещи, как Sum
.
Извините, мы оба включаем Sum. Глупый.
Принимая участие в GroupShuffleSplit
Я бы работал над манекеном (DummyClassifier, DummyRegressor).
Это текущий список классов, которым могут потребоваться примеры:
base.BaseEstimator
base.BiclusterMixin
base.ClassifierMixin
base.ClusterMixin
base.DensityMixin
base.RegressorMixin
base.TransformerMixin
cluster.OPTICS
compose.ColumnTransformer
covariance.OAS
decomposition.DictionaryLearning
decomposition.MiniBatchDictionaryLearning
decomposition.SparseCoder
ensemble.BaggingClassifier
ensemble.BaggingRegressor
ensemble.ExtraTreesClassifier
ensemble.ExtraTreesRegressor
ensemble.GradientBoostingClassifier
ensemble.GradientBoostingRegressor
ensemble.IsolationForest
ensemble.RandomTreesEmbedding
exceptions.ChangedBehaviorWarning
exceptions.ConvergenceWarning
exceptions.DataConversionWarning
exceptions.DataDimensionalityWarning
exceptions.EfficiencyWarning
exceptions.NonBLASDotWarning
exceptions.UndefinedMetricWarning
feature_extraction.text.TfidfTransformer
feature_selection.SelectFromModel
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.ConstantKernel
gaussian_process.kernels.DotProduct
gaussian_process.kernels.ExpSineSquared
gaussian_process.kernels.Exponentiation
gaussian_process.kernels.Hyperparameter
gaussian_process.kernels.Kernel
gaussian_process.kernels.Matern
gaussian_process.kernels.PairwiseKernel
gaussian_process.kernels.Product
gaussian_process.kernels.RBF
gaussian_process.kernels.RationalQuadratic
gaussian_process.kernels.Sum
gaussian_process.kernels.WhiteKernel
impute.IterativeImputer
inspection.PartialDependenceDisplay
metrics.RocCurveDisplay
mixture.BayesianGaussianMixture
mixture.GaussianMixture
multiclass.OneVsRestClassifier
multiclass.OneVsOneClassifier
multiclass.OutputCodeClassifier
multioutput.ClassifierChain
multioutput.MultiOutputRegressor
multioutput.MultiOutputClassifier
multioutput.RegressorChain
neighbors.BallTree
neighbors.DistanceMetric
neighbors.KDTree
neighbors.KernelDensity
neighbors.LocalOutlierFactor
neural_network.MLPClassifier
neural_network.MLPRegressor
preprocessing.FunctionTransformer
svm.LinearSVC
tree.ExtraTreeClassifier
tree.ExtraTreeRegressor
utils.Memory
utils.Parallel
Привет, @pspachtholz @MechCoder , я хотел бы поработать над этим. Мне интересно внести свой вклад в scikit-learn, и я думаю, что это может быть хорошей отправной точкой.
Спасибо
@PyExtreme Я думаю, вы можете просто пойти дальше, выбрать один / несколько классов из списка, который вам интересен, и добавить примеры. Затем я бы разместил здесь то, над чем вы работаете, чтобы избежать дублирования работы. В качестве руководства вы можете взглянуть на ранее объединенные запросы на вытягивание.
@pspachtholz , беру _ExtraTreesClassifier_, а после совершения фиксации я хотел бы забрать его партиями.
Спасибо
Работал над повышением градиента.
Получение neural_network.MLPClassifier
& neural_network.MLPRegressor
У меня svm.LinearSVC
Я работаю над sklearn.multioutput.MultiOutputClassifier
Привет, я буду работать над mixture.BayesianGaussianMixture
и mixture.GaussianMixture
Я нахожусь на feature_extraction.text.TfidfTransformer
. Пожелай мне удачи!
Я использую feature_extraction.text.TfidfTransformer. Пожелай мне удачи!
тоже работаю над этим - Может, поделимся примерами?
забрать ensemble.ExtraTreesClassifier
Я выбираю ensemble.BaggingRegressor
Я работаю над feature_selection.SelectFromModel
Подбираю соседей.
У меня ensemble.IsolationForest
на multiclass.OneVsRestClassifier
Привет, я буду работать над ядрами Gaussian Process, начиная с gaussian_process.kernels.RBF
а затем займусь другими ядрами с помощью
Работаем над ensemble.GradientBoostingClassifier
Работаем над Perceptron
Работаем над ensemble.GradientBoostingRegressor
Далее tree.ExtraTreeClassifier
работает над ensemble.GradientBoostingRegressor
взглянуть на multiclass.OutputCodeClassifier
Глядя на neighbors.LocalOutlierFactor
.
работает над ensemble.RandomTreesEmbedding
забрать
ensemble.ExtraTreesClassifier
Привет, @jorahn , я уже
Пожалуйста, выберите другой модуль.
Я предлагаю просмотреть комментарии перед тем, чтобы увидеть, работает ли кто-нибудь уже над классом, чтобы избежать дублирования работы.
Для некоторых классов уже есть некоторые (возможно, устаревшие) запросы mrg, по которым мы могли бы спросить авторов, активно ли они все еще работают над этим.
@flaviomorelli @LBrummer @mschaffenroth Я уже делал градиент ансамбля в этом PR # 15151
Действительно здорово, кстати, видеть, что скорость набирает обороты :-)
забрать
ensemble.ExtraTreesClassifier
Привет, @jorahn , я уже
Пожалуйста, выберите другой модуль.
ох, не видел этого по этому вопросу. так что теперь у нас есть два PR для этого
Персептрон уже задокументирован.
работает над tree.ExtraTreeRegressor
работает над impute.IterativeImputer
@pspachtholz , беру _ExtraTreesClassifier_, а после совершения фиксации я хотел бы забрать его партиями.
Спасибо
@jorahn , я упомянул об этом неделю назад здесь только и уже работал над этим с 1 недели.
Работаем над OneVsOneClassifier.
Я иду за metrics.RocCurveDisplay
работает над multioutput.ClassifierChain
Работаем над PriorProbabilityEstimator
.
Работаем над multioutput.MultiOutputRegressor
принимая neighbors.BallTree
PriorProbabilityEstimator
устарело в версии 0.21 и будет удалено в версии 0.23. Не работаю над этим.
Работаем над covariance.OAS
SelectPercentile
уже задокументировано.
работает над ensemble.ExtraTreesRegressor
принимая
neighbors.BallTree
уже есть несколько примеров для BallTree и compose.ColumnTransformer
RANSACRegressor
уже задокументировано.
принимая decomposition.SparseCoder
SelectKBest
уже задокументировано.
SpectralClustering
уже задокументировано
Работаем над IsolationForest
Работаем над
IsolationForest
Привет @zioalex , у меня уже есть пиар: # 15205. С радостью приму предложения и комментарии: smiley:
Работает в neighbors.DistanceMetric
.
работает над multioutput.RegressorChain
работает над exceptions.ConvergenceWarning
работает над exceptions.ChangedBehaviorWarning
работает над
exceptions.ChangedBehaviorWarning
Перейдя к @adrinjalali , мы пришли к
Для вашего спокойствия будьте как мы, не работайте на exceptions.ChangedBehaviorWarning
Работаем над exceptions.DataDimensionalityWarning
Я хотел бы поработать над несколькими. Начну с оптики.
Привет! Я только что поднял PR после добавления фрагмента кода примера в кластеризацию K-средних. Это мой первый проект с открытым исходным кодом, поэтому было бы здорово, если бы кто-нибудь мог изучить его и посмотреть, нужно ли еще работать!
Спасибо и привет,
Смрити Сингх
Я просмотрел список за октябрь прошлого года и проверил, какие классы уже объединили PR / примеры. Я полагаю, что заявления прошлогодней или более давней давности, по которым больше ничего не произошло, можно проигнорировать.
Итак, вот обновленный список задач:
не работайте с этим, это зависит от выпуска: exceptions.ChangedBehaviorWarning
разложение.
~ exceptions.DataDimensionalityWarning # 15246 ~
Смесь. БайесовскийГауссовский
смесь. GaussianMixture # 15193
multioutput.ClassifierChain # 15211
multioutput.RegressorChain # 15215
новые открытые персоны:
Разложение.
~ исключения. Предупреждение об эффективности # 16785 ~
~ exceptions.UndefinedMetricWarning # 16784 ~
(РЕДАКТИРОВАТЬ: те, что указаны в base
, лучше подходят для руководства разработчика, давайте пока проигнорируем их)
~ base.BaseEstimator ~
~ base.BiclusterMixin ~
~ base.ClassifierMixin ~
~ base.ClusterMixin ~
~ base.DensityMixin ~
~ base.RegressorMixin ~
~ base.TransformerMixin ~
разложение.
~ исключения.
~ feature_selection.SelectFromModel ~
gaussian_process.kernels.CompoundKernel
gaussian_process.kernels.Hyperparameter
~ gaussian_process.kernels.Kernel ~
~ Inspection.PartialDependenceDisplay ~
~ мультикласс.OneVsOneClassifier ~
~ multioutput.MultiOutputClassifier ~
~ utils.Memory ~
~ utils.Parallel ~
Обновлять.
covariance.OAS # 16681
multioutput.MultiOutputRegressor # 16698
tree.ExtraTreeClassifier # 16671
соседи.
соседи.
соседи.LocalOutlierFactor
exceptions.DataConversionWarning # 16704
multiclass.OneVsOneClassifier # 16700
Нужны ли нам примеры для классов base.*
? Думаю, имеет смысл лучше задокументировать их в developer guide
. WDYT @jnothman @NicolasHug ?
Согласен, лучше для гайда разработчика. Я редактирую комментарий
Думаю, его закрыли случайно.
multioutput.MultiOutputClassifier уже есть примеры. Следует ли его обновить, включив в него пример атрибута, или его следует удалить из списка ДОЛЖНО ДЕЛАТЬ?
Думаю, его можно убрать из списка. Спасибо @marenwestermann
Думаю, его можно убрать из списка. Спасибо @marenwestermann
Хорошо, тогда feature_selection.SelectFromModel также можно удалить, потому что в ней тоже есть примеры. (Они были добавлены в октябре прошлого года.)
Относительно utils.Memory
и utils.Parallel
:
на сайте scikit-learn говорится, что они «удалены в версии 0.23». Я проверил файл utils.__init__.py
котором жили эти классы, и они были удалены. Так что их тоже можно исключить из списка.
Я попробую разобраться с gaussian_process.kernels.Kernel
:)
Помимо приведенного выше PR DictionaryLearning / MiniBatchDictionaryLearning, я также посмотрел на классы Neighbours. *: У всех них уже есть хотя бы один пример. Значения для neighbors.KDTree и neighbors.BallTree генерируются из строки формата CLASS_DOC, которую можно найти во включаемом файле _binary_tree.pxi ..
Я впервые участвую в этом проекте. Я хотел бы изучить классы Neighbor. *, В том числе:
соседи.
соседи.
соседи.LocalOutlierFactor
Я посмотрел на gaussian_process.kernels.Kernel
. Согласно документации это «Базовый класс для всех ядер». Следовательно, все его атрибуты являются атрибутами свойств только для чтения (методы с декораторами @property
). Поэтому, насколько я понимаю, нет смысла добавлять примеры к этому классу, потому что он может использоваться только в сочетании с другим классом.
Однако, если вы прокрутите страницу gaussian_process.kernels.Kernel
вниз до конца, там будет ссылка на пример использования этого класса. Это было добавлено в ноябре 2019 года. В этом примере создается класс SequenceKernel
который наследуется от класса Kernel
. Класс SequenceKernel
не является функцией scikit-learn, но может быть интересной функцией для добавления.
Пожалуйста, поправьте меня, если что-то из того, что я здесь написал, неверно.
Да, было бы слишком сложно написать для него пример. Рад, что его убрали из списка.
@Malesche exceptions.DataDimensionalityWarning
теперь закрыт и, следовательно, может быть удален из списка TODO.
Относительно inspection.PartialDependenceDisplay
:
В описании класса сказано: «Рекомендуется использовать plot_partial_dependence
для создания PartialDependenceDisplay
». Я взглянул на эту функцию, и внутри нее создается объект PartialDependenceDisplay
вызывается его метод plot
. Есть примеры использования plot_partial_dependence
, и поэтому я думаю, что нет необходимости добавлять примеры в inspection.PartialDependenceDisplay
. Как ты думаешь, @adrinjalali ?
согласился @marenwestermann
exceptions.NonBLASDotWarning
также можно исключить из списка TODO, потому что было принято решение не размещать примеры в exceptions.py
(см. # 17040).
@NicolasHug , @amueller на всякий случай, если вы хотите использовать эту проблему в качестве проблемы спринта, вы можете найти здесь список классов, для которых все еще отсутствуют примеры (благодаря сценарию Джоэла, измененному им самим ... :)). Я уже удалил классы base
и exceptions
. Могу я предложить отредактировать вопрос со списком в самом начале? Это упростит идентификацию доступных классов. Связи с общественностью, все еще открытые из предыдущих спринтов (не только), включены в список: я думаю, будет полезно доработать их перед новым мероприятием (спасибо @thomasjpfan за то, что уже начал некоторые обзоры).
Спасибо за предложение @cmarmo , я обновил проблему.
Привет, попробую взять на gaussian_process.kernels.Hyperparameter
.
Привет, я возьму на себя linear_model.*
.
Привет, Возьмем ансамбль.
Привет, Возьмем ансамбль.
У этого уже есть пример.
Эй, мы сейчас принимаем:
Привет, @adrinjalali , не могли бы вы проверить PR? Спасибо!
Мы с @emdupre будем работать ниже в рамках спринта, посвященного данным.
Привет @adrinjalali , Похоже, мы уже можем видеть некоторые примеры ниже. Он не обновляется в списке дел. Пожалуйста, предложите.
Привет, буду работать над:
Привет, буду работать над:
gaussian_process.kernels.CompoundKernel
Закрытие, так как все PR были объединены и больше нет подходящих классов без примеров.
Спасибо @ j2heng за помощь в сортировке во время спринта!
Да неужели. Список вверху устарел?
Ах да слил я другой пиар.
Самый полезный комментарий
Закрытие, так как все PR были объединены и больше нет подходящих классов без примеров.
Спасибо @ j2heng за помощь в сортировке во время спринта!