Scikit-learn: Haga que las descripciones de random_state sean más informativas y consulte el glosario

Creado en 29 ene. 2018  ·  60Comentarios  ·  Fuente: scikit-learn/scikit-learn

Recientemente agregamos un Glosario a nuestra documentación, que describe parámetros comunes entre otras cosas. Ahora deberíamos reemplazar las descripciones de los parámetros random_state para hacerlos más concisos e informativos (ver # 10415). Por ejemplo, en lugar de

    random_state : int, RandomState instance or None, optional, default: None
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

tanto en KMeans como en MiniBatchKMeans, podríamos tener:

KMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.


MiniBatchKMeans:
    random_state : int, RandomState instance, default=None
        Determines random number generation for centroid initialization and
        random reassignment.
        Pass an int for reproducible results across multiple function calls.
        See :term:`Glossary <random_state>`.

Por lo tanto, la descripción debe centrarse en cuál es el impacto de random_state en el algoritmo.

Los contribuyentes interesados ​​en contribuir con este cambio deben tomar un módulo a la vez, inicialmente.

La lista de estimadores a modificar es la siguiente:

Lista de archivos para modificar usando el script kwinata

  • [x] [sklearn / dummy.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/dummy.py) - 59
  • [x] [sklearn / multioutput.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multioutput.py) - 578 , 738
  • [] [sklearn / kernel_approximation.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/kernel_approximation.py) - 41 , 143 , 470
  • [] [sklearn / multiclass.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/multiclass.py) - 687
  • [x] [sklearn / random_projection.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/random_projection.py) - 178 , 245 , 464 , 586
  • [x] [sklearn / feature_extraction / image.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_extraction/image.py) - 368 , 502
  • [x] [sklearn / utils / random.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/random.py) - 39 relaciones públicas abiertas
  • [x] [sklearn / utils / extmath.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/extmath.py) - 185 , 297
  • [x] [sklearn / ensemble / _hist_gradient_boosting / gradient_boosting.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/gradient_boosting.py) - 736 , 918
  • [x] [sklearn / ensemble / _hist_gradient_boosting / binning.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_hist_gradient_boosting/binning.py) - 37 , 112

  • [x] [sklearn / ensemble / _bagging.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_bagging.py) - 503 , 902

  • [x] [sklearn / ensemble / _gb.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_gb.py) - 887 , 1360
  • [x] [sklearn / ensemble / _forest.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_forest.py) - 965 , 1282 , 1559 , 1868 , 2103
  • [x] [sklearn / ensemble / _iforest.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_iforest.py) - 109
  • [] [sklearn / ensemble / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_base.py) - 52
  • [x] [sklearn / ensemble / _weight_boosting.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/ensemble/_weight_boosting.py) - 188 , 324 , 479 , 900 , 1022
  • [x] [sklearn / decomposition / _truncated_svd.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_truncated_svd.py) - 59 Open PR
  • [x] [sklearn / decomposition / _kernel_pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_kernel_pca.py) - 79 Open PR
  • [x] [sklearn / decomposition / _dict_learning.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_dict_learning.py) - 364 , 485 , 692 , 1135 , 1325 PR abierto
  • [x] [sklearn / decomposition / _fastica.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_fastica.py) - 205 , 344 Open PR
  • [x] [sklearn / decomposition / _nmf.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_nmf.py) - 290 , 475 , 966 , 1159 Abierto PR
  • [x] [sklearn / decomposition / _pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_pca.py) - 192 Open PR
  • [x] [sklearn / decomposition / _sparse_pca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_sparse_pca.py) - 82 , 285 Open PR
  • [x] [sklearn / decomposition / _lda.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_lda.py) - 60 , 79 , 225 Open PR
  • [x] [sklearn / decomposition / _factor_analysis.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/decomposition/_factor_analysis.py) - 92 Open PR
  • [x] [sklearn / cluster / _kmeans.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_kmeans.py) - 56 , 241 , 380 , 583 , 700 , 1150 , 1370
  • [x] [sklearn / cluster / _spectral.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_spectral.py) - 41 , 197 , 313
  • [x] [sklearn / cluster / _bicluster.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_bicluster.py) - 236 , 383
  • [x] [sklearn / cluster / _mean_shift.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/cluster/_mean_shift.py) - 48
  • [x] [sklearn / preprocessing / _data.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/preprocessing/_data.py) - 2178 , 2607
  • [x] [sklearn / impute / _iterative.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/impute/_iterative.py) - 125
  • [x] [sklearn / linear_model / _ransac.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ransac.py) - 152 Relaciones públicas abiertas
  • [x] [sklearn / linear_model / _coordinate_descent.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_coordinate_descent.py) - 580 , 860 , 1313 , 1487 , 1665 , 1851 , 2016 , 2192 Abrir PR
  • [x] [sklearn / linear_model / _sag.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_sag.py) - 154 Relaciones públicas abiertas
  • [x] [sklearn / linear_model / _perceptron.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_perceptron.py) - 55 Relaciones públicas abiertas
  • [x] [sklearn / linear_model / _passive_aggressive.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_passive_aggressive.py) - 76 , 322 Relaciones públicas abiertas
  • [x] [sklearn / linear_model / _logistic.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_logistic.py) - 587 , 924 , 1100 , 1658 Abierto PR
  • [x] [sklearn / linear_model / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_base.py) - 65
  • [x] [sklearn / linear_model / _stochastic_gradient.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_stochastic_gradient.py) - 369 , 811 , 1419 Open PR
  • [x] [sklearn / linear_model / _theil_sen.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_theil_sen.py) - 243 Relaciones públicas abiertas
  • [x] [sklearn / linear_model / _ridge.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/linear_model/_ridge.py) - 325 , 693 , 853 Open PR
  • [x] [sklearn / tree / _classes.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/tree/_classes.py) - 653 , 1033 , 1322 , 1552
  • [x] [sklearn / feature_selection / _mutual_info.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/feature_selection/_mutual_info.py) - 226 , 335 , 414
  • [x] [sklearn / metrics / cluster / _unsupervised.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/metrics/cluster/_unsupervised.py) - 80
  • [x] [sklearn / svm / _classes.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_classes.py) - 90 , 312 , 546 , 752 Abierto PR
  • [x] [sklearn / svm / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/svm/_base.py) - 853 PR abierto
  • [x] [sklearn / inspección / _permutation_importance.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/inspection/_permutation_importance.py) - 81
  • [x] [sklearn / gaussian_process / _gpr.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpr.py) - 109 , 382
  • [x] [sklearn / gaussian_process / _gpc.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/gaussian_process/_gpc.py) - 110 , 537
  • [x] [sklearn / manifold / _spectral_embedding.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_spectral_embedding.py) - 171 , 387
  • [x] [sklearn / manifold / _locally_linear.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_locally_linear.py) - 146 , 252 , 584
  • [x] [sklearn / manifold / _t_sne.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_t_sne.py) - 558
  • [x] [sklearn / manifold / _mds.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/manifold/_mds.py) - 51 , 198 , 314
  • [x] [sklearn / utils / _testing.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/_testing.py) - 521
  • [x] [sklearn / utils / __ init__.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/utils/__init__.py) - 478 , 623
  • [x] [sklearn / datasets / _kddcup99.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_kddcup99.py) - 79
  • [x] [sklearn / datasets / _covtype.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_covtype.py) - 69
  • [x] [sklearn / datasets / _rcv1.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_rcv1.py) - 114
  • [x] [sklearn / datasets / _samples_generator.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_samples_generator.py) - 127 , 323 , 440 , 531 , 618 , 688 , 767 , 904 , 965 , 1030 , 1106 , 1159 , 1218 , 1258 , 1307 , 1368 , 1420 , 1483 , 1571 , 1662
  • [x] [sklearn / datasets / _olivetti_faces.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_olivetti_faces.py) - 64
  • [x] [sklearn / datasets / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_base.py) - 157
  • [x] [sklearn / datasets / _twenty_newsgroups.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/datasets/_twenty_newsgroups.py) - 187
  • [x] [sklearn / blend / _bayesian_mixture.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_bayesian_mixture.py) - 166
  • [x] [sklearn / blend / _base.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_base.py) - 139
  • [x] [sklearn / blend / _gaussian_mixture.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/mixture/_gaussian_mixture.py) - 504
  • [x] [sklearn / model_selection / _validation.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_validation.py) - 1006 , 1176
  • [x] [sklearn / model_selection / _split.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_split.py) - 382 , 588 , 1091 , 1196 , 1250 , 1390 , 1492 , 1605 , 2049 Abierto PR
  • [x] [sklearn / model_selection / _search.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/model_selection/_search.py) - 207 , 1299
  • [x] [sklearn / neural_network / _multilayer_perceptron.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_multilayer_perceptron.py) - 782 , 1174
  • [x] [sklearn / neural_network / _rbm.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neural_network/_rbm.py) - 59
  • [x] [sklearn / vecinos / _kde.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbors/_kde.py) - 233
  • [x] [sklearn / vecinos / _nca.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/neighbors/_nca.py) - 112
  • [x] [sklearn / covariance / _robust_covariance.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_robust_covariance.py) - 63 , 233 , 328 , 545
  • [x] [sklearn / covariance / _elliptic_envelope.py] (https://github.com/scikit-learn/scikit-learn/blob/master/sklearn/covariance/_elliptic_envelope.py) - 40
Documentation Moderate Sprint good first issue

Comentario más útil

Queremos trabajar en sklearn / preprocessing / _data.py - 2178, 2607
@rachelcjordan y @ fabi-cast

wimlds #SciKitLearnSprint

Todos 60 comentarios

Hola @jnothman , ¿puedo

Reclama un módulo / subpaquete y pruébalo ...

El 30 de enero de 2018 a las 00:24, Somya Anand [email protected] escribió:

Hola @jnothman https://github.com/jnothman , ¿Puedo resolver este problema? Gracias

-
Recibes esto porque te mencionaron.
Responda a este correo electrónico directamente, véalo en GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548#issuecomment-361243951 ,
o silenciar el hilo
https://github.com/notifications/unsubscribe-auth/AAEz62ie2pMFVg7uM6_MVnmWKRX-efgHks5tPcaHgaJpZM4Rwij3
.

@jnothman Lo siento por ser ingenuo, pero ¿puede dar más detalles sobre el módulo / submódulo? Quiero decir, ¿te refieres a un subpaquete como Kmeans, por ejemplo?

Creo que lo que @jnothman significa es simplemente comenzar con un archivo, por ejemplo sklearn / cluster / k_means_.py, actualizar random_state docstring como en la publicación superior y abrir un PR.

un subpaquete es algo así como sklearn.cluster

Gracias. Haré eso y abriré un PR.

¡Hola! @jnothman

¿También le gustaría reemplazar los siguientes comentarios como se ve en grid_search.py? Tienen una línea adicional en comparación con la que compartes.

random_state : int, RandomState instance or None, optional (default=None)
        Pseudo random number generator state used for random uniform sampling
        from lists of possible values instead of scipy.stats distributions.
        If int, random_state is the seed used by the random number generator;
        If RandomState instance, random_state is the random number generator;
        If None, the random number generator is the RandomState instance used
        by `np.random`.

Puedo tomar grid_search.py ​​y k_means.py (KMeans).

deje grid_search.py ​​solo. está en desuso. La idea es minimizar la
contenido que se repite y está disponible en el glosario, para que podamos
dar a los usuarios la descripción más informativa sobre el papel de random_state en
el estimador particular.

Gracias @jnothman. ¿Debo comprender estos algoritmos antes de poder reemplazar esta información de estado aleatorio?

Deberá comprender los algoritmos en general, pero no todos los detalles de
su implementación. Deberá poder encontrar dónde random_state
se utiliza, si la asignación al azar en el algoritmo no es completamente obvia.
En algunos casos, puede ser apropiado ni siquiera dar muchos más detalles que
simplemente enlazando al glosario; tendremos que ver cómo va.

OK gracias. Comenzaré a revisar los algoritmos lentamente.

Saludos,
Shivam Rastogi

Abrí una solicitud de extracción # 10614

Dado que @ aby0 aún no ha reclamado el módulo sklearn.cluster. Me gustaría reclamar todo el módulo. Por favor, avíseme si puedo trabajar en ello o debería trabajar en otra cosa.

¿Alguna actualización chicos? Son unas vacaciones largas para nosotros, así que avíseme si puedo elegir esto.

Tomaré el módulo datasets ya que ya estoy hurgando en las cadenas de documentos para el # 10731.

Reclamo el módulo linear_model . levantará un PR pronto. # 11900 levantado.

Reclamando el módulo decomposition siguiente.

Lista de verificación de los módulos en los que se debe hacer esto:

  • [] desarrolladores
  • [] covarianza
  • [x] descomposición
  • [] dummy.py
  • [] conjunto
  • [ ] extracción de características
  • [ ] selección de características
  • [] proceso_gaussiano
  • [] kernel_approximation.py
  • [x] linear_model vía # 11900
  • [] colector
  • [] métricas
  • [] mezcla
  • [] model_selection
  • [] multiclass.py
  • [] multioutput.py
  • [] vecinos
  • [] neural_network
  • [] preprocesamiento
  • [] random_projection.py
  • [] svm
  • [ ] árbol
  • [] utils

Tuvimos algunos problemas para llegar a un consenso sobre cómo lograr el equilibrio adecuado
aquí, iirc

Así que preste atención a los RP anteriores fusionados anteriormente

@jnothman gracias! actualizará los PR para mencionar la reproducibilidad al pasar un int.

dispuesto a retomar todos los demás módulos en otro RP, una vez que estos hayan sido revisados ​​...

Estoy reclamando covarianza.

@BlackTeaAndCoffee , tenga en cuenta que el formato de la cadena de documentos aún no está finalizado, se han producido debates sobre los otros RP enumerados aquí. Así que quizás quieras echarle un vistazo también.

Estoy reclamando feature_extraction

@jnothman , @NicolasHug , acaba de descubrir # 15222 y una serie de relaciones públicas relacionadas con él que no he tenido en cuenta al resumir este ... algunos de ellos nunca han sido revisados ​​... :(
Para dejar las cosas claras para los sprints, me pregunto si podemos cerrar uno de esos dos problemas: si es así, ¿cuál? Como puedo evitar la información duplicada. Gracias por su colaboración.

No estaba al tanto de este problema (debería haberlo comprobado mejor), me complace cerrar https://github.com/scikit-learn/scikit-learn/issues/15222 a favor de este

Siguiendo el comentario de @jnothman, ¿ quizás este problema podría merecer una etiqueta de 'Moderado'?

Queremos trabajar en ensemble / _hist_gradient_boosting / binning.
@mojc y yo.

wimlds

@anaisabeldhero y yo queremos trabajar en manifold / *
#wimlds #SciKitLearnSprint

@ daphn3k y trabajaré en sklearn / gaussian_process /

wimlds #SciKitLearnSprint

Queremos trabajar en sklearn / preprocessing / _data.py - 2178, 2607
@rachelcjordan y @ fabi-cast

wimlds #SciKitLearnSprint

@Malesche y

WiMLDS

reclamando el archivo sklearn / metrics / cluster / _unsupervised.py! #wimlds

@ daphn3k y también tomamos la covarianza / * y los vecinos / * #wimlds

afirmar:
sklearn / dummy.py - 59
sklearn / multioutput.py - 578, 738
sklearn / kernel_approximation.py - 41, 143, 470
sklearn / multiclass.py - 687
sklearn / random_projection.py - 178, 245, 464, 586

PSA: use la oración original

Pase un int para obtener resultados reproducibles en varias llamadas a funciones.

en lugar de lo que veo en las relaciones públicas en este momento:

Use un int para hacer que la aleatoriedad sea determinista

lo cual no es correcto, ya que el RNG siempre es determinista independientemente de lo que se pase

CC @adrinjalali ya que creo que estás en el sprint

trabajando en la red neuronal y la mezcla

PSA: use la oración original

Pase un int para obtener resultados reproducibles en varias llamadas a funciones.

en lugar de lo que veo en las relaciones públicas en este momento:

Use un int para hacer que la aleatoriedad sea determinista

lo cual no es correcto, ya que el RNG siempre es determinista independientemente de lo que se pase

CC @adrinjalali ya que creo que estás en el sprint

Hola @NicolasHug, esto estaba destinado a comentar un PR, supongo ... ¿cuál? :)

vamos a trabajar en scikit-learn / sklearn / model_selection / _validation.py

@cmarmo Ese fue un comentario general para todos los RP. Vi uno y comenté allí, luego vi un segundo y descubrí que era un patrón que se abordaría mejor en la fuente

@cmarmo Ese fue un comentario general para todos los RP. Vi uno y comenté allí, luego vi un segundo y descubrí que era un patrón que se abordaría mejor en la fuente

Lo siento @NicolasHug , mi

@NicolasHug La oración original ha sido corregida en las confirmaciones de @anaisabeldhero y yo.

@Olks y

Reclamar sklearn / ensemble / _iforest.py - 109

Reclamar sklearn / neural_network / _multilayer_perceptron.py - 782, 1174

Reclamar sklearn / ensemble / _weight_boosting.py - 188, 324, 479, 900, 1022

Reclamar sklearn / multioutput.py - 578, 738

Afirmar :
sklearn / blend / _bayesian_mixture.py - 166
sklearn / blend / _base.py - 139
sklearn / blend / _gaussian_mixture.py - 504

Reclamar sklearn / ensemble / _gb.py - 887, 1360

Reclamar sklearn / ensemble / _hist_gradient_boosting / gradient_boosting.py - 736, 918

Reclamar sklearn / neural_network / _rbm.py - 59

Afirmar :

sklearn / svm / _classes.py - 90, 312, 546, 752
sklearn / svm / _base.py - 853

Afirmar:

sklearn / feature_selection / _mutual_info.py - 226, 335, 414
sklearn / metrics / cluster / _unsupervised.py - 80
sklearn / utils / _testing.py - 521
sklearn / utils / init.py - 478, 623

Afirmar :

sklearn / dummy.py - 59
sklearn / random_projection.py - 178, 245, 464, 586

@DatenBiene @GregoireMialon Gracias por todas sus contribuciones durante el último sprint. ¡Solo quedan 3 módulos sin marcar!

¿Estaría interesado / tendría tiempo / motivación para abordarlos (¡sin presión!)?

¡Hola Jérémie! Intentaré echarle un vistazo pronto

Le mer. 12 févr. 2020 a las 15:53, Jérémie du Boisberranger <
[email protected]> a écrit:

@DatenBiene https://github.com/DatenBiene @GregoireMialon
https://github.com/GregoireMialon Gracias por todas sus contribuciones
durante el último sprint. ¡Solo quedan 3 módulos sin marcar!

¿Le interesaría / tendría tiempo / motivación para abordarlos (no
presión !) ?

-
Recibes esto porque te mencionaron.
Responda a este correo electrónico directamente, véalo en GitHub
https://github.com/scikit-learn/scikit-learn/issues/10548?email_source=notifications&email_token=AFY4624NQL3EAFLBGPUNAE3RCQEO3A5CNFSM4EOCFD32YY3PNVWWK3TUL52GHS4W2MVREXWWK3TUL52GHS4DFZMVREXWK3TUL52GHS4DFMVREX
o darse de baja
https://github.com/notifications/unsubscribe-auth/AFY4625457AU7OL4E4EUVOTRCQEO3ANCNFSM4EOCFD3Q
.

¡Hola @jeremiedbb! Intentaré terminar los 3 módulos restantes hoy 😃

Afirmar:

sklearn / kernel_approximation.py - 41, 143, 470
sklearn / multiclass.py - 687
sklearn / ensemble / _base.py - 52

Hola @jnothman y @jeremiedbb , parece que todos los archivos se modificaron. Estaré encantado de ayudarte si encuentras algún problema pendiente.

¡Muchas gracias @DatenBiene y todos los colaboradores que trabajaron para cerrar este problema!
¡Creo que podemos cerrar este enorme!
Siéntase libre de abrir nuevos problemas específicos si aún falta algo en la descripción de random_state .

¿Fue útil esta página
0 / 5 - 0 calificaciones