Scikit-learn: أضف الانحدار الكمي الخطي

تم إنشاؤها على ١٣ مايو ٢٠١٤  ·  17تعليقات  ·  مصدر: scikit-learn/scikit-learn

يبدو أنه لا يوجد الكثير من الحزم في بايثون مع الانحدار الكمي ...

التعليق الأكثر فائدة

أهلا بالجميع! يرجى مراجعة العلاقات العامة الخاصة بي عندما يكون لديك وقت لذلك.

ال 17 كومينتر

يبدو أنه لا يوجد الكثير من الحزم في بايثون ذات الكم
تراجع...

لماذا يجب أن تدخل في scikit-Learn؟

إذا كان ذلك ممكنا ، فلماذا لا؟

نظرًا لأن لدينا الكثير من التعليمات البرمجية التي يتعين علينا صيانتها بالفعل ونقوم فقط بتضمين خوارزميات ML الشائعة. هل هذا شائع؟ هل لها فوائد واضحة لمهام التعلم الآلي على المناهج الأخرى؟

(راجع للشغل. VW له انحدار كمي ، مع الخسارة ℓ (p، y) = τ (p - y) [[y ≤ p]] + (1 - τ) (y - p) [[y ≥ p]] حيث [ [⋅]] أقواس إيفرسون.)

يدعم GradientBoostingRegressor الانحدار الكمي (باستخدام loss=quantile alpha ). راجع http://scikit-learn.org/dev/auto_examples/ensemble/plot_gradient_boosting_quantile.html#example -ensemble-plot-gradient-boosting-quantile-py للحصول على مثال.

كان يجب أن أتحقق من ذلك. إغلاق هذه القضية.

على الرغم من أنني لا أوافق على عدم وجود العديد من الحزم الخاصة بـ Quantile Regression في Python ، إلا أنني أعتقد أنه من المهم الحصول على الانحدار الكمي النقي (وليس داخل طريقة المجموعة) على sci-kit التعلم.

يتميز الانحدار الكمي بميزة الاستهداف على مقدار معين من y. بهذا ، يمكن تقليل الفرق بين متوسط ​​y_pred و y. إنه مشابه لتقليل الخطأ المطلق في هذه الحالة ، لكنه أكثر عمومية ويعمل مع الكميات الأخرى.

تستخدم البنوك هذا كثيرًا عند التعامل مع تسجيل الائتمان والنماذج الأخرى ، لذلك فهو نموذج تم اختباره في المعركة مع تطبيقات حقيقية. تم تنفيذ هذا النموذج في R و SAS.

prcastro تقصد لنموذج خطي؟

بالضبط. اليوم ، تطبق sklearn الانحدار الكمي على طرق المجموعات. ومع ذلك ، يتم استخدامه عادة كنموذج خطي عادي.

سأكون منفتحًا على إضافته. تضمين التغريدة

يبدو أنه راسخ بالفعل

سأكون منفتحًا على إضافته. تضمين التغريدة

لا معارضة. نحن فقط بحاجة إلى علاقات عامة جيدة ، والوقت لمراجعتها.

فيما يتعلق بالحالة المحددة للانحدار الكمي للوسيط (الخسارة المطلقة) ، على عكس الكميات الأكثر عمومية ، يبدو أن http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.HuberRegressor.html سيسمح إذا تمكنا فقط من تمرير epsilon = 0.0. لماذا يتطلب HuberRegressor epsilon : float, greater than 1.0 ؟ ( The Huber Regressor optimizes the squared loss for the samples where |(y - X'w) / sigma| < epsilon and the absolute loss for the samples where |(y - X'w) / sigma| > epsilon. )

تعتبر خسارة Huber مع epsilon = 0 مشكلة تحسين غير سلسة: واحدة
لا يمكن استخدام نفس فئة المحاليل.

أضفت الانحدار الخطي الكمي الكلاسيكي في طلب السحب أعلاه. يرجى مراجعته!

أهلا بالجميع! يرجى مراجعة العلاقات العامة الخاصة بي عندما يكون لديك وقت لذلك.

بينغ

يبدو أنه لا يوجد الكثير من الحزم في بايثون مع الانحدار الكمي ...

إنهم سيستمعون لعام 2020 وما زلنا لا نملك حزمة انحدار مناسبة

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات