Xgboost: Несоответствие feature_names при использовании разреженных матриц в Python

Созданный на 31 мая 2016  ·  51Комментарии  ·  Источник: dmlc/xgboost

Я получаю ValueError: несоответствие имен функций при обучении xgboost с разреженными матрицами в python.
Версия xgboost последняя из git. В более старых версиях эта ошибка отсутствует. Ошибка возвращается во время прогнозирования.

код

from scipy import sparse
import xgboost as xgb
from random import *
randBinList = lambda n: [randint(0,1) for b in range(1,n+1)]

train = sparse.rand(100,500)
test = sparse.rand(10, 500)
y = randBinList(100)
clf = xgb.XGBClassifier()
clf.fit(train,y)
preds = clf.predict_proba(test)

Полная трассировка:

ValueError                                Traceback (most recent call last)
<ipython-input-15-e03f10289bf1> in <module>()
----> 1 preds = clf.predict_proba(test)

/usr/local/lib/python2.7/dist-packages/xgboost-0.4-py2.7.egg/xgboost/sklearn.pyc in predict_proba(self, data, output_margin, ntree_limit)
    471         class_probs = self.booster().predict(test_dmatrix,
    472                                              output_margin=output_margin,
--> 473                                              ntree_limit=ntree_limit)
    474         if self.objective == "multi:softprob":
    475             return class_probs

/usr/local/lib/python2.7/dist-packages/xgboost-0.4-py2.7.egg/xgboost/core.pyc in predict(self, data, output_margin, ntree_limit, pred_leaf)
    937             option_mask |= 0x02
    938 
--> 939         self._validate_features(data)
    940 
    941         length = ctypes.c_ulong()

/usr/local/lib/python2.7/dist-packages/xgboost-0.4-py2.7.egg/xgboost/core.pyc in _validate_features(self, data)
   1177 
   1178                 raise ValueError(msg.format(self.feature_names,
-> 1179                                             data.feature_names))
   1180 
   1181     def get_split_value_histogram(self, feature, fmap='', bins=None, as_pandas=True):

ValueError: feature_names mismatch: ['f0', 'f1', 'f2', 'f3', 'f4', 'f5', 'f6', 'f7', 'f8', 'f9', 'f10', 'f11', 'f12', 'f13', 'f14', 'f15', 'f16', 'f17', 'f18', 'f19', 'f20', 'f21', 'f22', 'f23', 'f24', 'f25', 'f26', 'f27', 'f28', 'f29', 'f30', 'f31', 'f32', 'f33', 'f34', 'f35', 'f36', 'f37', 'f38', 'f39', 'f40', 'f41', 'f42', 'f43', 'f44', 'f45', 'f46', 'f47', 'f48', 'f49', 'f50', 'f51', 'f52', 'f53', 'f54', 'f55', 'f56', 'f57', 'f58', 'f59', 'f60', 'f61', 'f62', 'f63', 'f64', 'f65', 'f66', 'f67', 'f68', 'f69', 'f70', 'f71', 'f72', 'f73', 'f74', 'f75', 'f76', 'f77', 'f78', 'f79', 'f80', 'f81', 'f82', 'f83', 'f84', 'f85', 'f86', 'f87', 'f88', 'f89', 'f90', 'f91', 'f92', 'f93', 'f94', 'f95', 'f96', 'f97', 'f98', 'f99', 'f100', 'f101', 'f102', 'f103', 'f104', 'f105', 'f106', 'f107', 'f108', 'f109', 'f110', 'f111', 'f112', 'f113', 'f114', 'f115', 'f116', 'f117', 'f118', 'f119', 'f120', 'f121', 'f122', 'f123', 'f124', 'f125', 'f126', 'f127', 'f128', 'f129', 'f130', 'f131', 'f132', 'f133', 'f134', 'f135', 'f136', 'f137', 'f138', 'f139', 'f140', 'f141', 'f142', 'f143', 'f144', 'f145', 'f146', 'f147', 'f148', 'f149', 'f150', 'f151', 'f152', 'f153', 'f154', 'f155', 'f156', 'f157', 'f158', 'f159', 'f160', 'f161', 'f162', 'f163', 'f164', 'f165', 'f166', 'f167', 'f168', 'f169', 'f170', 'f171', 'f172', 'f173', 'f174', 'f175', 'f176', 'f177', 'f178', 'f179', 'f180', 'f181', 'f182', 'f183', 'f184', 'f185', 'f186', 'f187', 'f188', 'f189', 'f190', 'f191', 'f192', 'f193', 'f194', 'f195', 'f196', 'f197', 'f198', 'f199', 'f200', 'f201', 'f202', 'f203', 'f204', 'f205', 'f206', 'f207', 'f208', 'f209', 'f210', 'f211', 'f212', 'f213', 'f214', 'f215', 'f216', 'f217', 'f218', 'f219', 'f220', 'f221', 'f222', 'f223', 'f224', 'f225', 'f226', 'f227', 'f228', 'f229', 'f230', 'f231', 'f232', 'f233', 'f234', 'f235', 'f236', 'f237', 'f238', 'f239', 'f240', 'f241', 'f242', 'f243', 'f244', 'f245', 'f246', 'f247', 'f248', 'f249', 'f250', 'f251', 'f252', 'f253', 'f254', 'f255', 'f256', 'f257', 'f258', 'f259', 'f260', 'f261', 'f262', 'f263', 'f264', 'f265', 'f266', 'f267', 'f268', 'f269', 'f270', 'f271', 'f272', 'f273', 'f274', 'f275', 'f276', 'f277', 'f278', 'f279', 'f280', 'f281', 'f282', 'f283', 'f284', 'f285', 'f286', 'f287', 'f288', 'f289', 'f290', 'f291', 'f292', 'f293', 'f294', 'f295', 'f296', 'f297', 'f298', 'f299', 'f300', 'f301', 'f302', 'f303', 'f304', 'f305', 'f306', 'f307', 'f308', 'f309', 'f310', 'f311', 'f312', 'f313', 'f314', 'f315', 'f316', 'f317', 'f318', 'f319', 'f320', 'f321', 'f322', 'f323', 'f324', 'f325', 'f326', 'f327', 'f328', 'f329', 'f330', 'f331', 'f332', 'f333', 'f334', 'f335', 'f336', 'f337', 'f338', 'f339', 'f340', 'f341', 'f342', 'f343', 'f344', 'f345', 'f346', 'f347', 'f348', 'f349', 'f350', 'f351', 'f352', 'f353', 'f354', 'f355', 'f356', 'f357', 'f358', 'f359', 'f360', 'f361', 'f362', 'f363', 'f364', 'f365', 'f366', 'f367', 'f368', 'f369', 'f370', 'f371', 'f372', 'f373', 'f374', 'f375', 'f376', 'f377', 'f378', 'f379', 'f380', 'f381', 'f382', 'f383', 'f384', 'f385', 'f386', 'f387', 'f388', 'f389', 'f390', 'f391', 'f392', 'f393', 'f394', 'f395', 'f396', 'f397', 'f398', 'f399', 'f400', 'f401', 'f402', 'f403', 'f404', 'f405', 'f406', 'f407', 'f408', 'f409', 'f410', 'f411', 'f412', 'f413', 'f414', 'f415', 'f416', 'f417', 'f418', 'f419', 'f420', 'f421', 'f422', 'f423', 'f424', 'f425', 'f426', 'f427', 'f428', 'f429', 'f430', 'f431', 'f432', 'f433', 'f434', 'f435', 'f436', 'f437', 'f438', 'f439', 'f440', 'f441', 'f442', 'f443', 'f444', 'f445', 'f446', 'f447', 'f448', 'f449', 'f450', 'f451', 'f452', 'f453', 'f454', 'f455', 'f456', 'f457', 'f458', 'f459', 'f460', 'f461', 'f462', 'f463', 'f464', 'f465', 'f466', 'f467', 'f468', 'f469', 'f470', 'f471', 'f472', 'f473', 'f474', 'f475', 'f476', 'f477', 'f478', 'f479', 'f480', 'f481', 'f482', 'f483', 'f484', 'f485', 'f486', 'f487', 'f488', 'f489', 'f490', 'f491', 'f492', 'f493', 'f494', 'f495', 'f496', 'f497', 'f498'] ['f0', 'f1', 'f2', 'f3', 'f4', 'f5', 'f6', 'f7', 'f8', 'f9', 'f10', 'f11', 'f12', 'f13', 'f14', 'f15', 'f16', 'f17', 'f18', 'f19', 'f20', 'f21', 'f22', 'f23', 'f24', 'f25', 'f26', 'f27', 'f28', 'f29', 'f30', 'f31', 'f32', 'f33', 'f34', 'f35', 'f36', 'f37', 'f38', 'f39', 'f40', 'f41', 'f42', 'f43', 'f44', 'f45', 'f46', 'f47', 'f48', 'f49', 'f50', 'f51', 'f52', 'f53', 'f54', 'f55', 'f56', 'f57', 'f58', 'f59', 'f60', 'f61', 'f62', 'f63', 'f64', 'f65', 'f66', 'f67', 'f68', 'f69', 'f70', 'f71', 'f72', 'f73', 'f74', 'f75', 'f76', 'f77', 'f78', 'f79', 'f80', 'f81', 'f82', 'f83', 'f84', 'f85', 'f86', 'f87', 'f88', 'f89', 'f90', 'f91', 'f92', 'f93', 'f94', 'f95', 'f96', 'f97', 'f98', 'f99', 'f100', 'f101', 'f102', 'f103', 'f104', 'f105', 'f106', 'f107', 'f108', 'f109', 'f110', 'f111', 'f112', 'f113', 'f114', 'f115', 'f116', 'f117', 'f118', 'f119', 'f120', 'f121', 'f122', 'f123', 'f124', 'f125', 'f126', 'f127', 'f128', 'f129', 'f130', 'f131', 'f132', 'f133', 'f134', 'f135', 'f136', 'f137', 'f138', 'f139', 'f140', 'f141', 'f142', 'f143', 'f144', 'f145', 'f146', 'f147', 'f148', 'f149', 'f150', 'f151', 'f152', 'f153', 'f154', 'f155', 'f156', 'f157', 'f158', 'f159', 'f160', 'f161', 'f162', 'f163', 'f164', 'f165', 'f166', 'f167', 'f168', 'f169', 'f170', 'f171', 'f172', 'f173', 'f174', 'f175', 'f176', 'f177', 'f178', 'f179', 'f180', 'f181', 'f182', 'f183', 'f184', 'f185', 'f186', 'f187', 'f188', 'f189', 'f190', 'f191', 'f192', 'f193', 'f194', 'f195', 'f196', 'f197', 'f198', 'f199', 'f200', 'f201', 'f202', 'f203', 'f204', 'f205', 'f206', 'f207', 'f208', 'f209', 'f210', 'f211', 'f212', 'f213', 'f214', 'f215', 'f216', 'f217', 'f218', 'f219', 'f220', 'f221', 'f222', 'f223', 'f224', 'f225', 'f226', 'f227', 'f228', 'f229', 'f230', 'f231', 'f232', 'f233', 'f234', 'f235', 'f236', 'f237', 'f238', 'f239', 'f240', 'f241', 'f242', 'f243', 'f244', 'f245', 'f246', 'f247', 'f248', 'f249', 'f250', 'f251', 'f252', 'f253', 'f254', 'f255', 'f256', 'f257', 'f258', 'f259', 'f260', 'f261', 'f262', 'f263', 'f264', 'f265', 'f266', 'f267', 'f268', 'f269', 'f270', 'f271', 'f272', 'f273', 'f274', 'f275', 'f276', 'f277', 'f278', 'f279', 'f280', 'f281', 'f282', 'f283', 'f284', 'f285', 'f286', 'f287', 'f288', 'f289', 'f290', 'f291', 'f292', 'f293', 'f294', 'f295', 'f296', 'f297', 'f298', 'f299', 'f300', 'f301', 'f302', 'f303', 'f304', 'f305', 'f306', 'f307', 'f308', 'f309', 'f310', 'f311', 'f312', 'f313', 'f314', 'f315', 'f316', 'f317', 'f318', 'f319', 'f320', 'f321', 'f322', 'f323', 'f324', 'f325', 'f326', 'f327', 'f328', 'f329', 'f330', 'f331', 'f332', 'f333', 'f334', 'f335', 'f336', 'f337', 'f338', 'f339', 'f340', 'f341', 'f342', 'f343', 'f344', 'f345', 'f346', 'f347', 'f348', 'f349', 'f350', 'f351', 'f352', 'f353', 'f354', 'f355', 'f356', 'f357', 'f358', 'f359', 'f360', 'f361', 'f362', 'f363', 'f364', 'f365', 'f366', 'f367', 'f368', 'f369', 'f370', 'f371', 'f372', 'f373', 'f374', 'f375', 'f376', 'f377', 'f378', 'f379', 'f380', 'f381', 'f382', 'f383', 'f384', 'f385', 'f386', 'f387', 'f388', 'f389', 'f390', 'f391', 'f392', 'f393', 'f394', 'f395', 'f396', 'f397', 'f398', 'f399', 'f400', 'f401', 'f402', 'f403', 'f404', 'f405', 'f406', 'f407', 'f408', 'f409', 'f410', 'f411', 'f412', 'f413', 'f414', 'f415', 'f416', 'f417', 'f418', 'f419', 'f420', 'f421', 'f422', 'f423', 'f424', 'f425', 'f426', 'f427', 'f428', 'f429', 'f430', 'f431', 'f432', 'f433', 'f434', 'f435', 'f436', 'f437', 'f438', 'f439', 'f440', 'f441', 'f442', 'f443', 'f444', 'f445', 'f446', 'f447', 'f448', 'f449', 'f450', 'f451', 'f452', 'f453', 'f454', 'f455', 'f456', 'f457', 'f458', 'f459', 'f460', 'f461', 'f462', 'f463', 'f464', 'f465', 'f466', 'f467', 'f468', 'f469', 'f470', 'f471', 'f472', 'f473', 'f474', 'f475', 'f476', 'f477', 'f478', 'f479', 'f480', 'f481', 'f482', 'f483', 'f484', 'f485', 'f486', 'f487', 'f488', 'f489', 'f490', 'f491', 'f492', 'f493', 'f494', 'f495', 'f496', 'f497', 'f498', 'f499']
training data did not have the following fields: f499

Самый полезный комментарий

Проблема возникает из-за того, что DMatrix..num_col () возвращает только количество ненулевых столбцов в разреженной матрице. Следовательно, если и обучающие, и тестовые данные имеют одинаковое количество ненулевых столбцов, все работает нормально.
В противном случае вы получите разные списки имен функций, потому что функции проверки вызывают:

    <strong i="7">@property</strong>
    def feature_names(self):
        """Get feature names (column labels).

        Returns
        -------
        feature_names : list or None
        """
        if self._feature_names is None:
            return ['f{0}'.format(i) for i in range(self.num_col())]
        else:
            return self._feature_names

self._feature_names имеет значение None для разреженных матриц, и поскольку self.num_col () возвращает только количество ненулевых столбцов, проверка не выполняется, как только количество ненулевых столбцов в "to-be- предсказанные "данные отличаются от количества ненулевых столбцов в обучающих данных.

Пока не знаю, где лучше всего это исправить.

Все 51 Комментарий

Похоже, это работает только в том случае, если разреженная матрица - это CSC. Он не работает для матриц CSR или COO, как более ранние версии.

Разве это не случайная проблема, когда все крайние правые столбцы равны 0 или 1? Может быть, как # 1091 и # 1221.

@sinhrks : Для меня это не "случайный". Я часто тренирую XGBoost на очень разреженных данных (и это здорово! Обычно он превосходит все другие модели, причем с довольно большим отрывом).

Затем, когда у меня будет запущена обученная модель в производственной среде, я, конечно же, захочу сделать прогнозы на основе новой части входящих данных. Эти данные, конечно, скорее всего, будут разреженными и не будут иметь значения для любого столбца, который окажется последним столбцом. Итак, XGBoost теперь у меня часто ломается, и я обнаружил, что переключаюсь на другие (менее точные) модели просто потому, что они лучше поддерживают разреженные данные.

Кто-нибудь знает, почему именно сейчас возникает эта ошибка и как с ней бороться? Для меня это проблема, поскольку мои существующие сценарии не работают.

Я пробую xgboost как часть конвейера sklearn и столкнулся с той же проблемой. Есть ли обходной путь, пока он не будет исправлен?

Да, когда вы вызываете прогноз, используйте функцию toarray () разреженного массива. Это ужасно неэффективно с памятью, но работает с небольшими фрагментами.

отправлено из моего Айфона

26 августа 2016 г. в 22:44 Педро Родригес [email protected] написал:

Я пробую xgboost как часть конвейера sklearn и столкнулся с той же проблемой. Есть ли обходной путь, пока он не будет исправлен?

-
Вы получили это, потому что прокомментировали.
Ответьте на это письмо напрямую, просмотрите его на GitHub или отключите чат.

По какой-то причине ошибка не возникает, если я сохраняю и загружаю обученную модель:

    bst = xgb.train(param, dtrain, num_round)

    # predict is not working without this code
    bst.save_model(model_file_name)
    bst = xgb.Booster(param)
    bst.load_model(model_file_name)

    preds = bst.predict(dtest)

@ bryan-woods Мне удалось найти лучшую работу с tocsc . Вероятно, есть некоторая потеря производительности, но не такая плохая, как создание плотной матрицы.

Включая это в мой конвейер sklearn прямо перед работой xgboost

class CSCTransformer(TransformerMixin):
    def transform(self, X, y=None, **fit_params):
        return X.tocsc()

    def fit_transform(self, X, y=None, **fit_params):
        self.fit(X, y, **fit_params)
        return self.transform(X)

    def fit(self, X, y=None, **fit_params):
        return self

    def get_params(self, deep=True):
        return {}

Ни формат CSC, ни добавление ненулевых записей в последний столбец не решают проблему в самой последней версии xgboost. Возврат к версии 0.4a30 - единственное, что я могу заставить его работать, рассмотрим следующую настройку (с воспроизводимым семенем) в исходном примере:

>>> import xgboost as xgb
>>> import numpy as np
>>> from scipy import sparse
>>> 
>>> np.random.seed(10)
>>> X = sparse.rand(100,10).tocsr()
>>> test = sparse.rand(10, 500).tocsr()
>>> y = np.random.randint(2,size=100)
>>> 
>>> clf = xgb.XGBClassifier()
>>> clf.fit(X,y)
XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1,
       gamma=0, learning_rate=0.1, max_delta_step=0, max_depth=3,
       min_child_weight=1, missing=None, n_estimators=100, nthread=-1,
       objective='binary:logistic', reg_alpha=0, reg_lambda=1,
       scale_pos_weight=1, seed=0, silent=True, subsample=1)
>>> 
>>> try:
...     pred = clf.predict_proba(test)
...     print "Works when csr with version %s" %xgb.__version__
... except ValueError:
...     "Broken when csr with version %s" %xgb.__version__
... 
'Broken when csr with version 0.6'
>>> try:
...     pred = clf.predict_proba(test.tocsc())
...     print "Works when csc with version %s" %xgb.__version__
... except ValueError:
...     "Still broken when csc with version %s" %xgb.__version__
... 
'Still broken when csc with version 0.6'
>>> try:
...     test[0,(test.shape[1]-1)] = 1.0
...     pred = clf.predict_proba(test)
...     print "Works when adding non-zero entries to last column with version %s" %xgb.__version__
... except ValueError:
...     "Still broken when adding non-zero entries to last column with version %s" %xgb.__version__
... 
/home/david.mcgarry/.conda/envs/ml/lib/python2.7/site-packages/scipy/sparse/compressed.py:730: SparseEfficiencyWarning: Changing the sparsity structure of a csr_matrix is expensive. lil_matrix is more efficient.
  SparseEfficiencyWarning)
'Still broken when adding non-zero entries to last column with version 0.6'
>>> import xgboost as xgb
>>> import numpy as np
>>> from scipy import sparse
>>> 
>>> np.random.seed(10)
>>> X = sparse.rand(100,10).tocsr()
>>> test = sparse.rand(10, 500).tocsr()
>>> y = np.random.randint(2,size=100)
>>> 
>>> clf = xgb.XGBClassifier()
>>> clf.fit(X,y)
XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1,
       gamma=0, learning_rate=0.1, max_delta_step=0, max_depth=3,
       min_child_weight=1, missing=None, n_estimators=100, nthread=-1,
       objective='binary:logistic', reg_alpha=0, reg_lambda=1,
       scale_pos_weight=1, seed=0, silent=True, subsample=1)
>>> 
>>> try:
...     pred = clf.predict_proba(test)
...     print "Works when csr with version %s" %xgb.__version__
... except ValueError:
...     "Broken when csr with version %s" %xgb.__version__
... 
Works when csr with version 0.4
>>> try:
...     pred = clf.predict_proba(test.tocsc())
...     print "Works when csc with version %s" %xgb.__version__
... except ValueError:
...     "Still broken when csc with version %s" %xgb.__version__
... 
Works when csc with version 0.4
>>> try:
...     test[0,(test.shape[1]-1)] = 1.0
...     pred = clf.predict_proba(test)
...     print "Works when adding non-zero entries to last column with version %s" %xgb.__version__
... except ValueError:
...     "Still broken when adding non-zero entries to last column with version %s" %xgb.__version__
... 
/Users/david.mcgarry/anaconda/envs/ml/lib/python2.7/site-packages/scipy/sparse/compressed.py:739: SparseEfficiencyWarning: Changing the sparsity structure of a csr_matrix is expensive. lil_matrix is more efficient.
  SparseEfficiencyWarning)
Works when adding non-zero entries to last column with version 0.4

Та же проблема, что-то определенно сломалось в последнем выпуске. Раньше не было этой проблемы с тем же набором данных и обработкой. Возможно, я ошибаюсь, но похоже, что в настоящее время в Python нет модульных тестов с разреженными массивами csr с использованием sklearn API. Можно ли добавить приведенный выше пример tests/python/tests_with_sklearn.py ?

Я попытался обойти это, используя .toarray () с разреженными массивами CSR, но что-то серьезно сломалось. Если я загружаю сохраненную модель и пытаюсь использовать ее для прогнозирования с помощью .toarray (), я не получаю сообщения об ошибке, но результаты неверны. Откатился на 0.4a30 и работает нормально. У меня не было времени искать первопричину, но это нехорошо.

Проблема возникает из-за того, что DMatrix..num_col () возвращает только количество ненулевых столбцов в разреженной матрице. Следовательно, если и обучающие, и тестовые данные имеют одинаковое количество ненулевых столбцов, все работает нормально.
В противном случае вы получите разные списки имен функций, потому что функции проверки вызывают:

    <strong i="7">@property</strong>
    def feature_names(self):
        """Get feature names (column labels).

        Returns
        -------
        feature_names : list or None
        """
        if self._feature_names is None:
            return ['f{0}'.format(i) for i in range(self.num_col())]
        else:
            return self._feature_names

self._feature_names имеет значение None для разреженных матриц, и поскольку self.num_col () возвращает только количество ненулевых столбцов, проверка не выполняется, как только количество ненулевых столбцов в "to-be- предсказанные "данные отличаются от количества ненулевых столбцов в обучающих данных.

Пока не знаю, где лучше всего это исправить.

Я также боюсь, что существует фундаментальная проблема с обработкой разреженных матриц, из-за чего @ bryan-woods сообщил: скажем, у нас есть x нулевых столбцов как в поезде, так и в тесте, но с разными индексами => Будет быть без ошибок, потому что "feature_names (self)" возвращает один и тот же список функций для обоих наборов, но прогнозы могут быть неверными из-за несоответствия ненулевых индексов столбца между поездом и тестом.

Кто-нибудь работал над этим вопросом? У кого-нибудь есть хотя бы модульный тест, который мы могли бы использовать для разработки?

Я не работал над этим, но пример @dmcgarry , приведенный выше, можно было бы использовать в качестве начала модульного теста, я думаю,

import xgboost as xgb
import numpy as np
import scipy.sparse


def test_xgbclassifier_sklearn_sparse():
    np.random.seed(10)
    X = scipy.sparse.rand(100,10).tocsr()
    test = scipy.sparse.rand(10, 500).tocsr()
    y = np.random.randint(2,size=100)

    clf = xgb.XGBClassifier()
    clf.fit(X,y)
    pred = clf.predict_proba(test)

Я создал пару новых тестов разреженных массивов в своей вилке репо. Для тех, кому интересно:
https://github.com/bryan-woods/xgboost/blob/sparse_test/tests/python/test_scipy_sparse.py

Чтобы запустить тесты из корневого каталога кассы:
python -m тесты носа / python / test_scipy_sparse.py

Вы заметите, что оба теста терпят неудачу. Это, по крайней мере, послужит тестом для развития.

У меня тоже возникла эта проблема, но я не могу понять, что лучше всего исправить, пока она не будет окончательно решена в библиотеке.

вы можете добавить функцию в свой список функций с максимальным индексом функции, например maxid: 0

передача фрейма данных решила проблему для меня

как мне вернуться к версии 0.4?

pip install --upgrade xgboost == 0.4a30

У меня не работали все типы разреженных матриц (я работаю с данными tf-idf). Мне пришлось вернуться к предыдущей версии. Спасибо за совет!

У всех, у кого все еще есть проблемы: включает ли код, который вы используете, исправления в # 1606?

Да, я установил последнюю версию xgboost, но проблема не исчезла.

Это все еще существует и легко воспроизводимо. Если вы используете достаточно большой набор данных, это маловероятно, но если вы обертываете это в объекте поиска по сетке, это почти наверняка происходит в разбиении cv, где функции, доступные в наборах тестов train / cv, различаются.

Честно говоря, я не совсем понимаю, почему DMatrix игнорирует подсказку формы, предоставляемую scipy разреженными матрицами. Он должен устанавливать размер на основе этой информации, а не рассчитывать его.

Я использую собственный API Xgboost Python (0.6), и у меня такая же ошибка при загрузке DMatrix из файла формата LIBSVM [sparse], если в какой-либо из строк, содержащихся, определен последний столбец. Мое обходное решение заключалось в том, чтобы определить фиктивный столбец в первой строке :(

train_fv_file = 'train_fv_eval.svm'
dtrain = xgb.DMatrix(train_fv_file, feature_names=feature_vector_labels, feature_types=feature_vector_types)

Если это так легко воспроизвести, неужели кто-нибудь хочет привести воспроизводимый пример? Желательно без склеерного слоя (чтобы выявить возможную причину).

@gabrielspmoreira : Я понимаю вашу точку зрения о загрузке из файла LIBSVM, который имеет полностью разреженные последние несколько столбцов ... Этот метод построения DMatrix также выиграет от наличия подсказки num_col .

In [42]: matrix = xgboost.DMatrix(scipy.sparse.csr_matrix([[0, 2, 3, 0], [0, 2, 2, 0], [1, 0, 5, 0], [0, 1, 0, 0]], shape=(4,4)))
In [43]: matrix.num_col()
Out[43]: 3L

Каждый раз, когда создается новый DMatrix для подвыборки строк / столбцов, существует вероятность, что это происходит (количество столбцов уменьшается, хотя мы явно указали DMatrix, сколько столбцов существует). Это часто случается с небольшими наборами данных или очень разреженными столбцами, потому что более вероятно, что в подмножестве будут все нули.

Как только это происходит между набором поездов / тестов, модель не может оценить набор тестов, потому что она ожидает другое количество функций и выдает ошибку ValueError.

Я пытаюсь найти тест, в котором это работает / не работает в ядре xgboost и sklearn-wrapper, поскольку я уверен, что происходит, но я не знаю, где это происходит.

@ l3link : похоже, ваш код устарел. Вот что я получаю:

In [2]: import scipy
   ...: import xgboost
   ...: matrix = xgboost.DMatrix(scipy.sparse.csr_matrix([[0, 2, 3, 0], [0, 2, 2, 0], [1, 0, 5, 0], [0, 1, 0, 0]], shape=(4,4)))
   ...: matrix.num_col()
   ...:
Out[2]: 4L

In [3]: matrix._init_from_csr??
Signature: matrix._init_from_csr(csr)
Source:
    def _init_from_csr(self, csr):
        """
        Initialize data from a CSR matrix.
        """
        if len(csr.indices) != len(csr.data):
            raise ValueError('length mismatch: {} vs {}'.format(len(csr.indices), len(csr.data)))
        self.handle = ctypes.c_void_p()
        _check_call(_LIB.XGDMatrixCreateFromCSREx(c_array(ctypes.c_size_t, csr.indptr),
                                                  c_array(ctypes.c_uint, csr.indices),
                                                  c_array(ctypes.c_float, csr.data),
                                                  len(csr.indptr), len(csr.data),
                                                  csr.shape[1],
                                                  ctypes.byref(self.handle)))
File:      c:\anaconda2\lib\site-packages\xgboost-0.6-py2.7.egg\xgboost\core.py
Type:      instancemethod

Хм,

In [64]: xgboost.__version__ Out[64]: '0.6'

Signature: matrix._init_from_csr(csr) Source: def _init_from_csr(self, csr): """ Initialize data from a CSR matrix. """ if len(csr.indices) != len(csr.data): raise ValueError('length mismatch: {} vs {}'.format(len(csr.indices), len(csr.data))) self.handle = ctypes.c_void_p() _check_call(_LIB.XGDMatrixCreateFromCSR(c_array(ctypes.c_ulong, csr.indptr), c_array(ctypes.c_uint, csr.indices), c_array(ctypes.c_float, csr.data), len(csr.indptr), len(csr.data), ctypes.byref(self.handle))) File: ~/anaconda/lib/python2.7/site-packages/xgboost/core.py Type: instancemethod

Кажется странным, что моя версия .6 имеет XGDMatrixCreateFromCSR вместо инструкций XGDMatrixCreateFromCSREx, которые не принимают форму.
Возможно ли другой дистрибутив osx?

Я также боюсь, что существует фундаментальная проблема с обработкой разреженных матриц, из-за чего @ bryan-woods сообщил: скажем, у нас есть x нулевых столбцов как в поезде, так и в тесте, но с разными индексами => Будет быть без ошибок, потому что "feature_names (self)" возвращает один и тот же список функций для обоих наборов, но прогнозы могут быть неверными из-за несоответствия ненулевых индексов столбца между поездом и тестом.

Кто-нибудь может ответить на этот вопрос? Я вернулся к версии 0.4, и теперь, похоже, она работает, но я боюсь, что она работает правильно, потому что я все еще использую действительно разреженные матрицы.

@ l3link ничего странного в этом нет: номера версий (или пакеты pypi) иногда не обновляются долгое время. Например, файл https://github.com/dmlc/xgboost/blob/master/python-package/xgboost/VERSION на сегодняшний день последний раз изменялся 29 июля, а последний пакет pypi https: //pypi.python. org / pypi / xgboost / датировано 9 августа. Хотя исправление было отправлено 23 сентября №1606. Пожалуйста, проверьте последний код на github.

У меня была эта проблема, когда я использовал pandas DataFrame (неразреженное представление).
Я преобразовал его в numpy ndarray через df.as_matrix() и избавился от ошибки.

Я тоже избавился от этой ошибки после преобразования фрейма данных в массив.

Изменение порядка столбцов в наборе тестов в том же порядке, что и набор поездов, исправило это для меня.
Я использовал фреймы данных Pandas. Без этого использование .as_matrix() вызывало ту же проблему.

Я сделал:

test = test[train.columns]

Я попробовал решение @warpuv, и оно сработало. У меня большие данные, я не могу загрузить их в память, чтобы изменить порядок столбцов.

Преобразование поездов / тестовых матриц csr в csc сработало для меня

Xtrain = scipy.sparse.csc_matrix(Xtrain)

Преобразование в csc_matrix работает, проверено на 0.6a2 :

    X_train = scipy.sparse.csc_matrix(X_train)
    X_test = scipy.sparse.csc_matrix(X_test)

    xgb_train = xgb.DMatrix(X_train, label=y_train)
    xgb_test = xgb.DMatrix(X_test, label=y_test)
type(X_train) <class 'scipy.sparse.csr.csr_matrix'>
type(X_test) <class 'scipy.sparse.csr.csr_matrix'>
type(X_train) <class 'scipy.sparse.csc.csc_matrix'>
type(X_test) <class 'scipy.sparse.csc.csc_matrix'>
type(xgb_train) <class 'xgboost.core.DMatrix'>
type(xgb_test) <class 'xgboost.core.DMatrix'>

Моя исходная разреженная матрица - это вывод векторизатора sklearn tf-idf в формате csr_matrix .

Есть ли исправление?

Только что собрал последнюю версию (0.7.post3) на python3, и я могу подтвердить, что эта проблема все еще существует. После адаптации приведенного выше примера csr_matrix и csc_matrix .

import xgboost as xgb
import numpy as np
from scipy import sparse

np.random.seed(10)

X_csr = sparse.rand(100, 10).tocsr()
test_csr = sparse.rand(10, 500).tocsr()

X_csc = sparse.rand(100, 10).tocsc()
test_csc = sparse.rand(10, 500).tocsc()

y = np.random.randint(2, size=100)

clf_csr = xgb.XGBClassifier()
clf_csr.fit(X_csr, y)

clf_csc = xgb.XGBClassifier()
clf_csc.fit(X_csc, y)

# Try with csr
try:
    pred = clf_csr.predict_proba(test_csr)
    print("Works when csr with version %s" %xgb.__version__)
except ValueError:
    print("Broken when csr with version %s" %xgb.__version__)

try:
    test_csr[0,(test_csr.shape[1]-1)] = 1.0
    pred = clf_csr.predict_proba(test_csr)
    print("Works when adding non-zero entries to last column with version %s" %xgb.__version__)
except:
    print("Still broken when adding non-zero entries to last column with version %s" %xgb.__version__)

# Try with csc
try:
    pred = clf_csc.predict_proba(test_csc)
    print("Works when csc with version %s" %xgb.__version__)
except ValueError:
    print("Broken when csc with version %s" %xgb.__version__)

try:
    test_csc[0,(test_csc.shape[1]-1)] = 1.0
    pred = clf_csc.predict_proba(test_csc)
    print("Works when adding non-zero entries to last column with version %s" %xgb.__version__)
except:
    print("Still broken when adding non-zero entries to last column with version %s" %xgb.__version__)

Приведенный выше код привел к следующему результату:

Broken when csr with version 0.7
Still broken when adding non-zero entries to last column with version 0.7
Broken when csc with version 0.7
Still broken when adding non-zero entries to last column with version 0.7

пожалуйста, помогите

Почему этот вопрос был закрыт?

Недавно я дважды сталкивался с этой проблемой. В одном случае я просто меняю фрейм входных данных на массив, и он работает. Для второго мне нужно перестроить имена столбцов тестового фрейма данных, используя test_df = test_df [train_df.columns]. В обоих случаях train_df и test_df имеют точно такие же имена столбцов.

Думаю, я не понимаю ваш комментарий @CathyQian , эти train_df / test_df редкие? Кроме того, какую версию xgboost вы использовали, когда столкнулись с этими проблемами?

@CathyQian xgboost полагается на _order_ столбцов, и это не связано с этой проблемой.

@ewellinger WRT ваш пример: модель, обученная на данных с 10 функциями, не должна принимать данные с 500 функциями для прогнозирования, поэтому возникает ошибка. Кроме того, создание DMatrices из всех ваших матриц и проверка их num_col и num_row дает ожидаемые результаты.

Текущее состояние «проблем разреженности»:

  • Создание DMatrix из CSR и использование ее в модели должно работать правильно. Вопрос был закрыт, так как он был предметом данного выпуска.
  • Создание DMatrix из CSC создает объект с правильными размерами, но может давать неверные результаты во время обучения или прогнозирования, когда последние строки полностью разрежены # 2630. У меня еще не было времени, чтобы как следует починить эту деталь.
  • Параметр для указания предопределенного количества столбцов при загрузке данных libsvm в DMatrix еще не реализован. Приглашаются добровольцы.

@warpuv у меня работает, большое спасибо.

Была такая же ошибка, с плотными матрицами. (xgboost v.0.6 из последней версии Anaconda.)
Ошибка произошла, когда я выполнил несколько регрессий для разных подмножеств функций обучающей выборки.
Создание нового экземпляра модели каждый раз перед подгонкой следующей регрессии устраняет проблему.

  • Параметр для указания предопределенного количества столбцов при загрузке данных libsvm в DMatrix еще не реализован. Приглашаются добровольцы.

Начиная с версии 0.8, этого все еще не существует, верно?

Создание DMatrix из CSC создает объект с правильными размерами, но может давать неверные результаты во время обучения или прогнозирования, когда последние строки полностью разрежены # 2630. У меня еще не было времени, чтобы как следует починить эту деталь.

@khotilov # 3553 исправил эту проблему.

Параметр для указания предопределенного количества столбцов при загрузке данных libsvm в DMatrix еще не реализован. Приглашаются добровольцы.

@MonsieurWave Для этой функции небольшой запрос на перенос в dmlc-core должен помочь. Дай мне взглянуть на это.

@ hcho3 Большое спасибо.

На данный момент я обхожу эту проблему, сделав первую строку моей libsvm не такой разреженной, то есть: сохраняя даже столбцы со значением 0.

Была ли эта страница полезной?
0 / 5 - 0 рейтинги

Смежные вопросы

frankzhangrui picture frankzhangrui  ·  3Комментарии

wenbo5565 picture wenbo5565  ·  3Комментарии

XiaoxiaoWang87 picture XiaoxiaoWang87  ·  3Комментарии

lizsz picture lizsz  ·  3Комментарии

matthewmav picture matthewmav  ·  3Комментарии