Xgboost: 닀쀑 좜λ ₯ νšŒκ·€

에 λ§Œλ“  2017λ…„ 03μ›” 08일  Β·  13μ½”λ©˜νŠΈ  Β·  좜처: dmlc/xgboost

닀쀑 좜λ ₯ νšŒκ·€λŠ” μ–΄λ–»κ²Œ μˆ˜ν–‰ν•©λ‹ˆκΉŒ? μ•„λ‹ˆλ©΄ λ‹¨μˆœνžˆ λΆˆκ°€λŠ₯ν•©λ‹ˆκΉŒ?

λ‚΄ ν˜„μž¬ 가정은 XGMatrixκ°€ 행렬을 λ ˆμ΄λΈ”λ‘œ μ§€μ›ν•˜λ„λ‘ μ½”λ“œ κΈ°λ°˜μ„ μˆ˜μ •ν•΄μ•Ό ν•˜κ³  μ‚¬μš©μž 지정 λͺ©μ  ν•¨μˆ˜λ₯Ό λ§Œλ“€μ–΄μ•Ό ν•œλ‹€λŠ” κ²ƒμž…λ‹ˆλ‹€.

λ‚΄ μ΅œμ’… λͺ©ν‘œλŠ” νšŒκ·€λ₯Ό μˆ˜ν–‰ν•˜μ—¬ 두 λ³€μˆ˜(포인트)λ₯Ό 좜λ ₯ν•˜κ³  μœ ν΄λ¦¬λ“œ 손싀을 μ΅œμ ν™”ν•˜λŠ” κ²ƒμž…λ‹ˆλ‹€. 두 개의 별도 λͺ¨λΈ(x μ’Œν‘œμš© ν•˜λ‚˜μ™€ y μ’Œν‘œμš© ν•˜λ‚˜)을 λ§Œλ“œλŠ” 것이 더 λ‚˜μ„κΉŒμš”?

μ•„λ‹ˆλ©΄ ... sklearn λ˜λŠ” λ‹€λ₯Έ λŒ€μ²΄ μ•Œκ³ λ¦¬μ¦˜ λ‚΄μ—μ„œ μž„μ˜μ˜ 숲 νšŒκ·€μžλ₯Ό μ‚¬μš©ν•˜λŠ” 것이 더 λ‚˜μ„κΉŒμš”?

feature-request

κ°€μž₯ μœ μš©ν•œ λŒ“κΈ€

이 있으면 정말 쒋은 κΈ°λŠ₯이 될 κ²ƒμž…λ‹ˆλ‹€.

λͺ¨λ“  13 λŒ“κΈ€

λ‹€λ³€μˆ˜/닀쀑 λ ˆμ΄λΈ” νšŒκ·€λŠ” ν˜„μž¬ κ΅¬ν˜„λ˜μ§€ μ•Šμ•˜μŠ΅λ‹ˆλ‹€. #574 #680
TianqiλŠ” gbtree ν•™μŠ΅μžμ— λͺ‡ 가지 κ΄€λ ¨ 자리 ν‘œμ‹œμž 데이터 ꡬ쑰λ₯Ό μΆ”κ°€ν–ˆμ§€λ§Œ 아무도 기계λ₯Ό μž‘λ™ν•  μ‹œκ°„μ΄ μ—†μ—ˆλ˜ 것 κ°™μŠ΅λ‹ˆλ‹€.

λ§Žμ€ λŒ€νšŒκ°€ 닀쀑 좜λ ₯을 μ‚¬μš©ν•˜κΈ° λ•Œλ¬Έμ— μœ κ°μž…λ‹ˆλ‹€.

이 있으면 정말 쒋은 κΈ°λŠ₯이 될 κ²ƒμž…λ‹ˆλ‹€.

이에 λŒ€ν•œ μ—…λ°μ΄νŠΈκ°€ μžˆμŠ΅λ‹ˆκΉŒ?

κΈ°λŠ₯ μš”μ²­ 좔적기에 이 κΈ°λŠ₯을 μΆ”κ°€ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€: #3439. λ°”λΌκ±΄λŒ€, μš°λ¦¬λŠ” μ–΄λŠ μ‹œμ μ— 도달할 수 μžˆμŠ΅λ‹ˆλ‹€.

λ™μ˜ν•©λ‹ˆλ‹€. 이 κΈ°λŠ₯은 맀우 μœ μš©ν•  κ²ƒμž…λ‹ˆλ‹€(μ§€κΈˆ λ‹Ήμž₯ ν•„μš”ν•œ κ²ƒμž…λ‹ˆλ‹€...)

λ‚˜λŠ” λ˜ν•œ 이것이 μ‹ κ²½λ§μ—μ„œ μˆ˜ν–‰ν•˜λŠ” 것이 맀우 κ°„λ‹¨ν•˜μ§€λ§Œ xgboostμ—μ„œλ„ μˆ˜ν–‰ν•  수 μžˆλ‹€λŠ” 점에 λ™μ˜ν•©λ‹ˆλ‹€.

이 κΈ°λŠ₯이 λ‚˜μ˜€λŠ” 것을 보고 μ‹ΆμŠ΅λ‹ˆλ‹€

νμ‡„λœ μ΄μœ κ°€ μžˆλ‚˜μš”?

@veonua #3439 μ°Έμ‘°.

ν•œνŽΈ λ‹€μŒκ³Ό 같은 단일 좜λ ₯ λͺ¨λΈμ˜ 앙상블과 같은 λŒ€μ•ˆμ΄ μžˆμŠ΅λ‹ˆλ‹€.

# Fit a model and predict the lens values from the original features
model = XGBRegressor(n_estimators=2000, max_depth=20, learning_rate=0.01)
model = multioutput.MultiOutputRegressor(model)
model.fit(X_train, X_lens_train)
preds = model.predict(X_test)

좜처: https://gist.github.com/MLWave/4a3f8b0fee43d45646cf118bda4d202a

ν•œνŽΈ λ‹€μŒκ³Ό 같은 단일 좜λ ₯ λͺ¨λΈμ˜ 앙상블과 같은 λŒ€μ•ˆμ΄ μžˆμŠ΅λ‹ˆλ‹€.

https://scikit-learn.org/stable/modules/generated/sklearn.multioutput.MultiOutputRegressor.html

λ‚˜λŠ” λ˜ν•œ 무게λ₯Ό 달고 κ·ΈλŸ¬ν•œ κΈ°λŠ₯을 κ°–λŠ” 것이 맀우 νŽΈλ¦¬ν•  것이라고 말할 κ²ƒμž…λ‹ˆλ‹€. μœ„μ—μ„œ μ–ΈκΈ‰ν•œ MultiOutputRegressorλŠ” ν•œ λ²ˆμ— μ—¬λŸ¬ λͺ¨λΈμ„ λΉŒλ“œν•˜κΈ°μ— 쒋은 래퍼이며 μ„œλ‘œ 독립적인 λŒ€μƒ λ³€μˆ˜λ₯Ό μ˜ˆμΈ‘ν•˜λŠ” 데 잘 μž‘λ™ν•©λ‹ˆλ‹€. κ·ΈλŸ¬λ‚˜ λŒ€μƒ λ³€μˆ˜μ˜ 상관 관계가 높은 경우 벑터λ₯Ό μ˜ˆμΈ‘ν•˜λŠ” ν•˜λ‚˜μ˜ λͺ¨λΈμ„ κ΅¬μΆ•ν•˜κ³  싢을 κ²ƒμž…λ‹ˆλ‹€.

이 νŽ˜μ΄μ§€κ°€ 도움이 λ˜μ—ˆλ‚˜μš”?
0 / 5 - 0 λ“±κΈ‰