dc.contributor.author | Gatnar, Eugeniusz | |
dc.date.accessioned | 2016-04-26T06:33:56Z | |
dc.date.available | 2016-04-26T06:33:56Z | |
dc.date.issued | 2005 | |
dc.identifier.issn | 0208-6018 | |
dc.identifier.uri | http://hdl.handle.net/11089/17871 | |
dc.description.abstract | Szeroko stosowane w praktyce metody nieparametryczne wykorzystujące tzw. drzewa
regresyjne mają jedną istotną wadę. Otóż wykazują one niestabilność, która oznacza, że niewielka
zmiana wartości cech obiektów w zbiorze uczącym może prowadzić do powstania zupełnie
innego modelu. Oczywiście wpływa to negatywnie na ich trafność prognostyczną. Tę wadę
można jednak wyeliminować, dokonując agregacji kilku indywidualnych modeli w jeden.
Znane są trzy metody agregacji modeli i wszystkie opierają się na losowaniu ze zwracaniem
obiektów ze zbioru uczącego do kolejnych prób uczących: agregacja bootstrapowa (boosting),
losowanie adaptacyjne (bagging) oraz metoda hybrydowa, łącząca elementy obu poprzednich.
W analizie regresji szczególnie warto zastosować gradientową, sekwencyjną, odmianę metody
boosting. W istocie polega ona wykorzystaniu drzew regrcsyjnych w kolejnych krokach do
modelowania reszt dla modelu uzyskanego w poprzednim kroku. | pl_PL |
dc.description.abstract | The successful tree-based methodology has one serious disadvantage: lack of stability.
That is, regression tree model depends on the training set and even small change in a predictor
value could lead to a quite different model. In order to solve this problem single trees are
combined into one model. There are three aggregation methods used in classification: bootstrap
aggregation (bagging), adaptive resample and combine (boosting) and adaptive bagging (hybrid
bagging-boosting procedure).
In the field of regression a variant of boosting, i.e. gradient boosting, can be used.
Friedman (1999) proved that boosting is equivalent to a stepwise function approximation in
which in each step a regression tree models residuals from last step model. | pl_PL |
dc.description.sponsorship | Zadanie pt. „Digitalizacja i udostępnienie w Cyfrowym Repozytorium Uniwersytetu Łódzkiego kolekcji czasopism naukowych wydawanych przez Uniwersytet Łódzki” nr 885/P-DUN/2014 zostało dofinansowane ze środków MNiSW w ramach działalności upowszechniającej naukę. | pl_PL |
dc.language.iso | en | pl_PL |
dc.publisher | Wydawnictwo Uniwersytetu Łódzkiego | pl_PL |
dc.relation.ispartofseries | Acta Universitatis Lodziensis. Folia Oeconomica;194 | |
dc.subject | tree-based models | pl_PL |
dc.subject | regression | pl_PL |
dc.subject | boosting | pl_PL |
dc.title | Gradient Boosting in Regression | pl_PL |
dc.title.alternative | Gradientowa odmiana metody boosting w analizie r e g r e s ji | pl_PL |
dc.type | Article | pl_PL |
dc.rights.holder | © Copyright by Wydawnictwo Uniwersytetu Łódzkiego, Łódź 2005 | pl_PL |
dc.page.number | 11-19 | pl_PL |
dc.contributor.authorAffiliation | University of Economics in Katowice, Institute of Statistics | pl_PL |
dc.references | Breiman L. (1996), Bagging predictors, Machine Learning, 24, 123-140. | pl_PL |
dc.references | Breiman L. (1999), Using adaptive bagging to debias regressions, Technical Report, 547, Statistics Department, University of California, Berkeley. | pl_PL |
dc.references | Breiman L., Friedman, J., Olshen, R., Stone, C. (1984), Classification and Regression Trees, Wadsworth, Belmont, СA. | pl_PL |
dc.references | Freund Y., Schapire, R.E. (1997), A decision-theoretic generalization of on-line learning and an application to boosting, Journal of Computer and System Sciences, 55, 119-139. | pl_PL |
dc.references | Friedman J.H. (1991), Multivariate adaptive regression splines, Annals of Statistics, 19, 1-141. | pl_PL |
dc.references | Friedman J.H. (1999), Greedy Function Approximation: a Gradient Boosting Machine, Statistics Department, Stanford University, Stanford. | pl_PL |
dc.references | Gatnar E. (2001), Nieparametryczna metoda dyploryminacji i regresji (Nonparametric method for discrimination and regression; in Polish) PWN, Warszawa. | pl_PL |
dc.references | Harrison D., Rubinfeld, D.L. (1978), Hedonic prices and the demand for clean air, Journal of Environmental Economics and Management, 8, 81-102. | pl_PL |
dc.references | Hastie T., Tibshirani, R., Friedman, J. (2001), The Elements of Statistical learning, Springer, New York. | pl_PL |
dc.references | Pace R.K., Barry, R. (1997), Sparse spatial autoregressions, Statistics and Probability Letters, 33, 291-297. | pl_PL |