Show simple item record

dc.contributor.authorGatnar, Eugeniusz
dc.date.accessioned2016-04-26T06:33:56Z
dc.date.available2016-04-26T06:33:56Z
dc.date.issued2005
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/17871
dc.description.abstractSzeroko stosowane w praktyce metody nieparametryczne wykorzystujące tzw. drzewa regresyjne mają jedną istotną wadę. Otóż wykazują one niestabilność, która oznacza, że niewielka zmiana wartości cech obiektów w zbiorze uczącym może prowadzić do powstania zupełnie innego modelu. Oczywiście wpływa to negatywnie na ich trafność prognostyczną. Tę wadę można jednak wyeliminować, dokonując agregacji kilku indywidualnych modeli w jeden. Znane są trzy metody agregacji modeli i wszystkie opierają się na losowaniu ze zwracaniem obiektów ze zbioru uczącego do kolejnych prób uczących: agregacja bootstrapowa (boosting), losowanie adaptacyjne (bagging) oraz metoda hybrydowa, łącząca elementy obu poprzednich. W analizie regresji szczególnie warto zastosować gradientową, sekwencyjną, odmianę metody boosting. W istocie polega ona wykorzystaniu drzew regrcsyjnych w kolejnych krokach do modelowania reszt dla modelu uzyskanego w poprzednim kroku.pl_PL
dc.description.abstractThe successful tree-based methodology has one serious disadvantage: lack of stability. That is, regression tree model depends on the training set and even small change in a predictor value could lead to a quite different model. In order to solve this problem single trees are combined into one model. There are three aggregation methods used in classification: bootstrap aggregation (bagging), adaptive resample and combine (boosting) and adaptive bagging (hybrid bagging-boosting procedure). In the field of regression a variant of boosting, i.e. gradient boosting, can be used. Friedman (1999) proved that boosting is equivalent to a stepwise function approximation in which in each step a regression tree models residuals from last step model.pl_PL
dc.description.sponsorshipZadanie pt. „Digitalizacja i udostępnienie w Cyfrowym Repozytorium Uniwersytetu Łódzkiego kolekcji czasopism naukowych wydawanych przez Uniwersytet Łódzki” nr 885/P-DUN/2014 zostało dofinansowane ze środków MNiSW w ramach działalności upowszechniającej naukę.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis. Folia Oeconomica;194
dc.subjecttree-based modelspl_PL
dc.subjectregressionpl_PL
dc.subjectboostingpl_PL
dc.titleGradient Boosting in Regressionpl_PL
dc.title.alternativeGradientowa odmiana metody boosting w analizie r e g r e s jipl_PL
dc.typeArticlepl_PL
dc.rights.holder© Copyright by Wydawnictwo Uniwersytetu Łódzkiego, Łódź 2005pl_PL
dc.page.number11-19pl_PL
dc.contributor.authorAffiliationUniversity of Economics in Katowice, Institute of Statisticspl_PL
dc.referencesBreiman L. (1996), Bagging predictors, Machine Learning, 24, 123-140.pl_PL
dc.referencesBreiman L. (1999), Using adaptive bagging to debias regressions, Technical Report, 547, Statistics Department, University of California, Berkeley.pl_PL
dc.referencesBreiman L., Friedman, J., Olshen, R., Stone, C. (1984), Classification and Regression Trees, Wadsworth, Belmont, СA.pl_PL
dc.referencesFreund Y., Schapire, R.E. (1997), A decision-theoretic generalization of on-line learning and an application to boosting, Journal of Computer and System Sciences, 55, 119-139.pl_PL
dc.referencesFriedman J.H. (1991), Multivariate adaptive regression splines, Annals of Statistics, 19, 1-141.pl_PL
dc.referencesFriedman J.H. (1999), Greedy Function Approximation: a Gradient Boosting Machine, Statistics Department, Stanford University, Stanford.pl_PL
dc.referencesGatnar E. (2001), Nieparametryczna metoda dyploryminacji i regresji (Nonparametric method for discrimination and regression; in Polish) PWN, Warszawa.pl_PL
dc.referencesHarrison D., Rubinfeld, D.L. (1978), Hedonic prices and the demand for clean air, Journal of Environmental Economics and Management, 8, 81-102.pl_PL
dc.referencesHastie T., Tibshirani, R., Friedman, J. (2001), The Elements of Statistical learning, Springer, New York.pl_PL
dc.referencesPace R.K., Barry, R. (1997), Sparse spatial autoregressions, Statistics and Probability Letters, 33, 291-297.pl_PL


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record