Show simple item record

dc.contributor.authorRozmus, Dorota
dc.date.accessioned2015-03-07T13:26:46Z
dc.date.available2015-03-07T13:26:46Z
dc.date.issued2009
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/7073
dc.description.abstractBoosting jest jedną z najlepszych metod agregacji modeli dyskryminacyjnych (Bauer, Kohavi, 1999). Liczne badania empiryczne potwierdzają możliwość znacznej poprawy jakości modeli klasyfikacyjnych, niewiele jednakże wiadomo na temat efektywności tej metody w przypadku modeli regresyjnych. Freund i Schapire (1995), stosując swój algorytm AdaBoost.R, podjęli próbę wykorzystania metody boosting do tego typu zagadnień. Głównym celem artykułu jest prezentacja nowej implementacji metody boosting w regresji, która opracowana została przez Ridgeway’a (2005). W przeprowadzonych eksperymentach zbadany został wpływ wartości podstawowych parametrów tego algorytmu, takich jak np. współczynnik uczenia, czy też liczba iteracji, na jakość modelu zagregowanego.pl_PL
dc.description.abstractIn a wide variety of classification problems, boosting technique have proven to be very effective method for improving prediction accuracy (Bauer, Kohavi, 1999). While more evidence compiles about the utility of these technique in classification problems, little is known about their effectiveness in regression. Freund and Schapire (1995) gave a suggestion as to how boosting might improve regression models using their algorithm AdaBoost.R. The main aim of this article is to present an application of the new boosting method for regression problems which was introduced by Ridgeway (2005). We will discuss the influence of the main parameters of this algorithm, such as eg. learning rate or number of iterations on the model performance.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis. Folia Oeconomica;228
dc.subjectregressionpl_PL
dc.subjectaggregated model (ensebles)pl_PL
dc.subjectboostingpl_PL
dc.titleBoosting Regression Modelspl_PL
dc.title.alternativeAgregacja modeli regresyjnych metodą boostingpl_PL
dc.typeArticlepl_PL
dc.page.number69-76pl_PL
dc.contributor.authorAffiliationDepartment of Statistics, The Karol Adamiecki University of Economics, Katowicepl_PL
dc.referencesBlake C., Keogh E., Merz C.J. (1988), UCI Repository of Machine Learning Databases. Department of Information and Computer Science, University of California, Irvine.
dc.referencesBauer E., Kohavi R. (1999,) An empirical comparison of voting classification algorithms: bagging, boosting, and variants, Machine Learning, 36, p. 105-139.
dc.referencesBreiman L. (1999), Using adaptive bagging to debias regression, Technical Report, Statistics Department, University of California, Berkeley.
dc.referencesFreund Y. (1990), Boosting a weak learning algorithm by majority, Proceedings of the 3rd Annual Workshop on Computational Learning Theory, p. 202-216.
dc.referencesFreund Y. (1995), Boosting a weak learning algorithm by majority, Information and Computation, 121 (2), p. 256-285.
dc.referencesFreund Y., Schapire R.E. (1995), A decision-theoretic generalization of on-line learning and an application to boosting, Proceedings of the 2nd European Conference on Computational Learning Theory, Springer-Verlag, p. 23-27.
dc.referencesFriedman J. (2001), Greedy function approximation: a gradient boosting machine, Annals of Statistics, 29(5), p. 1189-1232.
dc.referencesFriedman J. (2002), Stochastic gradient boosting, Computational Statistics and Data Analysis, 38(4), p. 367-378.
dc.referencesFriedman J., Hastie T., Tibshirani R. (1998), Additive logistic regression: a statistical view of boosting, Technical Report.
dc.referencesRidgeway G. (2005), Generalized boosted models: A guide to the gbm package, http://ipensieri.com/gregr/papers/gbm-vignette.pdf


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record