dc.contributor.author | Rozmus, Dorota | |
dc.date.accessioned | 2015-03-07T13:26:46Z | |
dc.date.available | 2015-03-07T13:26:46Z | |
dc.date.issued | 2009 | |
dc.identifier.issn | 0208-6018 | |
dc.identifier.uri | http://hdl.handle.net/11089/7073 | |
dc.description.abstract | Boosting jest jedną z najlepszych metod agregacji modeli dyskryminacyjnych (Bauer,
Kohavi, 1999). Liczne badania empiryczne potwierdzają możliwość znacznej poprawy
jakości modeli klasyfikacyjnych, niewiele jednakże wiadomo na temat efektywności
tej metody w przypadku modeli regresyjnych. Freund i Schapire (1995), stosując swój
algorytm AdaBoost.R, podjęli próbę wykorzystania metody boosting do tego typu zagadnień.
Głównym celem artykułu jest prezentacja nowej implementacji metody boosting
w regresji, która opracowana została przez Ridgeway’a (2005). W przeprowadzonych
eksperymentach zbadany został wpływ wartości podstawowych parametrów tego algorytmu,
takich jak np. współczynnik uczenia, czy też liczba iteracji, na jakość modelu
zagregowanego. | pl_PL |
dc.description.abstract | In a wide variety of classification problems, boosting technique have
proven to be very effective method for improving prediction accuracy (Bauer, Kohavi,
1999). While more evidence compiles about the utility of these technique in classification
problems, little is known about their effectiveness in regression. Freund and
Schapire (1995) gave a suggestion as to how boosting might improve regression models
using their algorithm AdaBoost.R.
The main aim of this article is to present an application of the new boosting method
for regression problems which was introduced by Ridgeway (2005). We will discuss the
influence of the main parameters of this algorithm, such as eg. learning rate or number of
iterations on the model performance. | pl_PL |
dc.language.iso | en | pl_PL |
dc.publisher | Wydawnictwo Uniwersytetu Łódzkiego | pl_PL |
dc.relation.ispartofseries | Acta Universitatis Lodziensis. Folia Oeconomica;228 | |
dc.subject | regression | pl_PL |
dc.subject | aggregated model (ensebles) | pl_PL |
dc.subject | boosting | pl_PL |
dc.title | Boosting Regression Models | pl_PL |
dc.title.alternative | Agregacja modeli regresyjnych metodą boosting | pl_PL |
dc.type | Article | pl_PL |
dc.page.number | 69-76 | pl_PL |
dc.contributor.authorAffiliation | Department of Statistics, The Karol Adamiecki University of Economics, Katowice | pl_PL |
dc.references | Blake C., Keogh E., Merz C.J. (1988), UCI Repository of Machine Learning Databases. Department of Information and Computer Science, University of California, Irvine. | |
dc.references | Bauer E., Kohavi R. (1999,) An empirical comparison of voting classification algorithms: bagging, boosting, and variants, Machine Learning, 36, p. 105-139. | |
dc.references | Breiman L. (1999), Using adaptive bagging to debias regression, Technical Report, Statistics Department, University of California, Berkeley. | |
dc.references | Freund Y. (1990), Boosting a weak learning algorithm by majority, Proceedings of the 3rd Annual Workshop on Computational Learning Theory, p. 202-216. | |
dc.references | Freund Y. (1995), Boosting a weak learning algorithm by majority, Information and Computation, 121 (2), p. 256-285. | |
dc.references | Freund Y., Schapire R.E. (1995), A decision-theoretic generalization of on-line learning and an application to boosting, Proceedings of the 2nd European Conference on Computational Learning Theory, Springer-Verlag, p. 23-27. | |
dc.references | Friedman J. (2001), Greedy function approximation: a gradient boosting machine, Annals of Statistics, 29(5), p. 1189-1232. | |
dc.references | Friedman J. (2002), Stochastic gradient boosting, Computational Statistics and Data Analysis, 38(4), p. 367-378. | |
dc.references | Friedman J., Hastie T., Tibshirani R. (1998), Additive logistic regression: a statistical view of boosting, Technical Report. | |
dc.references | Ridgeway G. (2005), Generalized boosted models: A guide to the gbm package, http://ipensieri.com/gregr/papers/gbm-vignette.pdf | |