dc.contributor.author | Kubus, Mariusz | |
dc.date.accessioned | 2015-06-29T08:36:20Z | |
dc.date.available | 2015-06-29T08:36:20Z | |
dc.date.issued | 2013 | |
dc.identifier.issn | 0208-6018 | |
dc.identifier.uri | http://hdl.handle.net/11089/10264 | |
dc.description.abstract | One of the approaches to feature selection in discrimination or regression is
learning models using various feature subsets and evaluating these subsets, basing on model
quality criterion (so called wrappers). Heuristic or stochastic search techniques are applied for the
choice of feature subsets. The most popular example is stepwise regression which applies hillclimbing.
Alternative approach is that features are ranked according to some criterion and then
nested models are learned and evaluated. The sophisticated tools of obtaining a feature rankings
are tree based ensembles. In this paper we propose the competitive ranking which results in
slightly lower classification error. In the empirical study metric and binary noisy variables will be
considered. The comparison with a popular stepwise regression also will be given. | pl_PL |
dc.description.abstract | Jednym z podejść do problemu selekcji zmiennych w dyskryminacji lub regresji jest
wykorzystanie kryterium oceny jakości modeli budowanych na różnych podzbiorach zmiennych
(tzw. wrappers). Do wyboru podzbiorów zmiennych stosowane są techniki przeszukiwania
(heurystyczne lub stochastyczne). Najpopularniejszym przykładem jest regresja krokowa
wykorzystująca strategię wspinaczki. Alternatywne podejście polega na uporządkowaniu
zmiennych wg wybranego kryterium, a następnie budowaniu modeli zagnieżdżonych i ich ocenie.
Zaawansowanymi narzędziami budowy rankingów są agregowane drzewa klasyfikacyjne.
W artykule został zaproponowany konkurujący ranking, który prowadzi do nieco mniejszych
błędów klasyfikacji. W studium empirycznym rozważane są zmienne nieistotne metryczne oraz
binarne. Przedstawiono też porównanie z popularną regresją krokową. | pl_PL |
dc.language.iso | en | pl_PL |
dc.publisher | Wydawnictwo Uniwersytetu Łódzkiego | pl_PL |
dc.relation.ispartofseries | Acta Universitatis Lodziensis, Folia Oeconomica;286 | |
dc.subject | feature selection | pl_PL |
dc.subject | wrappers | pl_PL |
dc.subject | feature ranking | pl_PL |
dc.title | Some Remarks on Feature Ranking Based Wrappers | pl_PL |
dc.title.alternative | Wybrane uwagi na temat podejścia wrappers bazującego na rankingu zmiennych | pl_PL |
dc.type | Article | pl_PL |
dc.page.number | [147]-154 | pl_PL |
dc.contributor.authorAffiliation | Opole University of Technology, Department of Mathematics and Applied Computer Science | pl_PL |
dc.references | Blum A.L., Langley P. (1997), Selection of relevant features and examples in machine learning, ,,Artificial Intelligence”, vol. 97 no. 1-2, p. 245-271 | pl_PL |
dc.references | Breiman L. (2001), Random forests, “Machine Learning”, 45, p. 5-32 | pl_PL |
dc.references | Frank A., Asuncion A. (2010), UCI Machine Learning Repository, Irvine, CA: University of California, School of Information and Computer Science [http://archive.ics.uci.edu/ml] | pl_PL |
dc.references | Freund Y., Schapire R.E. (1996), Experiments with a new boosting algorithm, Proceedings of the 13th International Conference on Machine Learning, Morgan Kaufmann, p. 148-156 | pl_PL |
dc.references | Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa | pl_PL |
dc.references | Gatnar E. (2008), Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, PWN, Warszawa | pl_PL |
dc.references | Guyon I., Gunn S., Nikravesh M., Zadeh L. (2006), Feature Extraction: Foundations and Applications, Springer, New York | pl_PL |
dc.references | Hastie T., Tibshirani R., Friedman J. (2009), The Elements of Statistical Learning: Data Mining, Inferance, and Prediction, 2nd edition, Springer, New York | pl_PL |
dc.references | Hoerl A.E., Kennard R. (1970), Ridge regression: biased estimation for nonorthogonal problems, ,,Technometrics” 12: p. 55-67 | pl_PL |
dc.references | Kubus M. (2011), On model selection in some regularized linear regression methods, XXX Konferencja Wielowymiarowa Analiza Statystyczna, Łódź (to appear) | pl_PL |
dc.references | Kubus M. (2013), Liniowy model prawdopodobieństwa z regularyzacją jako metoda doboru zmiennych, XXI Konferencja Sekcji Klasyfikacji i Analizy Danych PTS, Lipowy Most (to appear) | pl_PL |
dc.references | Ng A.Y. (1998), On feature selection: learning with exponentially many irrelevant features as training examples, In Proceedings of the 15th International Conference on Machine Learning, p. 404-412, San Francisco, CA. Morgan Kaufmann | pl_PL |
dc.references | Reunanen J. (2006), Search Strategies, In I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh (Eds.), Feature Extraction: Foundations and Applications, Springer, New York | pl_PL |
dc.references | Tibshirani R. (1996), Regression shrinkage and selection via the lasso, J.Royal. Statist. Soc. B., 58: p. 267-288 | pl_PL |
dc.references | Zou H., Hastie T. (2005), Regularization and variable selection via the elastic net, Journal of the Royal Statistical Society Series B, 67(2): p. 301-320 | pl_PL |