dc.contributor.author | Kubus, Mariusz | |
dc.date.accessioned | 2015-06-30T11:29:35Z | |
dc.date.available | 2015-06-30T11:29:35Z | |
dc.date.issued | 2013 | |
dc.identifier.issn | 0208-6018 | |
dc.identifier.uri | http://hdl.handle.net/11089/10301 | |
dc.description.abstract | There are three main approaches to feature selection problem considered in
statistical and machine learning literature: filters, wrappers and embedded methods. Filters
evaluate and exclude some variables before learning a model. Wrappers use learning algorithm for
evaluation of the feature subsets and involve search techniques in the feature subset space.
Embedded methods use feature selection as an integral part of learning algorithm. When features
outnumber examples, filters or embedded methods are recommended. The goal of this paper is to
compare popular filters and embedded methods in high dimensional problem. In the simulation
study, redundant variables will be included in the artificially generated data. | pl_PL |
dc.description.abstract | Metody selekcji zmiennych dyskutowane obecnie w literaturze dzielone są na trzy główne
podejścia: dobór zmiennych dokonywany przed etapem budowy modelu, przeszukiwanie
przestrzeni cech i selekcja zmiennych na podstawie oceny jakości modelu oraz metody
z wbudowanym mechanizmem selekcji zmiennych. W przypadku, gdy liczba zmiennych jest
większa od liczby obserwacji rekomendowane są głównie podejścia pierwsze lub trzecie. Celem
artykułu jest porównanie wybranych metod reprezentujących te podejścia w przypadku dużego
wymiaru przestrzeni cech. W przeprowadzonych symulacjach, do sztucznie generowanych danych
włączano zmienne skorelowane. | pl_PL |
dc.language.iso | en | pl_PL |
dc.publisher | Wydawnictwo Uniwersytetu Łódzkiego | pl_PL |
dc.relation.ispartofseries | Acta Universitatis Lodziensis, Folia Oeconomica;286 | |
dc.subject | feature selection | pl_PL |
dc.subject | filters | pl_PL |
dc.subject | embedded methods | pl_PL |
dc.subject | high dimension | pl_PL |
dc.title | Feature Selection in High Dimensional Regression Problem | pl_PL |
dc.title.alternative | Selekcja zmiennych dla regresji w przypadku dużego wymiaru przestrzeni cech | pl_PL |
dc.type | Article | pl_PL |
dc.page.number | [139]-146 | pl_PL |
dc.contributor.authorAffiliation | Opole University of Technology, Department of Mathematics and Applied Computer Science | pl_PL |
dc.references | Blum A.L., Langley P. (1997), Selection of relevant features and examples in machine learning. ,,Artificial Intelligence”, vol. 97 no. 1-2, p. 245-271 | pl_PL |
dc.references | Duch W. (2006), Filter methods. [in:] Guyon I., Gunn S., Nikravesh M., Zadeh L. (Eds.), Feature Extraction: Foundations and Applications. Springer, New York | pl_PL |
dc.references | Efron B., Hastie T., Johnstone I., Tibshirani R. (2004), Least Angle Regression. ,,Annals of Statistics” 32 (2): p. 407-499 | pl_PL |
dc.references | Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji. PWN, Warszawa | pl_PL |
dc.references | Grabiński T., Wydymus S., Zeliaś A. (1982), Metody doboru zmiennych w modelach ekonometrycznych. PWN, Warszawa | pl_PL |
dc.references | Guyon I. (2008), Practical Feature Selection: from Correlation to Causality. [in:] F. Fogelman- Soulie et al. (Eds.), Mining Massive Data Sets for Security, IOS Press | pl_PL |
dc.references | Guyon I., Elisseeff A. (2003), An Introduction to Variable and Feature Selection. ,,Journal of Machine Learning Research” 3, p. 1157-1182 | pl_PL |
dc.references | Hastie T., Tibshirani R., Friedman J. (2009), The Elements of Statistical Learning: Data Mining, Inferance, and Prediction. 2nd edition, Springer, New York | pl_PL |
dc.references | Meinshausen N. (2007), Lasso with relaxation, Computational Statistics and Data Analysis 52(1): p. 374-293 | pl_PL |
dc.references | Ng A.Y. (1998), On feature selection: learning with exponentially many irrelevant features as training examples, In Proceedings of the 15th International Conference on Machine Learning, p. 404-412, San Francisco, CA. Morgan Kaufmann | pl_PL |
dc.references | Nowak E. (1984), Problemy doboru zmiennych do modelu ekonometrycznego. PWN, Warszawa | pl_PL |
dc.references | Nowak E. (1997), Zarys metod ekonometrii: zbiór zadań. PWN Wyd.2, Warszawa | pl_PL |
dc.references | Osborne M., Presnell B., Turlach B. (2000), A new approach to variable selection in least squares problems. ,,IMA Journal of Numerical Analysis” 20: p. 389-404 | pl_PL |
dc.references | Paul D., Bair E., Hastie T., Tibshirani R. (2008), “Pre-conditioning” for feature selection and regression in high-dimensional problems, Annals of Statistics 36(4): p. 1595-1618 | pl_PL |
dc.references | Reunanen J. (2006), Search Strategies, In I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh (Eds.), Feature Extraction: Foundations and Applications, Springer, New York | pl_PL |
dc.references | Tibshirani R. (1996), Regression shrinkage and selection via the lasso. ,,J.Royal. Statist. Soc. B.” 58: p. 267-288 | pl_PL |
dc.references | Zou H., Hastie T. (2005), Regularization and variable selection via the elastic net, Journal of the Royal Statistical Society Series B. 67(2): p. 301-320 | pl_PL |