Show simple item record

dc.contributor.authorKubus, Mariusz
dc.date.accessioned2015-06-30T11:29:35Z
dc.date.available2015-06-30T11:29:35Z
dc.date.issued2013
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/10301
dc.description.abstractThere are three main approaches to feature selection problem considered in statistical and machine learning literature: filters, wrappers and embedded methods. Filters evaluate and exclude some variables before learning a model. Wrappers use learning algorithm for evaluation of the feature subsets and involve search techniques in the feature subset space. Embedded methods use feature selection as an integral part of learning algorithm. When features outnumber examples, filters or embedded methods are recommended. The goal of this paper is to compare popular filters and embedded methods in high dimensional problem. In the simulation study, redundant variables will be included in the artificially generated data.pl_PL
dc.description.abstractMetody selekcji zmiennych dyskutowane obecnie w literaturze dzielone są na trzy główne podejścia: dobór zmiennych dokonywany przed etapem budowy modelu, przeszukiwanie przestrzeni cech i selekcja zmiennych na podstawie oceny jakości modelu oraz metody z wbudowanym mechanizmem selekcji zmiennych. W przypadku, gdy liczba zmiennych jest większa od liczby obserwacji rekomendowane są głównie podejścia pierwsze lub trzecie. Celem artykułu jest porównanie wybranych metod reprezentujących te podejścia w przypadku dużego wymiaru przestrzeni cech. W przeprowadzonych symulacjach, do sztucznie generowanych danych włączano zmienne skorelowane.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis, Folia Oeconomica;286
dc.subjectfeature selectionpl_PL
dc.subjectfilterspl_PL
dc.subjectembedded methodspl_PL
dc.subjecthigh dimensionpl_PL
dc.titleFeature Selection in High Dimensional Regression Problempl_PL
dc.title.alternativeSelekcja zmiennych dla regresji w przypadku dużego wymiaru przestrzeni cechpl_PL
dc.typeArticlepl_PL
dc.page.number[139]-146pl_PL
dc.contributor.authorAffiliationOpole University of Technology, Department of Mathematics and Applied Computer Sciencepl_PL
dc.referencesBlum A.L., Langley P. (1997), Selection of relevant features and examples in machine learning. ,,Artificial Intelligence”, vol. 97 no. 1-2, p. 245-271pl_PL
dc.referencesDuch W. (2006), Filter methods. [in:] Guyon I., Gunn S., Nikravesh M., Zadeh L. (Eds.), Feature Extraction: Foundations and Applications. Springer, New Yorkpl_PL
dc.referencesEfron B., Hastie T., Johnstone I., Tibshirani R. (2004), Least Angle Regression. ,,Annals of Statistics” 32 (2): p. 407-499pl_PL
dc.referencesGatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji. PWN, Warszawapl_PL
dc.referencesGrabiński T., Wydymus S., Zeliaś A. (1982), Metody doboru zmiennych w modelach ekonometrycznych. PWN, Warszawapl_PL
dc.referencesGuyon I. (2008), Practical Feature Selection: from Correlation to Causality. [in:] F. Fogelman- Soulie et al. (Eds.), Mining Massive Data Sets for Security, IOS Presspl_PL
dc.referencesGuyon I., Elisseeff A. (2003), An Introduction to Variable and Feature Selection. ,,Journal of Machine Learning Research” 3, p. 1157-1182pl_PL
dc.referencesHastie T., Tibshirani R., Friedman J. (2009), The Elements of Statistical Learning: Data Mining, Inferance, and Prediction. 2nd edition, Springer, New Yorkpl_PL
dc.referencesMeinshausen N. (2007), Lasso with relaxation, Computational Statistics and Data Analysis 52(1): p. 374-293pl_PL
dc.referencesNg A.Y. (1998), On feature selection: learning with exponentially many irrelevant features as training examples, In Proceedings of the 15th International Conference on Machine Learning, p. 404-412, San Francisco, CA. Morgan Kaufmannpl_PL
dc.referencesNowak E. (1984), Problemy doboru zmiennych do modelu ekonometrycznego. PWN, Warszawapl_PL
dc.referencesNowak E. (1997), Zarys metod ekonometrii: zbiór zadań. PWN Wyd.2, Warszawapl_PL
dc.referencesOsborne M., Presnell B., Turlach B. (2000), A new approach to variable selection in least squares problems. ,,IMA Journal of Numerical Analysis” 20: p. 389-404pl_PL
dc.referencesPaul D., Bair E., Hastie T., Tibshirani R. (2008), “Pre-conditioning” for feature selection and regression in high-dimensional problems, Annals of Statistics 36(4): p. 1595-1618pl_PL
dc.referencesReunanen J. (2006), Search Strategies, In I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh (Eds.), Feature Extraction: Foundations and Applications, Springer, New Yorkpl_PL
dc.referencesTibshirani R. (1996), Regression shrinkage and selection via the lasso. ,,J.Royal. Statist. Soc. B.” 58: p. 267-288pl_PL
dc.referencesZou H., Hastie T. (2005), Regularization and variable selection via the elastic net, Journal of the Royal Statistical Society Series B. 67(2): p. 301-320pl_PL


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record