Pokaż uproszczony rekord

dc.contributor.authorKubus, Mariusz
dc.date.accessioned2015-06-22T09:51:28Z
dc.date.available2015-06-22T09:51:28Z
dc.date.issued2013
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/10042
dc.description.abstractA dynamic development of various regularization formulas in linear models has been observed recently. Penalizing the values of coefficients affects decreasing of the variance (shrinking coefficients to zero) and feature selection (setting zero for some coefficients). Feature selection via regularized linear models is preferred over popular wrapper methods in high dimension due to less computational burden as well as due to the fact that it is less prone to overfitting. However, estimated coefficients (and as a result quality of the model) depend on tuning parameters. Using model selection criteria available in R implementation does not guarantee that optimal model will be chosen. Having done simulation study we propose to use EDC criterion as an alternative.pl_PL
dc.description.abstractW ostatnich latach można zaobserwować dynamiczny rozwój różnych postaci regularyzacji w modelach liniowych. Wprowadzenie kary za duże wartości współczynników skutkuje zmniejszeniem wariancji (wartości współczynników są ,,przyciągane” do zera) oraz eliminacją niektórych zmiennych (niektóre współczynniki się zerują). Selekcja zmiennych za pomocą regularyzowanych modeli liniowych jest w problemach wielowymiarowych preferowana wobec popularnego podejścia polegającego na przeszukiwaniu przestrzeni cech i ocenie podzbiorów zmiennych za pomocą kryterium jakości modelu (wrappers). Przyczyną są mniejsze koszty obliczeń i mniejsza podatność na nadmierne dopasowanie. Jednakże wartości estymowanych współczynników (a więc także jakość modelu) zależą od parametrów regularyzacji. Zaimplementowane w tym celu w programie R kryteria jakości modelu nie gwarantują wyboru modelu optymalnego. Na podstawie przeprowadzonych symulacji w artykule proponuje się zastosowanie kryterium EDC.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis. Folia Oeconomica;285
dc.subjectmodel selectionpl_PL
dc.subjectEDCpl_PL
dc.subjectregularizationpl_PL
dc.subjectlinear modelspl_PL
dc.subjectfeature selectionpl_PL
dc.titleOn Model Selection in Some Regularized Linear Regression Methodspl_PL
dc.title.alternativeO wyborze postaci modelu w wybranych metodach regularyzowanej regresji liniowejpl_PL
dc.typeArticlepl_PL
dc.page.number[115]-123pl_PL
dc.contributor.authorAffiliationOpole University of Technology, Department of Mathematics and Applied Computer Sciencepl_PL
dc.referencesBai Z.D., Krishnaiah P.R., Zhao L.C. (1986), On the detection of the number of signals in the presence of white noise, J. Multivariate Anal. 20, p. 1–25pl_PL
dc.referencesBreiman L., Spector P. (1992), Submodel selection and evaluation in regression: the X-random case, International Statistical Review 60: p. 291–319pl_PL
dc.referencesBurnham K. P., Anderson D.R. (2002), Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlagpl_PL
dc.referencesEfron B., Hastie T., Johnstone I., Tibshirani R. (2004), Least Angle Regression, Annals of Statistics 32 (2): p. 407–499pl_PL
dc.referencesGuyon I., Gunn S., Nikravesh M., Zadeh L. (2006), Feature Extraction: Foundations and Applications. Springer, New Yorkpl_PL
dc.referencesHastie T., Tibshirani R., Friedman J. (2009), The Elements of Statistical Learning: Data Mining, Inferance, and Prediction. 2nd edition, Springer, New Yorkpl_PL
dc.referencesHurvich C. M., Tsai C.-L. (1989), Regression and time series model selection in small samples, Biometrika, 76: p. 297–307pl_PL
dc.referencesKundu D., Murali G. (1996), Model selection in linear regression, Computational Statistics & Data Analysis 22, p. 461–469pl_PL
dc.referencesMaddala G.S. (2008), Ekonometria, PWN, Warszawapl_PL
dc.referencesNemenyi P. B. (1963), Distribution-free multiple comparisons, PhD thesis, Princeton Universitypl_PL
dc.referencesTibshirani R. (1996), Regression shrinkage and selection via the lasso, J.Royal. Statist. Soc. B., 58: p. 267–288pl_PL
dc.referencesWahba G. (1980), Spline bases, regularization, and generalized crossvalidation for solving approximation problems with large quantities of noisy data, Proc. of the Inter. Conf. on Approximation theory in Honour of George Lorenz, Academic Press, Austin, Texas, p. 905–912pl_PL
dc.referencesZou H., Hastie T. (2005), Regularization and variable selection via the elastic net, Journal of the Royal Statistical Society Series B, 67(2): p. 301–320pl_PL


Pliki tej pozycji

Thumbnail

Pozycja umieszczona jest w następujących kolekcjach

Pokaż uproszczony rekord