Pokaż uproszczony rekord

dc.contributor.authorTrzęsiok, Joanna
dc.date.accessioned2015-06-30T11:55:49Z
dc.date.available2015-06-30T11:55:49Z
dc.date.issued2013
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/10307
dc.description.abstractNonparametric methods of regression form a large group of varied and rapidly growing methods. In many situations we have a problem with comparing these methods in order to select one of them to solve the regression problem. We present the simulation procedure for comparing the performance of several competing algorithms of nonparametric regression. This procedure has two stages. In the first one, the ranking of nonparametric models of regression is created. In the second stage, statistical test procedures can be used to test the significance of differences in the performances of models presented in the ranking. The procedure is applied to regression benchmark studies based on real world data.pl_PL
dc.description.abstractW artykule przedstawiono symulacyjną procedurę badawczą pozwalającą na porównywanie różnych nieparametrycznych modeli regresji, jak i wybór najlepszego z nich. Zaproponowana procedura przebiega dwuetapowo. W pierwszym etapie tworzony jest ranking modeli regresji, pod względem dokładności predykcji, mierzonej za pomocą błędu średniokwadratowego obliczonego metodą sprawdzania krzyżowego ( MSECV ). Drugi etap analizy ma na celu zbadanie istotności różnic pomiędzy uzyskanymi wartościami MSECV , a tym samym skorygowanie otrzymanych rankingów. Do testowania istotności wspomnianych różnic wykorzystano nieparametryczną statystykę testującą zaproponowaną przez Hothorna. Opisaną procedurę badawczą zastosowano w badaniu empirycznym, dla zbiorów danych standardowo wykorzystywanych do analizowania własności różnych metod regresji.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis, Folia Oeconomica;286
dc.subjectnonparametric regressionpl_PL
dc.subjectmodel comparisonpl_PL
dc.subjectbenchmarking experimentspl_PL
dc.subjecthypothesis testingpl_PL
dc.titleOn Some Simulation Procedures for Comparing Nonparametric Methods of Regressionpl_PL
dc.title.alternativeWybrane symulacyjne procedury porównywania nieparametrycznych metod regresjipl_PL
dc.typeArticlepl_PL
dc.page.number[155]-161pl_PL
dc.contributor.authorAffiliationUniversity of Economics in Katowice, Department of Mathematicspl_PL
dc.referencesBishop C. (1995), Neural Networks for Pattern Recognition, Oxford University Press, Oxfordpl_PL
dc.referencesBreiman L. (1996), Bagging Predictors, Machine Learning, 24, 123-140pl_PL
dc.referencesBreiman L. (2001), Random Forests, Machine Learning, 45, 5-32pl_PL
dc.referencesFriedman J. (1999a), Greedy Function Approximation: a Gradient Boosting Machine, Technical Report, Stanford University, Dept. of Statisticspl_PL
dc.referencesFriedman J. (1999b), Stochastic Gradient Boosting, Technical Report, Stanford University, Dept. of Statisticspl_PL
dc.referencesFriedman J., Stuetzle W. (1981), Projection Pursuit Regression, Journal of the American Statistical Association, 76, 817-823pl_PL
dc.referencesHothorn T., Leisch F., Zeileis A., Hornik K. (2005), The Design and Analysis of Benchmark Experiments, Journal of Computational and Graphical Statistics, 14(3), 675-699pl_PL
dc.referencesKooperberg C., Bose S., Stone C. (1997), Polychotomous Regression, Journal of the American Statistical Association, 92, 117-127pl_PL
dc.referencesMeyer D., Leisch F., Hornik K. (2003), The Support Vector Machine under Test, Neurocomputing, 55(1-2), 169-186pl_PL
dc.referencesVapnik V. (1998), Statistical Learning Theory, „Adaptive and Learning Systems for Signal Processing, Communications, and Control”, John Wiley & Sons, New Yorkpl_PL


Pliki tej pozycji

Thumbnail

Pozycja umieszczona jest w następujących kolekcjach

Pokaż uproszczony rekord