dc.contributor.author | Trzęsiok, Michał | |
dc.date.accessioned | 2015-06-29T07:53:29Z | |
dc.date.available | 2015-06-29T07:53:29Z | |
dc.date.issued | 2013 | |
dc.identifier.issn | 0208-6018 | |
dc.identifier.uri | http://hdl.handle.net/11089/10262 | |
dc.description.abstract | Support Vector Machines (SVMs) belong to the group of Data Mining and Machine
Learning methods. SVMs are considered to be one of the best classification methods in
terms of performance measure. The biggest disadvantage of SVMs is their lack of interpretability.
Additional procedures can be applied that enable knowledge extraction. We present such
a procedure that uses the information embedded in support vectors – the observations that define
the classification function. We use recursive partitioning applied to support vectors to increase the
interpretability of SVMs. | pl_PL |
dc.description.abstract | Metoda wektorów nośnych (SVM) należy do grupy statystycznych metod uczących się. Jak
większość metod z tej grupy, metoda SVM buduje modele o bardzo dobrych własnościach predykcyjnych,
lecz niewielkiej interpretowalności. W celu uzyskania dodatkowej wiedzy –stosuje
się dodatkowe procedury wspomagające interpretowanie wyników modelowania. W artykule
przedstawiono procedurę wykorzystującą informacje zawarte w wektorach nośnych – obserwacjach
istotnie wpływających na postać wyznaczonej funkcji dyskryminującej. Intepretowalność
modelu końcowego uzyskano dzięki zastosowaniu modelu rekurencyjnego podziału do dyskryminacji
wyznaczonych wektorów nośnych. | pl_PL |
dc.language.iso | en | pl_PL |
dc.publisher | Wydawnictwo Uniwersytetu Łódzkiego | pl_PL |
dc.relation.ispartofseries | Acta Universitatis Lodziensis, Folia Oeconomica;286 | |
dc.subject | Support Vector Machines | pl_PL |
dc.subject | knowledge extraction | pl_PL |
dc.subject | model interpretability | pl_PL |
dc.title | Extracting Class Description from Support Vector Machines | pl_PL |
dc.title.alternative | Profilowanie klas w metodzie wektorów nośnych | pl_PL |
dc.type | Article | pl_PL |
dc.page.number | [197]-204 | pl_PL |
dc.contributor.authorAffiliation | Katowice University of Economics, Department of Mathematics | pl_PL |
dc.references | Abe S. (2005), Support Vector Machines for Pattern Classification, Springer | pl_PL |
dc.references | Boser B., Guyon I., and Vapnik V. (1992). A training algorithm for optimal margin classifiers. In Haussler D. (ed.), 5th Annual ACM Workshop on COLT, ACM Press, Pittsburgh, p. 144-152 | pl_PL |
dc.references | Cristianini N., Shawe-Taylor J. (2000), An Introduction to Support Vector Machines (and other kernel-based learning methods), Cambridge University Press, Cambridge | pl_PL |
dc.references | Diederich J. (ed.) (2008), Rule Extraction from Support Vector Machines, Springer | pl_PL |
dc.references | Gatnar E. (2001), Nonparametric Method for Classification and Regression (in Polish), PWN, Warszawa | pl_PL |
dc.references | Guyon I., Gunn S., Nikravesh M., Zadeh L. (eds) (2006), Feature Extraction, Foundations and Applications. Springer | pl_PL |
dc.references | Trzęsiok M. (2009), Variable Selection in Support Vector Machines (in Polish), In: Jajuga K., Walesiak M. (eds), „Taksonomia 16”, Wrocław University of Economics Publishing House, Wrocław, p. 214-222 | pl_PL |
dc.references | Vapnik V. (1998), Statistical Learning Theory, John Wiley & Sons, N.Y. | pl_PL |