PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2007 | 14 | nr 1169 Klasyfikacja i analiza danych - teoria i zastosowania | 245--252
Tytuł artykułu

Porównanie metody gradientowej wykorzystującej transformację logistyczną z wybranymi metodami dyskryminacji

Warianty tytułu
Comparison of Gradient Boosting Method Using the Multiple Logistic Transform with Other Classification Methods
Języki publikacji
PL
Abstrakty
Metoda MART, stosowana w regresji, generuje modele charakteryzujące się niskimi wartościami błędów predykcji. Na ogół jest ona najdokładniejsza w badanej grupie metod. Dla jej modyfikacji - omawianej metody gradientowej, otrzymaliśmy relatywnie dobre wartości błędów klasyfikacji, obliczonych na zbiorach testowych. Jednak w porównaniu z innymi metodami regresji otrzymujemy zawsze błędy klasyfikacji o co najmniej kilka procent wyższe niż np. dla modeli skonstruowanych na podstawie metody wektorów nośnych lub zagregowanych drzew Breimana. Warto podkreślić, że atutem omawianej metody gradientowej jest jej przynależność do klasy metod nieparametrycznych. Nie wymaga ona znajomości rozkładów badanych zmiennych ani analitycznych postaci związków między nimi. Ponadto, ponieważ jest oparta na drzewach klasyfikacyjnych, pozwala na wprowadzanie do konstruowanego modelu zmiennych zarówno metrycznych, jak i niemetrycznych. (fragment tekstu)
EN
The main subject of this paper is related to gradient boosting method using the multiple logistic transform. This is a method for classification, which is based о MART - the multiple additive regression trees. The goal of the article is to compare the presented method with other classification methods in terms of classification error generated by the final model. T analysis was conducted on some real and artificial benchmarking data sets. (original abstract)
Twórcy
  • Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
Bibliografia
  • Freund Y., Schapire R. (1997), A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, "Journal of Computer and System Sciences" 55, s. 119-139.
  • Friedman J.H. (2001), Greedy Function Approximation: a Gradient Boosting Machine, Technical report, Dept, of Statistics, Stanford University.
  • Friedman J.H., Hastie Т., Tibshirani R. (1999), Additive Logistic Regression: a Statistical View of Boosting, Technical report, Dept, of Statistics, Stanford University.
  • Gatnar E. (2000), Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe PWN, Warszawa.
  • Hastie Т., Tibshirani R., Friedman J.H. (2001), The Elements of Statistical Learning, Springer-Verlag, New York.
  • Meyer D., Leisch F., Hornik K. (2002), Benchmarking Support Vector Machines, Report no. 78, Vienna University of Economics and Business Administration, http://www.wuwien.ac.at/am/Download/report78.pdf.
  • Rozmus D. (2004), Random forest jako metoda agregacji modeli dyskryminacyjnych, [w:] K. Jajuga, M. Walesiak (red.), Klasyfikacja i analiza danych - teoria i zastosowania, "Prace Naukowe AE we Wrocławiu", Taksonomia 11, nr 1022, AE, Wrocław, s. 441-448.
  • Trzęsiok M. (2004), Analiza wybranych własności metody dyskryminacji wykorzystującej wektory nośne, [w:] A.S. Barczak (red.), Postępy ekonometrii, AE, Katowice, s. 331-342.
  • Trzęsiok J. (2006), Analiza wybranych własności metody MART, [w:] K. Jajuga, M. Walesiak (red.), Klasyfikacja i analiza danych - teoria i zastosowania, "Prace Naukowe AE we Wrocławiu", Taksonomia 13, nr 1126, AE, Wrocław, s. 510-518.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171478749

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.