PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2009 | 16 | nr 47 Klasyfikacja i analiza danych - teoria i zastosowania | 132--140
Tytuł artykułu

Zagregowane i hybrydowe modele dyskryminacyjne : próba porównania wybranych algorytmów

Warianty tytułu
Aggregated and Hybrid Discriminant Models : an Attempt to Compare Selected Algorithms
Języki publikacji
PL
Abstrakty
Celem pracy jest próba porównania i oceny przydatności w zastosowaniach praktycznych zagregowanych modeli drzew klasyfikacyjnych: Bagging [Breiman 1996], Boosting [Freund, Schapire 1997], Random Forests [Breiman 2001], oraz wybranych modeli hybrydowych: CRUISE [Kim, Loh 2003], LOTUS [Chan, Loh 2004], PLUS [Lim 2000], k-NN Tree [Buttrey, Karo 2002]. (fragment tekstu)
EN
To improve the stability and prediction accuracy of classification trees we can use ensembles of classifiers or hybrid models, combining recursive partitioning with some others algorithms (i.e. linear discriminant functions, logistic regression, distance-based algorithms, etc.). The aim of the paper is to compare the performances of classifier combination methods (Bagging [Breiman 1996], Boosting [Freund, Shapire 1997], Random forests [Breiman 2001]) and hybrid models (CRUISE [Kim, Loh 2003], LOTUS [Chan, Loh 2004], PLUS [Lim 2000], k-NN Tree [Buttrey, Karo 2002]). A medical diagnosis example is used to demonstrate the advantages and disadvantages of the algorithms examined. (original abstract)
Twórcy
  • Uniwersytet Łódzki
Bibliografia
  • Blake C., Keogh E., Merz C.J. (1988), UCI repository of machine learning datasets, Department of Information and Computer Science, University of California, Irvine.
  • Breiman L. (1996), Bagging predictors, "Machine Learning", 24, s. 123-140.
  • Breiman L. (2001), Random forests, "Machine Learning", 45, s. 5-32.
  • Buttrey S.E., Karo C. (2002), Using k-nearest-neighbor classification in the leaves of a tree, "Computational Statistics & Data Analysis", 40, s. 27-37.
  • Chan K.-Y., Loh W.-Y. (2004), LOTUS: an algorithm for building accurate and comprehensible logistic regression trees, "Journal of Computational and Graphical Statistics", 13 (4), s. 826-852.
  • Freund Y., Schapire R.E. (1997), A decision-theoretic generalization of on-line learning and an application to boosting, "Journal of Computer and System Sciences", 55, s. 119-139.
  • Gatnar E. (2008), Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, PWN, Warszawa.
  • Kim H., Loh W.-Y. (2003), Classification trees with bivariate linear discriminant node models, "Journal of Computational and Graphical Statistics", 12, s. 512-530.
  • Lim T.-S. (2000), Polytomous logistic regression trees, PhD Thesis, Department of Statistics, University of Wisconsin, Madison.
  • Metody statystycznej analizy wielowymiarowej w badaniach marketingowych (2004), red. E. Gatnar, M. Walesiak, AE, Wrocław.
  • Misztal M. (2008), Zagregowane modele dyskryminacyjne i regresyjne w prognozowaniu czasu pobytu na OIOM pacjentów z chorobą wieńcową, [w:] Taksonomia 15, Klasyfikacja i analiza danych - teoria i zastosowania, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu nr 7 (1207), UE, Wrocław, s. 316-322.
  • Misztal M., Banach M. (2008), On distance-based algorithms in medical applications, Acta Uniwersitatis Lodziensis, Folia Oeconomica, Wydawnictwo Uniwersytetu Łódzkiego, Łódź, w druku.
  • Stefanowski J. (2001), Algorytmy indukcji reguł decyzyjnych w odkrywaniu wiedzy, Wydawnictwo Politechniki Poznańskiej, Rozprawy nr 361, Poznań.
  • Wolpert D.H., Macready W.G. (1997), No free lunch theorems for optimization, IEEE Transactions on Evolutionary Computation, 1(1), s. 62-68.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171368617

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.