PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2003 | 10 | nr 988 Klasyfikacja i analiza danych - teoria i zastosowania | 245--253
Tytuł artykułu

O pewnej metodzie redukcji błędu klasyfikacji

Warianty tytułu
On a Method for Reduction the Classification Error
Języki publikacji
PL
Abstrakty
Autor przedstawił propozycję losowego doboru zmiennych do zagregowanego modelu dyskryminacyjnego, dzięki której uzyskuje się znaczącą redukcję błędu klasyfikacji. Ta redukcja jest znacząca, zwłaszcza w przypadku modeli niestabilnych, jakimi są drzewa klasyfikacyjne.
EN
Single classification tree model depends on the contents of the training set, i.e. small change in the data lead to major changes in the response y, therefore it is not a stable classifier. In result, if often gives a high classification error for the set of cases to be classified. Serious reduction of the classification error is possible by aggregation of multiple classification trees. Proposed methods i.e., bagging and boosting are based on bootstrap sampling from the training set. Unfortunately resampling leads to major modification on the training set. More accurate tree-based classifiers can be obtained by aggregation of models built on training samples with randomly chosen subsets of variables. In addition, this method does not modify the distribution of predicators in the training set. (original abstract)
Twórcy
Bibliografia
  • Ami Y., Geman D. (1997), Shape quantization and recognition with randomized trees, Neural Computation 9, s. 1545-1588.
  • Blake C., Keogh E., Merz C.J. (1998), UCI Repository of Machine Learning Databases. Department of Information and Computer Science, University of California, Irvine, CA.
  • Breiman L. (1998), Arcing classifiers, Annals of Statistics 26, s. 801-849.
  • Breiman L. (1996), Bagging predictors, Machine Learning 24, s. 123-140.
  • Breiman L. (2001), Random forests, Machine Learning 45, s. 5-32.
  • Breiman L., Friedman J., Olshen R., Stone C. (1984), Classification and Regression Trees, Chapman & Hall/CRC Press, London.
  • Dietterich T.G. (2000), An experimental comparison of three methods for constructing ensembles of decision trees: bagging, boosting and randomization, Machine Learning 40, s. 139-158.
  • Freund Y., Schapire R.E. (1997), A decision-theoretic generalization of on-line learning and an application to boosting, "Journal of Computer and System Sciences" 55, s. 119-139.
  • Friedman J. (1999), Stochastic gradient boosting, Technical Report, Stanford University.
  • Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
  • Gatnar E., (2002), Agregacja modeli dyskryminacyjnych, Taksonomia 9, "Prace Naukowe AE we Wrocławiu", nr 942, s. 217-226.
  • Ho T.K. (1998), The random subspace method for constructing decision forests, IEEE Trans, on Pattern Analysis and Machine Learning 20, s. 832-844.
  • Quinlan J.R. (1993), C4.5: Programs for Machine Learning, Morgan Kaufmann, San Mateo.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000000014510

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.