PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2008 | 15 | nr 7 (1207) Klasyfikacja i analiza danych - teoria i zastosowania | 69--76
Tytuł artykułu

A Comparison of Three Ensembled Classifiers in a Financial Case

Treść / Zawartość
Warianty tytułu
Porównanie trzech zagregowanych klasyfikatorów w zagadnieniu finansowym
Języki publikacji
EN
Abstrakty
Poczynając od lat 60., do predykcji upadłości stosuje się wiele technik klasyfikacyjnych. W stosunku do tradycyjnych modeli statystycznych drzewa klasyfikacyjne są narzędziem alternatywnym. Modele te są w stanie wychwycić nieliniowe zależności i wykazują dobre własności w przypadku obecności informacji jakościowych, co ma miejsce przy opisie sytuacji przedsiębiorstw, które poddawane są analizie w prognozowaniu bankructwa. Dlatego też drzewa klasyfikacyjne są szeroko wykorzystywane jako bazowe klasyfikatory przy budowie modeli zagregowanych. Celem tego badania jest porównanie zachowań trzech zagregowanych klasyfikatorów, tj. AdaBoost, Bagging and Random Forest w przypadku zastosowań w prognozowaniu upadłości. (abstrakt oryginalny)
Twórcy
  • University of Castilla-La Mancha, Spain
  • University of Castilla-La Mancha, Spain
  • University of Castilla-La Mancha, Spain
Bibliografia
  • Alfaro E., Gamez M. and Garcia N. (2007), A Boosting Approach for Corporate Failure Prediction, „Applied Intelligence" 27, p. 29-37.
  • Banfield R.E., Hall L.O., Bowyer K.W., Bhadoria D., Kegelmeyer W.P. and Eschrich S. (2004), A Comparison of Ensemble Creation Techniques, [in:] F. Roli, J. Kittler and T. Windeatt (eds.), Multiple Classifier Systems, vol. 3077 of Lecture Notes in Computer Science, Springer, Cagliari, Italy, p. 223-232.
  • Bauer E., and Kohavi R. (1999), An Empirical Comparison of Voting Classification Algorithm: Bagging, Boosting and Variants, „Machine Learning" 36, p. 105-142.
  • Breiman L. (1996), Bagging Predictors, „Machine Learning" 24(2), p. 123-140.
  • Breiman L. (2001), Random Forest, „Machine Learning" 45, p. 5-32.
  • Breiman L., Friedman J.H., Olshen R., and Stone C.J. (1984), Classification and Regression Trees, Belmont, Wadsworth International Group.
  • Demsar J. (2006), Statistical Comparison of Classifier over Multiple Data Sets, „Journal of Machine Learning Research" 7, p. 1-30.
  • Dietterich T.G. (2000), Ensemble Methods in Machine Learning, [in:] J. Kittler and F. Roli (eds.), Multiple Classifier Systems, vol. 1857 of Lecture Notes in Computer Science. Springer, Cagliari, Italy, p. 1-15.
  • Freund Y. and Schapire R.E. (1996), Experiments with a New Boosting Algorithm, Proc. 13th International Conference on Machine Learning, Morgan Kaufmann, p. 148-146.
  • Freund Y. and Schapire R.E. (1997), A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. „Journal of Computer and System Sciences" 55(1), p. 119-139.
  • Friedman J., Hastie T. and Tibshirani R. (2000), Additive Logistic Regression: a Statistical View of Boosting, „The Annals of Statistics" 38(2), p. 337-407.
  • Frydman H., Altman E. and Kao D. (1985), Introducing Recursive Partitioning for Financial Classification: the Case of Financial Distress, „Journal of Finance", p. 269-291.
  • Kuncheva L.I. (2004), Combining Pattern Classifiers. Methods and Algorithms, Wiley.
  • Opitz D. and Maclin R. (1999), Popular Ensemble Methods: An Empirical Study, „Journal of Artificial Intelligence Research" 11, p. 169-198.
  • R Development Core Team (2004), R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Viena, http://www.R-project.org.
  • Sheskin D.J. (2000), Handbook of Parametric and Nonparametric Statistical Procedures, Chapman & Hall/CRC.
  • Wilcoxon F. (1945), Individual Comparisons by Ranking Methods, „Biometrics" 1, p. 80-83.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000168575116

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.