PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2006 | 13 | nr 1126 Klasyfikacja i analiza danych - teoria i zastosowania | 56--64
Tytuł artykułu

Wykorzystanie miary Hamanna do oceny podobieństwa modeli w podejściu wielomodelowym

Warianty tytułu
The Use of Hamann's Coefficient as Diversity Measure in Multiple-Model Approach
Języki publikacji
PL
Abstrakty
W niniejszym artykule zostaną omówione podstawowe własności znanych dci tej pory miar, zostanie także zaproponowana nowa miara podobieństwa modeli dyskryminacyjnych, oparta na współczynniku Hamanna [1961], dająca lepszą ocenę podobieństwa modeli C1 (x),..., CK(x). (fragment tekstu)
EN
Combining multiple classifiers into an ensemble has proved to be very successful in the past decade. The key issue is the diversity of the component classifiers, because unrelated members form an accurate ensemble.
In this paper we propose a new pairwise measure of diversity for classifier ensembles based on Hamann's similarity coefficient. (original abstract)
Twórcy
  • Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
Bibliografia
  • Breiman L. (1996), Bagging Predictors, "Machine Learning" nr 24, s. 123-140.
  • Breiman L. (1998), Arcing Classifiers, "Annals of Statistics" nr 26, s. 801-849.
  • Breiman L. (1999), Using Adaptive Bagging to Debias Regressions, Technical Report 547, Department of Statistics, University of California, Berkeley.
  • Breiman L. (2001), Random Forests, "Machine Learning" nr 45, s. 5-32.
  • Cunnigham P., Carney J. (2000), Diversity versus Quality in Classification Ensembles Based on Feature Selection, Proceedings of European Conference on Machine Learning, LNCS, vol. 1810, Springer, Berlin, s. 109-116.
  • Dietterich T., Bakiri G. (1995), Solving Multiclass Learning Problem via Error-Correcting Output Codes, "Journal of Artificial Intelligence Research" nr 2, s 263-286.
  • Fleiss J.L. (1981), Statistical Methods for Rates and Proportions, John Wiley and Sons, New York.
  • Freund Y., Schapire R.E. (1997), A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, "Journal of Computer and System Sciences" nr 55, s. 119-139.
  • Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
  • Giacinto G., Roli F. (2001), Design of Effective Neural Network Ensembles for Image Classification Processes, "Image Vision and Computing Journal" nr 19, s. 699-707.
  • Hamann U. (1961), Merkmalsbestand Und Verwandtschafsbeziehungen Der Farinosae. Ein Beitragzum System Der Monokotyledonen, "Willdenowia" nr 2, s. 639-768.
  • Hansen L.K., Salamon P. (1990), Neural Network Ensembles, "IEEE Transactions on Pattern Analysis and Machine Intelligence" nr 12, s. 993-1001.
  • Ho T.K. (1998), The Random Subspace Method for Constructing Decision Forests, "IEEE Transactions on Pattern Analysis and Machine Intelligence" nr 20, s. 832-844.
  • Kuncheva L., Whitaker C., Shipp D., Duin R. (2000), Is Independence Good for Combining Classifiers, Proceedings of the 15th International Conference on Pattern Recognition, Barcelona, Spain, s. 168-171.
  • Kuncheva L., Whitaker C. (2003), Measures of Diversity in Classifier Ensembles and their Relationship With the Ensemble Accuracy, "Machine Learning" nr 51, s. 181-207.
  • Margineantu M.M., Dietterich T.G. (1997), Pruning Adaptive Boosting, Proceedings of the 14th International Conference on Machine Learning, Morgan Kaufmann, San Mateo, s. 211-218.
  • Partridge D., Krzanowski W.J. (1997), Software Diversity: Practical Statistics for Its Measurement and Exploitation, "Information and Software Technology" nr 39, s. 707-717.
  • Partridge D., Yates W.B. (1996), Engineering Multiversion Neural-Net Systems, "Neural Computation" nr 8, s. 869-893.
  • Sharkey A., Sharkey N. (1997), Diversity, Selection, and Ensembles of Artificial Neural Nets, Neural Networks and Their Applications, NEURAP-97, s. 205-212.
  • Skalak D.B. (1996), The Sources of Increased Accuracy for Two Proposed Boosting Algorithms, Proceedings of the American Association for Artificial Intelligence AAAI-96, Morgan Kaufmann, San Mateo.
  • Therneau T.M., Atkinson E.J. (1997), An Introduction to Recursive Partitioning Using the RPART Routines, Mayo Foundation, Rochester.
  • Turner K., Ghosh J. (1996), Analysis of Decision Boundaries in Linearly Combined Neural Classifiers, "Pattern Recognition" nr 29, s. 341-348.
  • Wolpert D. (1992), Stacked Generalization, "Neural Networks" nr 5, s. 241-259.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171558300

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.