PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2007 | 14 | nr 1169 Klasyfikacja i analiza danych - teoria i zastosowania | 499--506
Tytuł artykułu

Upraszczanie wstępne reguł klasyfikacji drzew logicznych

Autorzy
Warianty tytułu
Pre-Pruning of Classification Rules for Logical Trees
Języki publikacji
PL
Abstrakty
Obszarem zainteresowań będą metody dyskryminacji, które można stosować dla zmiennych z mocnych i słabych skal pomiaru. W statystyce ugruntowaną już pozycję ma metoda drzew klasyfikacyjnych. Jednocześnie na gruncie nauki o indukcyjnych metodach uczenia rozwijano metody dyskryminacji prowadzące do modeli w postaci reguł klasyfikacji, których części warunkowe są koniunkcjami wartości cech. Znaczna ich liczba opiera się na ogólnym schemacie wypracowanym przez Michalskiego. Do konstrukcji takich modeli dyskryminacyjnych można zastosować także drzewa logiczne. Zaproponowana przez autora metoda daje dokładności klasyfikacji porównywalne z powszechnie znanymi algorytmami CN2 (indukcja reguł) i C4.5 (drzewa klasyfikacyjne). Celem artykułu jest zastosowanie w metodzie drzew logicznych różnych technik upraszczania wstępnego modelu (pre-pruning) spotykanych w indukcji reguł i drzewach klasyfikacyjnych. Ponieważ omawiane metody zostały opracowane głównie dla zmiennych niemetrycznych, postać klasyfikatora nie może zawierać operacji artymetrycznych. Naturalnym środkiem wyrazu w tej sytuacji jest posługiwanie się komunikacjami wartości cech, co czynimy na co dzień. (fragment tekstu)
EN
Discriminant models that ideally separate classes do not perform well on the new observations, especialy in the presence of noise. This is the general problem of discriminant analysis. Several technics of pruning were proposed in the literature to avoide overfitting. In this paper, pre-pruning technics that deal with noise during model generation are considered. The main goal of this paper is to adopt pre-pruning technics - used in classification trees and rules induction - for logical trees based discrimination method. The examples from UCI Repository of Machine Learning Databases are given. (original abstract)
Twórcy
  • Politechnika Opolska
Bibliografia
  • Blake C., Keogh E., Merz C.J. (1998), UC1 Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine, www.ics.uci.edu/~mleam/MLRepository.html.
  • Fürnkranz J. (1997), Pruning Algorithms for Rule Learning, "Machine Learning" 27(2).
  • Fürnkranz J. (1999), Separate-and-Conquer Rule Learning, "Artif. Intelligence Review" 13(1).
  • Fürnkranz J., Flach P.A. (2005), ROC 'n' Rule Learning - Towards a Better Understanding of Covering Algorithms, "Machine Learning" 58, s. 39-77.
  • Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
  • Gatnar E. (1998), Symboliczne metody klasyfikacji danych, PWN, Warszawa.
  • Kubus M. (2006), O pewnej metodzie dyskryminacji obiektów jakościowych, "Prace Naukowe AE we Wrocławiu", nr 1126, AE, Wrocław.
  • Michalski R.S. (1969), On the Quasi-Minimal Solution of the Covering Problem, [w:] Proceedings of the 5th International Symposium on Information Processing (FCIP-69) vol. A3 (Switching Circuits), Bled, Yugoslavia, s. 125-128.
  • Quinlan J.R., Cameron-Jones R.M. (1995), Oversearching and Layered Search in Empirical Learning, [w:] C. Mellish (red.), Proceedings of the 14th International Joint Conference on Artificial Intelligence, Morgan Kaufman, s. 1019-1024.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171479303

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.