PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2009 | 16 | nr 47 Klasyfikacja i analiza danych - teoria i zastosowania | 367--374
Tytuł artykułu

Porównanie indukcji reguł z wybranymi metodami dyskryminacji

Autorzy
Treść / Zawartość
Warianty tytułu
The Comparison of Rules Induction to Some Discrimination Methods
Języki publikacji
PL
Abstrakty
Celem artykułu jest empiryczne porównanie błędów klasyfikacji uzyskanych tym algorytmem z wynikami innych metod dyskryminacji. Wykorzystane będą zbiory danych rzeczywistych udostępniane przez repozytorium Uniwersytetu Kalifornijskiego. (fragment tekstu)
EN
Rules induction belongs to nonparametric and adaptive methods of discrimination. As in classification trees, it can deal with nonmetric variables and missing attribute values. The method is also robust in a presence of outliers. A model has the form of a set of "if-then" rules, where conditions are the conjunctions of attribute values, therefore it is easy for interpretation. Rules neither need be represented in the form of tree nor lead to disjoint classification. The main goal of this paper is the comparison of error rates for rules induction and some discrimination methods. Over twenty real world datasets from UCI Repository of Machine Learning Databases were used. The RIPPER algorithm, which is considered as one of the most effective in rules induction, has been chosen. (original abstract)
Twórcy
  • Politechnika Opolska
Bibliografia
  • Blake C., Keogh E., Merz C.J. (1998), UCI repository of machine learning databases, Department of Information and Computer Science, University of California, Irvine, www.ics.uci.edu/~mlearn/MLRepository.html.
  • Cohen W.W. (1995), Fast effective rule induction, [w:] Proceedings of the 12th International Conference on Machine Learning, red. A. Prieditis, S. Russell, Morgan Kaufmann, Lake Tahoe, CA, s. 115-123.
  • Enas G.G., Choi S.C. (1986), Choice of the smoothing parameter and efficiency of k-nearest neighbor classification, "Computer and Mathematics with Applications", 12A(2), s. 235-244.
  • Fürnkranz J. (1999), Separate-and-conquer rule learning, "Artif. Intelligence Review", 13(1), s. 3-54.
  • Fürnkranz J., Widmer G. (1994), Incremental reduced error pruning, [w:] Proceedings of the Eleventh Conference on Machine Learning, red. W. Cohen, H. Hirsh, Morgan Kaufmann, New Brunswick, New Jersey, s. 70-77.
  • Gatnar E. (1998), Symboliczne metody klasyfikacji danych, PWN, Warszawa.
  • Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
  • Michalski R.S. (1969), On the quasi-minimal solution of the covering problem, [w:] Proceedings of the 5th International Symposium on Information Processing (FCIP-69), vol. A3 (Switching Circuits), Bled, Yugoslavia, s. 125-128.
  • Quinlan J.R., Cameron-Jones R.M. (1995), Oversearching and layered search in empirical learning, [w:] Proceedings of the 14th International Joint Conference on Artificial Intelligence, red. C. Mellish, Morgan Kaufman, s. 1019-1024.
  • Rissanen J. (1978), Modeling by shortest data description, "Automatica", 14, s. 465-471.
  • Webb A.R. (2002), Statistical pattern recognition, 2nd edition, John Wiley & Sons.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171368855

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.