PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2010 | 235 Multivariate Statistical Analysis | 171--176
Tytuł artykułu

K-Nearest Neighbour Classification for Symbolic Data

Autorzy
Treść / Zawartość
Warianty tytułu
Klasyfikacja metodą k-najbliższych sąsiadów dla danych symbolicznych
Języki publikacji
EN
Abstrakty
EN
The well-known kNN (k Nearest Neighbours) rule was proposed by Fix E. and Hodges J. L. [1951] and it is one of the best classifiers for classical data. In the most simple way, the k-nearest neighbours assign a classified object to a class that is mostly represented by its k-nearest neighbours. If in the same distance as k-th neighbour are other objects, they also take part in voting. This paper presents an adaptation of KNN for symbolic data proposed by Malerba et al. (see: Malerba et al. [2004]). This research was conducted on symbolic data from a variety of models (generated by procedure cluster. Gen from package clusterSim for R software). These models contained a known number of classes. In addition, each model also contained a different number of noisy variables and outliers added to obscure the underlying cluster structure. (original abstract)
Reguła kNN (k Nearest Neighbours) została zaproponowana w pracy (Fix E., Hodges J. L. [1951]) i jest jednym z najlepszych klasyfikatorów dla danych w ujęciu klasycznym. W najprostszym ujęciu metoda k-najbliższych sąsiadów polega na tym, że klasyfikowany obiekt jest zaliczany do klasy najliczniej reprezentowanej wśród jego k "najbliższych sąsiadów". Jeżeli w tej samej odległości, co k-ty "sąsiad" znajdą się jeszcze inne elementy, to wszyscy ci "sąsiedzi" biorą udział w głosowaniu. W artykule zaprezentowano adaptację metody KNN dla danych symbolicznych, którą zaproponował zespół pod kierownictwem D. Malerby (por. Malerba i in. [2004]). Badania przeprowadzono na danych symbolicznych w różnych modelach (generowanych za pomocą procedury cluster. Gen z pakietu clusterSim dla programu R). Modele te zawierały znaną liczbę klas. Dodatkowo do każdego modelu dodano różną liczbę zmiennych zakłócających i wartości odstających, które zniekształcają oryginalną strukturę klas. (abstrakt oryginalny)
Twórcy
  • Wrocław University of Economics, Poland
Bibliografia
  • Bock H.-H., Diday E (Eds.) (2000), Analysis of symbolic data. Explanatory methods for extracting statistical information from complex data, Springer Verlag, Berlin.
  • Fix E., Hodges J. L. (1951), Discriminatory analysis - nonparametric discrimination: consistency properties, Project 21-49-004. Report no. 4, USAF School of Aviation Medicine, Randolph Field, 261-279.
  • Ichino M., Yaguchi H. (1994), Generalized Minkowski Metrics for Mixed Feature-Type Data Analysis, IEEE Transactions on Systems, Man, and Cybernetics, Vol. 24, No. 4, 698-707.
  • Malerba D., Esposito F, Giovalle V., Tamma V. (2001), Comparing Dissimilarity Measures for Symbolic Data Analysis, New Techniques and Technologies for Statistics (ETK-NTTS'01), 473-481.
  • Malerba D., Esposito F., D'Amato C., Appice A. (2004), K-nearest neighbor classification for symbolic objects [in:] P. Brito, M. Noirhomme-Fraiture (Ed.), Symbolic and spatial data analysis: mining complex data structures, University of Pisa, Pisa, 19-30.
Typ dokumentu
Bibliografia
Identyfikatory
DOI
Identyfikator YADDA
bwmeta1.element.ekon-element-000169658105

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.