PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2013 | nr 152 Metody wnioskowania statystycznego w badaniach ekonomicznych | 140--152
Tytuł artykułu

Porównanie stabilności taksonomii spektralnej oraz zagregowanych algorytmów taksonomicznych

Autorzy
Warianty tytułu
Comparison of Spectral Clustering and Cluster Ensembles Stability
Języki publikacji
PL
Abstrakty
Stosując metody taksonomiczne w jakimkolwiek zagadnieniu klasyfikacji, ważną kwestią jest zapewnienie wysokiej poprawności wyników grupowania. Od niej bowiem zależeć będzie skuteczność wszelkich decyzji podjętych na ich podstawie. Stąd też w literaturze wciąż proponowane są nowe rozwiązania, które mają przynieść poprawę dokładności grupowania w stosunku do tradycyjnych metod (np. k-średnich, metod hierarchicznych). Przykładem mogą tu być metody polegające na zastosowaniu podejścia zagregowanego oraz algorytmy spektralne. Podejście zagregowane w taksonomii można sformułować następująco: mając wyniki wielokrotnie przeprowadzonego grupowania, należy znaleźć zagregowany podział ostateczny. Taksonomia spektralna natomiast polega na zastosowaniu wartości własnych pochodzących ze spektralnej dekompozycji macierzy podobieństwa, opisującej badane obiekty. Pożądaną cechą algorytmu taksonomicznego jest, by był on odporny na niewielkie zmiany w zbiorze danych czy też w wartościach parametrów tych metod (np. losowo wybierane zalążki skupień w metodzie k-średnich). Wyniki empiryczne pokazują, że podejście zagregowane jest stabilniejsze niż klasyczne metody taksonomiczne. Celem tego artykułu natomiast jest porównanie stabilności zagregowanych i spektralnych algorytmów taksonomicznych (fragment tekstu)
EN
High accuracy of the results is very important task in any grouping problem (clustering). It determines effectiveness of the decisions based on them. Therefore in the literature there are proposed methods and solutions that main aim is to give more accurate results than traditional clustering algorithms (e.g. k-means or hierarchical methods). Examples of such solutions can be cluster ensembles or spectral clustering algorithms. A desirable quality of any clustering algorithm is also stability of the method with respect to small perturbations of data (e.g. data subsampling, small variations in the feature values) or the parameters of the algorithm (e.g. random initialization). Empirical results shown that cluster ensembles are more stable than traditional clustering algorithms. Here, we carry out an experimental study to compare stability of spectral clustering and cluster ensembles.(original abstract)
Twórcy
  • Uniwersytet Ekonomiczny w Katowicach
Bibliografia
  • Breiman L. (1996): Bagging predictors. "Machine Learning", 26(2).
  • Dudoit S., Fridlyand J. (2003): Bagging to Improve the Accuracy of a Clustering Procedure. "Bioinformatics", 19(9).
  • Fern X.Z., Brodley C.E. (2003): Random Projection for High Dimensional Data Clustering: A Cluster Ensemble Approach. "Proceedings of the 20th International Conference on Machine Learning".
  • Fred A. (2002): Finding Consistent Clusters in Data Partitions. "Proceedings of the International Workshop on Multiple Classifier Systems".
  • Fred N.L., Jain A.K. (2002): Combining Multiple Clusterings Using Evidence Accumulation. "IEEE Transactions on PAMI", 27(6).
  • Hornik K. (2005): A CLUE for CLUster Ensembles. "Journal of Statistical Software", 14.
  • Kannan R., Vempala S., Vetta A. (2000): On Clusterings - Good, Bad, and Spectral. "Proceedings of the 41st Annual Symposium on Foundations of Computer Science".
  • Kuncheva L., Vetrov D. (2006): Evaluation of Stability of k-means Cluster Ensembles with Respect to Random Initialization. "IEEE Transactions on Pattern Analysis and Machine Intelligence", Vol. 28, No. 11.
  • Leisch F. (1999): Bagged Clustering. "Adaptive Information Systems and Modeling in Economics and Management Science", Working Paper 51.
  • Ng A.Y., Jordan M.I, Weiss, Y. (2001): On Spectral Clustering: Analysis and an Algorithm. "Advances in Neural Information Processing Systems".
  • Shi J., Malik J. (2000): Normalized Cuts and Image Segmentation. "IEEE Transactions on Pattern Analysis and Machine Intelligence", 22(8).
  • Strehl A., Ghosh J. (2002): Cluster Ensembles - A Knowledge Reuse Framework for Combining Multiple Partitions. "Journal of Machine Learning Research", 3.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171268915

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.