PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2023 | 24(XXIV) | nr 4 | 242--253
Tytuł artykułu

System uczenia głębokiego dla eliminacji szumów z wykorzystaniem dywergencji alpha

Warianty tytułu
Deep Learning System for Noise Elimination Using Alpha Divergence
Języki publikacji
PL
Abstrakty
W niniejszym artykule przedstawimy system eliminacji szumów z wielowymiarowych szeregów czasowych. Elementami tego systemu będą bloki: dekompozycji PCA/EVD, grupowania oparty na funkcji dywergencji alpha, dekompozycji odwrotnej PCA oraz filtracji indywidualnej. W ramach etapu grupowania przedyskutowane będą typowe problemy tego zadania, motywujące do poszukiwania nowych rozwiązań. Zaprezentujemy także eksperymenty potwierdzające słuszność opracowanej koncepcji.(abstrakt oryginalny)
EN
In this article, we present a system for noise eliminating from multivariate time series. The system contain the following layers: PCA/EVD decomposition, grouping based on the Alpha divergence function, reverse decomposition to PCA, and individual filtration. During the grouping stage, typical problems of this task will be discussed, motivating the search for new solutions. We will also present experiments confirming the validity of the developed concept.(original abstract)
Słowa kluczowe
Twórcy
  • Szkoła Główna Handlowa w Warszawie
Bibliografia
  • Agrawal R., Gehrke J., Gunopulos D., Raghavan P. (2005) Automatic Subspace Clustering of High Dimensional Data, Data Mining and Knowledge Discovery, 11, 5-33.
  • Amari S. (2012) Differential-Geometrical Methods in Statistics. Springer Verlag.
  • Amari S. and Nagaoka H. (2000) Methods of Information Geometry. Oxford University Press, New York.
  • Amorim R. and Hennig C. (2015) Recovering the Number of Clusters in Data Sets with Noise Features using Feature Rescaling Factors. Information Sciences, 324, 126-145.
  • Bregman L (1967) The Relaxation Method of Finding a Common Point of Convex Sets and its Application to the Solution of Problems in Convex Programming. Comp. Math. Phys., USSR, 7, 200-217.
  • Celebi M., Kingravi H., Vela P. (2013) A Comparative Study of Efficient Initialization Methods for the k-Means Clustering Algorithm. Expert Systems with Applications, 40(1), 200-210.
  • Cichocki A., Zdunek R., Phan A.-H., Amari S. (2009) Nonnegative Matrix and Tensor Factorizations: Applications to Exploratory Multi-Way Data Analysis. John Wiley.
  • Comon P., Jutten Ch. (2010) Handbook of Blind Source Separation: Independent Component Analysis and Applications, Academic Press.
  • Csiszar I. (1974) Information Measures: A Critial Survey. [In:] Transactions of the 7th Prague Conference, 83-86.
  • Csiszar I. (2008) Axiomatic Characterizations of Information Measures. Entropy, 10, 261-273.
  • Dhillon I. S., Tropp J. A. (2007) Matrix Nearness Problems with Bregman Divergences. SIAM Journal on Matrix Analysis and Applications, 29(4), 1120-1146.
  • Everitt B. (2011) Cluster Analysis. Chichester, West Sussex, U.K, Wiley.
  • Hamilton J. D. (1994) Time Series Analysis. Princeton, Princeton University Press.
  • Hennig Ch., Meila M., Murtagh F. (2015) Handbook of Cluster Analysis. CRC Press.
  • Hüllermeier E. (2010) Uncertainty in Clustering and Classification. [In:] Deshpande A., Hunter A. (eds) Scalable Uncertainty Management. SUM 2010. Lecture Notes in Computer Science(), 6379, 16-19. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-15951-0_6
  • Jolliffe I. T. (2002) Principal Component Analysis. Springer Verlag.
  • Levin A., Weiss Y., Durand F. and Freeman W.T. (2009) Understanding and Evaluating Blind Deconvolution Algorithms. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPR Workshops), Miami, 20-25 June 2009, 1964-1971.
  • Mandelbrot B. B. (1997) Multifractals and 1/f Noise. Wild Self-Affinity in Physics (1963-1976), Springer-Verlag. https://doi.org/10.1007/978-1-4612-2150-0
  • Maharaj E., D'Urso P., Caiado J., (2019) Time Series Clustering and Classification, CRC Press, Boca Raton.
  • Meila M. (2003) Comparing Clusterings by the Variation of Information, Learning Theory and Kernel Machines. Lecture Notes in Computer Science, 2777, 173-187.
  • Mitchell T. (1997) Machine Learning. McGraw-Hill, Boston.
  • Oja E. (1992) Principal Components, Minor Components and Linear Neural Networks. Neural Networks, 5, 927-935.
  • Oppenheim R., Schafer A. (2014) Discrete - Time Signal Processing, Pearson India.
  • Richter A., Sheuli P., Këpuska V., Silaghi M. (2022) Signal Processing and Machine Learning with Applications. Springer Cham.
  • Shiryaev A. N. (1999) Essentials of Stochastic Finance: Facts, Models, Theory. Singapore, World Scientific.
  • Therrien, C. W. (1992) Discrete Random Signals and Statistical Signal Processing. Prentice Hall, New Jersey.
  • Vaseghi S. V. (1997) Advanced Signal Processing and Digital Noise Reduction. John Wiley and Sons, Chichester.
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.ekon-element-000171683764

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.