Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 599

Liczba wyników na stronie
first rewind previous Strona / 30 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Time-series
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 30 next fast forward last
1
Content available remote Badanie jakości klasyfikacji szeregów czasowych
100%
Celem niniejszej pracy było zaprezentowanie wskaźnika jakości klasyfikacji z zastosowaniem entropii Renyiego na tle znanych wskaźników jakości grupowania wielo-wymiarowych szeregów czasowych. Punktem wyjścia były dane empiryczne. Podziału na grupy dokonano przy zastosowaniu algorytmu aglomeracji Warda, klasyfikacji k-średnich oraz klasyfikacji spektralnej. Otrzymane wyniki klasyfikacji zweryfikowano stosując wy-brane indeksy określające poprawność klasyfikacji. Zaproponowany wskaźnik wydaje się obiecujący, ale wymaga zweryfikowania dla różnych rozkładów badanych szeregów.(abstrakt oryginalny)
Collecting data at regular time nowadays is ubiquitous. The most widely used type of data that is being collected and analyzed is financial data and sensor readings. Various businesses have realized that financial time series analysis is a powerful analytical tool that can lead to competitive advantages. Likewise, sensor networks generate time series and if they are properly analyzed can give a better understanding of the processes that are being monitored. In this paper we propose a novel generic histogram-based method for feature engineering of time series data. The preprocessing phase consists of several steps: deseansonalyzing the time series data, modeling the speed of change with first derivatives, and finally calculating histograms. By doing all of those steps the goal is three-fold: achieve invariance to different factors, good modeling of the data and preform significant feature reduction. This method was applied to the AAIA Data Mining Competition 2015, which was concerned with recognition of activities carried out by firefighters by analyzing body sensor network readings. By doing that we were able to score the third place with predictive accuracy of about 83%, which was about 1% worse than the winning solution.(original abstract)
During the recent decade we have experienced a rise of popularity of sensors capable of collecting large amounts of data. One of most popular types of data collected by sensors is time series composed of sequences of measurements taken over time. With low cost of individual sensors, multivariate time series data sets are becoming common. Examples can include vehicle or machinery monitoring, sensors from smartphones or sensor suites installed on a human body. This paper describes a generic method that can be applied to arbitrary set of multivariate time series data in order to perform classification or regression tasks. This method was applied to the 2015 AAIA Data Mining Competition concerned with classifying firefighter activities and consecutively led to achieving the second-high score of nearly 80 participant teams.(original abstract)
We describe our submission to the AAIA'15 Data Mining Competition, where the objective is to tag the activity of firefighters based on vital functions and movement sensor readings. Our solution exploits a selective naive Bayes classifier, with optimal preprocessing, variable selection and model averaging, together with an automatic variable construction method that builds many variables from time series records. The most challenging part of the challenge is that the input variables are not independent and identically distributed (i.i.d.) between the train and test datasets. We suggest a methodology to alleviate this problem, that enabled to get a final score of 0.76 (team marcb). (original abstract)
This paper describes authors' solution to the task set in AAIA'15 Data Mining Competition: Tagging Firefighter Activities at a Fire Scene (https://knowledgepit.fedcsis.org/contest/ view.php?id=106). Method involves LDA classification on a preprocessed time series data with a unique label transformation technique using K-Means clustering. Data were collected from accelerometer and gyroscope readings.(original abstract)
W artykule omówiono wstępne oszacowania PKB. Stosując ten model, możliwe jest oszacowanie wzrostu PKB 30 dni po kwartale odniesienia (w porównaniu z 70 dniami koniecznymi do oficjalnych oszacowań). Model dotyczy wiodących, współwystępujących i opóźnionych szeregów. Jest weryfikowany przez prognozy z krótkich szeregów. Dyskutowana jest optymalna długość szeregu czasowego stosowanego w modelu, a także możliwość korzystania wyłącznie z danych z sondażów biznesowych i konsumenckich. Jakość prognozy jest porównana z jakością oficjalnych oszacowań PKB. (abstrakt oryginalny)
In the present paper, we investigate the Gompertz function, which is commonly used, mostly as diffusion model, in economics and management. Our approach is based on indicating in a given time series, presumably with a Gompertz trend, some characteristic points corresponding to zeroes of successive derivatives of this function. This allows us to predict the saturation level of a phenomenon under investigation, by using only the early values of the time series. We also give an example of applications of this method. (original abstract)
W pracy spróbujemy przedstawić kilka podstawowych problemów związanych z praktycznym wykrywaniem zależności nieliniowych oraz udokumentowaniem chaotycznych właściwości układów dynamicznych generujących dane ekonomiczne w postaci równomiernie dokonywanych skalarnych ciągów obserwacji. (fragment tekstu)
Celem pracy jest badanie wpływu zastosowania mierników efektywności redukcji poziomu szumu losowego NRL\ i NRL2 na identyfikację dynamiki chaotycznej. Aby odróżnić szeregi chaotyczne od losowych posłużono się miarą DETM oraz współczynnikiem Hursta. Badania empiryczne przeprowadzono na podstawie rzeczywistych danych natury ekonomicznej - finansowe szeregi czasowe utworzone z logarytmów dziennych stóp zwrotu cen zamknięcia WIG20, WIGBANKI, dwóch spółek notowanych na GPW w Warszawie, tj. BORY- SZEW, 1NGBSK oraz dziennych kursów euro i dolara amerykańskiego. Dane obejmują okres od 1.01.1999 do 29.12.2015. Obliczenia przeprowadzono przy użyciu programów napisanych przez autorkę w języku programowania Delphi, pakietu Microsoft Excel oraz TISEAN (fragment tekstu)
W niniejszej pracy rozważania zostaną uogólnione na dekadowe szeregi czasowe zawierające systematyczne luki w danych (luki występują przynajmniej w jednym podokresie. (fragment tekstu)
11
Content available remote Modelowanie efektu dźwigni w finansowych zeregach czasowych
80%
Efekt dźwigni stanowi ważny element modelowania warunkowej wariancji szeregów stóp zwrotu polskich spółek giełdowych. Dla próby liczącej 50 spółek, zaledwie 2 nie wykazują obecności zjawiska. Wprowadzenie asymetrii do modelu dostatecznie poprawia jego jakość, dlatego etap modelowania dźwigni nie powinien być pomijany. Wiedzę dotyczącą obecności efektu dźwigni warto poszerzyć poprzez głębszą analizę jakościową znanych modeli oraz poprzez badania nad kształtem zależności pomiędzy stopami zwrotu a zmiennością w celu specyfikacji modelu optymalnego. Najlepszym modelem dla szeregów stóp zwrotu wydaje się FIAPGARCH. Nie jest to zaskoczeniem - model (spośród wszystkich wymienionych) posiada najbardziej elastyczną (w sensie możliwości dopasowania do danych) krzywą wpływu informacji. Warto zwrócić również uwagę na powszechność występowania efektu "długiej pamięci". Stosując modele klasy GARCH do polskiego rynku z pewnością należy wybrać taki, który umożliwia modelowanie efektów: dźwigni i długiej pamięci jednocześnie. (fragment tekstu)
Jednym ze sposobów ograniczenia negatywnego wpływu obecności szumu losowego na analizę rzeczywistych szeregów czasowych jest stosowanie metod redukcji szumu. Prezentowane w literaturze przedmiotu rezultaty zastosowania takich procedur w procesie identyfikacji nieliniowości i chaosu są zachęcające. Jedną z metod redukcji szumu jest metoda Schreibera, która, jak wykazano, prowadzi do efektywnej redukcji szumu losowego dodanego do danych wygenerowanych z systemów deterministycznych o dynamice chaotycznej. Jednakże w przypadku danych rzeczywistych, badacz zwykle pozbawiony jest wiedzy, czy system generujący rzeczywiście jest deterministyczny. Istnieje więc ryzyko, że redukcji szumu zostaną wówczas poddane dane losowe. W niniejszym artykule wykazano, iż w sytuacji, gdy brak jest wyraźnych podstaw do stwierdzenia, że badany szereg pochodzi z systemu deterministycznego, metodę Schreibera należy stosować z dużą ostrożnością. Z przeprowadzonych symulacji, w których wykorzystano test BDS, miarę informacji wzajemnej oraz współczynnik korelacji liniowej Pearsona wynika bowiem, że redukcja szumu może wprowadzić do analizowanych danych, zależności o charakterze nieliniowym. W efekcie szeregi losowe mogą zostać błędnie zidentyfikowane jako nieliniowe. (abstrakt oryginalny)
Jednym z narzędzi matematycznych potrzebnych do opisu szeregów czasowych jest metoda rekonstrukcji. Umożliwia ona rekonstrukcję przestrzeni stanów wielowymiarowych systemów dynamicznych na podstawie jednowymiarowego szeregu obserwacji. Otrzymana w ten sposób przestrzeń będzie w pewnym sensie równoważna z „oryginalną” przestrzenią. W ostatnich latach pojawiło się wiele prac przedstawiających różne metody rekonstrukcji przestrzeni stanów, m.in. metodę opóźnień, która bazuje na twierdzeniu Takensa o zanurzaniu. Celem pracy jest przedstawienie jednej z metod wyznaczania wymiaru zanurzenia, tj. metody najbliższego fałszywego sąsiada oraz jej zmodyfikowanej postaci w przypadku wielowymiarowych szeregów czasowych. Testowano trzy metody wyznaczania optymalnego wymiaru zanurzenia, korzystając z symulacji otrzymanych za pomocą metody Monte Carlo. (abstrakt oryginalny)
Zasadniczym celem niniejszego opracowania jest przedstawienie teoretycznych aspektów wykorzystania geostatystycznej techniki krigingu w iteracyjnej procedurze wykrywania obserwacji nietypowych w szeregach czasowych, opartej na teście współczynnika prawdopodobieństwa. Rozważania ograniczono do modelu ARIMA (p, d, q). (fragment tekstu)
Problem opisany w artykule należy do trudnych, zarówno ze względu na złożoność i specyfikę szeregów czasowych o dużej częstości, ale również z uwagi na konieczność przeprowadzenia wielu pracochłonnych eksperymentów na bardzo dużym materiale empirycznym. Dodatkowym utrudnieniem analizy tego typu danych jest charakter prawie losowy notowań giełdowych, wymagający użycia wielu metod redukujących losowość zjawiska i wielowymiarowość obserwacji. W artykule przedstawiono wyniki grupowania i interpretacji klastrów finansowych szeregów czasowych. (abstrakt oryginalny)
Metodą, która może pomóc w ocenie natężenia składników deterministycznych i losowych w szeregach czasowych, są diagramy ze sztucznie wprowadzoną symetrią AIP (ang. Artificial Insymmetration Pattern). Ten sposób jakościowej prezentacji szeregów czasowych wprowadził C. Pickover. Zajmował się on badaniami nad teorią chaosu deterministycznego i chaotycznymi szeregami czasowymi. Podstawowym problemem, na który zwrócił uwagę, to brak metod statystycznych zdolnych do odróżnienia szeregów czasowych minimalnie różniących się od siebie. Problem ten jest typowy w wielu przypadkach, gdy dwa całkowicie różne procesy generują w pewnym przedziale czasowym prawie identyczne szeregi. (fragment tekstu)
Celem opracowania była próba rekonstrukcji przestrzeni stanów na podstawie jednowymiarowego finansowego szeregu czasowego złożonego z notowań spółek GPW w Warszawie. W badaniach tych wykorzystano metodę opóźnień przedstawioną przez Takensa w 1981 roku. Aby stosować powyższą metodę, oszacowano za pomocą całki korelacyjnej czas opóźnień oraz wyznaczono wymiar zanurzenia stosując metodę fałszywego sąsiada. (fragment tekstu)
Obecnie coraz częściej zakłada się, że większość sygnałów, z którymi spotykamy się w naturze lub w działalności człowieka, generują układy nieliniowe, które ponadto znajdują się pod wpływem zniekształceń losowych, nazywanych najczęściej szumem. Prowadzi to do konieczności wykorzystywania teorii stochastycznych i nieliniowych modeli dynamicznych w wielu dziedzinach współczesnych badań naukowych. W pracy przedstawiono nową, prostą metodę topologiczną, dzięki której można wstępnie potwierdzić lub odrzucić hipotezę o obecności deterministycznych zachowań typu chaotycznego w małych zbiorach danych (N ≤ 500) , co umożliwia dokonywanie dalszych, pogłębionych analiz rzadko próbkowanych procesów ekonomicznych, z obserwacjami notowanymi nawet w trybie miesięcznym lub kwartalnym. (abstrakt oryginalny)
W pracy przedstawiono wyniki badań eksperymentalnych mobilnej platformy pływającej, podczas których badano poziom naprężeń w łożu silnika obciążonego w warunkach eksploatacyjnych. Testy zo-stały przygotowane i przeprowadzone przez Wojskową Akademię Techniczną i PIMOT. Do pomiaru odkształceń konstrukcji wykorzystano czujniki tensometryczne wraz z mostkiem pomiarowym ESAM CF. W wyniku przeprowadzonych testów z różnym obciążeniem stwierdzono, że poziom odkształceń oraz naprężeń zredukowanych w łożu silnika nie osiąga poziomu naprężeń plastycznych dla stali.(abstrakt oryginalny)
W pracy podjęta zostanie próba rozszerzenia rozważań zawartych w artykule [Szmuksta-Zawadzka, Zawadzki 2011] dotyczących prognozowania w szeregach czasowych o wysokiej częstotliwości obserwowania z lukami niesystematycznymi na przypadek występowania luk systematycznych. Rozważania teoretyczne zostaną zilustrowane przykładem empirycznym dotyczącym modelowania i prognozowania zapotrzebowania na moc energetyczną w okresach półgodzinnych w jednej z aglomeracji miejskich.(abstrakt oryginalny)
first rewind previous Strona / 30 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.