Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 306

Liczba wyników na stronie
first rewind previous Strona / 16 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Analiza danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 16 next fast forward last
1
Content available remote Zastosowania kopuli niesymetrycznych w modelowaniu ekonomicznym
100%
Wielowymiarowa analiza danych ekonomicznych w wielu przypadkach musi uwzględniać fakt niewymienności badanych czynników. Taką swoistą asymetrię danych daje się modelować przy użyciu kopuli niesymetrycznych. W opracowaniu przedstawiona jest pewna procedura tworzenia dwuwymiarowych kopuli niesymetrycznych. Procedura ta zilustrowana jest analizą przykładowych danych empirycznych, w przypadku których - na podstawie stosownego testu statystycznego - uprzednio rozpoznana została asymetria. Mimo znacznej złożoności modeli bazujących na kopulach niesymetrycznych i pewnych trudności stąd wynikających, odnotować należy ich zdecydowaną przewagę w sensie większej adekwatności merytorycznej i elastyczności dopasowania w porównaniu z tradycyjnie używanymi modelami bazującymi na kopulach archimedesowych.(abstrakt oryginalny)
Jednym z najważniejszych obszarów działalności przedsiębiorstwa jest utrzymanie płynności finansowej tak w krótkim, jak i w długim okresie. Istota zapewnienia płynności finansowej wynika z faktu, iż nawet krótkotrwała utrata płynności finansowej może oznaczać niekorzystne konsekwencje dla przedsiębiorstwa. Do konsekwencji tych można zaliczyć na przykład spadek zaufania ze strony dostawców wynikający z opóźnień w spłacie zobowiązań z tytuły dostaw lub usług. Również nieregularna spłata zobowiązań wobec banków może prowadzić do zaklasyfikowania przedsiębiorstwa do niższej grupy ratingowej, co zazwyczaj skutkuje trudnościami z uzyskaniem kolejnych kredytów. Utrata płynności finansowej w dłuższym okresie w większości przypadków jest podstawową przyczyną upadłości firm. (fragment tekstu)
W artykule przedstawione dwa rozwiązania metodyczne (klasyczna analiza skupień i klasyfikacja spektralna) pozwalające na przeprowadzanie analizy skupień dla danych porządkowych z wykorzystaniem odległości GDM2. W części empirycznej zaprezentowane rozwiązania zastosowano do danych porządkowych z rynku nieruchomości z wykorzystaniem oprogramowania środowiska R.(abstrakt oryginalny)
|
|
33
|
nr 198
144-158
Zdefiniowano współczynnik zależności prostoliniowej rozumiany jako kosinus kąta, pod jakim przecinają się proste regresji. Podobnie jak klasyczny współczynnik korelacji współczynnik zależności prostoliniowej jest asymptotycznie normalny. Tak jak w przypadku prostych regresji można zdefiniować pojęcie stożkowych regresji. Jest to przykład współczynnika zależności nieliniowej, który można określić, wychodząc od współczynnika zależności prostoliniowej. Dalej przedstawiono wielośrednią, uogólnienie klasycznego pojęcia wartości oczekiwanej zmiennej losowej. Średnia może być uważana za aproksymację średniokwadratową zmiennej losowej jednym punktem. Wielośrednia jest aproksymacją zmiennej więcej niż jednym punktem jednocześnie. Przy definiowaniu wielośredniej korzysta się ze standardowej metody momentów oraz faktów z teorii wielomianów ortogonalnych. (abstrakt oryginalny)
Wiele wielowymiarowych zbiorów danych ma strukturę sugerującą wykorzystanie analizy MANOVA, jednakże nie spełniają jej wymaganych założeń. Od niedawna zainteresowanie wzbudza analogiczny typ analizy, przeprowadzanej jednak na macierzy niepodobieństw otrzymanej z nieprzetworzonych danych. Niniejsza praca zawiera przegląd podstaw takiego podejścia, pokazuje główne etapy takiej analizy. Zaprezentowano również, w jaki sposób biploty i analiza wrażliwości mogą być dodane do metody podstawowej, a także ilustruje przedstawione pojęcia za pomocą zbioru danych pochodzących z ekologii. (abstrakt oryginalny)
Celem niniejszego artykułu jest zaprezentowanie idei symbolicznej klasyfikacji opartej na kryteriach (criterion-based divisive clustering). Metodą ta została zaproponowana przez M. Chavent. W swych założeniach metoda pozwala albo na klasyfikację obiektów, które opisane są zmiennymi w postaci przedziału liczbowego czy innych "silnych skal" pomiaru, albo na klasyfikację obiektów opisanych zmiennymi w postaci listy kategorii czy listy kategorii z wagami. Natomiast z powodu zastosowanej w niej miary jakości klasyfikacji nie pozwala na klasyfikację obiektów opisanych różnymi typami zmiennych łącznie. Dlatego też dodatkowym celem niniejszego opracowania jest pokazanie modyfikacji tej metody, która pozwala na klasyfikację obiektów opisanych przez zmienne dowolnego typu. W części empirycznej porównano wyniki klasyfikacji uzyskane metodą niezmodyfikowaną i zmodyfikowaną na przykładzie rynku samochodowego. (fragment tekstu)
Za cel komunikatu stawiam uwidocznienie istnienia wielorakich możliwości uśrednienia za pomocą odpowiednio dobranej funkcji wagowej. Dokonuję tego poprzez przedstawienie dwu różnych praktycznych zastosowań pojęcia funkcji wagowej w zagadnieniach związanych z matematycznymi aspektami opisu działalności ubezpieczeniowej, rozważanej cały czas z punktu widzenia ubezpieczyciela. (fragment tekstu)
Presented in this paper the method of graphical presentation of the relationship between nominal variables and their categories gives the opportunity for an extensive diagnosis of dependence variables. Correspondence analysis and mosaic plots are based on the same grounds, i.e. contingency table or multi-way contingency table. Correspondence analysis can be used in the study of relationships between two or more nominal variables without limiting the number of categories. In the case of many variables, the multidimensional contingency table is used very often. Only the difficulty of construction of such a table and the combined variables can affect the decision of a researcher about the validity of using this solution. For mosaic plots the situation is different. These graphs represent very well the relationships between two categories of nominal variables with few categories. The introduction of another variable to the study, which is described by two or three categories, is also not too problematic, and the graph is easy to interpret. However, if in a multi-way contingency table variables are a combination of several primary variables, described with many categories, the mosaic plot is no longer as clear as the projection made in correspondence analysis.(original abstract)
|
2014
|
nr 6, CD 3
6309-6316
Artykuł prezentuje możliwości i ograniczenia w określaniu charakterystyki trasy przejazdu na podstawie analizy sygnałów odczytywanych z sieci CAN samochodu. Wykorzystanie wyłącznie czujników montowanych fabrycznie w pojeździe pozwala na ograniczenie kosztów akwizycji danych i w wielu przypadkach może dać zadowalające rezultaty. W ramach testu dokonano akwizycji danych podczas przejazdu testowego i dokonano analizy profilu trasy pod względem nachyleń (analiza ilości i wielkości wzniesień) jak i jej typu (jazda miejska lub pozamiejska).
Popularny w ostatnim czasie termin big data dopiero się kształtuje i na chwilę obecną obejmuje dość szeroki zakres pojęciowy. Autor opierając się na tematyce publikowanych w ostatnim okresie w polskich gazetach artykułów, które wykorzystywały omawiane pojęcie, dokonał próby charakterystyki powszechnego zrozumienia terminu big data. Wyniki tego badania pozwalają na stwierdzenie, że powszechnie pod tym terminem rozumie się w szczególności problematykę prywatności i zagrożenia permanentną inwigilacją, jako konsekwencję możliwości masowego przetwarzania danych. Tak więc, mimo że ogólnie przyjęte wyjaśnienie terminu big data opiera się na aspektach technologicznych metod przetwarzania danych masowych, odbiega ono znacząco od powszechnego jego odbioru. Zagadnienia związane z problemami przetwarzania przede wszystkim różnego typu danych osobowych określone zostały w artykule jako społeczny aspekt big data. Jest on ściśle związany z zagadnieniami prawnymi, gdyż prawo, usiłując nadążyć za postępem technologicznym i potrzebami biznesu, próbuje określić dopuszczalne granice przetwarzania danych. Zagadnienia społeczne i prawne w koncepcji big data są podstawowym tematem artykułu. (abstrakt oryginalny)
11
80%
|
|
nr 27
133-142
Bezpieczeństwo staje się coraz częściej analizowanym zagadnieniem związanym z pojęciem pracy. Powodem tego jest wciąż bardzo duża liczba wypadków przy pracy. Celem artykułu jest analiza statystyczna charakteryzująca wypadki powstałe przy pracy w Polsce w latach 1993-2008. Dodatkowo artykuł został wzbogacony o prognozę liczby wypadków przy pracy w Polsce na rok 2009 wyznaczoną metodą minimum błędu ex ante. ( abstrakt oryginalny)
Dobór i wykorzystanie metod business intelligence do analiz danych jest zwykle zależne od typu prowadzonej działalności gospodarczej. Niniejszy artykuł przedstawia przykładowe zastosowanie metod business intelligence w analizach danych pożyczkowych. Istnieje wiele dobrze znanych metod analizy danych. Celem prowadzonych badań jest znalezienie pewnych zależności w przykładowej próbce danych pożyczkowych, które to nie są możliwe do przedstawienia za pomocą technik sortowania, filtrowania i obracania. Do przeprowadzenia analiz wykorzystano Alyuda Neuroinelligene oraz MS Power BI. W wyniku przeprowadzonych analiz udowodniono, że kwota pożyczki zależy głównie od czynników ,,urodzony w regionie" oraz ,,płeć". Wyniki analizy w Alyuda Neurointelligence (przy zastosowaniu ważności danych wejściowych, Input Importance) wykazało, że czynnik ,,urodzony w regionie" jest najważniejszy w definiowaniu poziomu wysokości udzielanej pożyczki. Jednakże ważność danych wejściowych wykazała tylko możliwą siłę wpływu różnych czynników na wysokości pożyczki, a nie kierunek wpływu. Kierunek wpływu ważności danych wejściowych można znaleźć, stosując metodę jednokierunkową ANOVA w PSPP. Analizy danych pożyczkowych w MS Power BI wykazały wiele ciekawych zależności. Dla dłużników urodzonych poza regionem różnica w całkowitej kwocie posiadanych pożyczek wzrasta ponad 4,5 razy na korzyść mężczyzn. Średnia kwota udzielanych pożyczek dla dłużników urodzonych poza regionem jest około 2,5 razy większa niż średnia kwota pożyczek dłużników urodzonych w regionie.(abstrakt oryginalny)
13
Content available remote Nowe metody analizy danych a teoria ekonomii
80%
W niniejszym opracowaniu przedstawiliśmy związki między współczesnymi trendami w badaniach ekonomicznych a nowymi metodami analizy danych. Jako reprezentanta nowego nurtu analizy danych wybraliśmy metody ślepej separacji. Jest to dynamicznie rozwijająca się gałąź analizy danych, która zapoczątkowana pewnymi badaniami neurofizjologicznymi, przekształciła się w szerokie spektrum podejść rozważanych w kategoriach metod separacji, reprezentacji oraz transformacji danych. Do zasadniczych technik w tym obszarze należą przede wszystkim: analiza składowych niezależnych, nieujemna faktoryzacja macierzy oraz algorytmy AMUSE oraz SOBI. W drugiej części opracowania rozważamy różnice pozyskiwania wiedzy w podejściu indukcyjno-eksploracyjnym, którego reprezentantem mogą być metody separacji, a podejściem aprioryczno-dedukcyjnym typowym dla ortodoksyjnych nurtów ekonomii. Wykazujemy, że wbrew często opozycyjnemu ich przedstawieniu są to zasadniczo podejścia komplementarne. W naszej interpretacji wybór podejścia jest związany z relacją ilości danych do wielkości wiedzy eksperckiej o zjawisku.(abstrakt oryginalny)
Kadra kierownicza oczekuje od wizualizacji nie tylko realizacji funkcji prezentacyjnej, ale również wspomagania w przeprowadzaniu różnego rodzaju analiz danych, w tym również w procesie eksploracji danych w celu zbadania alternatywnych wariantów rozwiązania problemu decyzyjnego. Celem niniejszego artykułu jest wskazanie zagadnień wymagających przeprowadzania badań weryfikujących zastosowanie interaktywnej wizualizacji w eksploracji danych. W związku z tym najpierw omówiono proces wizualnej eksploracji danych, następnie scharakteryzowano proces wizualnej analizy danych. Efektywność tych operacji zależy od właściwego doboru metod i technik wizualizacji, dlatego w kolejnym punkcie omówiono typologie metod wizualizacji w kontekście eksploracji danych. Na zakończenie niniejszego artykułu przedstawiono badania prowadzone nad wykorzystaniem mapy pojęć w wizualnej eksploracji danych.(abstrakt oryginalny)
|
|
nr 7
18-26
Teza artykułu brzmi następująco: desk research jest wciąż nie w pełni wykorzystanym narzędziem analitycznym, zarówno w badaniach marketingowych, jak i naukowych. Nie dostrzegamy, że źródła danych zastanych niewiążące się z dużymi nakładami finansowymi i organizacyjnymi pozwalają odpowiedzieć na szczegółowe problemy badawcze, które mogą stanowić nie tylko wstęp do badań, ich wsparcie, ale i główne źródło informacji i danych. Pierwsza część artykułu dotyczy możliwości wykorzystania danych zastanych w badaniach społecznych, na przykładzie własnej analizy systemu szkolnictwa wyższego. Druga część artykułu obejmie przykłady wykorzystania desk reserach w badaniach marketingowych na bazie udostępnionych projektów. (abstrakt oryginalny)
Wykorzystywanie modeli szeregu czasowego ze stałą postacią analityczną i stałymi parametrami w prognozowaniu zmiennych ekonomicznych podlegających szybko zachodzącym zmianom o charakterze strukturalnym dość często nie pozwala na otrzymanie prognoz dopuszczalnych. Stąd w literaturze proponuje się wykorzystanie do tego celu modeli wyrównania wykładniczego Holta-Wintersa. Modele te dla kompletnych danych dają na ogół prognozy dopuszczalne. W pracy przedstawiono propozycję wykorzystania omawianej klasy modeli do prognozowania brakujących danych dla szeregów miesięcznych. W niniejszej pracy dokonamy rozszerzenia rozważań na zmienne ekonomiczne z wahaniami o cyklu 36-dekadowym. Ich rozszerzenie na dane dekadowe nie jest tylko prostą kontynuacją rozważań dla danych miesięcznych, ponieważ istotną rolę w prognozowaniu odgrywa struktura harmoniczna zmiennych. (fragment tekstu)
The study covers content analysis of the european uprising news represented in Turkish Media. 12 mainstream Turkish newspapers has been analysed between the dates of 1th - 30th July 2011. Correspodence analysis and mosaic plots has been used in order to develop a better picture. The news about "European uprising" found in only 65 newspapers of 236. As the main result, it can be stated that The uprising news in different newspapers on the same date are associated with the newspaper's perspective about democracy, human rights and global citizenship. (original abstract)
Purpose: The goal of the paper is to analyze the main features, benefits and problems with the real-time analytics usage. Design/methodology/approach: Critical literature analysis. Analysis of international literature from main databases and polish literature and legal acts connecting with researched topic. Findings: The paper focus on the advantages and disadvantages of real-time analytics. The ability to process and analyze data in real-time allows organizations to quickly identify trends and patterns, optimize their operations, and allocate resources more efficiently. Additionally, real-time analytics helps businesses identify new revenue opportunities and optimize their pricing strategies, monitor user behavior, detect security threats, and react without delay. However, real-time analytics can be expensive to implement, require technical expertise, and generate false positives. Proper data quality, security measures, and system scaling are also essential for effective implementation. The vague definition of real-time and the requirement to collect detailed requirements from all stakeholders can also present challenges to businesses. Originality/value: Detailed analysis of all subjects related to the problems connected with the real-time analytics. (original abstract)
19
Content available remote Ewolucja struktury podmiotowej rynku w Polsce
80%
Celem artykułu jest statystyczna analiza zmian liczby przedsiębiorstw ogółem w Polsce w latach 1995-2009 oraz opis zaobserwowanych zmian w strukturze podmiotowej rynku. Przy zastosowaniu odpowiednich metod ilościowych podjęto próbę oceny stopnia ewolucji procentowego udziału przedsiębiorstw prowadzących działalność według poszczególnych sekcji PKD w ogólnej liczbie podmiotów gospodarki narodowej zarejestrowanych w systemie REGON. Dodatkowo zaproponowano model prognostyczny celem otrzymania krótkoterminowej prognozy liczby firm ogółem w Polsce - na koniec 2011 roku.(abstrakt oryginalny)
W artykule zaprezentowano dwa modele analizy niesymetrycznych danych preferencji: model punktu dominującego i model grawitacyjny. W modelu punktu dominującego na jednej mapie percepcyjnej przedstawia się punkty reprezentujące badane obiekty oraz punkt reprezentujący hipotetyczny obiekt posiadający największą przewagę konkurencyjną. Model grawitacyjny został wykorzystany do graficznej prezentacji zmian preferencji w czasie. Jego zaletą jest to, że może być stosowany do porównania w różnych okresach dwóch, niekoniecznie dokładnie takich samych, zbiorów obiektów(abstrakt oryginalny)
first rewind previous Strona / 16 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.