Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 18

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Bayes factor
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
Content available remote Rozkład a priori w czynniku bayesowskim a wybór modelu klas ukrytych
100%
Na etapie wyboru liczby segmentów w analizie klas ukrytych kryteria informacyjne są często stosowane. Szczególne miejsce zajmuje tutaj kryterium bayesowskie BIC, które można wyprowadzić – dokonując pewnych uproszczeń – z koncepcji czynnika bayesowskiego. W czynniku tym pojawia się rozkład a priori parametrów, którego nie ma w BIC. Z tego względu w pracy podjęto próbę znalezienia takiego rozkładu a priori, aby skuteczność tak powstałego kryterium była większa niż skuteczność BIC. (abstrakt oryginalny)
Centralnym problemem poruszanym w artykule jest pomiar względnego ryzyka zgonu według przyczyn w danym regionie. Umieralność jest traktowana jako zjawisko o charakterze losowym, o nieznanych charakterystykach, szacowanych przy użyciu formalnych metod estymacji, wywodzących się ze statystyki matematycznej(abstrakt oryginalny)
Badania wydają się sugerować, że w wielu wypadkach ustalamy prawdopodobieństwo pewnych zdarzeń w oparciu o dostarczaną informację w sposób niezgodny z modelem normatywnym. Wpływa to bezpośrednio na wnioski, które jesteśmy gotowi uznać za racjonalne na podstawie danych przesłanek. W artykule wskazano czynniki mogące rzutować na przyjmowaną wielkość prawdopodobieństwa apriorycznego i - pośrednio - na obliczanie prawdopodobieństwa aposteriorycznego. Zbiorczo czynniki te będą określane jako parametr j. Jego wielkość zależy od kontekstu, w jakim przebiega dane wnioskowanie, i od określonych cech wnioskującego podmiotu. Po uwzględnieniu jego wpływu okazuje się, że krytyczna ocena ludzkich wnioskowań nie zawsze jest uzasadniona. (abstrakt oryginalny)
4
Content available remote Divergent Priors and Well Behaved Bayes Factors
100%
Bartlett's paradox has been taken to imply that using improper priors results in Bayes factors that are not well defined, preventing model comparison in this case. We use well understood principles underlying what is already common practice, to demonstrate that this implication is not true for some improper priors, such as the Shrinkage prior due to Stein (1956). While this result would appear to expand the class of priors that may be used for computing posterior odds, we warn against the straightforward use of these priors. Highlighting the role of the prior measure in the behaviour of Bayes factors, we demonstrate pathologies in the prior measures for these improper priors. Using this discussion, we then propose a method of employing such priors by setting rules on the rate of diffusion of prior certainty. (original abstract)
5
Content available remote Bayesian Analysis for Hybrid MSF-SBEKK Models of Multivariate Volatility
84%
The aim of this paper is to examine the empirical usefulness of two new MSF - Scalar BEKK(1,1) models of n-variate volatility. These models formally belong to the MSV class, but in fact are some hybrids of the simplest MGARCH and MSV specifications. Such hybrid structures have been proposed as feasible (yet non-trivial) tools for analyzing highly dimensional financial data (large n). This research shows Bayesian model comparison for two data sets with n = 2, since in bivariate cases we can obtain Bayes factors against many (even unparsimonious) MGARCH and MSV specifications. Also, for bivariate data, approximate posterior results (based on preliminary estimates of nuisance matrix parameters) are compared to the exact ones in both MSF-SBEKK models. Finally, approximate results are obtained for a large set of returns on equities (n = 34). (original abstract)
There are many proposals in literature for improving the forecast performance. In this paper we applied the regression approach and Bayesian inference to obtain more accurate forecasts of the inflation rate in the case of the Romanian economy. The necessity of using the most accurate forecasts for the inflation rate is required by the realisation of economic criteria for the accession to the eurozone and by the inflation targeting strategy of the National Bank of Romania. Considering the assumption that simple econometric models provide better forecasts than complex models, in this paper we combined various forecasts from individual models using as prior information the expectations of experts. The empirical findings for Romanian inflation rate forecasts over the horizon of 2016-2018 indicated that a fixed effects model performed better than other simple models (autoregressive moving average model, dynamic model, simple and multiple linear model, VAR, Bayesian VAR, simultaneous equations model). The Bayesian combined forecasts that used experts' predictions as priors, with a shrinkage parameter tending to infinity, improved the accuracy of all predictions using individual models, outperforming also na?ve forecasts and zero and equal weights forecasts. However, predictions based on Monte Carlo simulation outperformed all the scenarios in terms of the mean error and mean absolute error.(original abstract)
Głównym celem niniejszego artykułu była prezentacja bayesowskiej konstrukcji i testowania modeli dwumianowych opartych na rozkładzie t-Studenta, zilustrowana przykładem dotyczącym analizy nieopłacalności kredytów detalicznych. Omówiono podstawowe problemy związane z estymacją za pomocą metody największej wiarygodności. Przedstawiono konstrukcję rozkładów a priori, zwracając uwagę, że wyłącznie właściwe rozkłady gwarantują istnienie rozkładów a posteriori. W celu bayesowskiej estymacji wykorzystano jedną z metod Monte Carlo łańcuchów Markowa, tj. algorytm Metropolisa i Hastingsa. Testowanie modeli bayesowskich przeprowadzono w oparciu o czynniki Bayesa i prawdopodobieństwa a posteriori. Zaproponowane uogólnienie polegało na przyjęciu rozkładu dopuszczającego grube ogony oraz zastosowaniu aproksymacji kwadratowej dla zależności między nieobserwowalną zmienną reprezentującą użyteczność decyzji kredytobiorcy (spłaty w terminie rat kapitałowo-odsetkowych bądź nie) a czynnikami egzogenicznymi, wyjaśniającymi ryzyko kredytowe. W świetle wyników przeprowadzonych testów okazało się ono zasadne. Wprowadzenie dodatkowego parametru - liczby stopni swobody v - pozwoliło także na równoczesne testowanie dwóch najczęściej stosowanych modeli dwumianowych: probitowego i logitowego. Dane solidnie świadczą na rzecz modelu logitowego i zdecydowanie odrzucają model probitowy. Model t-Studenta o nieznanej, podlegającej estymacji, liczbie stopni swobody jest interesującą alternatywą dla obu wspomnianych modeli, gdyż wnioskowanie na jego podstawie odpowiada bayesowskiemu łączeniu wiedzy, gdy rozważamy te dwa, najczęściej stosowane w literaturze modele. (abstrakt oryginalny)
Analizy produktywności z wykorzystaniem modeli granicznych zostały zapoczątkowane przez Koopmansa i Debreu, którzy sformułowali podstawy teoretyczne, wykorzystane później przez Farrella w jego pionierskiej pracy na temat analizy sprawności produkcyjnej rolnictwa w Stanach Zjednoczonych. W kontekście modeli granicznych uzasadnione jest również porównywanie między sobą gospodarek całych krajów, jako jednostek wytwarzających porównywalny produkt (np. PKB), przy użyciu określonych czynników wytwórczych (np. kapitał, praca) i w oparciu o wspólną dla nich technologię. W tak zdefiniowanym modelu wzrost produkcji może wynikać z: akumulacji czynników produkcji (IC), wzrostu sprawności technicznej (EC) oraz postępu technicznego (TC). Powyższa koncepcja dekompozycji, przeprowadzanej na podstawie modeli granicznych, została po raz pierwszy zaimplementowana w 1994 r. przy analizie komponentów wzrostu gospodarczego wybranych krajów. Dekompozycje przedstawiane do tej pory w kontekście modeli granicznych opisywały łączny wpływ IC, a wnioskowanie na temat wpływu poszczególnych czynników odbywało się nie wprost lub poprzez wprowadzanie dodatkowych restrykcji (np. stałych globalnych korzyści skali). Istotna wydaje się więc dekompozycja komponentu IC na jego składowe, tak aby możliwa była do rozstrzygnięcia rola, jaką pełni akumulacja kapitału i pracy we wzroście gospodarczym. Ponadto, w kontekście parametrycznych modeli granicznych ważne jest określenie optymalnej parametryzacji funkcji produkcji. (abstrakt oryginalny)
W artykule przedstawiono model regresji dla cechy, która przyjmuje wartości z obustronnie otwartego przedziału (0,1). Krótko omówiono wady powszechnie stosowanych metod modelowania tego typu danych. W tym kontekście zaprezentowano zreparametryzowany rozkład beta, a następnie na jego podstawie skonstruowano model regresji. W ramach ujęcia bayesowskiego przedstawiono estymację parametrów modelu, metody określania dobroci dopasowania oraz interpretacji parametrów modelu. W dalszej części dokonano bayesowskiego porównania modeli, zakładając, że rozkład zmiennej zależnej jest rozkładem beta, simplex lub normalnym. Opisaną metodologię zilustrowano przykładem. (abstrakt oryginalny)
Celem badania jest porównanie własności prognostycznych dwóch klas modeli MSF-SBEKK różniących się postacią procesu ukrytego. W klasie pierwszej innowacje w strukturze autoregresyjnej pierwszego rzędu dla logarytmów naturalnych zmiennych ukrytych mają rozkład logarytmiczno-normalny, w klasie drugiej zaś innowacje te mają odwrócony rozkład gamma. Porównanie modeli z wykorzystaniem predyktywnego czynnika Bayesa, a także metod scoringowych dokonywane jest w kontekście prognozowania wybranych kursów walutowych: USD/PLN, EUR/PLN i GBP/PLN w okresie obejmującym kryzys wywołany pandemią COVID-19. Wyniki empiryczne pokazały, że dla większości branych pod uwagę horyzontów prognozy modele z innowacjami o rozkładzie logarytmiczno-normalnym mają lepsze własności predyktywne niż modele z innowacjami o rozkładzie odwróconym gamma.(abstrakt oryginalny)
Testów statystycznych używa się w nauce po to, żeby wesprzeć zaproponowane hipotezy badawcze (teorie, modele itp.). Czynnik bayesowski (Bayes Factor, BF) jest metodą bezpośrednio wskazującą tę z dwóch hipotez, która lepiej wyjaśnia uzyskane dane. Jego wykorzystanie we wnioskowaniu statystycznym prowadzi do jednego z trzech wniosków: albo badanie bardziej wspiera hipotezę zerową, albo alternatywną, albo wyniki nie wspierają żadnej w sposób rozstrzygający i są niekonkluzywne. Symetria tych wniosków jest przewagą metody czynnika bayesowskiego nad testami istotności. W powszechnie używanych testach istotności nie formułuje się wniosków wprost, lecz albo się odrzuca hipotezę zerową, albo się jej nie odrzuca. Rozdźwięk między taką decyzją a potrzebami badacza często jest powodem nadinterpretacji wyników testów statystycznych. W szczególności wyniki nieistotne statystycznie są często nadinterpretowane jako dowód braku różnic międzygrupowych lub niezależności zmiennych. W naszej pracy omawiamy założenia teoretyczne metody BF, w tym różnice między bayesowskim a częstościowym rozumieniem prawdopodobieństwa. Przedstawiamy sposób weryfikacji hipotez i formułowania wniosków według podejścia bayesowskiego. Do jego zalet należy m.in. możliwość gromadzenia dowodów na rzecz hipotezy zerowej. Wykorzystanie metody w praktyce ilustrujemy przykładami bayesowskiej reinterpretacji wyników kilku opublikowanych badań empirycznych, w których wykonywano tradycyjne testy istotności. Do obliczeń wykorzystaliśmy darmowy program JASP 0.8, specjalnie dedykowany bayesowskiej weryfikacji hipotez statystycznych. (abstrakt oryginalny)
In this paper we model two exchange rates that were most important for the Polish economy for many years, i.e. the zloty (PLN) values of the US dollar and the German mark. We make a Bayesian comparison of various bivariate ARCH-type specifications through their Bayes factors. By restricting it to only bivariate time series, it is possible to estimate even unparsimoniously parameterised models. Apart from the dimension of the parameter space, we consider the following aspects of empirical ARCH-type specifications: the ARCH(1) structure versus GARCH(1,1), free conditional covariances versus constant conditional covariances or correlations, conditional Normality versus thicker tails, and direct ARCH versus unobserved or latent factor ARCH models. In view of a high dimensionality of the parameter spaces and non-standard forms of the posterior densities, we use Markov chain Monte Carlo (MCMC) methods, mainly the Metropolis-Hastings algorithm, to simulate from the posterior distributions.(fragment of text)
13
Content available remote Bayes Factors for Bivariate GARCH and SV Models
84%
Chapter 1 presents the Bayesian approach to assessing the relative explanatory power of multivariate GARCH and Stochastic Variance (SV) models. It has been shown that the formal Bayesian model comparison is feasible when comparing even unparsimonious bivariate specifications from GARCH and SV classes. The empirical findings should not be generalized but they clearly illustrate high distributional flexibility of MSV models in explaining outliers in exchange rate time series. (fragment of text)
14
Content available remote Estymowane modele równowagi ogólnej i autoregresja wektorowa. Aspekty praktyczne
84%
Streszczenie Model DSGE-VAR składa się z dwóch modeli wektorowej autoregresji: pierwszy z nich jest aproksymacją liniowego rozwiązania estymowanego modelu równowagi ogólnej i służy konstrukcji rozkładu a priori dla drugiego, szacowanego dla danych obserwowanych. Opracowanie jest poświęcone szczegółowemu omówieniu aspektów praktycznych, zawiązanych z modelami DSGE-VAR. Główny nacisk został położony na zagadnienia specyfikacji a priori dla parametru wagowego: rozpatrzono szereg modeli warunkowych oraz modele z estymowanym parametrem wagowym, po przyjęciu alternatywnych rozkładów a priori: jednostajnego, przesuniętego gamma i zmodyfikowanego rozkładu beta. Oszacowanie szeregu modeli warunkowych pozwala na ujawnienie znacznej zmienności logarytmu brzegowej gęstości obserwacji implikujących wrażliwość czynników Bayesa, istotnie zmieniających się w odpowiedzi na niewielkie zmiany specyfikacji rozkładu a priori dla parametru wagowego. Estymacja modelu pełnego pozwala na optymalne ustalenie rzędu opóźnienia wektorowej autoregresji oraz sprawdzenie wrażliwości wnioskowania a posteriori o parametrze wagowym w zależności od typu i rozproszenia rozkładu a priori. W drugiej części opracowania omówiono sposoby oceny stabilności numerycznej w modelach DSGE-VAR. (abstrakt oryginalny)
Wielowymiarowe specyfikacje typu ARCH stanowią teoretycznie obiecujące ramy dla analiz skorelowania instrumentów finansowych, ponieważ umożliwiają modelowanie zmiennych w czasie macierzy warunkowych kowariancji. Jednak ogólne modele YechGARCH mają zbyt wiele parametrów, są więc niepraktyczne w przypadku więcej niż 2- lub 3-wymiarowych wektorowych szeregów czasowych. Prosta specyfikacja t-BEKK(l,1) wydaje się dobrym kompromisem pomiędzy oszczędnością parametryzacji i ogólnością modelu. Niestety model stałych korelacji warunkowych (CCC) Bollersleva nie jest szczególnym przypadkiem struktur VECH czy BEKK. Ostatnio Engle (2002) zaproponował oszczędnie sparametryzowane uogólnienie modelu CCC; ta specyfikacja o dynamicznej korelacji warunkowej (DCC) może zdominować wiele starszych wielowymiarowych modeli G ARCH. W artykule rozważamy bayesowską analizę warunkowego współczynnika korelacji w ramach różnych dwuwymiarowych modeli GARCH, które są porównywane przy użyciu czynników Bayesa i ilorazów szans a posteriori. Dla dziennych stóp zmian kursów PLN/USD i PLN/DEM (6.02.1996 - 28.12.2001) wykazuje się, że specyfikacja t-BEKK(l,l) opisuje dwuwymiarowy szereg czasowy znacznie lepiej niż modele DCC. Jednak wartości oczekiwane a posteriori warunkowych współczynników korelacji, uzyskane w ramach różnych modeli, są bardzo silnie skorelowane. (abstrakt oryginalny)
W pracy przedstawiono bayesowskie porównanie czterech różnych specyfikacji modeli zmienności stochastycznej (stochastic volatility, SV) dla dwóch kursów walutowych (PLN/USD i PLN/DEM, 6.02.1996-31.12.2001). Rozważono cztery modele o warunkowym dwuwymiarowym rozkładzie normalnym: SDF, BSV, JSV i TSV. Specyfikacje te różnią się liczbą procesów ukrytych opisujących trzy różne elementy macierzy warunkowych kowariancji oraz założeniami dotyczącymi warunkowego współczynnika korelacji. W modelu SDF występuje jeden proces ukryty, przez co warunkowy współczynnik korelacji jest stały. W model BSV dynamika wariancji warunkowych opisana jest za pomocą dwóch procesów ukrytych, ale warunkowe kowariancje są równe zero. Natomiast w modelach JSV i TSV warunkowy współczynnik korelacji jest zmienny. W modelu TSV macierz warunkowych kowariancji opisana jest za pomocą trzech procesów ukrytych, podczas gdy w modelu JSV występująjedynie dwa procesy ukryte. Porównanie modeli oparte jest na prawdopodobieństwach a posteriori rozważanych modeli, a w szczególności na czynnikach Bayesa (Bayes factors). Wyniki empiryczne wskazują na zdecydowaną przewagę modelu TSV, w którym do opisu dynamiki zarówno warunkowych wariancji jak i kowariancji wykorzystuje się trzy procesy ukryte. Natomiast modele zakładające stały lub zerowy warunkowy współczynnik korelacji (tj. SDF i BSV) są silnie odrzucane przez dane (prawdopodobieństwa a posteriori tych modeli są znacznie niższe niż modeli o zmiennym warunkowym współczynniku korelacji). (abstrakt oryginalny)
In this article we used the main Polish exchange rates to compare various bivariate SV-type specifications using their Bayes factors. We considered five bivariate SV models, including the specification with zero, constant and time-varying conditional correlation. The competing bivariate stochastic volatility models differ in assumption on conditional correlation and in the number of latent processes. The results indicate that the most adequate specifications are those that allow for time-varying conditional correlation and that have as many latent processes as there are conditional variances and covariances. The empirical results show that the explanatory power of TSV model depends on the ordering of modelled financial instruments.(fragment of text)
Celem pracy jest empiryczna weryfikacja założenia o istnieniu sztywności płac nominalnych w modelach DSGE, estymowanych dla gospodarki polskiej. Weryfikacja ta została dokonana dzięki bayesowskiemu porównaniu modelu lepkich cen z modelem lepkich cen i płac, a także z ich rozszerzeniami na przypadek indeksacji. Podstawę porównania stanowiły kwartalne dane z lat 1995-2011, na podstawie których oszacowano każdy z analizowanych modeli. Następnie, dla każdego z nich obliczono gęstość brzegową oraz odniesiono je do siebie uzyskując czynnik Bayesa. Uzyskane wyniki dowodzą, że model lepkich płac i cen charakteryzuje się najlepszym dopasowaniem do analizowanej próby. Założenie indeksacji nie wpływało istotnie na dopasowanie modelu do danych zarówno w przypadku modelu o doskonale elastycznych, jak i lepkich płacach nominalnych. Ponadto porównanie funkcji reakcji na impuls pokazało, że model o lepkich cenach i płacach nominalnych implikuje inne, niż model lepkich cen, funkcje reakcji na impuls. Jednocześnie otrzymane oszacowania parametrów były w znacznym stopniu determinowane przez założenie sztywności nominalnej płac. (abstrakt oryginalny)
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.