Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 213

Liczba wyników na stronie
first rewind previous Strona / 11 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Metoda Monte Carlo
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 11 next fast forward last
Metody Monte Carlo znajdują zastosowanie w wycenie szczególnie skomplikowanych opcji, jakimi są opcje egzotyczne. Względnie prosta konstrukcja samej wyceny powoduje, że można je łatwo dostosować do dowolnej opcji egzotycznej. Należy jednak pamiętać, że jakość samej wyceny jest w ogromnym stopniu uzależniona od wykorzystanego modelu (podobnie jak inne metody) oraz (a może przede wszystkim) od jakości wykorzystywanego generatora liczb losowych. W porównaniu do metod analitycznych, nawet w czasach coraz szybszych komputerów, są bardziej czasochłonne a otrzymany wynik jest przybliżeniem rzeczywistej ceny. Niemniej jednak w wielu przypadkach są jedynymi dostępnymi metodami wyceny opcji.(fragment tekstu)
Stosowanie metody Monte Carlo w szacowaniu NPV budzi wiele wątpliwości w świecie nauki, przez co metoda ta jest często pomijana w publikacjach dotyczących problematyki oceny efektywności inwestycji. Głównym zarzutem stawianym metodzie Monte Carlo jest fakt dyskontowania przyszłych przepływów pieniężnych za pomocą stopy dyskontowej nieuwzględniającej ryzyka'. Stąd też wielu autorów uważa, iż NPV projektu inwestycyjnego obliczone za pomocą metody Monte Carlo nie może być interpretowane tak jak NPV ustalone zgodnie z definicją przyjętą w finansach. Przedstawiony wyżej problem wydaje się trudny do rozwiązania ze względu na konstrukcję metody Monte Carlo, gdzie ryzyko przedstawione jest w formie rozkładu zmiennej wynikowej. Z jednej strony zarzuca się metodzie Monte Carlo, używanej w analizie wrażliwości, dyskontowanie przyszłych przepływów pieniężnych za pomocą stopy dyskontowej nieuwzględniającej ryzyka. Z drugiej strony, posłużenie się w takim wypadku stopą dyskonta uwzględniającą ryzyko byłoby nieracjonalne i wypaczało sens stosowania metody Monte Carlo. Czy istnieje zatem sposób takiego ustalenia wartości NPV metodą Monte Carlo, by wartość ta była traktowana równoważnie z wartością NPV ustaloną za pomocą stopy dyskontowej uwzględniającej ryzyko? Jeśli tak, to jakie warunki muszą zostać spełnione?(fragment tekstu)
Artykuł dotyczy tablic dwudzielczych 2*2. Gdy hipoteza H0 o niezależności cech jest słuszna, bardzo często - za sprawą małych próbek - rozkład statystyki testowej odbiega od rozkładu chi-kwadrat. Kwantyl rozkładu chi-kwadrat nie jest zatem właściwą wartością krytyczną. Problemem nie jest, przy obecnej wydajności komputerów, wyznaczenie metodą modelowania statystycznego Monte Carlo właściwej wartości krytycznej, lecz modelowanie H0. Modelowanie H0 to generowanie takich tablic, w których wartości cechy przypisane wierszom są niezależne od wartości cechy przypisanej kolumnom. Odpowiednie do takiego modelowania są tablice - równomierna o jednakowym prawdopodobieństwie przynależności do komórek oraz nierównomierna mająca jednakowe prawdopodobieństwo we wszystkich wierszach danej kolumny lub we wszystkich kolumnach danego wiersza. Analiza wyników modelowania statystycznego ujawniła, że nawet gdy H0 jest słuszna, rozkład statystyki testowej w istotny sposób zależy od nierównomierności tablicy. W artykule pokazano, że chcąc maksymalizować moc testu należy wartość krytyczną ustalać z uwzględnieniem miary nierównomierności tablicy. Finalnym efektem opracowania jest zaproponowane czytelnikowi gotowe narzędzie do samodzielnej weryfikacji H0. (abstrakt oryginalny)
Omówiono sposób symulacji funduszu nadwyżkowego, w którym wykorzystano model autoregrsji pierwszego rzędu AR(1) oraz przedstawiono ogólniejszą wersję zaproponowanego w tej pracy modelu wykorzystującego proces AR(2). Na przykładzie portfela ubezpieczeń hipotetycznego ubezpieczyciela, pokazano, jak zaproponowany model można wykorzystać do symulacji funduszu nadwyżkowego "generowanego" przez ten portfel.
5
Content available remote Kepler as a Statistician
80%
Wykorzystując swoje poprzednie publikacje zamieszczone w bibliografii, autor w artykule opisał pracę Keplera stanowiącą matematyczne ujęcie obserwacji i astrologii. Przede wszystkim praca poświęcona jest kwestii odrzucenia ptolemeuszowskiego systemu świata oraz korelacji cech jakościowych w astrologii.(abstrakt oryginalny)
6
Content available remote Critical Condition of Sewage Network
80%
W artykule przedstawiono metodykę modelowania statystyczno-stochastycznego krytycznego stanu technicznego sieci kanalizacyjnej. Stan krytyczny badanego obiektu zdefiniowano jako przejście przewodów kanalizacyjnych od stanu konserwacji do stanu rehabilitacji technicznej. Badania modelowe obejmują kolektory betonowe DN 600/1100, DN 800/1200, DN 900/1350 mm, przewody kamionkowe DN 200-400 mm i przyłącza kamionkowe DN 100-200 mm. Modelowanie statystyczne oparto na rozkładzie Weibulla, a estymację jego parametrów na metodzie momentów. Natomiast modelowanie stochastyczne przeprowadzono na podstawie kombinacji rozkładu Weibulla z metodą Monte-Carlo. Ustalenie krytycznego stanu pozwala na szczegółową ocenę techniczną badanej sieci kanalizacyjnej. (abstrakt oryginalny)
Praca Reinhardta prócz tego, że stanowi znakomity przykład praktycznego zastosowania NPV do ustalania wielkości progu rentowności, pokazuje również, jak dużym problemem jest oszacowanie odpowiedniej stopy dyskontowej, co jest obecnie głównym zarzutem stawianym metodzie wartości bieżącej netto3. Na podstawie publikacji autora można również docenić wagę tego problemu, która objawia się w bardzo dużych różnicach wielkości progów rentowności przy zastosowaniu różnych stóp dyskonta. W niniejszej pracy podjęta zostanie próba odpowiedzi na pytanie, czy możliwe było oszacowanie wielkości progu rentowności dla projektu Tristar bez znajomości odpowiedniej wartości stopy dyskonta uwzględniającej ryzyko.(fragment tekstu)
W pracy będą rozważane testy oparte na: trzecim momencie centralnym, na standaryzowanym czwartym momencie centralnym, oraz testy: D'Agostino-Pearsona, Bowmana-Shentona, Pearsona-D'Agostino-Bowmana Jarque'a-Berego oraz Jarque'a-Berego - Godfreya-Ormego. W pracy zostały przedstawione własności testów weryfikujących hipotezę o skośności rozkładów zaproponowanych przez Jarque'a-Berego oraz jego modyfikacji zaproponowanej przez Godfreya i Orme'a. (fragment tekstu)
Ubezpieczenia z funduszem kapitałowym (UFK) to kontrakty ubezpieczeniowe łączące aspekt ubezpieczeniowy z inwestycjami. Jest to produkt złożony, zatem wymaga pewnej aktywności od samego ubezpieczającego się w zakresie określania własnych potrzeb oraz analizy rzeczywistości ekonomicznej. Podjęcie właściwej decyzji co do optymalnego zakresu ubezpieczenia oraz przyjęcie określonej strategii inwestowania środków gwarantuje ubezpieczonemu odpowiednią wypłatę. Wartość wypłaty określana jako wartość polisy nie jest z reguły gwarantowana przez ubezpieczyciela i zależy od kształtowania się na rynku ceny papierów, w które lokowane są środki, jest więc zmienną losową. Należy podkreślić, że UFK oferują wiele sposobów inwestowania, ale w każdym przypadku mamy do czynienia z ryzykiem finansowym, które determinuje wartość polisy UFK. Problem ten podejmowano w literaturze z uwzględnieniem aspektu formalnoprawnego, aktuarialnego czy finansowego przede wszystkim z punktu widzenia ubezpieczyciela. Natomiast specyfika UFK w Polsce - wynikająca z faktu, że są to ubezpieczenia, w których ryzyko ponosi ubezpieczony, a tym samym to on ponosi odpowiedzialność za ewentualne negatywne skutki swoich decyzji - stanowiła przesłankę do przeanalizowania tego typu ubezpieczeń z punktu widzenia samego ubezpieczonego. Zbadano więc zmiany podstawowych charakterystyk i rozkładu wartości portfela UFK w zależności od przyjętej strategii inwestycyjnej ubezpieczonego. Wiedza ta umożliwi ubezpieczonemu kontrolę i ewentualną zmianę strategii postępowania w okresie trwania ubezpieczenia, dostosowując skład portfela do sytuacji rynkowej, a tym samym zapewniając sobie wypłatę dostosowaną do własnych potrzeb.(abstrakt oryginalny)
Artykuł prezentuje wyniki oceny potencjału wykorzystania CNG w Polsce jako paliwa do zasilania samochodów osobowych napędzanych silnikiem spalinowym zasilanym beznyną lub olejem napędowym. Podstawą do oceny potencjału była analiza efektywności ekonomicznej konwersji samochodu osobowego zasilanego benzyną lub olejem napędowym na pojazd dwupaliwowy polegający na montażu instalcji CNG. Na podstawie dostępnych danych literaturowych scharakteryzowano strukturę pojazdów za pomocą następujących kryteriów: wiek pojazdu, pojemność silnika, autosegment, rodzaj stosowanego paliwa, masa własna. Średnie zużycie paliwa (benzyny lub oleju napędowego) przez pojazd przed konwersją zostało określone na podstawie specjalnie opracowanych modeli statystycznych. Koszty konwersji i eksploatacji pojazdu zasilanego paliwem konwencjonalnym oraz instalacja CNG (po konwersji pojazdu) oszacowano na podstawie stochastycznego modelu symulacyjnego wykorzystującego rozkłady gęstości prawdopodobieństwa parametrów pojazdów oraz metodę Monte Carlo. Parametry pojazdów estymowano tak, aby otrzymany zbiór pojazdów odzwierciedlał rzeczywistą strukturę samochodów osobowych w Polsce. Oszacowane koszty konwersji pojazdu (zakup i montaż instalacji CNG) oraz jego późniejszej koszty eksploatacji umożliwiły ocenę efektywności ekonomicznej procesu konwersji samochodu. Potencjał wykorzystania CNG jako paliwa dla samochodów spalinowych został oszacowany poprzez porównanie kosztów eksploatacji pojazdu przed konwersją i kosztów eksploatacji pojazdu po konwersji z uwzględnieniem kosztów jej przeprowadzenia. Analogiczne obliczenia prrzeprowadzono dla wariantu konwersji pojazdu na napęd zasilany LPG to jest paliwa będącego najważniejszym konkurentem dla CNG.(abstrakt oryginalny)
W artykule przedstawiono zmodyfikowaną metodę analizy szeregów czasowych w zastosowaniu do modelowania natężenia ruchu pojazdów. Zaproponowana modyfikacja polegała na utworzeniu generatorów dla wartości funkcji zmian cyklicznych i losowych w opisanym modelu mulitplikatywnym. Metodyka utworzenia generatorów wynika z teorii metody Monte Carlo. Model mulitplikatywny z generatorami umożliwił przeprowadzenie symulacji komputerowych natężenia ruchu pojazdów.(abstrakt oryginalny)
Purpose: The main objective of this study is to conduct a time analysis on a complete PERT network in a situation where all activities in the network are critical. This analysis is more exploratory and theoretical in nature, as it assumes a very specific case of a project and the potential implications arising from it. Design/methodology/approach: The analysis was performed on the full PERT network including 6 events and the resulting number of 15 activities. The numerical procedure was carried out by: determining the number of events and parameters of the project duration, determining the (maximum) number of activities - determining the parameters of the distribution of activity durations using mathematical programming, determining the number of iterations, in each iteration: generating activity durations, determining critical paths, determining time duration of the project and analysis of the results obtained. Findings: The work draws three main conclusions: the distribution of the project duration differs significantly from the theoretical PERT time, the theoretical activity durations affect the critical importance of activities in the project implementation, the number of events in the critical path affects the project implementation deadline. Research limitations/implications: The obtained results depend on the adopted methodology, in particular the numerical procedure for generating times: optimistic, modal, pessimistic of activities and generating activity durations from a normal distribution. Further research will focus on these issues. Originality/value: the main novelty of the work is the analysis using Monte Carlo simulation on the full PERT network, where all activities are critical. (original abstract)
W Polsce coraz większą popularnością cieszą się ubezpieczenia na życie połączone z funduszem inwestycyjnym, czyli tzw. ubezpieczenia z funduszem kapitałowym (UFK). Ta kombinacja sprawia, że pojawia się problem, jak prawidłowo dokonać wyceny, uwzględniając oba ryzyka: ubezpieczeniowe i finansowe. Istotnym elementem UFK jest to, że to właśnie ubezpieczony podejmuje decyzję, w jakie aktywa inwestować składkę i jaką jej część przeznaczyć na inwestycje. Stanowiło to przesłankę do przeprowadzenia analizy rozkładu wartości portfela i nadwyżki, jaką wypłaca ubezpieczyciel ponad sumę gwarantowaną. Aby wskazać sposób ich kontrolowania, zbadano, czy przyjęta przez ubezpieczonego strategia dotycząca awersji do ryzyka i wysokości premii inwestycyjnej determinuje zmiany rozkładu wartości portfela ubezpieczeniowego.(abstrakt oryginalny)
Goldfeld i Quandt w 1965 r. zaproponowali nieparametryczny test homoskeda-styczności składnika losowego u modelu ekonometrycznym. Statystyką tego testu jest liczba tzw. szczytów (peaks), które tworzą bezwzględne wartości reszt. Podali oni również rozkład liczby szczytów przy założeniu, że każda permutacja bezwzględnych wartości reszt jest jednakowo prawdopodobna. Tego warunku nie spełniają jednakże reszty regresji, stąd proponowany przez Goldfelda i Quandta rozkład nie jest rozkładem dokładnym. W artykule zaprezentowano wyniki eksperymentu Monte-Carlo zwierzającego do oceny dokładnego rozkładu liczby szczytów oraz błędu, jaki popełnia się stosując rozkład Goldfelda-Quandta. (abstrakt oryginalny)
15
Content available remote On Some Tests of Fixed Effects for Linear Mixed Models
61%
In the paper, we consider the problem of testing significance of fixed effects in the class of general linear mixed models. The problem is important especially when the assumption of normality of random effects and random components is not met what is typical for economic applications. In the Monte Carlo simulation studies we compare properties of classic and permutation tests. (original abstract)
16
Content available remote On Some Tests of Variance Components for Linear Mixed Models
61%
In the paper three permutation tests of significance of variance components in the linear mixed model are presented. Two of them are permutation versions of classic tests. The third one is based on log-likelihood. In the Monte Carlo simulation studies properties of the permutation tests are compared with properties of the classic likelihood ratio test and Wald test. (original abstract)
Based on a record sample from the Rayleigh model, we consider the problem of estimatingthe scale and location parameters of the model and predicting the future unobserved recorddata. Maximum likelihood and Bayesian approaches under different loss functions are usedto estimate the model's parameters. The Gibbs sampler and Metropolis-Hastings methodsare used within the Bayesian procedures to draw the Markov Chain Monte Carlo (MCMC)samples, used in turn to compute the Bayes estimator and the point predictors of the futurerecord data. Monte Carlo simulations are performed to study the behaviour and to comparemethods obtained in this way. Two examples of real data have been analyzed to illustrate theprocedures developed here.(original abstract)
W pracy porównano 14 nieparametrycznych estymatorów kwantyli w małych próbach za pomocą komputerowych metod symulacyjnych Monte Carlo. Za mierniki jakości estymatora przyjęto dwa kryteria: kryterium bliskości Pitmana i średni błąd F-absolutny. Porównanie przeprowadzono dla siedmiu różnych rozkładów prawdopodobieństwa, wśród których są rozkłady z krótkimi ogonami (np. rozkład jednostajny i rozkład normalny), z długimi ogonami (np. rozkład Pareto, Cauchy'ego), rozkłady niesymetryczne (np. rozkład wykładniczy). (abstrakt oryginalny)
Artykuł ten opisuje generowanie grupowych danych jądrowych takich jak: grupowe przekroje czynne i parametry charakteryzujące kinetykę reaktora, za pomocą metody Monte Carlo (MC) w oparciu o program komputerowy SERPENT. Obliczenia prowadzone są na podstawie projektowanego modelu Europejskiego Reaktora Chłodzonego Sodem (European Sodium Cooled Fast Reactor ESFR), rozwijanego w ramach 7-go Projektu Ramowego CP-ESFR. Wygenerowana baza stałych służy do przeprowadzania analizy stanów awaryjnych, bazując na sprzężeniu przestrzennej kinetyki neutronowej z termo-hydraulicznym modelem. Symulacja taka jest wykonywana za pomocą programu TRACE/PARCS. W celu zapewnienia poprawnności obliczeń wymagany jest zoptymalizowany schemat modelowania. Praca przedstawia testy i weryfikacje obliczeń przeprowadzonych za pomocą programu PARCS wraz z użytymi danymi jądrowymi wygenerowanymi w programie SERPENT. W celu konwersji danych, zostało rozwiniętych kilka skryptów przetwarzających. Przedstawione rezultaty potwierdzają skuteczność obranej metody i przydatność programów do tego typu działań. Otrzymane wyniki pokazują zadowalającą zgodność pomiędzy obliczeniami wykonanymi w programie PARCS wykorzystującym dane przygotowane programem SERPENT, a pomiędzy rezultatami referencyjnymi otrzymanymi metodą MC. (abstrakt oryginalny)
20
61%
This paper addresses the issue of obtaining maximum likelihood estimates of parameters for structural VAR models with a mixture of distributions. Hence the problem does not have a closed form solution, numerical optimization procedures need to be used. A Monte Carlo experiment is designed to compare the performance of four maximization algorithms and two estimation strategies. It is shown that the EM algorithm outperforms the general maximization algorithms such as BFGS, NEWTON and BHHH. Moreover, simplification of the problem introduced in the two steps quasi ML method does not worsen small sample properties of the estimators and therefore may be recommended in the empirical analysis. (original abstract)
first rewind previous Strona / 11 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.