Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 211

Liczba wyników na stronie
first rewind previous Strona / 11 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Monte Carlo method
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 11 next fast forward last
Metody Monte Carlo znajdują zastosowanie w wycenie szczególnie skomplikowanych opcji, jakimi są opcje egzotyczne. Względnie prosta konstrukcja samej wyceny powoduje, że można je łatwo dostosować do dowolnej opcji egzotycznej. Należy jednak pamiętać, że jakość samej wyceny jest w ogromnym stopniu uzależniona od wykorzystanego modelu (podobnie jak inne metody) oraz (a może przede wszystkim) od jakości wykorzystywanego generatora liczb losowych. W porównaniu do metod analitycznych, nawet w czasach coraz szybszych komputerów, są bardziej czasochłonne a otrzymany wynik jest przybliżeniem rzeczywistej ceny. Niemniej jednak w wielu przypadkach są jedynymi dostępnymi metodami wyceny opcji.(fragment tekstu)
Stosowanie metody Monte Carlo w szacowaniu NPV budzi wiele wątpliwości w świecie nauki, przez co metoda ta jest często pomijana w publikacjach dotyczących problematyki oceny efektywności inwestycji. Głównym zarzutem stawianym metodzie Monte Carlo jest fakt dyskontowania przyszłych przepływów pieniężnych za pomocą stopy dyskontowej nieuwzględniającej ryzyka'. Stąd też wielu autorów uważa, iż NPV projektu inwestycyjnego obliczone za pomocą metody Monte Carlo nie może być interpretowane tak jak NPV ustalone zgodnie z definicją przyjętą w finansach. Przedstawiony wyżej problem wydaje się trudny do rozwiązania ze względu na konstrukcję metody Monte Carlo, gdzie ryzyko przedstawione jest w formie rozkładu zmiennej wynikowej. Z jednej strony zarzuca się metodzie Monte Carlo, używanej w analizie wrażliwości, dyskontowanie przyszłych przepływów pieniężnych za pomocą stopy dyskontowej nieuwzględniającej ryzyka. Z drugiej strony, posłużenie się w takim wypadku stopą dyskonta uwzględniającą ryzyko byłoby nieracjonalne i wypaczało sens stosowania metody Monte Carlo. Czy istnieje zatem sposób takiego ustalenia wartości NPV metodą Monte Carlo, by wartość ta była traktowana równoważnie z wartością NPV ustaloną za pomocą stopy dyskontowej uwzględniającej ryzyko? Jeśli tak, to jakie warunki muszą zostać spełnione?(fragment tekstu)
Artykuł dotyczy tablic dwudzielczych 2*2. Gdy hipoteza H0 o niezależności cech jest słuszna, bardzo często - za sprawą małych próbek - rozkład statystyki testowej odbiega od rozkładu chi-kwadrat. Kwantyl rozkładu chi-kwadrat nie jest zatem właściwą wartością krytyczną. Problemem nie jest, przy obecnej wydajności komputerów, wyznaczenie metodą modelowania statystycznego Monte Carlo właściwej wartości krytycznej, lecz modelowanie H0. Modelowanie H0 to generowanie takich tablic, w których wartości cechy przypisane wierszom są niezależne od wartości cechy przypisanej kolumnom. Odpowiednie do takiego modelowania są tablice - równomierna o jednakowym prawdopodobieństwie przynależności do komórek oraz nierównomierna mająca jednakowe prawdopodobieństwo we wszystkich wierszach danej kolumny lub we wszystkich kolumnach danego wiersza. Analiza wyników modelowania statystycznego ujawniła, że nawet gdy H0 jest słuszna, rozkład statystyki testowej w istotny sposób zależy od nierównomierności tablicy. W artykule pokazano, że chcąc maksymalizować moc testu należy wartość krytyczną ustalać z uwzględnieniem miary nierównomierności tablicy. Finalnym efektem opracowania jest zaproponowane czytelnikowi gotowe narzędzie do samodzielnej weryfikacji H0. (abstrakt oryginalny)
Omówiono sposób symulacji funduszu nadwyżkowego, w którym wykorzystano model autoregrsji pierwszego rzędu AR(1) oraz przedstawiono ogólniejszą wersję zaproponowanego w tej pracy modelu wykorzystującego proces AR(2). Na przykładzie portfela ubezpieczeń hipotetycznego ubezpieczyciela, pokazano, jak zaproponowany model można wykorzystać do symulacji funduszu nadwyżkowego "generowanego" przez ten portfel.
5
Content available remote Critical Condition of Sewage Network
80%
W artykule przedstawiono metodykę modelowania statystyczno-stochastycznego krytycznego stanu technicznego sieci kanalizacyjnej. Stan krytyczny badanego obiektu zdefiniowano jako przejście przewodów kanalizacyjnych od stanu konserwacji do stanu rehabilitacji technicznej. Badania modelowe obejmują kolektory betonowe DN 600/1100, DN 800/1200, DN 900/1350 mm, przewody kamionkowe DN 200-400 mm i przyłącza kamionkowe DN 100-200 mm. Modelowanie statystyczne oparto na rozkładzie Weibulla, a estymację jego parametrów na metodzie momentów. Natomiast modelowanie stochastyczne przeprowadzono na podstawie kombinacji rozkładu Weibulla z metodą Monte-Carlo. Ustalenie krytycznego stanu pozwala na szczegółową ocenę techniczną badanej sieci kanalizacyjnej. (abstrakt oryginalny)
6
Content available remote Kepler as a Statistician
80%
Wykorzystując swoje poprzednie publikacje zamieszczone w bibliografii, autor w artykule opisał pracę Keplera stanowiącą matematyczne ujęcie obserwacji i astrologii. Przede wszystkim praca poświęcona jest kwestii odrzucenia ptolemeuszowskiego systemu świata oraz korelacji cech jakościowych w astrologii.(abstrakt oryginalny)
Praca Reinhardta prócz tego, że stanowi znakomity przykład praktycznego zastosowania NPV do ustalania wielkości progu rentowności, pokazuje również, jak dużym problemem jest oszacowanie odpowiedniej stopy dyskontowej, co jest obecnie głównym zarzutem stawianym metodzie wartości bieżącej netto3. Na podstawie publikacji autora można również docenić wagę tego problemu, która objawia się w bardzo dużych różnicach wielkości progów rentowności przy zastosowaniu różnych stóp dyskonta. W niniejszej pracy podjęta zostanie próba odpowiedzi na pytanie, czy możliwe było oszacowanie wielkości progu rentowności dla projektu Tristar bez znajomości odpowiedniej wartości stopy dyskonta uwzględniającej ryzyko.(fragment tekstu)
W pracy będą rozważane testy oparte na: trzecim momencie centralnym, na standaryzowanym czwartym momencie centralnym, oraz testy: D'Agostino-Pearsona, Bowmana-Shentona, Pearsona-D'Agostino-Bowmana Jarque'a-Berego oraz Jarque'a-Berego - Godfreya-Ormego. W pracy zostały przedstawione własności testów weryfikujących hipotezę o skośności rozkładów zaproponowanych przez Jarque'a-Berego oraz jego modyfikacji zaproponowanej przez Godfreya i Orme'a. (fragment tekstu)
Ubezpieczenia z funduszem kapitałowym (UFK) to kontrakty ubezpieczeniowe łączące aspekt ubezpieczeniowy z inwestycjami. Jest to produkt złożony, zatem wymaga pewnej aktywności od samego ubezpieczającego się w zakresie określania własnych potrzeb oraz analizy rzeczywistości ekonomicznej. Podjęcie właściwej decyzji co do optymalnego zakresu ubezpieczenia oraz przyjęcie określonej strategii inwestowania środków gwarantuje ubezpieczonemu odpowiednią wypłatę. Wartość wypłaty określana jako wartość polisy nie jest z reguły gwarantowana przez ubezpieczyciela i zależy od kształtowania się na rynku ceny papierów, w które lokowane są środki, jest więc zmienną losową. Należy podkreślić, że UFK oferują wiele sposobów inwestowania, ale w każdym przypadku mamy do czynienia z ryzykiem finansowym, które determinuje wartość polisy UFK. Problem ten podejmowano w literaturze z uwzględnieniem aspektu formalnoprawnego, aktuarialnego czy finansowego przede wszystkim z punktu widzenia ubezpieczyciela. Natomiast specyfika UFK w Polsce - wynikająca z faktu, że są to ubezpieczenia, w których ryzyko ponosi ubezpieczony, a tym samym to on ponosi odpowiedzialność za ewentualne negatywne skutki swoich decyzji - stanowiła przesłankę do przeanalizowania tego typu ubezpieczeń z punktu widzenia samego ubezpieczonego. Zbadano więc zmiany podstawowych charakterystyk i rozkładu wartości portfela UFK w zależności od przyjętej strategii inwestycyjnej ubezpieczonego. Wiedza ta umożliwi ubezpieczonemu kontrolę i ewentualną zmianę strategii postępowania w okresie trwania ubezpieczenia, dostosowując skład portfela do sytuacji rynkowej, a tym samym zapewniając sobie wypłatę dostosowaną do własnych potrzeb.(abstrakt oryginalny)
Artykuł prezentuje wyniki oceny potencjału wykorzystania CNG w Polsce jako paliwa do zasilania samochodów osobowych napędzanych silnikiem spalinowym zasilanym beznyną lub olejem napędowym. Podstawą do oceny potencjału była analiza efektywności ekonomicznej konwersji samochodu osobowego zasilanego benzyną lub olejem napędowym na pojazd dwupaliwowy polegający na montażu instalcji CNG. Na podstawie dostępnych danych literaturowych scharakteryzowano strukturę pojazdów za pomocą następujących kryteriów: wiek pojazdu, pojemność silnika, autosegment, rodzaj stosowanego paliwa, masa własna. Średnie zużycie paliwa (benzyny lub oleju napędowego) przez pojazd przed konwersją zostało określone na podstawie specjalnie opracowanych modeli statystycznych. Koszty konwersji i eksploatacji pojazdu zasilanego paliwem konwencjonalnym oraz instalacja CNG (po konwersji pojazdu) oszacowano na podstawie stochastycznego modelu symulacyjnego wykorzystującego rozkłady gęstości prawdopodobieństwa parametrów pojazdów oraz metodę Monte Carlo. Parametry pojazdów estymowano tak, aby otrzymany zbiór pojazdów odzwierciedlał rzeczywistą strukturę samochodów osobowych w Polsce. Oszacowane koszty konwersji pojazdu (zakup i montaż instalacji CNG) oraz jego późniejszej koszty eksploatacji umożliwiły ocenę efektywności ekonomicznej procesu konwersji samochodu. Potencjał wykorzystania CNG jako paliwa dla samochodów spalinowych został oszacowany poprzez porównanie kosztów eksploatacji pojazdu przed konwersją i kosztów eksploatacji pojazdu po konwersji z uwzględnieniem kosztów jej przeprowadzenia. Analogiczne obliczenia prrzeprowadzono dla wariantu konwersji pojazdu na napęd zasilany LPG to jest paliwa będącego najważniejszym konkurentem dla CNG.(abstrakt oryginalny)
W artykule przedstawiono zmodyfikowaną metodę analizy szeregów czasowych w zastosowaniu do modelowania natężenia ruchu pojazdów. Zaproponowana modyfikacja polegała na utworzeniu generatorów dla wartości funkcji zmian cyklicznych i losowych w opisanym modelu mulitplikatywnym. Metodyka utworzenia generatorów wynika z teorii metody Monte Carlo. Model mulitplikatywny z generatorami umożliwił przeprowadzenie symulacji komputerowych natężenia ruchu pojazdów.(abstrakt oryginalny)
W Polsce coraz większą popularnością cieszą się ubezpieczenia na życie połączone z funduszem inwestycyjnym, czyli tzw. ubezpieczenia z funduszem kapitałowym (UFK). Ta kombinacja sprawia, że pojawia się problem, jak prawidłowo dokonać wyceny, uwzględniając oba ryzyka: ubezpieczeniowe i finansowe. Istotnym elementem UFK jest to, że to właśnie ubezpieczony podejmuje decyzję, w jakie aktywa inwestować składkę i jaką jej część przeznaczyć na inwestycje. Stanowiło to przesłankę do przeprowadzenia analizy rozkładu wartości portfela i nadwyżki, jaką wypłaca ubezpieczyciel ponad sumę gwarantowaną. Aby wskazać sposób ich kontrolowania, zbadano, czy przyjęta przez ubezpieczonego strategia dotycząca awersji do ryzyka i wysokości premii inwestycyjnej determinuje zmiany rozkładu wartości portfela ubezpieczeniowego.(abstrakt oryginalny)
Goldfeld i Quandt w 1965 r. zaproponowali nieparametryczny test homoskeda-styczności składnika losowego u modelu ekonometrycznym. Statystyką tego testu jest liczba tzw. szczytów (peaks), które tworzą bezwzględne wartości reszt. Podali oni również rozkład liczby szczytów przy założeniu, że każda permutacja bezwzględnych wartości reszt jest jednakowo prawdopodobna. Tego warunku nie spełniają jednakże reszty regresji, stąd proponowany przez Goldfelda i Quandta rozkład nie jest rozkładem dokładnym. W artykule zaprezentowano wyniki eksperymentu Monte-Carlo zwierzającego do oceny dokładnego rozkładu liczby szczytów oraz błędu, jaki popełnia się stosując rozkład Goldfelda-Quandta. (abstrakt oryginalny)
14
Content available remote On Some Tests of Fixed Effects for Linear Mixed Models
61%
In the paper, we consider the problem of testing significance of fixed effects in the class of general linear mixed models. The problem is important especially when the assumption of normality of random effects and random components is not met what is typical for economic applications. In the Monte Carlo simulation studies we compare properties of classic and permutation tests. (original abstract)
15
Content available remote On Some Tests of Variance Components for Linear Mixed Models
61%
In the paper three permutation tests of significance of variance components in the linear mixed model are presented. Two of them are permutation versions of classic tests. The third one is based on log-likelihood. In the Monte Carlo simulation studies properties of the permutation tests are compared with properties of the classic likelihood ratio test and Wald test. (original abstract)
Based on a record sample from the Rayleigh model, we consider the problem of estimatingthe scale and location parameters of the model and predicting the future unobserved recorddata. Maximum likelihood and Bayesian approaches under different loss functions are usedto estimate the model's parameters. The Gibbs sampler and Metropolis-Hastings methodsare used within the Bayesian procedures to draw the Markov Chain Monte Carlo (MCMC)samples, used in turn to compute the Bayes estimator and the point predictors of the futurerecord data. Monte Carlo simulations are performed to study the behaviour and to comparemethods obtained in this way. Two examples of real data have been analyzed to illustrate theprocedures developed here.(original abstract)
W pracy porównano 14 nieparametrycznych estymatorów kwantyli w małych próbach za pomocą komputerowych metod symulacyjnych Monte Carlo. Za mierniki jakości estymatora przyjęto dwa kryteria: kryterium bliskości Pitmana i średni błąd F-absolutny. Porównanie przeprowadzono dla siedmiu różnych rozkładów prawdopodobieństwa, wśród których są rozkłady z krótkimi ogonami (np. rozkład jednostajny i rozkład normalny), z długimi ogonami (np. rozkład Pareto, Cauchy'ego), rozkłady niesymetryczne (np. rozkład wykładniczy). (abstrakt oryginalny)
Artykuł ten opisuje generowanie grupowych danych jądrowych takich jak: grupowe przekroje czynne i parametry charakteryzujące kinetykę reaktora, za pomocą metody Monte Carlo (MC) w oparciu o program komputerowy SERPENT. Obliczenia prowadzone są na podstawie projektowanego modelu Europejskiego Reaktora Chłodzonego Sodem (European Sodium Cooled Fast Reactor ESFR), rozwijanego w ramach 7-go Projektu Ramowego CP-ESFR. Wygenerowana baza stałych służy do przeprowadzania analizy stanów awaryjnych, bazując na sprzężeniu przestrzennej kinetyki neutronowej z termo-hydraulicznym modelem. Symulacja taka jest wykonywana za pomocą programu TRACE/PARCS. W celu zapewnienia poprawnności obliczeń wymagany jest zoptymalizowany schemat modelowania. Praca przedstawia testy i weryfikacje obliczeń przeprowadzonych za pomocą programu PARCS wraz z użytymi danymi jądrowymi wygenerowanymi w programie SERPENT. W celu konwersji danych, zostało rozwiniętych kilka skryptów przetwarzających. Przedstawione rezultaty potwierdzają skuteczność obranej metody i przydatność programów do tego typu działań. Otrzymane wyniki pokazują zadowalającą zgodność pomiędzy obliczeniami wykonanymi w programie PARCS wykorzystującym dane przygotowane programem SERPENT, a pomiędzy rezultatami referencyjnymi otrzymanymi metodą MC. (abstrakt oryginalny)
19
61%
This paper addresses the issue of obtaining maximum likelihood estimates of parameters for structural VAR models with a mixture of distributions. Hence the problem does not have a closed form solution, numerical optimization procedures need to be used. A Monte Carlo experiment is designed to compare the performance of four maximization algorithms and two estimation strategies. It is shown that the EM algorithm outperforms the general maximization algorithms such as BFGS, NEWTON and BHHH. Moreover, simplification of the problem introduced in the two steps quasi ML method does not worsen small sample properties of the estimators and therefore may be recommended in the empirical analysis. (original abstract)
The main aim of this research is to compare the results of the study of demand's plan andstandardized time based on three heuristic scheduling methods such as Campbell DudekSmith (CDS), Palmer, and Dannenbring. This paper minimizes the makespan under certainand uncertain demand for domestic boxes at the leading glass company industry in Indonesia.The investigation is run in a department called Preparation Box (later simply called PRP)which experiences tardiness while meeting the requirement of domestic demand. The effectof tardiness leads to unfulfilled domestic demand and hampers the production departmentdelivers goods to the customer on time. PRP needs to consider demand planning for thenext period under the certain and uncertain demand plot using the forecasting and MonteCarlo simulation technique. This research also utilizes a work sampling method to calcu-late the standardized time, which is calculated by considering the performance rating andallowance factor. This paper contributes to showing a comparison between three heuristicscheduling methods performances regarding a real-life problem. This paper concludes thatthe Dannenbring method is suitable for large domestic boxes under certain demand whilePalmer and Dannenbring methods are suitable for large domestic boxes under uncertaindemand. The CDS method is suitable to prepare small domestic boxes for both certain anduncertain demand.(original abstract)
first rewind previous Strona / 11 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.