Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 134

Liczba wyników na stronie
first rewind previous Strona / 7 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Simulation analysis
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 7 next fast forward last
W artykule zamieszczono opis przyjętej metodyki badań oraz wybrane wyniki analiz symulacyjnych zachowania dynamicznego wózka nowej generacji dla tramwaju typu 805N. Omówiono przyjętą metodykę i przedstawiono wyniki obliczeń weryfikujących odpowiedzi dynamiczne wózka dla różnych wariantów toru i parametrów jego zużycia. W obliczeniach uwzględniono uproszczone analizy dynamiczne na podstawie wytycznych karty UIC 518, a także normy EN 14363:2005. Obliczenia przeprowadzono metodą symulacji komputerowej opartą o analizę dynamiki układów wielomasowych. W obliczeniach wykorzystano program SIMPACK, który jest pakietem oprogramowania inżynierskiego, przeznaczonego do modelowania i badań numerycznych układów mechanicznych z elementami podatnymi i tłumiącymi. (abstrakt oryginalny)
W pracy dla modelu symulacyjnego wagonu dwuosiowego z zestawem kołowym, na którego jednym z kół znajduje się nalep, zbadano jego dynamiczne oddziaływanie na szynę w funkcji wielkości uszkodzenia, prędkości wagonu i masy dla różnych przypadków sztywności toru. Porównano też względne przyrosty sił dla koła z nalepem i spłaszczeniem. Symulacje wykonano w środowisku UM LOCO.(abstrakt oryginalny)
W pracy przedstawiono modele pozwalające analizować funkcjonalność oraz bezpieczeństwo systemów prowadzenia ruchu pociągów w oparciu bezwzględny Ruchomy Odstęp Blokowy. Modele te zostały opracowane na bazie procesów Markowa opisujących tego typu zdarzenia i pozwalają na oszacowanie odpowiednich współczynników charakteryzujących tego typu systemy. Mogą być też podstawą badań symulacyjnych w celu weryfikacji przyjętych założeń.(abstrakt oryginalny)
4
Content available remote Examining Tests for Comparing Survival Curves with Right Censored Data
100%
Background and objective: In survival analysis, estimating the survival probability of a population is important, but on the other hand, investigators want to compare the survival experiences of different groups. In such cases, the differences can be illustrated by drawing survival curves, but this will only give a rough idea. Since the data obtained from survival studies contains frequently censored observations some specially designed tests are required in order to compare groups statistically in terms of survival. Methods: In this study, Logrank, Gehan-Wilcoxon, Tarone-Ware, Peto-Peto, Modified Peto-Peto tests and tests belonging to Fleming-Harrington test family with (p, q) values; (1, 0), (0.5, 0.5), (1, 1), (0, 1) ve (0.5, 2) are examined by means of Type I error rate obtained from a simulation study, which is conducted in the cases where the event takes place with equal probability along the follow-up time. Results: As a result of the simulation study, Type I error rate of Logrank test is equal or close to the nominal value. Conclusions: When survival data were generated from lognormal and inverse Gaussian distribution, Type I error rate of Gehan-Wilcoxon, Tarone-Ware, Peto-Peto, Modified Peto-Peto and Fleming-Harrington (1,0) tests were close to the nominal value. (original abstract)
Jednym ze sposobów ograniczenia negatywnego wpływu obecności szumu losowego na analizę rzeczywistych szeregów czasowych jest stosowanie metod redukcji szumu. Prezentowane w literaturze przedmiotu rezultaty zastosowania takich procedur w procesie identyfikacji nieliniowości i chaosu są zachęcające. Jedną z metod redukcji szumu jest metoda Schreibera, która, jak wykazano, prowadzi do efektywnej redukcji szumu losowego dodanego do danych wygenerowanych z systemów deterministycznych o dynamice chaotycznej. Jednakże w przypadku danych rzeczywistych, badacz zwykle pozbawiony jest wiedzy, czy system generujący rzeczywiście jest deterministyczny. Istnieje więc ryzyko, że redukcji szumu zostaną wówczas poddane dane losowe. W niniejszym artykule wykazano, iż w sytuacji, gdy brak jest wyraźnych podstaw do stwierdzenia, że badany szereg pochodzi z systemu deterministycznego, metodę Schreibera należy stosować z dużą ostrożnością. Z przeprowadzonych symulacji, w których wykorzystano test BDS, miarę informacji wzajemnej oraz współczynnik korelacji liniowej Pearsona wynika bowiem, że redukcja szumu może wprowadzić do analizowanych danych, zależności o charakterze nieliniowym. W efekcie szeregi losowe mogą zostać błędnie zidentyfikowane jako nieliniowe. (abstrakt oryginalny)
Celem artykułu jest analiza możliwości zmiany miejsca, z którego niektóre statki powietrzne rozpoczynają rozbieg na drodze startowej i określenia wpływu tej zmiany na przepustowość Lotniska F. Chopina w Warszawie. Opisany został model ruchu lotniskowego pozwalający na wyszczególnienie możliwych do pomierzenia operacji elementarnych. Wyniki uzyskanych pomiarów posłużyły do przeprowadzenia analizy symulacyjnej. Efekt eksperymentów został zaprezentowany wraz ze wnioskami. (abstrakt oryginalny)
7
100%
Wykorzystanie analizy klas ukrytych (LCA) wymaga przyjęcia a priori liczby klas. W celu rozstrzygnięcia, ile ma ich być, można wykorzystać kryteria informacyjne. Procedura selekcji sprowadza się do: szacowania kilku modeli o rożnej liczbie klas, obliczenia wartości kryterium informacyjnego oraz wyboru modelu, dla którego odnotowano najmniejszą wartość tego kryterium. Ponieważ istnieje wiele kryteriów informacyjnych, więc należy zadecydować, które powinno rozstrzygać. Niestety, nie można jednoznacznie wskazać na konkretne kryterium, gdyż w zależności od klasy modelu, zmienia się ich wiarygodność. Taki wniosek wynika z badań symulacyjnych. Biorąc pod uwagę fakt, ze najczęściej badania takie dotyczyły mieszanek rozkładów normalnych, dlatego celem niniejszego opracowania jest rozszerzenie tych badań o analizę klas ukrytych. (abstrakt oryginalny)
8
Content available remote Symulacyjne wyznaczenie optymalnej wielkości zaburzenia w analizie mnożnikowej
75%
W artykule podjęto próbę oceny różnych sposobów wyznaczania wielkości zaburzeń oraz jakości oszacowanego modelu w analizie mnożnikowej. Sprawdzono wpływ wielkości wprowadzanych zaburzeń na niezmienniczość ocen parametrów strukturalnych. Analizę przeprowadzono z wykorzystaniem symulacji Monte Carlo. (abstrakt oryginalny)
W artykule przedstawiono rezultaty badań symulacyjnych, pozwalające określić wielkość odchyleń wartości MNW-estymatorów od rzeczywistych wartości parametrów pewnego typu modelu regresji przełącznikowej. Wyznaczono maksymalne moduły błędów ocen parametrów w stosunku do rzeczywistych wartości tych parametrów ze względu na zmieniającą się liczebność próby losowej. Przedstawiono także spostrzeżenia na temat wpływu struktury modelu na wyniki oszacowań.
W artykule zaproponowno estymator złożony średniej w populacji skończonej przy brakach odpowiedzi. Jest on kombinacją estymatora regresyjnego opartego na modelu liniowym i estymatora wykorzystującego ważenie danych opartego na modelu logistycznym. Wagi kombinacji uzależniono od miar dobroci dopasowania tych modeli do danych. Przedstawiono wyniki symulacji wykonanych dla zbadania jego własności. (abstrakt oryginalny)
11
Content available remote System analizy i oceny przebiegu ćwiczeń symulacyjnych służb sanitarnych
75%
W niniejszym artykule przedstawiono metodę analizy rezultatów i oceny przebiegu ćwiczeń symulacyjnych inspekcji sanitarnej. Omawiana metoda została zastosowana w systemie informatycznym wspierającym organizację ćwiczeń symulacyjnych (NESE) opracowanym przez konsorcjum w składzie Wojskowa Akademia Techniczna w Warszawie, Wojskowy Instytu Higieny i Epidemiologii, Politechnika Warszawska oraz Tecna Sp. z o.o. System został zaprojektowany w celu podnoszenia kwalifikacji służb sanitarnych podległych Ministerstwu Zdrowia w zakresie prowadzenia dochodzeń epidemiologicznych w przypadku wystąpienia zatruć lub chorób zakaźnych przenoszonych drogą pokarmową. (fragment tekstu)
Praca (...) porusza problem wpływu wielkości otoczenia na podejmowanie decyzji przez konsumentów. Najbliższe otoczenie rozumiane jest tutaj jako osoby, z którymi mamy styczność na co dzień, czyli najbliższa rodzina, przyjaciele. W badaniach przeprowadzono symulacje wpływu otoczenia na podejmowanie decyzji przez konsumentów za pomocą automatów komórkowych. (fragm. tekstu)
Największym problemem w procesie realizacji projektu budowy nowych akwenów morskich lub elementów systemów oznakowania nawigacyjnego jest sprawdzenie poprawności przyjętych założeń bez obniżenia poziomu bezpieczeństwa na realnych akwenach. Współcześnie dostępne są cyfrowe modele pozwalające na łatwe i tanie zastępowanie dotychczas stosowanych metod badawczych. W tym zakresie idealnie sprawdzają się symulatory nawigacyjno - manewrowe. Symulatory jako narzędzia badawcze pozwalają określać bardziej realistyczne i dokładne dane do badania i oceny dróg oraz akwenów wodnych. Celem symulacji jest identyfikacja i zmniejszenie ryzyka działalności marynarzy w specyficznych warunkach dróg wodnych, kanałów i akwenów portowych. Obejmują one ocenę ilościową i jakościową ukształtowania kanałów i torów wodnych. Głównym wymaganiem w odniesieniu do systemu symulacji jest posiadanie wielopoziomowego oprogramowania symulacyjnego, które obejmuje efektywne narzędzia repozycjonowania i projektowania bezpiecznych dróg wodnych i elementów infrastruktury portowej. W Instytucie Nawigacji i Hydrografii Morskiej Akademii Marynarki Wojennej od lat 80-tych XX wieku realizuje się projekty z zakresu nawigacyjno - hydrograficznego zabezpieczenia działalności ludzkiej na morzu. Jest to możliwe dzięki bogatemu zestawowi narzędzi symulacyjnych, Planowanie NHZ w wirtualnym środowisku symulatorów pozwoliło nie tylko na zaprojektowanie wirtualnych odpowiedników realnych fragmentów polskich obszarów morskich, ale również na ocenę jakości wytworzonych elementów NHZ przed ich rzeczywistym wystawieniem na akwenach morskich. W artykule zaprezentowano możliwości symulatorów na przykładzie projektu budowy kanału żeglownego przez przekop przez Mierzei Wiślanej, który jest planowany do realizacji na polskich obszarach morskich. W artykule przedstawiono algorytm postępowania podczas tworzenia akwenu oraz próby manewrowe dla maksymalnej jednostki przewidzianej do manewrowania w nowo powstałym akwenie. (abstrakt oryginalny)
W niniejszym artykule przedstawiono przegląd analizowanych rozkładów brzegowych tablic kontyngencji oraz algorytm generowania tablic wielodzielczych o zadanym stopniu korelacji. Omówiono zakres badanych współczynników kontyngencji. Na koniec przedstawiono wyniki eksperymentu symulacyjnego.
Celem pracy jest prezentacja i próba analizy mocy jednego ze znanych w literaturze testów normalności dla wielowymiarowej zmiennej losowej. Jest to test oparty w swojej konstrukcji na jednym z najmocniejszych testów normalności jednowymiarowej zmiennej losowej - teście Shapiro-Wilk'a. W pierwszej części pracy zaprezentowano podstawowe definicje związane z wielowymiarowym rozkładem normalnym. Cześć druga zawiera opis testu Shapiro-Wilk'a zarówno dla jednowymiarowej jak i wielowymiarowej zmiennej losowej. W części trzeciej zaprezentowano wyniki oceny empirycznej mocy testu . dla różnych klas rozkładów alternatywnych. Przedstawiono kształtowanie się rozkładu statystyki testu Shapiro-Wilk'a w przypadku prawdziwości hipotezy o normalności rozkładu. Wskazano na konieczność weryfikacji hipotezy o wielowymiarowej normalności rozkładu w oparciu c wyznaczone empirycznie wartości krytyczne, wartości te, wyznaczone i podane przez autora dla różnych wymiarów zmiennej i liczebności próby, mogą umożliwić stosowanie prezentowanego testu w praktyce.(fragment tekstu)
We closely examine and compare two promising techniques helpful in estimating the moment an asset bubble bursts. Namely, the Log-Periodic Power Law model and Generalized Hurst Exponent approaches are considered. Sequential LPPL fiffing to empirical financial time series exhibiting evident bubble behavior is presented. Estimating the critical crash-time works satisfactorily well also in the case of GHE, when substantial "decorrelation" prior to the event is visible. An extensive simulation study carried out on empirical data: stock indices and commodities, confirms very good performance of the two approaches. (original abstract)
17
Content available remote A Two-Component Normal Mixture Alternative to the Fay-Herriot Model
75%
This article considers a robust hierarchical Bayesian approach to deal with random effects of small area means when some of these effects assume extreme values, resulting in outliers. In the presence of outliers, the standard Fay-Herriot model, used for modeling area-level data, under normality assumptions of random effects may overestimate the random effects variance, thus providing less than ideal shrinkage towards the synthetic regression predictions and inhibiting the borrowing of information. Even a small number of substantive outliers of random effects results in a large estimate of the random effects variance in the Fay-Herriot model, thereby achieving little shrinkage to the synthetic part of the model or little reduction in the posterior variance associated with the regular Bayes estimator for any of the small areas. While the scale mixture of normal distributions with a known mixing distribution for the random effects has been found to be effective in the presence of outliers, the solution depends on the mixing distribution. As a possible alternative solution to the problem, a two-component normal mixture model has been proposed, based on non-informative priors on the model variance parameters, regression coefficients and the mixing probability. Data analysis and simulation studies based on real, simulated and synthetic data show an advantage of the proposed method over the standard Bayesian Fay-Herriot solution derived under normality of random effects. (original abstract)
18
Content available remote Extreme Value Index of Left and Right Tails for Financial Time Series
75%
Praca dotyczy możliwości identyfikacji stopnia grubości ogonów rozkładu poprzez estymację indeksu ekstremalnego. W tym celu stosowane, i dodatkowo porównywane między sobą, są dwie metody. Jedną z nich jest estymator Pickandsa oparty o k-te statystyki pozycyjne, drugą zaś jest alternatywna metoda zaproponowana przez Berreda oparta o k-te wartości. (abstrakt oryginalny)
Celem pracy jest przedstawienie różnych możliwości wyznaczania dominanty cechy ciągłej w szeregach szczegółowych. (...) Równoległym celem pracy jest porównanie efektywności metod szacowania dominanty dla rozkładów o różnym stopniu asymetrii. (fragment tekstu)
W opracowaniu przedstawiono propozycję modyfikacji testu adaptacyjnego dla porównania wartości oczekiwanych w dwóch populacjach. W zaproponowanym rozwiązaniu nie dokonuje się wyboru postaci statystyki testowej, lecz na podstawie danych pochodzących z wylosowanej próbki modyfikowane są wagi występujące w statystyce testowej. Własności rozważanego testu i testów klasycznych zostały porównane z wykorzystaniem symulacji komputerowych. Test może być wykorzystany w procedurach kontroli jakości. Nie wymaga on spełnienia ostrych założeń dotyczących postaci rozkładu zmiennej diagnostycznej i z tego powodu może być wykorzystywany do wykrywania rozregulowania procesu w przypadkach, gdy nie jest znana postać rozkładu zmiennej.(abstrakt oryginalny)
first rewind previous Strona / 7 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.