Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 18

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Density function
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
Celem artykułu jest przedstawienie i uzasadnienie interpretacji klasycznego współczynnika kurtozy jako miary grubości ogonów oraz zaproponowanie modyfikacji treści dydaktycznych w tym zakresie. W wielu polskich podręcznikach akademickich podaje się, że współczynnik kurtozy (lub ekscesu) mierzy "wysmukłość", "spiczastość" lub "spłaszczenie" rozkładu. Taka interpretacja jest nieprawidłowa. Kurtoza mierzy bowiem w istocie stopień rozproszenia wartości cechy w ogonach rozkładu lub - innymi słowy - intensywność wartości skrajnych. W artykule wskazano, dlaczego starsze interpretacje, mówiące o kształcie wierzchołka krzywej gęstości, są niewłaściwe. Zaprezentowano przykładowe leptokurtyczne rozkłady spłaszczone i platykurtyczne rozkłady wysmukłe. Na podstawie danych z Diagnozy Społecznej z lat 2000-2015 wykazano, że w badaniach empirycznych wartość kurtozy wynika ze stopnia natężenia wartości odstających. Zaproponowano nowe sformułowania, które można wykorzystać w dydaktyce statystyki zamiast nieprawidłowych, stosowanych dotychczas. (abstrakt oryginalny)
W pracy wprowadzono układ równań różniczkowych, jaki spełniają funkcje gęstości, wykorzystano w tym celu znaczenia i wyniki podane w pracy bibliograficznej [1]. Tak jak w artykule [1] przyjęto, że podaż produktu do magazynu opisana jest dwoma procesami Markowa o skończonej ilości stanów.
Metody ad hoc wyboru parametru wygładzania w estymacji jądrowej funkcji gęstości, chociaż często wykorzystywane w praktyce ze względu na ich prostotę i - co za tym idzie - wysoką efektywność obliczeniową, charakteryzują się dość dużym błędem. Wartość parametru wygładzania wyznaczona metodą Silvermana jest bliska wartości optymalnej tylko wtedy, gdy rozkład funkcji gęstości jest rozkładem normalnym. Dlatego też metoda ta jest stosowana przede wszystkim we wstępnym etapie wyznaczania estymatora jądrowego i stanowi jedynie punkt wyjściowy do dalszych poszukiwań wartości parametru wygładzania. W artykule przedstawione są metody ad hoc wyboru parametru wygładzania oraz zaprezentowana jest propozycja wyznaczania przedziału wartości parametru wygładzania w estymacji jądrowej funkcji gęstości. Na podstawie wyników badań symulacyjnych określone są własności rozważanych metod wyboru parametru wygładzania. (abstrakt oryginalny)
4
100%
Celem pracy było poszukiwanie funkcji opisującej przebieg zależności gęstości objętościowej szkieletu gleby od jej wilgotności na podstawie aproksymacji punktów Proctora. Znajomość tej zależności umożliwia przewidywanie skutków oddziaływania na glebę kół pojazdów rolniczych. Poszukiwania ograniczono do czterech wielomianów - od drugiego do piątego stopnia. Materiał badawczy pochodził z warstwy podornej pięciu profili glebowych. W materiale oznaczono: skład granulometryczny, gęstość fazy stałej, zawartość próchnicy, odczyn gleby oraz granice plastyczności i płynności gleby. Zagęszczanie próbek metodą Proctora wykonano zgodnie z PN-88/B-04481. Wartości gęstości maksymalnej i wilgotności optymalnej obliczano w miejscu, gdzie uzyskane wielomiany opisujące dane doświadczalne przyjmowały wartość maksymalną. Stwierdzono, że do wyznaczania wartości wilgotności optymalnej i gęstości maksymalnej, najbardziej nadaje się wielomian stopnia czwartego.(abstrakt oryginalny)
The author provides general principles for the functioning of a certain system of managing storage, whose subsystems include: production, transport, the storehouse, and the recipient. The working of the system is characterized by means of a three-dimensional stochastic process. The study deduces analytical forms of conditional probabilities in the case of non-extremal states of filling the storehouse and non-aggregated product supply. (original abstract)
Jednowymiarowy dwuparametrowy rozkład normalny należy do podstawowych rozkładów prawdopodobieństwa w statystyce. W ostatnich latach powstało wiele jego uogólnionych wersji, uwzględniających parametry asymetrii i kurtozy. Tworzą one klasę rozkładów normalnych m-parametrowych, odpowiednio z parametrami: m = l położenia (przesunięcia), m = 2 - położenia i zmienności (skali), m = 3 - położenia, zmienności i skośności oraz m = 4 - położenia, zmienności, skośności i spłaszczenia. W pracy podajemy 7 wybranych jednowymiarowych rozkładów prawdopodobieństwa z klasy rozkładów normalnych. Dla nich wymieniono funkcje gęstości oraz przedstawiono dowody unormowania pokazując, iż całka po obszarze określoności tych funkcji jest równa jeden. (abstrakt oryginalny)
Klasa skośnych rozkładów normalnych zawiera jako szczególny przypadek rozkład normalny. Szczegółowemu omówieniu własności rozkładu skośnego normalnego poświęcona jest praca Azzalini (1985, 1986); przypadek wielowymiarowy przedstawili Azzalini i Capitanio (1999), natomiast w pracy tych autorów z roku 2003 można znaleźć dalsze rozszerzenie tej klasy rozkładów o rozkłady skośne t-Studenta. W niniejszym artykule przedstawiono podstawowe własności funkcji gęstości omawianych rozkładów i pokazano możliwości ich wykorzystania w modelowaniu dochodów i danych finansowych.(abstrakt oryginalny)
Funkcja gęstości jest jedną z podstawowych charakterystyk opisujących zachowanie się zmiennej losowej. Najczęściej wykorzystywaną metodą nieparametrycznej estymacji jest estymacja jądrowa. W procesie konstrukcji estymatora konieczne są dwie decyzje, dotyczące parametrów metody: wybór funkcji jądra K(u) oraz wybór parametru wygładzania h. W pracy nacisk położono na wpływ wyboru funkcji jądra na wielkość parametru wygładzania. Eksperyment Monte Carlo dotyczy siedmiu funkcji jądra (gausowskiej, równomiernej, trójkątnej, epanechnikowa, dwukwadratowej, trójkwadratowej i kosinusowej) w estymacji jądrowej funkcji gęstości. (abstrakt oryginalny)
9
Content available remote The Estimation of the Corruption Perception Index
84%
W pracy przedstawiono wyniki nieparametrycznej analizy wskaźnika percepcji korupcji. Na analizę tę składa się metoda jądrowa estymacji funkcji gęstości oraz wybrane metody estymacji przedziałowej wartości średniej wskaźnika percepcji korupcji. Do rozważanych metod estymacji wartości średniej należą: jedna z metod bootstrapowych oraz metody wykorzystujące dodatkowe informacje o zmiennej takie jak asymetria rozkładu, ograniczoność zbioru wartości zmiennej. Przeprowadzona analiza dotyczy estymacji wskaźnika percepcji korupcji w 2008 roku różnymi metodami, w oparciu o próby proste różnej liczebności. Porównanie uzyskanych wyników estymacji pozwoliło sformułować wnioski dotyczące dokładności oszacowań, a tym samym efektywności rozpatrywanych metod. (abstrakt oryginalny)
This paper presents the estimator of the conditional density function of surrogated scalar response variable given a functional random one. We construct a conditional density function by using the available (true) response data and the surrogate data. Then, we build up some asymptotic properties of the constructed estimator in terms of the almost complete convergences. As a result, we compare our estimator with the classical estimator through the Relatif Mean Square Errors (RMSE). Finally, we end this analysis by displaying the superiority of our estimator in terms of prediction when we are lacking complete data. (original abstract)
Jądrowa estymacja jest jedną z podstawowych metod nieparametrycznej estymacji funkcji gęstości. Zagadnienie wyboru funkcji jądra oraz wyboru właściwej wartości parametru wygładzania traktowane są jako zasadnicze w estymacji funkcji gęstości. W pracy rozważane są różne metody wyboru parametru wygładzania w estymacji jądrowej, od metod najprostszych do nieco bardziej złożonych. Należy podkreślić jednak, iż wybór metody wyboru parametru wygładzania zależy od celu dokonywanej estymacji charakterystyki funkcyjnej. W artykule przedstawiono również wyniki z przeprowadzonego eksperymentu Monte Carlo, gdzie rozważano trzy „praktyczne zasady" wyboru parametru wygładzania oraz dwie metody cross-validation (największej wiarygodności i najmniejszych kwadratów). Wartości tak otrzymanych parametrów wygładzania są porównywane z parametrem otrzymanym poprzez minimalizację błędu średniokwadratowego, traktowanym jako parametr „optymalny". (abstrakt oryginalny)
Jedną z dobrze znanych grup metod analizy skupień są metody oparte na szacowaniu gęstości. W artykule zaproponowana jest nowa metoda wyszukiwania skupień, która składa się z dwóch kroków. W pierwszym kroku znajdujemy maksima lokalne rozkładu łącznego, które przyjmujemy jako centra skupień. W drugim kroku każda obserwacja przyłączana jest do jednego z centrów. Zakładamy z góry liczbę skupień. W obydwu krokach używamy tej samej techniki opartej na estymatorze jądrowym funkcji gęstości z jądrem Epanecznikowa. Działanie metody jest przeanalizowane na przykładzie danych Gordona (1999). W analizie wykorzystano indeksy Rousseeuwa spoistości skupień, jak również przedstawiono porównanie z innymi metodami analizowania skupień. Wyniki wyglądają obiecująco. (abstrakt oryginalny)
Celem artykułu jest przedstawienie nieparametrycznej metody estymacji jądrowej jako narzędzia do empirycznej weryfikacji hipotezy o konwergencji regionalnej, w tym konwergencji grup gmin (klubów). Omówiono, jak taka estymacja uzupełnia inne metody stosowane w badaniach zjawiska konwergencji. W badaniu zastosowano tę metodę do analizy konwergencji osiągnięć edukacyjnych uczniów w Polsce w okresie 2003-2013. Osiągnięcia edukacyjne zmierzono na podstawie wyników egzaminów gimnazjalnych w zakresie profilu matematyczno-przyrodniczego w układzie gmin. Badanie wskazuje na występowanie konwergencji regionalnej wyników egzaminów, przy czym w przypadku analizy okresów trzyletnich stwierdzono występowanie konwergencji klubów, w której gminy o najsłabszych rezultatach egzaminów stanowią odrębny klub. (abstrakt oryginalny)
This paper introduces a novel three-parameter skew-log-logistic distribution. The research involves the development of a new random variable based on Azzalini and Capitanio's (2013) proposition. Additionally, various statistical properties of this distribution are explored. The paper presents a maximum likelihood method for estimating the distribution's parameters. The density function exhibits unimodality with heavy right tails, while the hazard function exhibits rapid increase, unimodality, and slow decrease, resulting in a right-skewed curve. Furthermore, four real datasets are utilized to assess the applicability of this new distribution. The AIC and BIC criteria are employed to assess the goodness of fit, revealing that the new distribution offers greater flexibility compared to the baseline distribution. (original abstract)
The paper is dedicated to building a probabilistic analysis method of functioning a production-supply system with the structural process of product supply. This analysis is carried out in the non-extreme variant of warehouse filling level to which two independent streams of production (of the product) are directed by means of a transport subsystem. For this variant, four sets of equations that fulfilled the density function determining state probabilities of a multidimensional process characterizing operations of the system examination were derived. (original abstract)
16
Content available remote Siatka prawdopodobieństwa uogólnionego rozkładu gamma
84%
W badaniach statystycznych dużą popularność zyskują elastyczne rozkłady prawdopodobieństwa, których parametry są łatwe do oszacowania. W okresie poprzedzającym korzystanie z programów komputerowych zbudowanie siatek prawdopodobieństwa było możliwe tylko dla rozkładów o odwracalnej dystrybuancie, takich jak np. rozkład wykładniczy czy Weibulla. Dystrybuanta uogólnionego rozkładu gamma (URG) jest nie tylko nieodwracalna, lecz także nie ma formy analitycznej. Obecnie jednak, w dobie zaawansowanych możliwości informatycznych, dystrybuantę URG można odwrócić numerycznie przy pomocy różnych narzędzi, np. Microsoft Excel, Mathcad czy język R. Celem artykułu jest przedstawienie nowej metody tworzenia siatki prawdopodobieństwa URG wykorzystującej funkcję gęstości statystyki pozycyjnej oraz porównanie jej z metodami klasycznymi. (abstrakt oryginalny)
Rozkład stopy zwrotu z inwestycji jest jednym z najczęściej analizowanych i wykorzystywanych pojęć na rynku kapitałowym. Często przy korzystaniu w różnego typu badaniach z funkcji gęstości stopy zwrotu przyjmuje się klasyczne założenie, że dana stopa zwrotu charakteryzuje się rozkładem normalnym. W artykule zaprezentowano możliwości wykorzystania do modelowania stóp zwrotu estymacji jądrowej wchodzącej w skład nieklasycznych metod estymacji.(abstrakt oryginalny)
Celem artykułu jest przedstawienie tendencji i czynników rozwojowych podregionów krajów Europy Środkowo-Wschodniej w latach 1998-2006. W badaniach wykorzystano szerokie spektrum komplementarnych metod, począwszy od klasycznych analiz beta i sigma konwergencji, a kończąc na wielowymiarowych analizach porównawczych, co umożliwiło triangulację otrzymanych rezultatów. W studiach uwzględniono rzadko eksponowane aspekty związane z wpływem regionów stołecznych na procesy rozwoju, a dzięki zrelatywizowaniu danych wyniki uniezależniono od kontekstu krajowego. W efekcie możliwa stała się odpowiedź na następujące pytania: czy w badanych krajach następuje regionalna konwergencja, czy też polaryzacja procesów rozwoju, jakie czynniki decydują o dynamice rozwoju regionów, a także jakie są główne wymiary zróżnicowań przestrzennych w Europie Środkowo-Wschodniej. (abstrakt oryginalny)
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.