Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 42

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Normal distribution
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
The paper offers a range of historic investigations regarding the normal distribu-tion, frequently also referred to as the Gaussian distribution. The first one is the Error Analysis, the second one is the Probability Theory with its old exposition called the Theory of Chance. The latter regarded as the essential, despite the fact that the origin of the Error Theory can be associated with Galileo Galilei and his Dialogo sopra i due massimi sistemi del mondo Tolemaico e Copernico. However, the normal distribution regarded in this way was not found before 1808-9 as a result of the combined efforts of Robert Adrain and his Researches Concerning Isotomous Curves on the one hand and Carl F. Gauss and his Theoria motus corporum coelestium in sectionibus conicis Solem ambienitum on the other. While considering the Theory of Chance - it is necessary to acknowledge The Doctrine of Chances of Abraham de Moivre - 1733 and the proof contained in this work showing the normal distribution derived as the liming case of the binomial distribution with the number of Bernoulli trials tending to infinity. Therefore the simplest conclusion of the paper is: the normal distribution should be rather attributed to Abraham de Moivre than to Carl Friedrich Gauss.(original abstract)
Rozpatrywane w badaniach statystycznych cechy często są utożsamiane ze zmiennymi losowymi o rozkładzie normalnym. W praktyce zdarza się, że zmienne te przybierają tylko wartości nieujemne lub dodatnie większe od pewnej znanej liczby. Zatem w tych przypadkach analizowane zmienne mają rozkład normalny lewostronnie ucięty. Do weryfikacji hipotez o wartościach parametrów rozkładu normalnego lewostronnie uciętego można stosować parametryczne testy sekwencyjne, których statystyka jest ilorazem funkcji wiarygodności oraz testy sekwencyjne oparte na ilorazie funkcji pseudo wiarygodności. (fragment tekstu)
W rozkładach jednomodalnych (szczególnie symetrycznych jednomodalnych) wartości oddalone od modalnych są zwykle mniej prawdopodobne (mają mniejszą wartość gęstości - jeśli pominąć przedziały stałości). Dlatego też w takim przypadku (który jest głównym przedmiotem zainteresowania w niniejszej pracy) właśnie wartości oddalone od wartości środkowych (wartości oczekiwanej, mediany lub dominanty) powinny być badane pod kątem ewentualnej "nietypowości". W celu eliminacji wartości nietypowych użyjemy rozkładów statystyk pozycyjnych. (fragment tekstu)
Przedstawiono splot rozkładów, który powinien ułatwić zrozumienie istoty splotów i przyczyni się do popularyzacji metody tworzenia nowych rozkładów. (fragment tekstu)
Artykuł dotyczy zastosowania funkcji kwantylowej do modelowania rozkładów strat w ubezpieczeniach nieżyciowych. Na wstępie przedstawione są podstawowe właściwości funkcji kwantylowej. Podstawowe rozważania artykułu dotyczą wykorzystania funkcji kwantylowej do modelowania rozkładu wartości maksymalnej. Ma to znaczenie do określenia maksymalnej straty, jaką może ponieść towarzystwo ubezpieczeniowe. (abstrakt oryginalny)
Losowanie prób w badaniach statystycznych i w obliczeniach numerycznych, jak również symulacyjne badanie modeli probabilistycznych właściwie we wszystkich dziedzinach wiedzy wymagają wyposażenia komputera w generatory liczb pseudolosowych. Głównym celem pracy jest porównanie generatorów liczb pseudolosowych normalnych na podstawie ich analizy dokonanej za pomocą różnego rodzaju kryteriów. Zbadano właściwości 12 generatorów liczb pseudolosowych o rozkładzie normalnym. Zaproponowano rozszerzenie rodziny generatorów o dwa tzw. generatory aplikacyjne oraz przyjęcie nowego podejścia do sprawdzania jakości generatorów. Przedstawiono narzędzie przygotowane w języku C++ oraz w języku Visual Basic for Application (VBA) do prowadzenia samodzielnych badań z użyciem generatorów. Symulacje Monte Carlo przeprowadzono w języku C++, a obliczenia wykonano w edytorze VBA przy użyciu arkusza kalkulacyjnego Microsoft Excel 2016. Analiza uzyskanych wyników wskazuje, że najlepsze właściwości mają generatory: MP Monty Pythona, R, Biegun oraz Ziggurat. Najmniej użyteczne okazują się generatory: BM Boxa-Mullera, Wallace'a, Iloraz oraz Excel. (abstrakt oryginalny)
W artykule przedstawione są wyniki badań odporności podstawowych estymatorów parametrów położenia. (fragment tekstu)
Prezentowany artykuł zawiera zwięzłą dyskusję własności sferycznych symetrycznych rozkładów. Podano przykłady sferycznych rozkładów oraz warunki stosowalności tej klasy rozkładów. Stosując bayesowską regułę klasyfikacji uzyskano, dla wybranych rozkładów, wzory na funkcje dyskryminacyjne. Opisano dwie metody klasyfikacji, w których nie wykorzystuje się "próbki uczącej". (abstrakt oryginalny)
It is not so easy to lecture on higher mathematics for economy students. Advanced notions must be often presented for people without an appropriate theoretical background, which forces the teacher to simplify. Unfortunately, the praxis shows that the frontier between a simplification and a factual error is often very subtle and it happens this frontier is sometimes crossed. Such a situation occurs just in the case of the problem, which will be described in this paper. It is a known fact that the so called Student's T statistics from a normal distributed sample is t-Student distributed, without any doubt. But in handbooks for economy students several authors try to use this statistics for exercises with mathematical tables of the t-Student distribution, ordering a calculation of the probability that the sample average will belong to the given interval, in the case when the theoretical variance is unknown but the sample variance has been calculated. Unfortunately, such a situation has nothing to do with the t-Student distribution and this error is systematically copied in successive handbooks.(original abstract)
Z centralnych twierdzeń granicznych wiadomo, że rozkład średniej z próby jest zbieżny do rozkładu normalnego. Problemem jest jednak ocena szybkości tej zbieżności. Tym zagadnieniem zajmują się autorzy podręczników z rachunku z prawdopodobieństwa, por. np. Krzyśko [2000]. W niniejszej pracy zaproponowano symulacyjne badanie tego problemu. W tym celu generowano rozkład średniej arytmetycznej z próby losowanej z populacji o rozkładzie wykładniczym. Rozbieżność między dystrybuantą empiryczną i teoretyczną była oceniana m.in. za pomocą znanej statystyki Kołmogorowa. Otrzymane w pracy wyniki mają stanowić przyczynek do metod wnioskowania o parametrach populacji na podstawie statystyk wyznaczanych z prób, które niekoniecznie są prostymi próbami losowanymi zwrotnie.(abstrakt oryginalny)
Dominacje stochastyczne jako sposób porównywania dwóch rozkładów prawdopodobieństwa obserwowanych cech statystycznych zyskał w ostatnim okresie wielu zwolenników. Rozwiązania teoretyczne jak również praktyczne pozwalają sądzić o dalszym rozwoju tych metod. Wyznaczanie dominacji polega na obliczeniu empirycznej dystrybuanty F(x) i G(x) rozkładów porównywanych cech oraz zbadaniu funkcji H1(x) = F(x) - G(x). (fragment tekstu)
Celem artykułu jest przedstawienie i uzasadnienie interpretacji klasycznego współczynnika kurtozy jako miary grubości ogonów oraz zaproponowanie modyfikacji treści dydaktycznych w tym zakresie. W wielu polskich podręcznikach akademickich podaje się, że współczynnik kurtozy (lub ekscesu) mierzy "wysmukłość", "spiczastość" lub "spłaszczenie" rozkładu. Taka interpretacja jest nieprawidłowa. Kurtoza mierzy bowiem w istocie stopień rozproszenia wartości cechy w ogonach rozkładu lub - innymi słowy - intensywność wartości skrajnych. W artykule wskazano, dlaczego starsze interpretacje, mówiące o kształcie wierzchołka krzywej gęstości, są niewłaściwe. Zaprezentowano przykładowe leptokurtyczne rozkłady spłaszczone i platykurtyczne rozkłady wysmukłe. Na podstawie danych z Diagnozy Społecznej z lat 2000-2015 wykazano, że w badaniach empirycznych wartość kurtozy wynika ze stopnia natężenia wartości odstających. Zaproponowano nowe sformułowania, które można wykorzystać w dydaktyce statystyki zamiast nieprawidłowych, stosowanych dotychczas. (abstrakt oryginalny)
Założenia przyjęte w klasycznym statystycznym sterowaniu procesami (SPC), odpowiadają modelowi procesu określanemu często "modelem procesu Shewharta", który nie zawsze jest adekwatny do sytuacji rzeczywistych, co musi być podstawową cechą każdego modelu. Analiza sytuacji praktycznych doprowadziła do wyodrębnienia wielu typów procesów, których w zbiorze "procesy Shewharta" stanowią tylko jeden z nich. Klasyfikację procesów przedstawiono szczegółowo w [1]. Podziału na klasy i typy dokonano z punktu widzenia cech statystycznych procesu oraz występowania specyficznych własności, jak np. trend monotoniczny, w szczególności liniowy. Występowanie różnych typów procesów powoduje konieczność opracowania metodyki ich identyfikacji i ustalenia dla nich modeli statystycznych w celu poprawnego wyznaczania zdolności procesów [1], a także ich monitorowania i sterowania. Ogólny schemat takiej metodyki przedstawiono również w [1]. Korzysta ona z wielu testów statystycznych służących ustaleniu własności procesów na podstawie próby losowej pobranej z procesu produkcyjnego. Jedną z tych własności jest pochodzenie wielu małych próbek z rozkładu normalnego (rozkład chwilowy danych jest normalny), pomimo że proces jest niestacjonarny. Odpowiada to między innymi klasie B procesów (typy B1-B3). Ustalenie tej własności istotne jest również jako założenie wejściowe przy innych testach, między innymi parametrycznej analizie wariancji. Tymczasem test taki jest mniej znany w literaturze, jak również niedostępny w pakietach statystycznych. Stąd też oprogramowano procedurę na potrzeby wspomnianej metodyki. Celem dalszej części pracy jest prezentacja rozwiązania tego problemu. Przedstawiono podstawy teoretyczne testu oraz przykład obliczeniowy. (fragment tekstu)
Celem pracy jest prezentacja i próba analizy mocy jednego ze znanych w literaturze testów normalności dla wielowymiarowej zmiennej losowej. Jest to test oparty w swojej konstrukcji na jednym z najmocniejszych testów normalności jednowymiarowej zmiennej losowej - teście Shapiro-Wilk'a. W pierwszej części pracy zaprezentowano podstawowe definicje związane z wielowymiarowym rozkładem normalnym. Cześć druga zawiera opis testu Shapiro-Wilk'a zarówno dla jednowymiarowej jak i wielowymiarowej zmiennej losowej. W części trzeciej zaprezentowano wyniki oceny empirycznej mocy testu . dla różnych klas rozkładów alternatywnych. Przedstawiono kształtowanie się rozkładu statystyki testu Shapiro-Wilk'a w przypadku prawdziwości hipotezy o normalności rozkładu. Wskazano na konieczność weryfikacji hipotezy o wielowymiarowej normalności rozkładu w oparciu c wyznaczone empirycznie wartości krytyczne, wartości te, wyznaczone i podane przez autora dla różnych wymiarów zmiennej i liczebności próby, mogą umożliwić stosowanie prezentowanego testu w praktyce.(fragment tekstu)
15
Content available remote Analiza cen nieruchomości z wykorzystaniem statystyki Morana
61%
W pracy została zaprezentowana analiza rozkładu cen nieruchomości z wykorzystaniem statystyki Morana. Zasadniczym problemem, przedstawionym w niniejszym opracowaniu, była metoda badania rozkładu cen w zależności od lokalizacji. Prezentowana metoda zostały zilustrowane na przykładzie danych pochodzących z wtórnego rynku nieruchomości na terenie dzielnicy Wola w Warszawie. (abstrakt oryginalny)
Hipotezy o wartości oczekiwanej zmiennej losowej możemy zweryfikować parametrycznym ilorazowym testem sekwencyjnym, w przypadku znanej klasy rozkładu tej zmiennej. Problem z weryfikacją takich hipotez pojawia się, gdy nie posiadamy informacji o rozkładzie zmiennej losowej i musimy zastosować metody nieparametryczne. W procy proponowane jest wykorzystanie funkcji pseudowiarygodności, zamiast funkcji wiarygodności, w statystyce ilorazowego testu sekwencyjnego. Przykłady zastosowania testu opartego na ilorazie funkcji pseudowiarygodności dla wybranych rodzajów rozkładów s;j zaprezentowane w pracy wraz z wynikami analizy Monte Carlo dotyczącymi własności tych testów. (abstrakt oryginalny)
17
Content available remote Statystyka Morana w analizie rozkładu cen nieruchomości
61%
W pracy przedstawiono sposób wykorzystania statystyki Morana do analizy rozkładu cen nieruchomości. Podstawowym zagadnieniem, rozważanym w niniejszej publikacji, jest rozkład cen w zależności od lokalizacji i techniki jego identyfikacji. Prezentowane podejście zostało zilustrowane na przykładzie analizy cen z wtórnego rynku nieruchomości z dzielnicy Praga Południe w Warszawie. (abstrakt oryginalny)
18
Content available remote Komu bije dzwon? Czemu warto badać prawa potęgowe?
61%
Metody badawcze w naukach o organizacji i zarządzaniu tradycyjnie dzieli się na jakościowe i ilościowe. Podział ten wydaje się silnie ugruntowany, a jednocześnie mocno ideologiczny - co jest widoczne zwłaszcza w obszarach, w których wykorzystuje się obydwa podejścia, np. w badaniach kultury organizacji. Wynika on, naturalnie, w dużym stopniu także z animozji między-paradygmatycznych. W niniejszym artykule postaramy się przedstawić inną, istotną optykę podziału, przydatną zwłaszcza dla badaczy posługujących się metodami ilościowymi - na logikę Gaussiańską i nie-Gaussiańską oraz zwrócić uwagę na potrzebę większego poszukiwania tzw. praw potęgowych, zwłaszcza w analizie nowych zjawisk w społecznościach internetowych. (fragment tekstu)
19
Content available remote An Entropy Based Non-Wrapper Approach for Choosing Variables in Cluster Analysis
61%
W artykule badamy sprawność algorytmu wybierania zmiennych w analizie skupień opartego na entropii (por. Dash. Liu. 2000). Ocena oparta jest na eksperymencie, w którym zbiory generowane są w postaci mieszanin rozkładów normalnych. Wyniki wskazują na to. że metoda nie radzi sobie tak dobrze jak to sugerowali Autorzy. (abstrakt oryginalny)
W artykule zweryfikowano hipotezę o normalności rozkładu stóp zwrotu indeksów publikowanych przez Giełdę Papierów Wartościowych w Warszawie. Badanie przeprowadzono dla stóp zwrotu: dziennych, tygodniowych, miesięcznych, kwartalnych i rocznych oraz uwzględniono stopy zwrotu liczone w ujęciu: zamknięcie-zamknięcie, zamknięcie-otwarcie, otwarcie-otwarcie i otwarcie-zamknięcie (overnight). Weryfikacja hipotez statystycznych została przeprowadzona za pomocą następujących siedmiu testów: Kolmogorova-Smirnova, Lillieforsa, Shapiro-Wilka, Chi-kwadrat, Cramera von Misesa, Watsona, Andersona-Darlinga. Stworzony został również ranking analizowanych indeksów giełdowych z wykorzystaniem trzech testów statystycznych: Jarque-Bera, Shapiro-Wilka and D'Agostino-Pearsona. (abstrakt oryginalny)
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.