Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 113

Liczba wyników na stronie
first rewind previous Strona / 6 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Inferential statistics
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 6 next fast forward last
W artykule przedstawiono uogólnienie podejścia stosowanego w klasycznych metodach statystycznych. (fragment tekstu)
W praktyce w przypadku niepełnych danych wykorzystuje się metody imputacji rozumiane jako metody szeroko rozumianej predykcji brakujących danych. Takie uzupełnione dane traktowane są tak, jak gdyby były obserwowalne, co powoduje niewłaściwe oszacowanie estymatora oraz wariancji estymatora, zwłaszcza jeżeli mechanizm generowania brakujących danych jest nielosowy. W artykule pokazano przykłady wpływu imputacji na własności estymatorów. Pewnym rozwiązaniem jest zastosowanie metod wielokrotnego uzupełniania danych, które uwzględniają tzw. błąd imputacji.(abstrakt oryginalny)
Wnioskowanie statystyczne obejmuje m.in. testowanie hipotez statystycznych. Hipoteza statystyczna to sąd o populacji. Weryfikuje się go na podstawie próby losowej. Dzięki temu nie trzeba przeprowadzać badania całkowitego, co znacznie obniża koszty i oszczędza czas. Hipotezy mogą być parametryczne i nieparametryczne. W tej pracy przedstawiony zostanie test nieparametryczny, czyli taki, który dotyczy rozkładu cechy statystycznej lub współzależności cech. Test ten jest oparty na idei testu Hellwiga (chodzi o statystykę testową) i zostanie przeniesiony na przypadek wielowymiarowy. Konstrukcja cel jest inna niż w teście Hellwiga i dostosowana do tego przypadku. (fragment tekstu)
Celem niniejszego opracowania jest zaproponowanie dwóch estymatorów regresyjnych wartości przeciętnej cechy w populacji skończonej i ustalonej, wyznaczonych na podstawie prób dwufazowych przy brakach odpowiedzi. Zostanie też podjęta próba zbadania własności zaproponowanych estymatorów dla ogólnego, stochastycznego braku odpowiedzi. Zostaną rozważone wybrane przypadki szczególne. (fragment tekstu)
Cel: W artykule rozważano zagadnienie istotności różnic w strukturach dwóch populacji lub większej ich liczby. W literaturze przedmiotu prezentowane są różne mierniki podobieństwa struktur, ale zasadniczo nie przedstawia się testów statystycznych pozwalających potwierdzić statystyczną istotność różnic w badanych strukturach. Celem artykułu jest przedstawienie propozycji testu statystycznego pozwalającego na potwierdzenie występowania istotnych różnic w strukturach na podstawie danych zawartych w tablicach wielodzielczych. Metodyka badań: Studia literatury. Przedstawiono propozycję testu statystycznego opartego na idei testu dokładnego Fishera. Wyniki badań: Zastosowanie proponowanego testu przedstawiono na przykładzie wyników badań własnych dotyczących udziału w życiu kulturalnym aktywnych uczestników portali internetowych bezpośrednio przed wystąpieniem pandemii COVID-19 oraz w trakcie jej trwania. Wnioski: Zaproponowana metoda pozwala na testowanie istotności różnic w strukturach dwóch populacji lub większej ich liczby. Możliwe jest wnioskowanie nawet na podstawie prób o niewielkich liczebnościach. Wkład w rozwój dyscypliny: W badaniach ekonomicznych bardzo często występuje porównywanie struktur w populacjach. W artykule przedstawiona została propozycja testu statystycznego dla wskaźnika podobieństwa struktur. (abstrakt oryginalny)
Ocena sprawozdania finansowego na podstawie wybranej próby losowej z badanej populacji, którą na ogół stanowią wszystkie operacje księgowe z badanego okresu, określane jest mianem badania niewyczerpującego lub próbkowania. Celem pracy była prezentacja probabilistycznych podstaw badania wiarygodności sald oraz szczegółowe przedstawienie jednej z procedur próbkowania dla celów badania wiarygodności sald, metody próbkowania według prawdopodobieństwa proporcjonalnych wielkości (metoda PPS - Probability Proportional to Size).
In the kernel method, it is necessary to determine the value of the smoothing parameter. Not without significance is the fact of using the objectivity in the selection of this parameter and a certain automation of the selection procedure, which is important especially for novice users of kernel methods in the process of statistical inference. In the paper some methods of choice of the smoothing parameter are presented with the results of the simulation study that indicate these methods of selecting the smoothing parameter as handy tool when kernel methods are used in economic analyses. (original abstract)
W artykule podano przykłady prostej analizy rzetelności pomiarów cech obserwowanych w pewnym badaniu reprezentacyjnym, które można stosować w praktyce badań statystycznych. (fragment tekstu)
W roku 1923 Jerzy Spława-Neyman opublikował w Rocznikach Nauk Rolniczych (tom X) pracę poświęconą uzasadnieniu zastosowań rachunku prawdopodobieństwa do doświadczeń polowych. Praca ta dotarła do szerszej społeczności statystycznej w roku 1990 i uznano ją za pionierskie osiągnięcie w sferze metodologii statystycznej dla analizy związków przyczynowych. Celem niniejszego opracowania jest przybliżenie tych wyników Neymana w kontekście współczesnych metod badania przyczynowości opartej na pojęciu kontrfaktyczności(abstrakt oryginalny)
W pierwszej części pracy omówiono pojęcie ortogonalności, a następnie pokazano, jak ortogonalność wykorzystuje się w zagadnieniach wnioskowania statystycznego, takich jak estymacja parametrów modelu oraz weryfikacja odpowiednich hipotez statystycznych. Te zalety ortogonalności zostały pokazane na przykładzie dwóch modeli liniowych, mianowicie modelu regresji liniowej oraz modelu dwukierunkowej klasyfikacji. (fragment tekstu)
W teorii wnioskowania statystycznego obszerną klasą stanowią testy zgodności, pozwalające sprowadzić hipotezę o zgodności rozkładu hipotetycznego z rozkładem badanej zmiennej losowej. W artykule prezentujemy testy wielowymiarowej zgodności, w szczególności testy normalności. Wyróżniamy tutaj uogólniony test W. Shapiro-Wilka, test chi-kwadrat, test Kołmogorowa-Smirnowa oraz Cramera von Misesa. Podane kwantyle i uwagi dotyczące mocy tych testów dają podstawę do szerszego ich wykorzystywania w praktyce statystycznej. (abstrakt oryginalny)
W artykule przedstawiono nową koncepcję kontekstowego układu współrzędnych nierównoległych będącego uogólnieniem powszechnie stosowanego układu kartezjańskiego. W proponowanym układzie występować może dowolna liczba osi - w układzie kartezjańskim, w przestrzeni 2D występują 2 osie. Kontekstowy układ współrzędnych otwiera drogę do nieregularnego modelowania rozmytego mającego wiele zalet. Najważniejsze z nich to możliwość konstruowania dokładnych modeli rozmytych ze znacznie mniejszą liczbą reguł niż w przypadku regularnych modeli opartych na prostokątnej siatce podziałowej. Zaleta ta oznacza jednocześnie możliwość skutecznego, przezwyciężenia zjawiska przekleństwa wymiarowości w modelowaniu rozmytym. W modelach nieregularnych nie muszą być stosowane wyłącznie sektory czworokątne - można stosować sektory dowolne: trójkątne, czworokątne, pięciokątne, etc. W artykule w sposób przyjazny czytelnikowi wyjaśniono, krok po kroku sposób zastosowania kontekstowego układu współrzędnych w nieregularnym modelowaniu rozmytym. Metodę zilustrowano przykładem.(abstrakt oryginalny)
Na podstawie danych pochodzących z badania budżetów gospodarstw domowych dotyczących ilościowego spożycia artykułów żywnościowych podjęto próbę oceny jego zróżnicowania w 2008 r. Przeprowadzono badanie zgodności spożycia zaobserwowanego w gospodarstwie domowym z wzorcem opracowanym na podstawie norm żywieniowych. Wyniki analizy potwierdziły istnienie różnic w spożyciu artykułów żywnościowych w Polsce zarówno w układzie województw, klasy miejscowości zamieszkania, jak i subiektywnej oceny sytuacji materialnej. (abstrakt oryginalny)
Celem pracy jest porównanie działania algorytmów wnioskowania dwuwartościowego i rozmytego. Artykuł zawiera opis teoretycznych podstaw działania obu algorytmów, użycia każdego z nich w innej wersji systemu wspomagania decyzji menedżera. Następnie pokazano bazę wiedzy oraz dokładny algorytm wnioskowania, a także przykład użycia w praktyce systemu z wnioskowaniem klasycznym. Ostatnią częścią pracy jest opis analizy podobieństw i różnic pomiędzy algorytmami oraz wynikających z niej wniosków. (abstrakt oryginalny)
Testy oparte na długości serii stosowane są zarówno we wnioskowaniu statystycznym, jak również w statystycznej, kontroli jakości. W pracy przedstawiono moc trzech testów opartych na: - maksymalnej długości serii z jednej strony mediany, - mniejszej z maksymalnych długości serii powyżej i poniżej mediany, - większej z maksymalnych długości serii powyżej i poniżej mediany. (abstrakt oryginalny)
Autorzy rozważają testy analizy wariancji dla wielu średnich a w szczególności klasyczny test F, test ilorazu wiarogodności i zmodyfikowany test ilorazu wiarogodności zaproponowany przez Gilla oparty na transformacji logarytmicznej. Przedstawiają wyniki eksperymentów symulacyjnych przeprowadzonych w celu oceny rozmiaru i mocy każdego z testów dla różnej liczby grup oraz różnych układów wartości oczekiwanych i odchyleń standardowych w grupach. (fragment tekstu)
18
Content available remote Test symetryczności Li
61%
Test symetryczności rozkładu zmiennej losowej zaproponowany przez Li w 1997 roku jest testem wykorzystującym metodę jądrową. Dlatego też w procedurze wnioskowania statystycznego pojawia się problem wyboru odpowiednich parametrów metody jądrowej: funkcji jądra i parametru wygładzania. Autorka analizuje wpływ wyboru funkcji jądra i parametru wygładzania na procedurę weryfikacji hipotezy o symetryczności rozkładu zmiennej losowej. Test symetryczności Li jest wykorzystany w analizie wskaźnika rozwoju społecznego (Human Development Index). (abstrakt oryginalny)
W artykule przedstawiono najważniejsze przesłanki, jakimi powinien się kierować badacz przy wyborze techniki próbkowania, aby nie być narażonym na zarzut nadużycia we wnioskowaniu lub na brak profesjonalizmu. Omówiono okoliczności i konsekwencje wykorzystania prób nielosowych i losowych. W podsumowaniu wskazano nowe wyzwania w zakresie doboru prób badawczych, na które odpowiedź próbuje znaleźć współczesna statystyka. (abstrakt oryginalny)
20
Content available remote Statistical Inference on Changes in Income Polarization in Poland
61%
W artykule dokonano estymacji popularnej miary polaryzacji ekonomicznej (indeks DER) dla danych o dochodach z polskich Badań Budżetów Gospodarstw Domowych w okresie 1998-2007. Używając niezależnych od rozkładu metod wnioskowania statystycznego przeprowadzono testy istotności różnic w wartościach estymowanych wskaźników. Wyniki pokazują, że w badanym okresie wartość indeksu DER wzrosła pomiędzy 4,9 a 6,5% w zależności od wartości parametru a mierzącego wagę przykładaną do polaryzacji. Zmiany indeksu DER dla a = l, dla którego polaryzacja zachowuje się empirycznie w sposób odmienny od nierówności, są w badanym okresie statystycznie istotne. W artykule pokazano jednak, że niektóre ze zmian indeksu DER dla krótszych okresów nie są istotne statystycznie. (abstrakt oryginalny)
first rewind previous Strona / 6 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.