Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 43

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Methodology of statistical surveys
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
Large-scale complex surveys typically contain a large number of variables measured on an even larger number of respondents. Missing data is a common problem in such surveys. Since usually most of the variables in a survey are categorical, multiple imputation requires robust methods for modelling high-dimensional categorical data distributions. This paper introduces the 3-stage Hybrid Multiple Imputation (HMI) approach, computationally efficient and easy to implement, to impute complex survey data sets that contain both continuous and categorical variables. The proposed HMI approach involves the application of sequential regression MI techniques to impute the continuous variables by using information from the categorical variables, already imputed by a non-parametric Bayesian MI approach. The proposed approach seems to be a good alternative to the existing approaches, frequently yielding lower root mean square errors, empirical standard errors and standard errors than the others. The HMI method has proven to be markedly superior to the existing MI methods in terms of computational efficiency. The authors illustrate repeated sampling properties of the hybrid approach using simulated data. The results are also illustrated by child data from the multiple indicator survey (MICS) in Punjab 2014. (original abstract)
Artykuł dotyczy tablic dwudzielczych 2*2. Gdy hipoteza H0 o niezależności cech jest słuszna, bardzo często - za sprawą małych próbek - rozkład statystyki testowej odbiega od rozkładu chi-kwadrat. Kwantyl rozkładu chi-kwadrat nie jest zatem właściwą wartością krytyczną. Problemem nie jest, przy obecnej wydajności komputerów, wyznaczenie metodą modelowania statystycznego Monte Carlo właściwej wartości krytycznej, lecz modelowanie H0. Modelowanie H0 to generowanie takich tablic, w których wartości cechy przypisane wierszom są niezależne od wartości cechy przypisanej kolumnom. Odpowiednie do takiego modelowania są tablice - równomierna o jednakowym prawdopodobieństwie przynależności do komórek oraz nierównomierna mająca jednakowe prawdopodobieństwo we wszystkich wierszach danej kolumny lub we wszystkich kolumnach danego wiersza. Analiza wyników modelowania statystycznego ujawniła, że nawet gdy H0 jest słuszna, rozkład statystyki testowej w istotny sposób zależy od nierównomierności tablicy. W artykule pokazano, że chcąc maksymalizować moc testu należy wartość krytyczną ustalać z uwzględnieniem miary nierównomierności tablicy. Finalnym efektem opracowania jest zaproponowane czytelnikowi gotowe narzędzie do samodzielnej weryfikacji H0. (abstrakt oryginalny)
W praktyce statystycznej bardzo często wykorzystywany jest algorytm losowania jednostopniowego warstwowego bez zwracania. Jednym z głównych zadań stojących przed praktykami stosującymi ten schemat nie jest de facto sam proces wyboru próby, ale ustalenie tzw. alokacji, czyli przypisanie każdej warstwie liczby jednostek, które znajdą się w próbie. Do najczęściej stosowanych w GUS sposobów ustalania alokacji próby należą: alokacja proporcjonalna, schemat Neymana (Bracha, 1996; Zasępa, 1962, 1972) i metoda Lednickiego i Wieczorkowskiego (Lednicki, Wieczorkowski, 2003). Te metody prowadzą na ogół do uzyskania na wyjściu alokacji niebędącej wektorem liczb całkowitych. W kolejnym kroku wektor ten zostaje poprawiony przez przybliżenie kolejnych składowych liczbami całkowitymi. Nie ma ogólnej metodologii opisującej, w jaki sposób należy szukać takiego przybliżenia. W artykule przedstawiam autorski algorytm służący do przybliżania całkowitoliczbowego w opisanych przypadkach. Opisałem tu praktyczne zastosowanie algorytmu w kontekście zastosowania schematu losowania jednostopniowego warstwowego bez zwracania. (fragment artykułu)
W artykule zdefiniowano tablicę trójdzielczą wraz z jej charakterystykami oraz przedstawiono implementację komputerową dotyczącą pomiaru siły związku między trzema cechami za pomocą współczynników: Gray-Williamsa, Marcotorchino i Lombardo. Pierwszym celem pracy jest przedstawienie teorii dotyczącej tablic trójdzielczych. Jest to niezbędne do lepszego zrozumienia zagadnień dotyczących pomiaru siły związku między trzema cechami. Drugim celem jest przedstawienie gotowych procedur i funkcji zapisanych w języku VBA, umożliwiających czytelnikowi samodzielne przeprowadzanie badań statystycznych w najbardziej popularnym arkuszu kalkulacyjnym, jakim jest Microsoft Excel. (fragment tekstu)
Śledząc rozwój metodyki badań statystycznych i ich praktycznego zastosowania w wielu dziedzinach życia gospodarczego i społecznego, warto zwrócić uwagę na kilka najważniejszych - moim zdaniem - zmian, jakich doświadczyliśmy w tym zakresie w ostatnich dziesięcioleciach. Po pierwsze, od połowy ub. wieku zmieniło się nieufne początkowo nastawienie wielu osób i instytucji, decydujących o sposobach badań statystycznych, do badań niewyczerpujących (próbkowych). Po drugie, istotny postęp dokonał się w rozwoju techniki próbkowania i wnioskowania, co pozwoliło nie tylko na dobrą kontrolę błędu losowania, ale także na znaczne zmniejszenie liczebności prób badawczych, a w konsekwencji czasu i kosztów realizacji badań. Obecnie, jak się wydaje, za jedną z najistotniejszych zmian w podejściu do badań próbkowych uznać należy większe niż poprzednio koncentrowanie się statystyków na tych składnikach całkowitego błędu badania, które nie mają charakteru losowego. O rosnącym znaczeniu błędów nielosowych i o próbach ich kontroli traktuje moje opracowanie. (fragment tekstu)
Tablice wielodzielcze są podstawowym i bardzo często stosowanym narzędziem służącym do badania związku między cechami. Tablicę, która powstaje w wyniku podziału danych według dwóch cech nazywamy dwudzielczą, trzech cech - trójdzielczą itd. Przedmiotem obecnej pracy są tablice dwudzielcze. (...) Stosując tablicę dwudzielczą powinniśmy zadać pytanie, jaką zdolność do wykrywania związku między cechami mają tablice dwudzielcze, tzn. jaka jest ich moc. Artykuł pokazuje, jak można odpowiedzieć na to pytanie. Na podstawie przeprowadzonej analizy można poznać moc testu jedynie dla tablic dwudzielczych 2 x 2, natomiast w przypadku tablic o większych wymiarach konieczne jest generowanie tablic dwudzielczych i określenie ich mocy za pomocą badań symulacyjnych. Przeprowadzone przez autora eksperymenty numeryczne pokazały, że wyznaczenie mocy testów na drodze analitycznej i porównanie uzyskanych wyników ze stosownymi wartościami empirycznymi jest możliwe - jak wspomniano wcześniej - jedynie dla tablicy dwudzielczej 2 x 2. Przedstawione w pracy wyniki pozwalają czytelnikowi zorientować się, jak moc tablic dwudzielczych zależy od liczebności próby oraz od siły związku między cechami. (fragment tekstu)
Celem artykułu jest przedstawienie dyskusji o jakości spisów ludności, z uwzględnieniem możliwości i ograniczeń wynikających ze zmian wprowadzonych na szeroką skalę w ostatniej rundzie 2010. Najważniejsze znaczenie przypisano zastosowanej metodologii badania, ale zwrócono także uwagę na inne zmiany wynikające z zastosowania nowoczesnych technologii. (fragment tekstu)
W cytowanej literaturze najwięcej uwagi poświęca się obciążeniu CPI wynikającemu z substytucji dóbr. W opracowaniu oszacowano ten rodzaj obciążenia CPI przy zastosowaniu różnych indeksów superlatywnych, zaimplementowano alternatywną metodę pomiaru tego wskaźnika służącą redukcji jego obciążenia oraz wyznaczono optymalną wartość parametru o występującego w tej metodzie. (fragment tekstu)
W dniach 19-23 września 2011 r. w Newport miało miejsce kolejne XXVI spotkanie Grupy Voorburg ds. statystyki sektora usług. Grupa została założona z inicjatywy Urzędu Statystycznego Kanady w 1986 r., w odpowiedzi na postulaty ONZ, jako nieformalne forum stanowiące wsparcie w rozwoju statystyki sektora usług. GUS w Polsce uczestniczy w tej grupie od 2006 roku. Doświadczenie i wiedza zdobyta w grupie wpływają na rozwój statystyki sektora usług w Polsce. Rozwiązania stosowanych w innych krajach pozwoliły spojrzeć inaczej niż wcześniej na pracę Urzędu. Aktywny udział w dyskusji i prezentacji polskich doświadczeń na forum grupy pozwoliło na lepsze przygotowanie badań sektorowych, a także do poszukiwania nowych możliwości rozwoju. Ważnym elementem współpracy międzynarodowej w tym zakresie będzie zorganizowanie kolejnego spotkania grupy w 2012 w Warszawie.
11
Content available remote Filozoficzne koncepcje estymacji statystycznej
61%
Estymacja jako obszar analiz statystycznych danych pomiarowych jest wyznaczona trzema głównymi nurtami opisanymi w monografiach E.L. Lehmanna [9], J.W. Tukey [15] i A. Gelmana ze wsp. [5]. Formułując tę tezę autor dokonuje przeglądu owych nurtów w kolejnych częściach artykułu, zatytułowanych jako: "Redukcja - teoria estymacji punktowej"; "Indukcja - exploracja danych" oraz "Dedukcja - estymacja bayesowska". W końcowej części artykułu stwierdza, że "estymacja jest procesem badawczym głęboko osadzonym w filozofii nauki. Spór filozoficzny na temat metodologii nauki trwa setki lat i będzie trwał nadal. Tak samo w estymacji nie powiemy, która metoda jest lepsza, która gorsza. W procedurze doboru sposobu estymacji decyduje sumienność naukowa badacza, profesjonalność w zakresie meritum zagadnienia i zakres wynikowych wnioskowań".
Inference in surveys with nonresponse has been studied extensively in the literature with a focus on the estimation phase. Propensity weighting and calibrated weighting are among the adjustment methods used to reduce the nonresponse bias. The data collection phase has come into focus more recently; the literature on adaptive survey design emphasizes representativeness and degree of balance as desirable properties of the response obtained from a probability sample. We take an integrated view where data collection and estimation are considered together. For a chosen auxiliary vector, we define the concepts incidence and inverse incidence and show their properties and relationship. As we show, incidences are used in balancing the response in data collection; the inverse incidences are important for weighting adjustment in the estimation. (original abstract)
13
Content available remote Badania budżetów gospodarstw domowych w Polsce
61%
Conducted by the Central Statistical Office (CSO) household budget survey (HBS) is a major source of revenue and expenditure, and consumption of durable goods equipment of Polish households. These data is also essential for many advanced statistical analysis and international comparisons. The article presents the objectives and scope of HBS with a brief review of history and methodology. Particular attention was paid to the contribution of other staff of the Faculty of Economic Sciences participating in international projects PACO and CHER using the panel data based on the annual collection of the CSO. Other studies conducted in Poland using the HBS data were mentioned as well. At the end an example of multivariate statistical analysis based on data from the HBS 2007 was presented. This is the study of the consumption expenditure of households using the correspondence analysis. (original abstract)
W artykule przedstawiono szacowanie parametrów dla cech rzadkich oraz metody wyboru próby dla populacji rzadkich i trudno uchwytnych, które mogą stanowić alternatywę lub uzupełnienie badań nakierowanych na cechy powszechne. Zaprezentowano podstawowe schematy losowania dla cech rzadkich, w tym losowania: odwrotnego (inverse sampling), wielokrotnego połowu (losowanie typu pojmanie-uwolnienie, capture-recapture sampling), lokacyjnego (location sampling) oraz schematy linia-przecięcie (line-intercept sampling) i śledzenia łączy (link-tracing design). Przedstawiono też koncepcję operatów wielokrotnych (multiple frame) oraz zagadnienie próby o zwiększonym pokryciu (oversampling). Trudności wynikające z zastosowania typowych schematów losowania zilustrowano przykładem symulacyjnym opartym na danych z Powszechnego Spisu Rolnego oraz danych z badania budżetów gospodarstw domowych. Wskazano na istnienie alternatywnych rozwiązań, wraz z określeniem korzyści i wad zastosowania tych metod. (fragment tekstu)
Autorzy, na podstawie wielu własnych doświadczeń empirycznych, przedstawiają próbę dyskusji merytorycznej jaką "przeprowadzili" z wynikami badania popytu osób w wieku 55 i więcej lat na nowoczesne usługi, próbując znaleźć czynniki determinujące ten popyt. Omawiane w związku z takim zamierzeniem metody analizy zalicza się do zbioru sposobów wyjaśnienia związków przyczynowo-skutkowych. Ich wybór wynikał z poszukiwania metody, która - w odczuciu autorów - dawałaby najpełniejszy obraz oceny badanego zjawiska, wypływającej ze świadomości zalet i ograniczeń każdej z nich, a ponadto z chęci odejścia od rutynowej analizy i prezentacji pewnego szkicu naukowych rozmyślań. Rozważono użycie czterech metod: liniowej regresji wielorakiej, regresji logistycznej, analizy głównych składowych oraz metody epsilon. Głównym celem rozważań będzie odpowiedź na pytanie, jakie są determinanty popytu (wyrażonego w postaci syntetycznego wskaźnika) na zaproponowane usługi, w jakim stopniu łącznie wyjaśnia ją jego zróżnicowanie, czy zbiór tych determinant jest identyczny w rezultacie zastosowania wymienionych metod, jakie szczególne korzyści wynikają z analizy wyników jednego badania empirycznego, sformułowanej według tych czterech metod. (fragment tekstu)
W artykule na przykładzie funkcji produkcji przedstawiono analizę metodologiczną problemu specyfikacji modeli ekonometrycznych. W analizie uwzględnia się postulaty semantyczne ogólnej metodologii nauk empirycznych [...] - w których problematyka metodologiczna obejmuje: obserwację, pomiar, nadawanie sensu empirycznego terminom, uogólnianie statystyczne, warunki empirycznej weryfikacji hipotez itp. (fragment tekstu)
Celem artykułu jest przegląd międzynarodowych metodyk statystyki działalności badawczo-rozwojowej. Omówiono innowacje w aspekcie pomiaru realizacji celów Strategii Lizbońskiej. Zaprezentowano wskaźniki społeczeństwa informacyjnego.
Często przy analizowaniu stanu gospodarki i tworzeniu jej modeli ekonometrycznych napotyka się na problem różnej częstotliwości dostępnych danych. Nie istnieje niestety jednoznaczna i dobra odpowiedź na pytanie, którą częstotliwość wykorzystać w badaniu, gdy dysponuje się zbiorem danych, wśród których znajdują się szeregi miesięczne i kwartalne. Agregacja szeregów miesięcznych do kwartalnych powoduje utratę części informacji, natomiast praca tylko z szeregami miesięcznymi wyklucza informacje kwartalne. Innym napotykanym problemem jest fakt, że szereg zmiennych w różnych częściach próby charakteryzuje się różną częstością obserwacji. Rozwiązaniem obydwu problemów może być zastosowanie metod dezagregacji do szeregów, lub ich części, o niższej częstości. Artykuł przedstawia zastosowanie miesięczno-kwartalnych wersji popularnych metod do rozszacowania szeregów ekonomicznych. (fragment tekstu)
W artykule przedstawiono aktualne trendy w metodologii badań statystycznych wykorzystywane zarówno przez Eurostat i GUS. Poruszono kilka kwestii tj. metody badawcze a faza badania statystycznego, opisy metodologiczne w publikacjach statystycznych, metodologia badań a jakość danych. Przedstawiono przykłady działań integracyjnych w badaniach statystycznych. Podkreślono iż nie można pominąć relacji metodologii z podstawowymi komponentami jakości: użytecznością, dokładnością, terminowością i punktualnością, dostępnością i przejrzystością, porównywalnością oraz spójnością. Prowadzi to do tworzenia wysokiej jakości statystyk dla społeczeństwa opartego na wiedzy.
W artykule przedstawiono założenia projektu, który ma na celu dostarczyć krajom europejskim metod estymacji ukierunkowanych na małe obszary, i umożliwiającego uzyskanie rzetelnych ocen dla tych obszarów.
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.