Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 19

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Pakiet statystyczny
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
W artykule przedstawiono podstawowe założenia leżące u podstaw procedur generowania układów czynnikowych oraz zasady generowania układów czynnikowych do modeli conjoint analysis oraz modeli dyskretnych wyborów stosowanych w pomiarze preferencji wyrażonych. Ilustracją przeprowadzonych rozważań są przykłady generowania układów czynnikowych do modeli conjoint analysis i dyskretnych wyborów z wykorzystaniem procedur pakietu statystycznego SAS/STAT. (fragment tekstu)
W artykule zaprezentowano trzy grupy metod wielowymiarowego skalowania preferencji, których realizacja jest możliwa za pomocą odpowiednich funkcji programu R. Są to metody oparte na macierzy niepodobieństw, metody oparte na prostokątnej macierzy preferencji oraz modele różnic indywidualnych. W ramach każdej grupy metod dokonano opisu właściwych funkcji programu R oraz zaprezentowano przykłady empiryczne. (abstrakt oryginalny)
Przeprowadzono badanie sondażowe, którego celem było porównanie i ocena pięciu profesjonalnych pakietów statystycznych: SPSS, STATISTICA, STATGRA- PHICS, SAS oraz SYSTAT. Pakiety oceniano w 16 aspektach, wymienionych w arkuszu pytań, który przedstawiano do wypełnienia respondentom. Każdą z 16 cech pakietu ankietowani mieli ocenić na pięciopunktowej porządkowej skali szacunkowej od 1 do 5, przy czym 0 oznaczało brak znajomości pakietu lub niemożność oceny danego aspektu. Ze względu na to, że do omawianej oceny wymagane były bardzo wysokie kwalifikacje badanych, dobrano próbę losową, złożoną z dziewięciu sędziów kompetentnych. Składali się na nią pracownicy naukowi i specjaliści z różnych placówek naukowych i ośrodków komputerowych na terenie Wrocławia i Opola, którzy pracowali z większością wymienionych programów. (fragment tekstu)
Celem pracy jest przedstawienie wybranych procedur obliczeniowych, pozwalających oszacować parametry równań analizy czynnikowej, oraz wskazanie, iż wykorzystanie różnych pakietów statystycznych może doprowadzić - z powodu zaimplementowania w nich odmiennych algorytmów estymacji - do uzyskania niejednolitych wyników. (fragment tekstu)
Celem pracy jest zastosowanie pakietu statystycznego R do prognozowania inter- i ekstrapolacyjnego w szeregach czasowych z wahaniami sezonowymi dla luk niesystematycznych. Pakiet ten, będący zintegrowanym środowiskiem do obliczeń statystycznych, cechuje się szybkością wykonywania procedur, elastycznością oraz modułowością. W obliczeniach zostały wykorzystane m.in. procedury: lm(), stepAIC(). Zastosowanie pakietu zostanie zilustrowane na przykładzie kształtowania się miesięcznych wielkości skupu mleka. Prognozy inter- i ekstrapolacyjne będą budowane na podstawie predykatorów opartych na klasycznych oraz hierarchicznych modelach szeregu czasowego z liniowym trendem i periodycznym składnikiem sezonowym.(abstrakt oryginalny)
Analiza "unfolding" jest najczęściej wykorzystywaną do pomiaru preferencji metodą skalowania wielowymiarowego. W artykule omówiono ogólne zasady skalowania wielowymiarowego oraz ideę analizy "unfolding". Zaprezentowano wykorzystanie pakietu statystycznego "SPSS for Windows" do wyznaczania map preferencji.
Poddano analizie najpopularniejsze pakiety statystyczne posiadające procedury do budowy drzew klasyfikacyjnych i regresyjnych, pracujące w systemie Windows i dostępne w Polsce. (fragment tekstu)
Scharakteryzowano pakiet statystyczny R, który oferuje szerokie możliwości analizy. Przedstawiono przykładowe analizy spółek giełdowych, przy wykorzystaniu programu R. Analizie poddano ceny akcji jedenastu spółek z branży komputerowej notowanych na Warszawskiej Giełdzie Papierów Wartościowych.
W artykule scharakteryzowane zostaną funkcje pomocnicze clusterSim oraz wybrane funkcje pakietów stats, luster ade4, służące poszczególnym etapom analizy skupień. Ponadto zaprezentowane zostaną przykładowe składnie poleceń (procedury) ułatwiające potencjalnemu użytkownikowi realizację wielu zagadnień klasyfikacyjnych niedostępnych w podstawowych pakietach statystycznych (np. SPSS, Statistica, S-Plus, SAS). (fragment tekstu)
Pierwsza części wykładu będzie prezentacją programu statystycznego służącego odpornej estymacji w modelu Cox'a - aplikacja opracowana na podstawie metody T. Bednarskiego (1993). Program ten została dołączony do zestawu pakietów statystycznych języka R, budowanego w ramach otwartego projektu. Teoretyczna część wykładu poświęcona będzie zagadnieniu odpornej weryfikacji istotności modelu Cox'a. Przedstawione będą wyniki analityczne związane z granicznym rozkładem stosownie zmodyfikowanej statystyki Walda - bazującej na odpornej estymacji parametrów regresji w modelu Cox'a. Ponadto zaprezentowane będą wyniki Monte Carlo umożliwiające ocenę stopnia bliskości rozkładu asymptotycznego z wynikami empirycznymi dla skończonych prób. Zaproponowana statystyka testowa została dołączona do wspomnianego wcześniej pakietu statystycznego. (abstrakt oryginalny)
Celem artykułu jest przedstawienie możliwości zastosowania pakietów statystycznych do budowy systemu oceny kredytobiorców, tj. gospodarstw rolnych, z wykorzystaniem metod scoringowych. (fragment tekstu)
Tablica kontyngencji jest częstym sposobem przedstawiania danych mierzonych zarówno na skali nominalnej jak i porządkowej. W referacie zostaną przedstawione różne typy modeli log-liniowych, które pozwalają na badanie zależności między zmiennymi zawartymi w tablicy kontyngencji. Za pomocą pakietu vcd oraz graphics w programie R zostanie dokonana wizualizacja danych zawartych w wielowymiarowej tablicy kontyngencji Zostaną przedstawione przede wszystkim wykresy mozaikowe, które to są najczęstszym sposobem wizualizacji modeli log-liniowych. Tego typu wykresy mozaikowe zostały zaproponowane przez Hartigan i Kleiner [1981]. Referat jest kontynuacją referatu "Wizualizacja dwuwymiarowych tablic kontyngencji w pakiecie statystycznym R" wygłoszonego na XXV Konferencji MSA. (abstrakt oryginalny)
Analiza dyskryminacyjna należy do wielowymiarowych metod analizy i redukcji danych pozwalających zbadać związek między niemetryczną zmienną zależną a metrycznymi zmiennymi niezależnymi. Jej zasadniczym celem jest wyodrębnienie funkcji dyskryminacyjnych (nazywanych też kanonicznymi funkcjami dyskryminacyjnymi) w oparciu o zestaw zmiennych niezależnych, tak aby zmienność między klasami (wariantami zmiennej zależnej) była jak największa, a zmienność wewnątrz klas jak najmniejsza. Liczba funkcji dyskryminacyjnych może być co najwyżej równa liczbie klas pomniejszonej o jeden. Jeśli zmienna zależna miałaby 3 warianty, przykładowo "prawdopodobnie kupię", "jestem niezdecydowany" i "prawdopodobnie nie kupię", to liczba funkcji dyskryminacyjnych może wynosić 2. Jest to jednak górna granica, gdyż mogłoby się okazać, że jedna z nich jest nieistotna statystycznie i w procesie dyskryminacji można wykorzystać tylko tę drugą. Możliwa jest również sytuacja, kiedy obie funkcje dyskryminacyjne są nieistotne statystycznie, co świadczy o tym, że zestaw zmiennych niezależnych nie nadaje się do zróżnicowania respondentów (tu: potencjalnych nabywców produktu). Klasyczna analiza dyskryminacyjna już stosunkowo dawno znalazła uznanie badaczy rynku. Pierwsze przykłady zastosowań na gruncie badań rynkowych i marketingowych miały miejsce już pod koniec lat 50. ubiegłego stulecia. Jej aplikacje można podzielić na 3 główne grupy: modele predykcyjne do klasyfikacji nowych obiektów, modele pozwalające wyodrębnić istotne kryteria segmentacji oraz wymiary różnicujące podzbiory w badanych zbiorowościach. (fragment tekstu)
Celem artykułu jest zaprezentowanie możliwości programu R w zakresie klasyfikacji danych symbolicznych. W pierwszej części artykułu przedstawiono podstawowe pojęcia analizy danych symbolicznych, problemy decyzyjne i metody statystyczne w procesie klasyfikacji danych symbolicznych. W części drugiej wskazano specyfikę programu R oraz pakiety i funkcje, które mają zastosowanie w klasyfikacji danych symbolicznych. W ostatniej części zaprezentowano przykład klasyfikacji danych symbolicznych w środowisku R. (abstrakt oryginalny)
W artykule przedstawiono analizę możliwości wykorzystania symulacji komputerowych do wspomagania procesu nauczania przedmiotów statystyka, statystyka opisowa i statystyka matematyczna. Wskazano programy, które są wykorzystywane podczas zajęć prowadzonych w Akademii Ekonomicznej w Katowicach do przygotowania i zaprezentowania symulacji komputerowych. Przedstawiono wybrane przykłady symulacji komputerowych, które są wykorzystywane na różnych etapach procesu dydaktycznego, do prezentacji i wyjaśnienia różnych zagadnień statystycznych. (fragment tekstu)
W artykule rozważono zagadnienie pogrupowania państw europejskich ze względu na konsumpcję żywności. Zgromadzono dane o rocznym spożyciu na osobę 14 głównych grup produktów żywnościowych w 39 państwach. Dane dotyczą konsumpcji żywności w latach 2000 oraz 1993. W celu pogrupowania państw wykorzystano analizę skupień. Z uwagi na brak przesłanek dotyczących liczby skupień zastosowano hierarchiczne metody aglomeracyjne, oprogramowane w pakietach statystycznych Statgraphics. Liczbę skupień ustalono na podstawie analizy macierzy odległości, dendrogramów oraz wykresów odległości skupień względem etapów grupowania. Za miarę podobieństwa przyjęto kwadrat odległości euklidesowej. Ustalono, że poza metodą najbliższego sąsiedztwa, wszystkie hierarchiczne metody aglomeracyjne prowadzą do skupień o zbliżonym zestawie państw. Na podstawie wykonanej analizy skupień stwierdzono, że mimo zmian w spożyciu produktów żywnościowych w poszczególnych krajach, zestawy państw w otrzymanych skupieniach w roku 2000 i 1993 były niemal identyczne. (abstrakt oryginalny)
Zachodzącym przemianom systemowym w polskiej gospodarce towarzyszy rozwój rynku ubezpieczeń gospodarczych. Rosnąca konkurencja na tym rynku sprawia, że szczególnie ważnym narzędziem zarządzania i kierowania instytucją ubezpieczeniową jest statystyka. W artykule przedstawiono specyfikę pracy aktuariusza (specjalisty ubezpieczeniowego) oraz możliwości wykorzystania w jego pracy pakietów statystycznych. Autor artykułu wymienia zalety i wady tych użytecznych narzędzi informatycznych oraz charakteryzuje trzy z nich: Statgraphics, Statistica i Harvard Graphics. Omawia także najnowsze tendencje w komputeryzacji - systemy ekspertowe - i możliwości ich wykorzystania w ubezpieczeniach i pracy specjalisty ubezpieczeniowego.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.