Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 27

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Forecast theory
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
W wielu sytuacjach obserwowana nieskuteczność prognozowania stawia przed nami zasadnicze pytanie o przyczyny takiego wyniku odnoszącego się do przyszłości badanych zjawisk. Występujące ograniczenia wywołane są zarówno przez charakter samych dostępnych danych, jak i przez nasze rozumienie tego, czym jest przyszłość. W artykule wprowadzono trzy różne pojęcia odnoszące się do sposobów określania przyszłości: prognozowanie, przewidywanie i wieszczenie, oraz przeanalizowano ich stosowalność. (abstrakt oryginalny)
W artykule zaprezentowano przegląd mierników błedów prognoz ex post, wyróżniając mierniki o charakterze bezwzględnym, względnym i relatywnym. Przegląd ten wzbogacono opisem dotyczącym możliwości, ograniczeń i poprawności ich stosowania. Opracowano także wskazówki, które mogą być pomocne przy wyborze miernika odpowiedniego do celu badania, charakteru zmiennej, grupy użytkowników prognoz itd. oraz przykłady zastosowań mierników średnich błędów prognoz ex post.
W procesie prognozowania występuje dwóch partnerów: odbiorca prognozy, czyli osoba fizyczna lub prawna zlecająca wykonanie prognozy, oraz prognosta - wykonawca prognozy. Odbiorca określa żądany horyzont prognozy oraz stawia wymagania co do dokładności prognozy w zależności od celu, w jakim jest ona budowana. Odbiorca może na przykład zażądać, by prognoza była wykonana na lata 2005-2010 i aby w każdym roku jej błąd nie przekroczył określonej wielkości. Zadaniem prognosty, po sporządzeniu prognozy, a przed udostępnieniem jej odbiorcy, jest ocena dopuszczalności prognozy. W zależności od stosowanej metody prognozowania można na kilka sposobów ocenić dopuszczalność prognozy. Jednym z nich jest oszacowanie błędu prognozy ex ante. (fragment tekstu)
W dążeniu do poprawienia dokładności prognoz pojawił się pomysł syntezy prognoz danej kategorii, pochodzących z różnych źródeł. W efekcie otrzymuje się jedną prognozę łączoną (combined forecast) opartą na uśrednieniu prognoz indywidualnych. Jednym z problemów pozostaje sposób doboru wag do takiej prognozy. W artykule zastosowano techniki łączenia na kwartalnych prognozach głównych makrokategorii transformującej się gospodarki Polski. Zasadniczym celem artykułu jest odpowiedź na pytania: (i) czy łączenie prognoz, przy bardzo skąpej ilości informacji z przeszłości, przynosi poprawę dokładnośći?; (ii) jak wyznaczyć wagi i ile informacji z przeszłości uwzględnić, by możliwie najbardziej poprawić dokładność prognoz?. Odpowiedź na postawione pytania autor przeprowadza na danych zebranych dla potrzeb projektu PHARE "Niezależne Prognozy Makroekonomiczne". Są to kwartalne prognozy PKB, inflacji i bezrobocia następujących podmiotów prognozujących: CDMiF, IBnGR, LIFEA i NOBE formułowane w maju 1997, grudniu 1997 i maju 1998.
W pracy przedstawiono przykłady wyznaczania prognoz punktowych szeregów czasowych na podstawie trendów nieliniowych. W tym przypadku metoda jackknife umożliwi redukcję obciążenia predykcji punktowej oraz ocenę wariancji predykcji. Metodę tę wprowadził Quenouille (1949), następnie rozwijało ją wielu autorów, a w szczególności Tukey (1958) oraz Shao and Tu (1995).
W wielowymiarowych analizach porównawczych dotyczących zjawisk złożonych nie podlegających bezpośredniemu pomiarowi, często wykorzystuje się zmienne syntetyczne, reprezentujące badane zjawiska ekonomiczne. Celem artykułu jest przedstawienie wyników badań nad uogólnieniem rozważań gdy zmienna syntetyczna jest budowana na podstwie co najmniej dwóch znormalizowanych zmiennych diagnostycznych.
W artykule zaprezentowano wybrane zagadnienia budowy prognoz na podstawie opinii eksperta. Celem głównym artykułu jest zaproponowanie sposobów oceny stopnia niepewności takich prognoz opartej na pojęciu prawdopodobieństwa subiektywnego. (fragment tekstu)
Możliwość budowania prognoz nie przesądza o celowości ich faktycznego stawiania. Nie wszystkie prognozy wypełniają bowiem w wystarczająco dużym stopniu oczekiwania ich odbiorców (użytkowników, osób z nich korzystających) co do pragmatycznych atrybutów tych prognoz. Prognozy są praktycznie użyteczne, gdy charakteryzują się następującymi cechami: dopuszczalnością, aktualnością, sekwencyjnością, powtarzalnością i kompleksowością. W artykule podjęto tematykę wymienionych cech z punktu widzenia dwóch aspektów. Jeden dotyczy istoty i charakteru poszczególnych cech, drugi - pozytywnych i negatywnych konsekwencji, jakie implikują poszczególne cechy dla odbiorców prognoz. (abstrakt oryginalny)
Celem artykułu jest ocena wrażliwości prognoz wygasłych budowanych z jednostkowym realnym wyprzedzeniem czasowym na dobór wartości początkowych w modelu Browna. Wnioski praktyczne zostały sformułowane na podstawie symulacyjnych oraz rzeczywistych szeregów czasowych o ustalonej długości, uwzględniających różne wartości początkowe wygładzonego szeregu czasowego. (fragment tekstu)
Ideą metod wygładzania wykładniczego, do których należą metoda Browna, metoda Holta, metoda Wintersa i ich modyfikacje, jest budowa prognoz na podstawie składowych szeregu czasowego wygładzonych za pomocą ważonej średniej ruchomej. Ich stosowanie wymaga arbitralnego określenia wartości startowych (początkowych) dla składowych szeregu czasowego oraz wartości tzw. parametrów wygładzania. (...) Przygotowując prognozy z użyciem tych metod, czasem nie docenia się wpływu założeń (wartości startowych) na ocenę jakości prognoz w świetle określonych miar statystycznych, a ma to znaczenie tym większe, że owe miary stanowią funkcję kryterium w procesie optymalizacji wartości parametrów wygładzania. W referacie podjęto próbę oceny wpływu tych założeń. Uwagę skupiono na metodzie Wintersa jako najbardziej rozbudowanej z metod wygładzania wykładniczego, ilustrując rozważania wynikami własnych badań empirycznych. (fragment tekstu)
Autorzy badają wpływ autokorelacji na predykcję w zarówno w przypadku, gdy znany jest współczynnik autokorelacji, jak i w sytuacji gdy pozostaje on nieznany. Zaproponowano cztery analityczne postaci estmatora parametru współczynnika autokorelacji modelu autoregrsyjnego rzędu pierwszego. Zapowiedziano dalsze prace nad własnościami predyktorów, dla szacowanego z próby parametru współczynnika autokorelacji na podstawie zaproponowanych czterech estymatorów.
Będziemy odróżniać współliniowość dokładną od przybliżonej. W pierwszym przypadku wektory wartości zmiennych objaśniających są liniowo zależne i jeden z nich jest kombinacją liniową pozostałych, w drugim wektory te są liniowo niezależne, ale pewna ich kombinacja ma bardzo małą normę, a jeden z nich jest w przybliżeniu kombinacją pozostałych wektorów. (fragment tekstu)
13
Content available remote Trafność prognoz w stosunku do ocen w teście koniunktury przemysłowej GUS
75%
W artykule przeprowadzono ocenę trafności prognoz testu koniunktury przemysłowej GUS w odniesieniu do produkcji, portfela zamówień i sytuacji finansowej. Porównane zostały formułowane przez przedsiębiorców prognozy dotyczące tych cech z ich późniejszymi ocenami bieżącymi. Wyniki wskazują, że przedsiębiorcy odpowiadając na pytanie o prognozy produkcji i portfela zamówień w najbliższych trzech miesiącach, koncentrują się głównie na najbliższych dwóch miesiącach. Prognozy są systematycznie przeszacowywane, ich przeciętna trafność jest umiarkowana, ale wykazuje wyraźną poprawę w ostatnich latach.(abstrakt oryginalny)
14
75%
The recent financial crisis has seen huge swings in corporate bond spreads. It is analyzed what quality VAR-based forecasts would have had prior and during the crisis period. Given that forecasts of the mean of interest rates or financial market prices are subject to large uncertainty independent of the class of models used, major emphasis is put on the quality of measures of forecast uncertainty. The VAR considered is based on a model first suggested in the literature in 2005. In a rolling window analysis, both the model's forecasts and joint prediction bands are calculated making use of recently proposed methods. Besides a traditional analysis of the forecast quality, the performance of the proposed prediction bands is assessed. It is shown that the actual coverage of joint prediction bands is superior to the coverage of naïve prediction bands constructed pointwise. (original abstract)
Omówiono metody prognozowania ex-post: metodę wyrównywania wykładniczego i model autoregresji zmiennej prognozowanej. Celem pracy jest zastosowanie tych metod do prognozwania zużycia (brutto) energii elektrycznej w Polsce w latach 1948-1967, porównanie otrzymanych wyników i wysunięcie sugestii w zakresie wyboru najbardziej efektywnej drogi postępowania
W niniejszej pracy przedstawiono wybrane metody stosowane do krótkoterminowego prognozowania szeregów chaotycznych; liniową i kwadratową lokalną aproksymację wielomianową oraz metodę Najbliższych Sąsiadów wraz z autorskim pomysłem pewnej jej modyfikacji. Skuteczność proezentowanych metod zweryfikowano w zastosowaniu do wygenerowanych znanych szeregów chaotycznych o różnej długości. Dokonano próby krótkookresowego prognozowania rzeczywistych ekonomicznych szeregów czasosych indeksu WIG oraz jego stóp zmian na podstawie dziennych obserwacji z okresu 03.10.1994-20.08.2001 r.
Przedstawione w artykule badania koncentrują się na dekompozycji błędu prognoz wielookresowych przy uwzględnieniu stochastyczności zmiennych egzogenicznych. Zauważono, że błąd wynika wówczas z nieprawidłowego oszacowania parametrów modelu, błędnego przewidywania wartości zmiennych egzogenicznych oraz stochastycznej natury procesów ekonomicznych. W badaniu stwierdzono, że zarówno w przypadku prognoz ex post jak i ex ante błąd losowy oraz błąd związany z nieznajomością prawdziwych wartości zmiennych egzogenicznych to najistotniejsze składniki błędu prognozy.
20
Content available remote Analiza porównawcza wybranych metod szacowania błędu predykcji klasyfikatora
75%
Klasyfikacją nazywamy algorytm postępowania, który przydziela badane obserwacje/obiekty, bazując na ich cechach do określonych populacji. W tym celu konstruowany jest odpowiedni model - klasyfikator. Miarą jego jakości jest przede wszystkim zdolność predykcyjna, mierzona m.in. za pomocą prawdziwego błędu predykcji. Wartość tego błędu, ze względu na brak odpowiednio dużej, niezależnej próby testowej, musi być często szacowana na podstawie dostępnej próby uczącej. Celem artykułu jest dokonanie przeglądu oraz empirycznej analizy porównawczej wybranych metod szacowania błędu predykcji klasyfikatora, skonstruowanego z wykorzystaniem liniowej analizy dyskryminacyjnej. Zbadano, czy wyniki analizy uzależnione są od wielkości próby oraz metody wyboru zmiennych do modelu. Badanie empiryczne zostało przeprowadzone na przykładzie problemu prognozowania upadłości spółek akcyjnych w Polsce. (abstrakt oryginalny)
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.