Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 190

Liczba wyników na stronie
first rewind previous Strona / 10 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Metody ekonometryczne
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 10 next fast forward last
Rozwiązanie zadania optymalnego sterowania polega na wyborze spośród alternatywnych rodzajów polityki gospodarczej, polityki najlepszej przy danych ograniczeniach i ustalonym kryterium wyboru. Innymi słowy polega na wyznaczeniu takich wartości instrumentów polityki, które pozwolą na realizację każdego z przyjętych celów sterowania, na poziomie jak najbliższym pożądanemu. (...) Precyzyjne określenie przez decydenta tych wartości (zwanych parametrami zadania), na początku procesu sterowania, jest bardzo trudne. Nie dotyczy to z reguły parametrów strukturalnych modelu sterowanego układu, które są wyznaczane np. w drodze estymacji. Naturalnym postępowaniem w tej sytuacji jest zbadanie wrażliwości rozwiązania na zmiany parametrów. W opracowaniu przedstawiono wyniki empirycznych badań w tej dziedzinie. (fragment tekstu)
Praca dotyczy metodologii zagadnienia określanego rangowaniem obiektów wielocechowych i dotyczy sytuacji gdy dla tego samego, określonego zastawu cech otrzyma się różne rankingi w zależności od wybranej metody rangowania. W artykule autorka próbuje odpowiedzieć na pytania: który ranking wybrać? Czy można obiektywnie określić, który ranking jest lepszy i dlaczego? Czy istnieje formalne kryterium wyboru rankingu? Proponuje, aby do wyboru określonej metody rangowania posłużyć się wariancją tego rankingu. Aby można było porównywać wariancję rankingów, autorka proponuje, by różne metody rangowania przedstawić za pomocą jednej ogólnej procedury rzutowania ortogonalnego punktów na prostą w wielowymiarowej przestrzeni cech. Rzuty ortogonalne punktów na prostą będą wskazywały porządek - ranking tych punktów (obiektów).
Zaproponowano prosty sposób szacowania trendu logistycznego z wykorzystaniem procedury rozkładu dowolnej funkcji na funkcję parzystą i nieparzystą.
Artykuł zawiera ogólne wiadomości na temat prognoz (ich rodzaje i kryteria podziału) oraz pokazuje możliwość wykorzystania ekonometrycznych metod prognozowania w celu usprawnienia działalności firmy.
5
Content available remote Sposoby poznania relacji przyczynowych w ekonomii : argument na rzecz sceptycyzmu
100%
Współczesna ekonomia wykorzystuje trzy sposoby poznania zależności przyczynowych. W ograniczonym (ze względu na trudności epistemologiczne w izolowaniu oraz koszty) stopniu wykorzystuje się metodę doświadczalną. Z powodu występujących trudności, ekonomiści posługują się teoretycznymi, apriorycznymi modelami, które odpowiadają eksperymentom myślowym. Rozwój metod ekonometrycznych doprowadził do stworzenia testów przyczynowości. Wyniki uzyskane za pomocą każdej z metod są niepewne. Przegląd literatury z zakresu filozofii ekonomii oraz analiza niedawnych badań ekonomicznych prowadzi do wniosku, iż należy zachować pewną dozę sceptycyzmu do wniosków o przyczynowości. W celu uprawdopodobnienia wiedzy o przyczynie i skutku proponuje się wykorzystanie trzech metod: doświadczeń do określenia aksjomatów budowanych teorii, dedukcji relacji przyczynowych na podstawie modeli z zastosowaniem redukcji ontologicznej oraz ekonometrycznych testów przyczynowości do weryfikacji wyciągniętych wniosków. (abstrakt oryginalny)
Przedmiotem rozważań jest problem uzyskania dwu pierwszych momentów statystyki W =/(Tt t.s.s.+błąd s.s.) przy wykorzystaniu metodologii układów kompletnie zrandomizowanych oraz porównanie tych momentów z ich odpowiednikami uzyskanymi przy założeniu normalności. Dwa pierwsze momenty statystyki (Tt.s.s.) przy hipotezie braku efektów oddziaływania wyprowadzono na podstawie modelu reprezentującego eksperyment i porównano je z uzyskanymi przez Atiqullaha (1963), przy wykorzystaniu form kwadratowych. Analiza trzech jednakowo licznych zbiorów danych eksperymentalnych wskazuje, że zgodność wartości porównywanych dwu pierwszych momentów uzyskanych z dwu teorii jest dostatecznie wysoka dla liczebności N bliskich 50. (abstrakt oryginalny)
Przedmiotem rozważań jest problem uzyskania dwu pierwszych momentów statystyki W = Tt,s,s,/(Ttt,s,s,+błąd s.s.) przy wykorzystaniu metodologii układów kompletnie zrandomizowanych oraz porównanie tych momentów z ich odpowiednikami uzyskanymi przy założeniu normalności. Dwa pierwsze momenty statystyki (Tt,s,s,) przy hipotezie braku efektów oddziaływania wyprowadzono na podstawie modelu reprezentującego eksperyment i porównano je z uzyskanymi przez Atiquillaha (1963), przy wykorzystaniu form kwadratowych. Analiza trzech jednakowo licznych zbiorów danych eksperymentalnych wskazuje, że zgodność wartości porównywanych dwu pierwszych momentów uzyskanych z dwu teorii jest dostatecznie wysoka dla liczebności N bliskich 50. (abstrakt oryginalny)
8
Content available remote Słabe strony metody korygowania ceny średniej
75%
W artykule opisano metodę korygowania ceny średniej służącej do szacowania wartości nieruchomości i problemy związane z jej stosowaniem w praktyce. Metoda korygowania ceny średniej jest jedną z częściej wykorzystywanych metod przez rzeczoznawców majątkowych. Konstrukcja tej metody nie jest jednak doskonała. Od dawna podnoszone są zarzuty dotyczące między innymi samej nazwy tej metody, która z wartością średnią ma niewiele wspólnego. W artykule autor skupił się na problemach dotyczących możliwości zastosowania metody korygowania ceny średniej w określonych przypadkach. Z pierwszą sytuacją, która zmusza rzeczoznawcę majątkowego do zastanowienia, mamy do czynienia w sytuacji, kiedy niektóre wartości cech opisujących nieruchomość najdroższą oraz najtańszą w zbiorze nieruchomości podobnych do wycenianej są jednakowe. Drugi przypadek, znacznie trudniejszy do identyfikacji na poziomie wyceny, zachodzi wówczas, gdy istnieje ujemna korelacja pomiędzy wartością cechy a ceną skrajnych nieruchomości ze zbioru nieruchomości podobnych. (abstrakt oryginalny)
Under the Basel III and Basel IV accords, risk model validation remains based on the VaR measure. According to the industry practice, VaR backtesting procedures rely on two likelihood ratio tests, which, in light of the academic research, have been criticized for their unsatisfactory power. This paper aims to show the differences between VaR model evaluation based on the standard likelihood ratio approach and backtesting by means of other econometric methods applicable to the binary VaR failure process. The author decomposed the model evaluation into testing the unconditional coverage, replaced the likelihood ratio with a normal statistic, and in the next stage in order to verify the conditional coverage, employed the Ljung-Box statistic. The study experimentally confirmed the superiority of the proposed procedures over the industry standards. The main contribution, however, is the empirical study designed to demonstrate the practical differences in risk analysis attributable to the choice of the backtesting method. Using data on leading stock market indexes, from various periods, the author showed that the practical conclusions from backtesting diverge markedly due to the test choice. The proposed, more powerful tests, contrary to the standard procedures, allowed for distinguishing distinct models of index behaviour connected with undergoing the financial crises.(original abstract)
Badania dotyczące metod estymacji parametrów funkcji typu CES prowadzono w dwóch kierunkach: jeden z nich wykorzystywał technikę jackknife, drugi oparty był na teorii filtrów Kalmana. Analizę porównawczą obu sposobów estymacji można przeprowadzić wykorzystując wyłącznie eksperymenty Monte Carlo. Wyniki otrzymane dla małych prób nie dostarczają niestety jednoznacznych wskazań, by preferować jedną z tych dwóch metod. Zazwyczaj estymatory otrzymane w małych próbach są obciążone i każda redukcja jest oczywiście pożądana. Osiągnąć to można przez zbudowanie estymatorów ważonych. Problemem jest jednak wybór optymalnych wag. Zagadnienie to jest przedmiotem rozważań w tym artykule.
W niniejszym artykule zaprezentowano rezultaty otrzymane w wyniku podjętej przez Autora próby zastosowania ekonometrycznych metod predykcji długookresowej w dziedzinie ochrony zdrowia. Celem przeprowadzonego badania było zbudowanie długookresowej prognozy zmiennej Y określającej liczbę chorych leczonych w szpitalach ogólnych (bez szpitali psychiatrycznych) w przeliczeniu na 10 tys. ludności. Dla dokonania niezbędnych obliczeń numerycznych zastosowano programy opracowane przez drą Tadeusza Grabińskiego z Zakładu Teorii Prognoz AE w Krakowie. Wszystkie obliczenia wykonano na BUG CYBER 72 w Uczelnianym ośrodku Obliczeniowym Akademii Ekonomicznej w Krakowie. Należy zaznaczyć, iż ze względu na ograniczony zakres niniejszego opracowania podstawowe problemy związane z konstrukcją odpowiedniego modelu prognostycznego oraz jego wykorzystywaniem w procesie predykcji długookresowej jedynie zasygnalizowano. Ze względu na szczupłość miejsca przedstawiono tylko najistotniejsze (z punktu widzenia celu badania) rezultaty obliczeń. (fragment tekstu)
W pracy omówiono wybrane własności klasycznego współczynnika korelacji i maksymalnego współczynnika korelacji. Wprowadzono także współczynnik zależności prostoliniowej oraz podano dowód asymptotycznej normalności jego próbkowego odpowiednika. (abstrakt oryginalny)
Opisano subiektywne i obiektywne rozkłady a priori. Omówiono metody parametryczne, a wśród nich: metody wyznaczania rozkładu a priori dla prawdopodobieństwa sukcesu w rozkładzie dwumianowym, metody wyznaczania rozkładu a priori dla populacji o rozkładzie normalnym i rozkłady wielomianowe oraz metody nieparametryczne. Przedstawiono także grupowe wyznaczenie rozkładu a priori.
Artykuł poświęcono wykorzystaniu modeli ekonometrycznych w analizie informacji dostarczanych przez rachunkowość. Rachunkowość to dyscyplina praktyczna, której przedmiotem jest pomiar zdarzeń gospodarczych i zjawisk ekonomicznych. Wyniki tego pomiaru są liczbowym odwzorowaniem działalności jednostek gospodarczych. Dane empiryczne tworzone w rachunkowości ukazują jedynie stany określonych zdarzeń i zjawisk gospodarczych. Dopiero po odpowiednim przetworzeniu dane te przekształca się w użyteczne informacje ekonomiczne. Jednym ze sposobów takiego dodatkowego przetwarzania informacji finansowych jest modelowanie ekonometryczne. W badaniach prowadzonych w rachunkowości są modele ekonometryczne szacowane na podstawie danych pochodzących z systemu ewidencyjno-sprawozdawczego lub danych spoza tego systemu dotyczących problemów rachunkowości. Wyniki tego szacowania są ważnym źródłem informacji o prawidłowości i współzależności w kształtowaniu się zjawisk i procesów rozpatrywanych w rachunkowości(abstrakt oryginalny)
Celem artykułu jest ukazanie różnych sposobów wartościowania cech diagnostycznych ze względu na ich konkretne wartości. Przedstawiono liniową oraz dwie nieliniowe metody wartościowania zmiennych. Szczególny nacisk położono na zademonstrowanie metody wartościowania, preferującej ponadprzeciętne wartości cech diagnostycznych.
W artykule [4] autor przedstawił wyprowadzenie systemu równań algorytmu filtru Kalmana oraz szereg innych rozważań w odniesieniu do zagadnień filtracji i prognozy. W prezentowanym artykule nawiązano do rozważań z cytowanej wyżej pracy uzupełniając przedstawione wyniki o problem wygładzania.
Praca poświęcona jest zastosowaniu pseudometody największej wiarygodności do estymacji parametrów modeli nierównowagi pojedynczych rynków oraz dwóch rynków wzajemnie na siebie oddziałujących. Omówione są także pewne możliwości wykorzystania metod Monte Carlo w procesie estymacji modeli nierównowagi.
Metoda Newtona, ze względu na koszty obliczeń, stosowana jest rzadko i to wyłącznie w przypadku niewielkich systemów liczących do kilkudziesięciu równań. Okazuje się jednak, iż po odpowiednim uporządkowaniu równań w modelu, metoda Newtona staje się często efektywniejsza od metody Gaussa-Seidela w rozwiązywaniu dużych systemów. Prezentowany artykuł nie zawiera szczegółowego opisu metody Newtona i jej własności, analizuje natomiast efektywny algorytm rozwiązywania modeli ekonometrycznych.
Celem artykułu jest skonstruowanie modelu ekonometrycznego opartego o tzw. szczeciński algorytm masowej wyceny nieruchomości. Scharakteryzowano algorytm. Zdefiniowano atrybuty nieruchomości, z uwzględnieniem właściwych dla nich skal pomiaru. Zaprezentowano możliwość ekonometrycznego szacowania wpływu atrybutów. Rozważania zilustrowano przykładem empirycznym, opierającym się o rzeczywiste dane z rynku nieruchomości.(abstrakt oryginalny)
Nierówność, o której mowa w niniejszej pracy ma, według autora, wielkie znaczenie praktyczne i teoretyczne. Przytoczone zostały mniej znane możliwości zastosowań nierówności m.in.: do badania, czy para spełniająca odpowiednie założenie tworzy parę korelacyjną.
first rewind previous Strona / 10 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.