PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2012 | Metody i modele analiz ilościowych w ekonomii i zarządzaniu. Cz. 4 |
Tytuł artykułu

Porównanie nieparametrycznych modeli regresji pod względem zdolnoci predykcyjnych

Warianty tytułu
Języki publikacji
PL
Abstrakty
Nieparametryczne metody regresji stanowią zróżnicowaną i dynamicznie rozwijającą się grupę. Metody te budowane są z wykorzystaniem różnych podstaw teoretycznych oraz odmiennych podejść do rozwiązania zadania regresji. Różnorodność idei stanowiących podstawę konstrukcji tych metod zaowocowała: - różniącymi się postaciami otrzymywanych modeli, - odmiennymi mechanizmami działania algorytmów pozwalających na oszacowanie parametrów tych modeli. Ze względu na owe różnice ważne staje się porównanie tych metod pod względem własności statystycznych, w tym głównie zdolności predykcyjnych modeli, które dzięki nim uzyskujemy. W niniejszym rozdziale pojęcie zdolność predykcyjna modelu będzie rozumiane jako ocena, na ile wartości teoretyczne ŷi, różnią się od wartości empirycznych yi dla obserwacji spoza zbioru uczącego. Do oceny zdolności predykcyjnych modelu można wybrać takie mierniki, jak błąd średniokwadratowy MSE czy współczynnik determinacji R2. Różnica polega na tym, że w tym przypadku są one obliczane dla obserwacji nienależących do zbioru uczącego, lecz należących do tzw. zbioru testowego. (fragment tekstu)
Twórcy
  • Uniwersytet Ekonomiczny w Katowicach
Bibliografia
  • Bishop C., Neural Networks for Pattern Recognition, Oxford University Press, Oxford 1995
  • Blum A., Kalai A., Langford J., Beating the Hold-Out: Bounds for K-fold and Progressive Cross-Validation, „COLT” 1999
  • Breiman L.,Bagging Predictors, „Machine Learning” 1996, Vol. 24
  • Breiman L., Random Forests, „Machine Learning” 2001, Vol. 45
  • Breiman L., Friedman J., Estimating Optimal Transformations for Multiple Regression and Correlation (with discussion), „Journal of the American Statistical Association” 1985, Vol. 80
  • Breiman L., Friedman J., Olshen R., Stone C., Classification and Regression Trees, Chapman & Hall, New York 1984
  • Duda R., Hart P., Stork D., Pattern Classification, John Wiley & Sons, New York 2001
  • Friedman J., Greedy Function Approximation: a Gradient Boosting Machine, Technical Report, Stanford University, Dept. of Statistics, 1999
  • Friedman J., Stochastic Gradient Boosting, Technical Report, Stanford University, Dept. of Statistics, 1999
  • Friedman J., Stuetzle W., Projection Pursuit Regression, „Journal of the American Statistical Association”, 1981, Vol. 76
  • Heilpern S., Modelowanie odporne, w: Statystyczne metody analizy danych, red. W. Ostasiewicz, Akademia Ekonomiczna, Wroclaw 1999
  • Kohavi R., A Study of Cross- Validation and Bootstrap for Accuracy Estimation and Model Selection, „IJCAI” 1995
  • Kooperberg C., Bose S., Stone C., Polychotomous Regression, „Journal of the American Statistical Association” 1997, Vol. 92
  • Tibshirani R., Estimating Transformations for Regression Via Additivity and Variance Stabilization, „Journal of the American Statistical Association” 1988, Vol. 83(402)
  • Vapnik V., Statistical Learning Theory, „Adaptive and Learning Systems for Signal Processing, Communications, and Control”, John Wiley & Sons, New York 1998
  • Wolpert D., Macready W., No Free Lunch Theorems for Optimization, „IEEE Transactions on Evolutionary Computation” 1997, Vol. 1(1)
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171272691

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.