PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2013 | 20 | nr 278 Klasyfikacja i analiza danych - teoria i zastosowania | 197--205
Tytuł artykułu

Wybrane symulacyjne techniki porównywania nieparametrycznych metod regresji

Warianty tytułu
On Some Simulative Procedures for Comparing Nonparametric Methods of Regression
Języki publikacji
PL
Abstrakty
W artykule przedstawiono symulacyjną procedurę badawczą pozwalającą na porównywanie różnych nieparametrycznych modeli regresji. Procedura ta przebiega dwuetapowo. Na początku tworzonych jest wiele modeli regresji, spośród których wybrane i uszeregowane w postaci rankingu zostają te modele, które charakteryzują się najlepszą dokładnością predykcji, mierzoną za pomocą estymatora punkowego, jakim jest błąd średniokwadratowy obliczony metodą sprawdzania krzyżowego (MSECV). Drugi etap analizy ma na celu zbadanie istotności różnic pomiędzy uzyskanymi wartościami MSECV, a t ym s amym skorygowanie otrzymanych rankingów metod. Zaproponowaną procedurę badawczą zastosowano w badaniu empirycznym dla zbiorów danych standardowo wykorzystywanych do badania własności metod regresji.(abstrakt oryginalny)
EN
The paper presents the simulative procedure for comparing the performance of several competing algorithms of nonparametric regression. This procedure has two stages. In the first one, the ranking of nonparametric models of regression is created. In the second stage, statistical test procedures can be used to test the significance of differences in the performances of models presented in the ranking. The procedure is applied to regression benchmark studies based on real world data.(original abstract)
Twórcy
  • Uniwersytet Ekonomiczny w Katowicach
Bibliografia
  • Bishop C. (1995), Neural Networks for Pattern Recognition, Oxford University Press, Oxford.
  • Blum A., Kalai A., Langford J. (1999), Beating the hold-out: bounds for K-fold and progressive cross-validation, "COLT", s. 203-208.
  • Breiman L. (1996), Bagging predictors, "Machine Learning", 24, s. 123-140.
  • Breiman L. (2001), Random forests, "Machine Learning, 45, s. 5-32.
  • Friedman J. (1999a), Greedy Function Approximation: a Gradient Boosting Machine, Technical Report, Stanford University, Dept. of Statistics.
  • Friedman J. (1999b), Stochastic Gradient Boosting, Technical Report, Stanford University, Dept. of Statistics.
  • Friedman J., Stuetzle W. (1981), Projection pursuit regression, "Journal of the American Statistical Association", 76, s. 817-823.
  • Hothorn T., Leisch F., Zeileis A., Hornik K. (2005), The design and analysis of benchmark experiments, "Journal of Computational and Graphical Statistics", 14(3), s. 675-699.
  • Kohavi R. (1995), A study of cross-validation and bootstrap for accuracy estimation and model selection, "IJCAI", s. 1137-1145.
  • Kooperberg C., Bose S., Stone C. (1997), Polychotomous regression, "Journal of the American Statistical Association", 92, s. 117-127.
  • Meyer D., Leisch F., Hornik K. (2003), The support vector machine under test, "Neurocomputing", 55(1-2), s. 169-186.
  • Vapnik V. (1998), Statistical learning theory, "Adaptive and Learning Systems for Signal Processing, Communications, and Control", John Wiley & Sons, Nowy Jork.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171250655

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.