PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2009 | 16 | nr 47 Klasyfikacja i analiza danych - teoria i zastosowania | 33--40
Tytuł artykułu

Implementacja metod łączenia modeli dyskryminacyjnych w programie R

Treść / Zawartość
Warianty tytułu
The Implementation of Ensemble Methods in R
Języki publikacji
PL
Abstrakty
W artykule zostanie przedstawiony przegląd dostępnych pakietów zawierających dodatkowe procedury napisane w języku R. Pokazane zostaną także ich zastosowania w przykładowych programach napisanych w tym języku oraz wyniki analiz porównawczych. (fragment tekstu)
EN
Model aggregation is a well known technique used to improve the classification accuracy in many applications. In this paper, we review a number of available packages in the R environment that can be used for aggregation of classification models. We also compare the CPU time when procedures from different packages were applied. The comparison was done for five data sets from the UCI Repository. (original abstract)
Twórcy
  • Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
Bibliografia
  • Breiman L. (1996), Bagging predictors, "Machine Learning" no 24, s. 123-140.
  • Breiman L. (2001), Random forests, "Machine Learning" no 45, s. 5-32.
  • Condorcet, Marquis de (1785), Essais sur l'application de l'analyse a la probabilite des decisions redues a la pluralite des voix, Paris.
  • Dettling M., Bühlmann P. (2003), Boosting for tumor classification with gene expression data, "Bioinformatics", tom 19, s. 1061-1069.
  • Freund Y., Schapire R. (1996), A decision-theoretic generalization of on-line learning and application to boosting, "Journal of Computer and System Sciences" no 55, s. 119-139.
  • Friedman J. (2002), Stochastic gradient boosting, "Computational Statistics and Data Analysis", tom 38(4), s. 367-378.
  • Friedman J., Hastie T., Tibshirani R. (2000), Additive logistic regression: a statistical view of boosting, "Annals of Statistics" no 28(2), s. 337-407.
  • Hansen L.K., Salamon P. (1990), Neural network ensembles, IEEE Transactions on Pattern Analysis and Machine Intelligence, t. 12, s. 993-1001.
  • Hothorn T., Lausen B. (2003), Bundling classifiers by bagging trees, "Computational Statistics & Data Analysis" 2005, tom 49, s. 1068-1078.
  • Krogh A., Vedelsby J. (1995), Neural network ensembles, cross validation, and active learning, [w:] G. Tesauro, D. Touretzky, T. Leen (eds.), Advances in Neural Information Processing Systems, MIT Press, 7, s. 231-238.
  • Ridgeway G. (1999), The state of boosting, "Computing Science and Statistics" tom 31, s. 172-181.
  • Shapley L., Grofman B. (1984), Optimizing group judgemental accuracy in the presence of interdependences, "Public Choice" no 43, s. 329-343.
  • Therneau T.M., Atkinson E.J. (1997), An introduction to recursive partitioning using the RPART routines, Mayo Foundation, Rochester.
  • Tumer K., Ghosh J. (1996), Analysis of decision boundaries in linearly combined neural classifiers, "Pattern Recognition" no 29, s. 341-348.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171368171

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.