PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2010 | 235 Multivariate Statistical Analysis | 165--170
Tytuł artykułu

On the Application of Bundling in Medical Diagnosis

Treść / Zawartość
Warianty tytułu
O zastosowaniu metody wiązania modeli (bundling) w diagnostyce medycznej
Języki publikacji
EN
Abstrakty
EN
Bundling was proposed by Hothorn (2003a) as a modification of bagging (Breiman 1996). The main idea is to use the out-of-bag (OOB) observations of a bootstrap sample to buildclassifiers of arbitrary type (i.e. LDA or NN). The predictions of those classifiers are computed for the observations in the bootstrap sample and are used as predictors offered to classification trees in addition to the original predictors (Hothorn 2003a). In the study bundling was applied to improve prediction accuracy in some classification tasks in medical diagnosis. (original abstract)
Metoda wiązania modeli (bundling) została zaproponowana przez Hothorna (2003a) jako modyfikacja metody bagging (Breiman 1996). Polega ona na wykorzystaniu dodatkowych modeli, innych klas niż drzewa klasyfikacyjne, budowanych na podstawie zbioru OOB (out-of-bag), zawierającego obserwacje spoza aktualnej próby bootstrapowej. Na podstawie tych modeli dokonuje się predykcji dla obserwacji w próbie bootstrapowej a następnie wyniki predykcji traktuje się jako dodatkowe zmienne objaśniające przy budowie drzewa klasyfikacyjnego (Hothorn 2003a). W referacie przedstawiono wyniki wykorzystania metody wiązania modeli do poprawy dokładności predykcji w wybranych problemach diagnostyki medycznej. (abstrakt oryginalny)
Twórcy
  • University of Lodz, Poland
Bibliografia
  • Blake C., Merz C. J. (1998), UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine, http://ics.uci.edu/~mlearn/MLRepository.html
  • Breiman L. (1996), Bagging predictors, Machine Learning 24, 123-140.
  • Breiman L. (2001), Random forests, Machine Learning 45, -32.
  • Buttrey S. E., Karo C. (2002), Using k-nearest-neighbor classification in the leaves of a tree, Computational Statistics & Data Analysis 40 (2002), 27-37.
  • Chan K.-Y., Loh W.-Y. (2004), LOTUS: An Algorithm for Building Accurate and Comprehensible Logistic Regression Trees, Journal of Computational and Graphical Statistics, Vol. 13, Issue 4, 826-852.
  • Freund Y., Schapire R.E. (1997), A decision-theoretic generalization of on-line learning and an application to boosting. Journal of Computer and System Sciences 55, 119-139.
  • Hothorn T., Lausen B. (2003), Double-bagging: Combining classifiers by bootstrap aggregation, Pattern Recognition, 36,1303-1309.
  • Hothorn T. (2003a), Bundling classifiers with an application to glaucoma diagnosis, Dissertation, Department of Statistics, University of Dortmund, Germany, 2003. http://eldorado.uni-dortmund.de:8080/bitstream/2003/2790/l/hothornunt.pdf
  • Hothorn T. (2003b), Bundling Predictors in R, (in:) Proceedings of the 3rd International Workshop on Distributed Statistical Computing (DSC 2003), K. Hornik, F. Leisch, A. Zeileis (eds.) Vienna, Austria.
  • Kim H., Loh W.-Y. (2003), Classification Trees with Bivariate Linear Discriminant Node Models, Journal of Computational and Graphical Statistics, 12, 512-530.
  • Lim T.-S. (2000), Polytomous Logistic Regression Trees, PhD Thesis, Department of Statistics, University of Wisconsin, Madison.
  • Wolpert D. H., Macready W. G. (1997), No Free Lunch Theorems for Optimization, IEEE Transactions on Evolutionary Computation, 1(1), 62-68.
Typ dokumentu
Bibliografia
Identyfikatory
DOI
Identyfikator YADDA
bwmeta1.element.ekon-element-000169658042

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.