PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2011 | 18 | nr 176 Klasyfikacja i analiza danych - teoria i zastosowania | 176--183
Tytuł artykułu

O zastosowaniu metody wiązania modeli do poprawy dokładności klasyfikacji pacjentów z pojedynczym cieniem okrągłym płuca

Warianty tytułu
On the Use of Bundling to Improve Accuracy of Classification of Patients with Solitary Pulmonary Nodules
Języki publikacji
PL
Abstrakty
Metoda wiązania modeli (bundling) została zaproponowana przez Hothorna jako modyfikacja metody bagging. Polega ona na wykorzystaniu dodatkowych modeli, innych klas niż drzewa klasyfikacyjne, budowanych na podstawie zbioru OOB (out-of-bag), zawierającego obserwacje spoza aktualnej próby bootstrapowej. Na podstawie tych modeli dokonuje się predykcji dla obserwacji w próbie bootstrapowej, a następnie wyniki predykcji traktuje się jako dodatkowe zmienne objaśniające przy budowie drzewa klasyfikacyjnego. W artykule przedstawiono wyniki wykorzystania metody wiązania modeli do poprawy dokładności klasyfikacji pacjentów z pojedynczym cieniem okrągłym płuca.(abstrakt oryginalny)
EN
Bundling was proposed by Hothorn as modification of bagging. The main idea is to use the out-of-bag (OOB) observations of a bootstrap sample to build classifiers of arbitrary type (i.e. LDA or SVM). The predictions of those classifiers are computed for the observations in the bootstrap sample and are used as predictors offered to a classification tree in addition to the original predictors. In the study bundling was applied to improve accuracy of classification of patients with solitary pulmonary nodules.(original abstract)
Twórcy
  • Wojewódzki Szpital Specjalistyczny im. M. Kopernika w Łodzi
  • Uniwersytet Łódzki
  • Uniwersytet Łódzki
Bibliografia
  • Breiman L., Bagging predictors, "Machine Learning" 1996, 24, s. 123-140.
  • Breiman L., Random forests, "Machine Learning" 2001, 45, s. 5-32.
  • Efron B., Tibshirani R., Improvements on Cross-Validation: The .632+ Bootstrap Method, "Journal of the American Statistical Association" 1997, vol. 92, no. 438, s. 548-560.
  • Freund Y., Schapire R.E., A decision-theoretic generalization of on-line learning and an application to boosting, "Journal of Computer and System Sciences" 1997, 55, s. 119-139.
  • Gatnar E., Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, Wyd. Naukowe PWN, Warszawa 2008.
  • Hothorn T., Bundling classifiers with an application to glaucoma diagnosis, Dissertation, Department of Statistics, University of Dortmund, Germany, 2003, http://eldorado.uni-dortmund.de:8080/ bitstream/2003/2790/1/hothornunt.pdf.
  • Hothorn T., Lausen B., Double-bagging: Combining classifiers by bootstrap aggregation, "Pattern Recognition" 2003, 36, s. 1303-1309.
  • Kohavi R., A Study of Cross-Validation and Bootstrap for Accuracy Estimation and Model Selection, "Proceedings of the Fourteenth International Joint Conference on artificial Intelligence", Montreal - Quebec 1995, vol. 2, s. 1137-1145.
  • Stefanowski J., Algorytmy indukcji reguł decyzyjnych w odkrywaniu wiedzy, Rozprawy nr 361, Wyd. Politechniki Poznańskiej, Poznań 2001.
  • Szlachcińska A., Witaszczyk A., Misztal M., Zastosowanie drzew klasyfikacyjnych do identyfikacji rodzaju zmian u pacjentów z pojedynczym cieniem okrągłym płuca, [w:] K. Jajuga, M. Walesiak (red.), Klasyfikacja i analiza danych - teoria i zastosowania, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu nr 47, Taksonomia 16, Wydawnictwo AE we Wrocławiu, Wrocław 2009, s. 442-450.
  • Wolpert D.H., Macready W.G., No Free Lunch Theorems for Optimization, "IEEE Transactions on Evolutionary Computation" 1997, 1 (1), s. 62-68.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171370309

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.