PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2005 | 12 | nr 1076 Klasyfikacja i analiza danych - teoria i zastosowania | 274--282
Tytuł artykułu

Dekompozycja błędu klasyfikacji w zagregowanych modelach dyskryminacyjnych

Autorzy
Warianty tytułu
Error Decomposition in Aggregated Discriminant Models
Języki publikacji
PL
Abstrakty
Pojęcie dekompozycji błędu predykcji wywodzi się z regresji i polega na rozbiciu spodziewanej wartości błędu na trzy składowe, tj.: szum (ang. noise), obciążenie (ang. bias) i wariancję (ang. variance). Podjęto także próby przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Agregacja modeli ma na celu obniżenie wartości błędu przez redukcję albo obciążenia, albo wariancji, albo obydwu tych wielkości jednocześnie. Jednak, aby porównać różne metody agregacji modeli dyskryminacyjnych ze względu na ich wpływ na wartości obciążenia i wariancji, należy być bardzo ostrożnym, bowiem różne sposoby dekompozycji błędu klasyfikacji zaproponowane w literaturze przedmiotu, dają różne wartości tych wielkości. (fragment tekstu)
EN
The idea of error decomposition comes from regression where the square loss function is applied. Prediction error is decomposed into three components: noise, bias and variance.
There are also trials to apply the idea of error decomposition in classification. But the sum of those three components is different to the value of classification error. This is why several authors have proposed their own definitions of decomposition components for classification problem. In this paper we present and compare known decompositions for 0-1 loss. (original abstract)
Twórcy
  • Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
Bibliografia
  • Blake C., Keogh E., Merz C.J., UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine 1998.
  • Breiman L., Arcing Classifiers, Technical Report, Departament of Statistics, University of California, California 1996.
  • Breiman L., Randomizing Outputs to Increase Prediction Accuracy, "Machine Learning" 2000, 40 (3), wrzesień.
  • Domingos P., A Unified Bias-Variance Decomposition for Zero-One and Squared Loss, "Proceedings of the Seventeenth National Conference on Arificial Intelligence", AAAI Press, Austin 2000.
  • Kohavi R., Wolpert D.H., Bias Plus Variance Decomposition for Zero-One Loss Functions, "Proceedings of the Twelfth International Conference on Machine Learnig", Morgan Kaufmann, Tahoe City 1995.
  • Kong E.B., Dietterich T.G., Error-Correcting Output Coding Corrects Bias and Variance, "Proceedings of the Thirteenth International Conference on Machine Learnig", Morgan Kaufmann 1995.
  • Tibshirani R., Bias, Variance and Prediction Error for Classification Rules, Technical Report, Department of Statistics, University of Toronto, Toronto 1996.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171526285

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.