Czasopismo
Tytuł artykułu
Autorzy
Warianty tytułu
Error Decomposition in Aggregated Discriminant Models
Języki publikacji
Abstrakty
Pojęcie dekompozycji błędu predykcji wywodzi się z regresji i polega na rozbiciu spodziewanej wartości błędu na trzy składowe, tj.: szum (ang. noise), obciążenie (ang. bias) i wariancję (ang. variance). Podjęto także próby przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Agregacja modeli ma na celu obniżenie wartości błędu przez redukcję albo obciążenia, albo wariancji, albo obydwu tych wielkości jednocześnie. Jednak, aby porównać różne metody agregacji modeli dyskryminacyjnych ze względu na ich wpływ na wartości obciążenia i wariancji, należy być bardzo ostrożnym, bowiem różne sposoby dekompozycji błędu klasyfikacji zaproponowane w literaturze przedmiotu, dają różne wartości tych wielkości. (fragment tekstu)
The idea of error decomposition comes from regression where the square loss function is applied. Prediction error is decomposed into three components: noise, bias and variance.
There are also trials to apply the idea of error decomposition in classification. But the sum of those three components is different to the value of classification error. This is why several authors have proposed their own definitions of decomposition components for classification problem. In this paper we present and compare known decompositions for 0-1 loss. (original abstract)
There are also trials to apply the idea of error decomposition in classification. But the sum of those three components is different to the value of classification error. This is why several authors have proposed their own definitions of decomposition components for classification problem. In this paper we present and compare known decompositions for 0-1 loss. (original abstract)
Rocznik
Tom
Strony
274--282
Opis fizyczny
Twórcy
autor
- Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
Bibliografia
- Blake C., Keogh E., Merz C.J., UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine 1998.
- Breiman L., Arcing Classifiers, Technical Report, Departament of Statistics, University of California, California 1996.
- Breiman L., Randomizing Outputs to Increase Prediction Accuracy, "Machine Learning" 2000, 40 (3), wrzesień.
- Domingos P., A Unified Bias-Variance Decomposition for Zero-One and Squared Loss, "Proceedings of the Seventeenth National Conference on Arificial Intelligence", AAAI Press, Austin 2000.
- Kohavi R., Wolpert D.H., Bias Plus Variance Decomposition for Zero-One Loss Functions, "Proceedings of the Twelfth International Conference on Machine Learnig", Morgan Kaufmann, Tahoe City 1995.
- Kong E.B., Dietterich T.G., Error-Correcting Output Coding Corrects Bias and Variance, "Proceedings of the Thirteenth International Conference on Machine Learnig", Morgan Kaufmann 1995.
- Tibshirani R., Bias, Variance and Prediction Error for Classification Rules, Technical Report, Department of Statistics, University of Toronto, Toronto 1996.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171526285