PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2006 | Systemy wspomagania organizacji SWO 2006 | 405--415
Tytuł artykułu

Kontekstowy klasyfikator złożony w trudnych zadaniach klasyfikacyjnych

Warianty tytułu
Języki publikacji
PL
Abstrakty
Zastosowanie kontekstowego klasyfikatora złożonego służy dwóm celom. Po pierwsze, zdecydowanie dokładniejszemu opisowi analizowanych zjawisk. Przekłada się to na większe możliwości celowych modyfikacji danych. Drugim celem jest zwiększenie efektywności reguł klasyfikacyjnych. Prezentowane podejście ma jeszcze inne zalety. Generuje się pliki tylko dla zidentyfikowanych atrybutów kontekstowych, nie ma więc problemu ile plików uczących utworzyć i które z nich wybrać. Nie ma potrzeby sprawdzania czy utworzone pliki spełniają zasadę różnorodności hipotez z nich generowanych, gdyż gwarantują ją różne konteksty. Nie ma kłopotów z interpretacją wygenerowanych plików uczących z wykorzystaniem kontekstu. Jest możliwość wyjaśnienia, który klasyfikator jest lepszy i dlaczego dla danego przypadku. (fragment tekstu)
Twórcy
  • Akademia Ekonomiczna we Wrocławiu
Bibliografia
  • Adeva J.J.G., Beresi U.C., Calvo R.A.: Accuracy and Diversity in ECOC Ensembles of Text Categorisers, http://citeseer.ist.psu.edu/732806.html
  • Adeva J.J.G., Calvo R.A.: A Decomposition Scheme based on Error-Correcting Output Codes for Ensembles of Text Categorisers. In Proceedings of the International Conference on Information Technology and Applications (IC1TA). IEEE Computer Society, 2005.
  • Banfield R.E., Hall L.O., Bowyer K.W., Bhadoria D., Kegelmeyer W.P., Eschrich S.: A comparison of Ensemble Creation techniques. In: Proc. of the 5th International Conference on Multiple Clasifier Sysstems, Cagliari, Italy, June 2004.
  • Dietterich T.G., Bakiri G.: Solving multiclass learning problems via error-correcting output codes. "Journal of Artificial Intelligence Research" 1998, No 2.
  • Dietterich T.G.: Ensemble methods in Machine Learning. In: Proc. of 1th Intern. Workshop on Multiple Classifier Systems 2000.
  • Dietterich T.G.: An experimental Comparison of Three Methods for Constructing Ensembles of Decision Trees: Bagging, Boosting, and Randomization. Machine Learning, 1-22, 1999.
  • Hall L.O., Bowyer K.W., Banfield R.E., Bhadoria D., Kegelmeyer W.P., Eschrich S.: Comparing Pure Parallel Ensemble creation Techniques against Bagging. In: The Third IEEE International Conference on Data Mining, 2003.
  • Hansen L., Salamon P.: Neural network ensembles. IEEE Trans. Pattern Analysis and Machine Intelligence, 12:993-1001, 1990.
  • Kontekstowy klasyfikator złożony. Prace Naukowe AE, Wrocław (w druku).
  • Koleń J.K, Pollack J.B.: Back propagation is sensitive to initial conditions. In: Advances in Neural Information Processing Systems, Vol. 3, CA, Morgan Kaufmann 1991.
  • Kuncheva L.I.: Using diversity measures for generating error-correcting output codes in classifier ensembles. "Pattern Recognition Letters" 2005, No (6.
  • Kwok S.W., Carter C.: Multiple decision trees. In: Uncertainty in Artificial Intelligence. Eds. R.D. Schachter, T.S. Levitt, L.N. Kannal, J.F. Lemmer. Elsevier Science, Amsterdam 1990.
  • Masulli F., Valentini G.: An experimental analysis of the dependence among codeword bit errors in ECOC learning machines. "Neurocomput- ing" 2004, No 57C.
  • Raviv Y., Intrator N.: Bootstrapping with noise: An effective regularization technique. "Connection SCIENCE" 1996, No 8(3-4).
  • Ricci F., Aha D.W.: Extending local learners with error-correcting output codes. Technical Report, Naval center for Applied Research in AI, Washington D.C. 1997.
  • Rousu J.: Efficient Range Partitioning in Classification Learning. Dep. of Computer Science Series of Publications University of Helsinki, A Report A-2001-1, http://citeseer.ist.psu.edu/correct/394680
  • Schapire R.E., Freund Y., Bartlett P., Wee S.L.: Boosting the Margin: A New Explanation for the Effectiveness of Voting Methods. In: Proc. 14th Intern. Conf. on Machine Learning, 1998.
  • Schapire R.E.: The theoretical Views of Boosting and Applications, Algorithmic Learning Theory, Proceedings of The 10th Intern. Conf., ALT '99, Tokyo 1999.
  • ShiXin Y.: Feature Selection and Classifier Ensembles: A Study on Hyperspectral Remote Sensing Data, PhD The University of Antwerp, 2003.
  • Turney P.D.: Robust classification with context-sensitive features. In: Industrial and Magineering Applications of Artificial Intelligence and Expert Systems. Edinburgh, Scotland Gordon and Breach 1993.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171301957

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.