Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 10

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Classification error
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
Pojęcie dekompozycji błędu predykcji wywodzi się z regresji i polega na rozbiciu spodziewanej wartości błędu na trzy składowe, tj.: szum (ang. noise), obciążenie (ang. bias) i wariancję (ang. variance). Podjęto także próby przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Agregacja modeli ma na celu obniżenie wartości błędu przez redukcję albo obciążenia, albo wariancji, albo obydwu tych wielkości jednocześnie. Jednak, aby porównać różne metody agregacji modeli dyskryminacyjnych ze względu na ich wpływ na wartości obciążenia i wariancji, należy być bardzo ostrożnym, bowiem różne sposoby dekompozycji błędu klasyfikacji zaproponowane w literaturze przedmiotu, dają różne wartości tych wielkości. (fragment tekstu)
Budowa modeli bazowych jest oparta na zbiorze M prób uczących U1, …, UM, będących podzbiorami oryginalnego zbioru uczącego U. Podzbiory te mogą zawierać albo wybrane obserwacje ze zbioru U, albo wszystkie obserwacje, lecz rzutowane na różne podprzestrzenie zmiennych. Łączenie modeli bazowych realizuje funkcja Ψ określona na zbiorze ich wyników predykcji:          ^                 ^             ^          D*(xi.) = &
Pojęcie dekompozycji błędu wywodzi się z regresji, gdzie stosuje się kwadratową funkcję straty. Mając dany obiekt x, dla którego prawdziwa wartość zmiennej objaśnianej wynosi y, algorytm uczący, na podstawie każdego podzbioru uczącego ze zbioru prób uczących Z, przewiduje dla tego obiektu wartość ŷ. Błąd predykcji można poddać wtedy następującej dekompozycji: Ez{Ey[(y -ŷ)2]} = N(x)+ B(x) + V(x). Błąd resztowy (N(x)) jest elementem składowym błędu, który nie podlega redukcji i który jest niezależny od algorytmu uczącego. Stanowi hipotetyczną dolną granicę błędu predykcji. Obciążeniem algorytmu uczącego dla obiektu x (B(x)), nazywamy błąd systematyczny spowodowany różnicą między predykcją, otrzymaną na podstawie modelu optymalnego (y*), a predykcją na podstawie modelu zagregowanego (ym), gdzie y* i ym definiowane są jako y* = Еy[у], ym = Ez[ŷ]. Wariancja dla obiektu x (D2(x)) to przeciętny błąd wynikający z różnicy między predykcją na podstawie modelu zagregowanego (ym) a predykcją uzyskaną na podstawie pojedynczych modeli (ŷ). W literaturze pojawiły się także liczne koncepcje przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Celem artykułu jest analiza własności różnych sposobów dekompozycji błędu przy zastosowaniu zero-jedynkowej funkcji straty. (abstrakt oryginalny)
Prowadzone rozważania nad losowym doborem zmiennych do modeli dyskryminacyjnych pokazują wpływ liczby tych zmiennych (wymiaru przestrzeni zmiennych) na dokładność klasyfikacji modelu zagregowanego. Okazuje się, że po początkowym spadku wielkość tego błędu zaczyna rosnąć wraz ze wzrostem liczby zmiennych. Wpływ na to ma przede wszystkim obciążenie. W związku z tym i wprowadzenie do modelu większej liczby zmiennych powoduje zwiększenie błędu klasyfikacji. W takim przypadku zamiast losowego dobierania zmiennych do modelu warto wykorzystać metody agregacji, które znacznie redukują wielkość obciążenia, np. metodę boosting. (fragment tekstu)
Minimalizacja błędu klasyfikacji w zbiorze uczącym jest zazwyczaj podstawowym kryterium wyboru funkcji klasyfikującej. Taka postać kryterium wiąże się jednak z możliwością wyznaczenia bardzo złożonej funkcji klasyfikującej o niewielkiej zdolności objaśniania (uogólnienia). W opracowaniu przed-stawiono inne kryterium, tzw. zasadę minimalizacji ryzyka strukturalnego, która oprócz jakości dyskryminacji uwzględnia również stopień uogólnienia wyznaczanego modelu. Następnie przedstawiono zarys pewnej metody dyskryminacji, skonstruowanej na podstawie zasady minimalizacji ryzyka strukturalnego, zwanej metodą wektorów nośnych.(fragment tekstu)
Metoda wektorów nośnych jest uważana za metodę odporną. W dalszej części artykułu przedstawiono pokrótce algorytm metody SVM, ze szczególnym uwzględnieniem elementów czyniących ją odporną na błędy występujące w zbiorze uczącym, a następnie empirycznie sprawdzono na zbiorze danych standardowo wykorzystywanym do badania własności metod wielowymiarowej analizy statystycznej, w jakim stopniu metoda jest odporna. Dla porównania zbadano również konkurencyjne metody dyskryminacji. (fragment tekstu)
Podejście wielomodelowe (agregacja modeli), stosowane najczęściej w analizie dyskryminacyjnej i regresyjnej, polega na połączeniu M modeli składowych C1(x), ..., CM(x) jeden model globalny C*(x):                      K C* = arg max {Σ  I (Cm(x)=y)}                 y   k=1 Turner i Ghosh (1996) udowodnili, że błąd klasyfikacji dla modelu zagregowanego C*(x) zależy od stopnia podobieństwa (zróżnicowania) modeli składowych. Inaczej mówiąc, najbardziej dokładny model C*(x) składa się z modeli najbardziej do siebie niepodobnych, tj. zupełnie inaczej klasyfikujących te same obiekty. W literaturze zaproponowano kilka miar pozwalających ocenić podobieństwo (zróżnicowanie) modeli składowych w podejściu wielomodelowym. W artykule omówiono związek znanych miar zróżnicowania z oceną wielkości błędu klasyfikacji modelu zagregowanego. (abstrakt oryginalny)
Celem pracy było przeprowadzenie i ocena poprawności klasyfikacji ziaren należących do różnych odmian jęczmienia browarnego. Przebadano ziarna 8 odmian: Blask, Bordo, Conchita, Kormoran, Mercada, Serwal, Signora, Victoriana, o trzech poziomach wilgotności: 12, 14, 16%. Oznaczono wybrane parametry tekstury powierzchni ziarna w masie uzyskane ze zdjęć wykonanych przy użyciu technik obrazowania hiperspektralnego. Porównano dokładność dyskryminacji ziaren przeprowadzonej przy użyciu różnych metod selekcji i klasyfikacji danych. Dokonano porównania parami oraz porównania trzech, czterech i ośmiu odmian jęczmienia browarnego. Najbardziej dokładną dyskryminację stwierdzono w przypadku porównania parami. Odmiana Victoriana najbardziej odróżniała się od innych. Najbardziej podobną teksturę ziaren w masie stwierdzono w przypadku porównania odmian: Blask i Mercada. W przypadku ośmiu badanych odmian jęczmienia browarnego, najdokładniejszą dyskryminację (błąd klasyfikacji - 55%) uzyskano dla obrazów wykonanych przy wilgotności 14% i długości fali 750 nm, dla selekcji atrybutów wykonanej z wykorzystaniem prawdopodobieństwa błędu klasyfikacji z uśrednionym współczynnikiem korelacji (POE + ACC) oraz dyskryminacji przeprowadzonej za pomocą liniowej analizy dyskryminacyjnej (LDA).(abstrakt oryginalny)
Konstruowanie funkcji klasyfikujących przez łączenie wielu modeli składowych stanowi główny nurt badań naukowych nad metodami klasyfikacji w ciągu ostatnich pięciu lat. Powodem tak dynamicznego rozwoju metod agregujących są ich dobre własności, gdyż klasyfikacja danych na podstawie modeli zagregowanych daje na ogół mniejsze błędy klasyfikacji niż którakolwiek pojedyncza funkcja dyskryminująca, będąca składową modelu zagregowanego. Narzędziem, które umożliwia wyjaśnienie przewagi modeli łączonych nad pojedynczymi, a także pozwala na porównywanie oraz kreowanie nowych metod łączenia modeli, jest analiza błędu klasyfikacji podlegającego dekompozycji na obciążenie, wariancję i szum.(fragment tekstu)
Szczególnie ważną cechą modeli dyskryminacyjnych jest ich jak największa trafność prognostyczna, tj. dokładność przewidywania wartości zmiennej y dla obiektów ze zbioru rozpoznanego. Wpływ na to ma wiele czynników, z których najważniejszym jest struktura zbioru uczącego. Okazuje się, że dużo dokładniejsze wyniki predykacji, daje złożony model dyskryminacyjny, będący wynikiem agregacji (połączenia) kilku indywidualnych modeli, powstałych w oparciu o różne zbiory uczące. Autor omówił zagadnienie sposobu oceny wielkości błędu klasyfikacji e(D) dla pewnego modelu dyskryminacyjnego D, zwłaszcza w przypadku, gdy nie jest dostępny zbiór testowy. Dalej autor przedstawił szczegółowo dwie metody agregacji pojedynczych modeli dyskryminacyjnych (agregacja bootstrapowa i losowanie adaptacyjne oraz łączenie), dzięki którym ten błąd można zredukować. Przedstawiony przykład obliczeniowy pokazał, że najmniejszy błąd klasyfikacji można uzyskać stosując metodę losowania adaptacyjnego (boosting).
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.