Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 25

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Classification methods
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
W pracy zaproponowano zastosowanie drzew wyrażeń indukowanych za pomocą programowania genowego jako słabych klasyfikatorów w systemach klasyfikacji zespołowej. W poszczególnych częściach pracy omówiono podstawy programowania genowego, zaproponowano dwa klasyfikatory zespołowe dla przypadku problemów klasyfikacji z dwiema klasami oraz jeden klasyfikator zespołowy dla przypadków klasyfikacji z wieloma klasami. Skuteczność proponowanego podejścia została zweryfikowana eksperymentalnie przy użyciu znanych zbiorów benchmarkowych. (abstrakt oryginalny)
Metoda wizualizacji wyników klasyfikacji przedstawiona w artykule bazuje na procedurze składającej się z dwóch etapów: 1. W pierwszym etapie dla każdej klasy osobno wyznaczany jest ranking zmiennych ze względu na ich moc dyskryminującą - zdolność do odróżniania obiektów danej klasy od wszystkich innych obserwacji. Przy ocenie siły wpływu poszczególnych zmiennych objaśniających na wynik klasyfikacji wykorzystuje się jedną z metod symulacyjnego przeszukiwania podzbiorów zmiennych - metodę eliminacji. 2. W drugim etapie otrzymane informacje (ranking istotności zmiennych) są w prosty sposób kodowane i przedstawiane w sposób graficzny, umożliwiając badaczowi przeprowadzenie profilowania klas. Zaprezentowane podejście w prosty i intuicyjny sposób łączy wyniki klasyfikacji obiektów z klasyfikacją zmiennych objaśniających. (fragment tekstu)
Celem pracy jest próba implementacji metody analizy stylu do wyznaczenia ekspozycji na zróżnicowanie stopy zwrotu z klas aktywów inwestycji OFE działających na polskim rynku finansowym, a następnie próba klasyfikacji tych podmiotów ze względu na strategie zarządzania na podstawie wyników przeprowadzonej analizy stylu Sharpe'a. Jako metody klasyfikacyjne wykorzystane zostaną metoda k średnich oraz wybrane metody hierarchiczne. (fragment tekstu)
Sieci bayesowskie są narzędziem o szerokim zastosowaniu. Jednym z zagadnień, do których się je wykorzystuje, są problemy klasyfikacji danych. W artykule omówiono wybrane metody automatycznego generowania sieci bayesowskich. Przedstawiono również wyniki symulacji na różnych zbiorach danych. Porównano jakość otrzymanych klasyfikatorów i skomentowano problemy związane z zastosowaniem omawianych metod. Do obliczeń wykorzystano pakiet GeNie. (abstrakt oryginalny)
Artykuł ten nawiązuje do problematyki metodologicznej pracy prof. Kolonki oraz jest kolejnym przykładem możliwości zastosowania metod klasyfikacji danych we współczesnych analizach ekonomicznych. Przedmiotem artykułu jest przedstawienie najpopularniejszych metod prognozowania bankructwa, będących w istocie statystycznymi lub iteracyjnymi metodami klasyfikacji danych, oraz ocena ich efektywności jako narzędzia oceny ryzyka upadłości firm.(fragment tekstu)
Przedstawiona procedura klasyfikacji z wykorzystaniem statystyk pozycyjnych może służyć m.in. do: budowania polityki intraregionalnej każdego województwa, budowania systemu preferencji wsparcia finansowego w ramach polityki regionalnej państwa, przygotowania programów pomocowych z funduszy strukturalnych Unii Europejskiej, budowania strategii rozwojowych na poziomie regionalnym, identyfikacji regionów-liderów. (fragment tekstu)
Artykuł opisuje procedury klasyfikacyjne, które mogą być używane dla danych symbolicznych (tj. dla danych mogących być reprezentowanych w postaci: liczb, danych jakościowych, przedziałów liczbowych, zbioru wartości, zbioru wartości z wagami), przedstawia problemy związane z mierzeniem jakości klasyfikacji dla tych procedur (takie jak brak „klasycznej" macierzy danych) oraz przedstawia, które ze znanych indeksów, takich jak: Silhouette, indeks Calińskiego-Harabasza, indeks Bakera-Huberta, indeks Huberta-Levine, indeks Ratkowskiego, indeks Balia, indeks Hartigana, indeks Krzanowskiego-Lai, indeks Scotta, indeks Marriota, indeks Rubina i indeks Friedmana, mogą być wykorzystane dla tego typu danych oraz jakie są miary jakości podziału specyficzne dla danych symbolicznych. Na podstawie przeprowadzonych symulacji zaproponowane zostały indeksy faktycznie odzwierciedlające strukturę klas dla poszczególnych algorytmów klasyfikacyjnych. (abstrakt oryginalny)
Przedstawioną metodę konstrukcji reguł klasyfikacji obiektów można traktować jako komplementarną w stosunku do klasycznych funkcji dyskryminacyjnych. Może być stosowana wtedy, gdy metod numerycznych wykorzystać nie można, tj. w przypadku gdy klasyfikowane obiekty są obiektami symbolicznymi, dane je reprezentujące są niepełne itd.Reguły w postaci dysjunkcyjnej są łatwe do interpretacji (w odróżnieniu od np. funkcji dyskryminacyjnych), co pozwala na ich bezpośrednie zastosowanie do klasyfikacji obiektów ze zbioru rozpoznawanego.Metoda ta daje jednak rezultaty nieco mniej dokładne (mierzone liczbą poprawnie sklasyfikowanych obiektów) niż w przypadku zastosowania drzew klasyfikacyjnych. (fragment tekstu)
Pojęcie dekompozycji błędu wywodzi się z regresji, gdzie stosuje się kwadratową funkcję straty. Mając dany obiekt x, dla którego prawdziwa wartość zmiennej objaśnianej wynosi y, algorytm uczący, na podstawie każdego podzbioru uczącego ze zbioru prób uczących Z, przewiduje dla tego obiektu wartość ŷ. Błąd predykcji można poddać wtedy następującej dekompozycji: Ez{Ey[(y -ŷ)2]} = N(x)+ B(x) + V(x). Błąd resztowy (N(x)) jest elementem składowym błędu, który nie podlega redukcji i który jest niezależny od algorytmu uczącego. Stanowi hipotetyczną dolną granicę błędu predykcji. Obciążeniem algorytmu uczącego dla obiektu x (B(x)), nazywamy błąd systematyczny spowodowany różnicą między predykcją, otrzymaną na podstawie modelu optymalnego (y*), a predykcją na podstawie modelu zagregowanego (ym), gdzie y* i ym definiowane są jako y* = Еy[у], ym = Ez[ŷ]. Wariancja dla obiektu x (D2(x)) to przeciętny błąd wynikający z różnicy między predykcją na podstawie modelu zagregowanego (ym) a predykcją uzyskaną na podstawie pojedynczych modeli (ŷ). W literaturze pojawiły się także liczne koncepcje przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Celem artykułu jest analiza własności różnych sposobów dekompozycji błędu przy zastosowaniu zero-jedynkowej funkcji straty. (abstrakt oryginalny)
10
Content available remote Efektywność klasyfikacji a parametryczna metoda doboru cech diagnostycznych
75%
W pracy przedstawiono dwa warianty parametrycznej metody doboru cech: z sumą oraz medianą elementów kolumny macierzy współczynników korelacji. Klasyczna wersja (z sumą) tej metody doboru cech ma pewne niedogodności, które mogą być zniwelowane przez zastąpienie sumy elementów kolumny macierzy współczynników korelacji ich medianą. Powoduje to zmniejszenie wrażliwości na wartości odstające współczynników korelacji. Celem artykułu było określenie wpływu wyników dwóch podejść w parametrycznej metodzie doboru na efektywność klasyfikacji obiektów. W każdej klasyfikacji wyłoniono, metodą Warda, po trzy klasy województw i zbadano efektywność otrzymanych podziałów, wykorzystując wskaźniki homogeniczności, heterogeniczności oraz poprawności grupowań, w których role środków ciężkości odgrywała mediana Webera.(abstrakt oryginalny)
Wiele przedsiębiorstw, w celu podniesienia poziomu obsługi klienta oraz zmniejszenia kosztów transportu, angażuje się w tworzenie coraz efektywniejszych strategii dystrybucji. W typowym systemie dystrybucyjnym zadaniem pojazdów jest realizacja dostaw towarów, odbieranie i dostarczanie przesyłek oraz transport serwisantów do rozproszonych geograficznie odbiorców towarów i usług. W wielu zastosowaniach (np. dystrybucja napoi, lekarstw, dowożenie uczniów do szkół czy wywóz śmieci) podstawowe zadanie polega na wyznaczeniu takiego zbioru tras, który przy pewnych dodatkowych warunkach minimalizuje łączne operacyjne koszty użycia taboru. Problem ten z kryterium minimalizacji kosztów (często utożsamianych z łączną długością wszystkich tras) jest określany jako problem wyznaczania tras pojazdów (vehicle routing problem), w skrócie VRP. VRP należą do grupy NP-trudnych (non polynomial - niewielomianowy). Oznacza to, że ich optymalne rozwiązanie nie może być znalezione w czasie wielomianowym (tj. w czasie będącym dowolnym wielomianem zmiennej n, czyli rozmiaru problemu). (fragment tekstu)
12
Content available remote Stacked Regression with a Generalization of the Moore-Penrose Pseudoinverse
75%
|
|
18
|
nr 3
443-458
In practice, it often happens that there are a number of classification methods. We are not able to clearly determine which method is optimal. We propose a combined method that allows us to consolidate information from multiple sources in a better classifier. Stacked regression (SR) is a method for forming linear combinations of different classifiers to give improved classification accuracy. The Moore-Penrose (MP) pseudoinverse is a general way to find the solution to a system of linear equations. This paper presents the use of a generalization of the MP pseudoinverse of a matrix in SR. However, for data sets with a greater number of features our exact method is computationally too slow to achieve good results: we propose a genetic approach to solve the problem. Experimental results on various real data sets demonstrate that the improvements are efficient and that this approach outperforms the classical SR method, providing a significant reduction in the mean classification error rate. (original abstract)
Podstawowym elementem rynków kapitałowych na całym świecie jest giełda. Dzieje się tak nie tylko ze względu na obroty na rynku, dokonujący się transfer kapitału czy podwyższenie płynności rynku, ale również ze względu na możliwość ograniczenia przez przedsiębiorstwa ryzyka związanego z ich działalnością. Z roku na rok coraz większy udział w obrotach giełd stanowią instrumenty pochodne. Łączny dzienny obrót na giełdach terminowych określa się w miliardach kontraktów, których wartość porównywana jest z wpływami budżetowymi niejednego kraju. Jako operacje, w ramach których rozliczenie bądź dostarczenie walorów będących przedmiotem transakcji następuje w terminie późniejszym niż zwarcie umowy, obok funkcji inwestycyjnej, jako alternatywa do innych form lokowania kapitału, są wykorzystywane przez inwestorów do zabezpieczania swoich pozycji. Jest to również jeden z powodów dużego zainteresowania inwestorów tymi kontraktami. Celem artykułu jest wskazanie najlepiej funkcjonującej giełdy pod względem handlu instrumentami pochodnymi. Podstawą klasyfikacji będą dwie metody: taksonomiczny miernik rozwoju oraz uogólniona miara odległości GDM. Dodatkowo zastosowana zostanie metoda grupowania k-średnich, która pozwoli wyodrębnić klasy podobnych giełd. (fragment tekstu)
Celem opracowania jest przedstawienie kryteriów klasyfikacyjnych tworzących podstawowe struktury zatrudnienia, ich wzajemne powiązania oraz rozpoznanie czynników kształtujących owe struktury. Zakres rozważań ograniczono do zatrudnienia w przemyśle, stanowiącego najbardziej dynamiczną sferę gospodarki narodowej i będącą podstawą jej rozwoju. W świetle przeprowadzonych wywodów można stwierdzić, iż badanie i ocena zatrudnienia nie mogą ograniczać się tylko do jednego kryterium klasyfikacyjnego zatrudnienia, ponieważ jego struktury są wzajemnie powiązane i oddziaływują nań różnorodne czynniki wzajemnie uwarunkowane. Czynniki te oddziaływują różnokierunkowo i wielokierunkowo powodując zmianę struktury zatrudnienia w różnych przekrojach. Przemiany struktury zatrudnienia opierają się na różnorodnych procesach wymiany pracowników ze względu na wiek zatrudnionych, wzrost lub spadek przyrostu naturalnego oraz przesunięć zatrudnionych w przestrzeni. Do najbardziej istotnych zmian w strukturze zatrudnienia przemysłu w Polsce Ludowej należy zaliczyć przesunięcia gałęziowe, przesunięcia regionalne, podnoszenie się wieku aktywności zawodowej młodzieży oraz wzrost ogólnego poziomu kwalifikacji pracowników. Całość działań zmierzających do zmian struktury zatrudnienia za pomocą kształtowania czynników wywołujących te zmiany powinno prowadzić do stanu pełnego i racjonalnego zatrudnienia, co jest celem gospodarowania zasobami ludzkimi w ustroju socjalistycznym. (abstrakt oryginalny)
W referacie proponujemy kilka reguł klasyfikacyjnych wykorzystujących funkcje głębi. Badamy ich właściwości m. in. na różnych zbiorach danych generowanych przez wielowymiarowe skośne rozkłady, rozkłady o tłustych ogonach i mieszaniny takich rozkładów. Dyskutujemy także regułę pozwalającą na wybór właściwej liczby klas A₁,...,Aҝ stanowiących podział zbioru danych A. (abstrakt oryginalny)
Metody klasyfikacji znajdują bardzo szerokie zastosowanie w praktyce, pozwalając badaczowi na grupowanie i klasyfikowanie obiektów, dostarczając istotnych informacji o badanym zjawisku lub zachowaniach na rynku. W niniejszej pracy przeprowadzono analizę rynku radiowego na Śląsku. W części pierwszej scharakteryzowano dane dotyczące rynku radiowego. Klasyfikacji obiektów dokonano za pomocą metody k-średnich, a następnie jej wyniki zweryfikowano z wynikami klasyfikacji otrzymanej przy użyciu skalowania wielowymiarowego. Przeprowadzenie badania ma na celu wyodrębnienie jednorodnych grup stacji radiowych na Śląsku, a co za tym idzie - poznanie rynku radiowego i jego ocenę przez respondentów biorących udział w badaniu. Wyniki wykorzystanych metod przedstawiono w postaci graficznej na wykresie rozrzutu oraz w postaci mapy percepcji. Część ostatnia zawiera wnioski oraz interpretację otrzymanej klasyfikacji, tj. charakterystykę powstałych grup i należących do nich stacji radiowych. (fragment teksu)
W zadaniu dyskryminacji metoda wektorów nośnych polega na przetransformowaniu obserwacji ze zbioru uczącego, za pomocą nieliniowego przekształcenia, w przestrzeń o dużo większym wymiarze, gdzie klasy rozdzielane są hiperpłaszczyznami optymalnymi. W celu uzyskania modelu o dużym stopniu uogólnienia metoda dopuszcza błędne sklasyfikowanie niektórych obiektów ze zbioru uczącego. W wersji pierwotnej metody występuje parametr Cє [0, + ∞], określający kompromis między jakością klasyfikacji w zbiorze uczącym a zdolnością uogólniania modelu. W ten sposób, pośrednio, kontrolujemy frakcję obiektów błędnie sklasyfikowanych. Modyfikacja metody zaproponowana przez B. Schölkopfa polega na takim sformułowaniu problemu, w którym wprost, poprzez parametr vє [0,1], wprowadzamy ograniczenie frakcji obserwacji błędnie sklasyfikowanych w zbiorze uczącym. W artykule przedstawiona została analiza porównawcza klasycznej metody wektorów nośnych oraz jej wersji zmodyfikowanej. (abstrakt oryginalny)
Teoria zbiorów przybliżonych została wprowadzona przez Z. Pawlaka w 1982. Matematyczną podstawą zastosowania zbiorów przybliżonych jest relacja binarna określona na uniwersum obiektów. W klasycznej analizie zbiorów przybliżonych jest to relacja nierozróżnialności. Jako relacja równoważności pozwala ona dzielić uniwersum obiektów na klasy równoważności, które stanowią atomy wiedzy o uniwersum. W celu wyindukowania dobrego modelu (z możliwie małą liczbą silnych reguł) niezbędny jest proces granulacji. Niemniej jednak z innego punktu widzenia całkiem naturalne wydaje się rozszerzenie koncepcji nierozróżnialności w celu rozważenia sytuacji, gdy jedne obiekty dominują nad innymi ze względu na rozważane kryteria, których zbiory wartości są uporządkowane zgodnie z preferencjami decydenta. S. Greco, B. Materazzo i R. Słowiński (1999a, b, 1999) zaproponowali rozszerzenie teorii zbiorów przybliżonych - relacja nierozróżnialności została zastąpiona relacją dominacji. Celem analizy przeprowadzonej przez autorkę jest indukcja modelu decyzyjnego i określenie probabilistycznych właściwości generowanych reguł decyzyjnych dla problemu wielokryterialnej klasyfikacji państw Unii Europejskiej. Analiza została przeprowadzona przez autorkę w systemie "4eMka". (abstrakt oryginalny)
Drzewa klasyfikacyjne i regresyjne należą do bardzo popularnych metod klasyfikacji, przede wszystkim ze względu na prostotę interpretacji i przejrzystą formę wizualizacji wyników. Stąd też są one szeroko wykorzystywane do rozwiązywania problemów decyzyjnych w różnych dziedzinach nauki. Celem prowadzonych badań była identyfikacja przedoperacyjnych czynników ryzyka, związanych z wystąpieniem powikłań śród- i pooperacyjnych wśród pacjentów z chorobą wieńcową, leczonych w sposób operacyjny. Dodatkowo podjęto próbę zdefiniowania reguł decyzyjnych, które mogłyby umożliwić przydzielenie pacjenta do jednej z wyróżnionych grup ryzyka operacyjnego na podstawie opisujących go cech przedoperacyjnych. Reguły klasyfikacyjne budowano wykorzystując metodę rekurencyjnego podziału. W analizie uwzględniono algorytmy QUEST i CRUISE, tworzące drzewa klasyfikacyjne oraz algorytm LOTUS i PLUS, łączące rekurencyjny podział przestrzeni cech z analizą regresji logistycznej. (abstrakt oryginalny)
W pracy przedstawiono podstawowe zagadnienia związane z doborem zmiennych w podejściu wielomodelowym (multiple-model approach) w analizie dyskryminacyjnej. Podejście wielomodelowe polega na budowie K modeli, prostych (składowych) C1(x), ...,CK(x), które są następnie łączone w jeden model zagregowany C*(x), np. w oparciu o zasadę majoryzacji Znane z literatury metody agregacji modeli różnią się przede wszystkim sposobem tworzenia prób uczących U1,UK, w oparciu o które powstają modele składowe. Jedną z najprostszych jest metoda losowego doboru zmiennych do modeli składowych. Aby jednak zmienne te wpływały na jakość budowanych modeli zaproponowano wykorzystanie metody doboru zmiennych spośród tych, które zostały wylosowane. W tym celu zmodyfikowano metodę korelacyjną Hellwiga. (abstrakt oryginalny)
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.