Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 304

Liczba wyników na stronie
first rewind previous Strona / 16 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Taksonomia
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 16 next fast forward last
Celem artykułu jest prezentacja metodyki doboru parametrów równoległego algorytmu ewolucyjnego. Dobór parametrów zaprezentowany zostanie na przykładzie problemu plecakowego, którym może być przybliżony np. problem doboru akcji do koszyka inwestycyjnego. Dyskretny problem plecakowy należy do zadań optymalizacyjnych NP-trudnych o złożoności obliczeniowej określanej jako O(n2). Do zbioru metod rekomendowanych do rozwiązywania dyskretnego problemu plecakowego należą między innymi: algorytmy zachłanne, programowanie dynamiczne oraz wspomniane algorytmy ewolucyjne w wersji równoległej.(abstrakt oryginalny)
Rozmyta hierarchiczna analiza (FHA) jest metodą służącą do rozwiązywania wielokryterialnych problemów decyzyjnych, gdzie problem decyzyjny przedstawiany jest w postaci hierarchicznego schematu decyzyjnego składającego się z celu głównego, celów podrzędnych i zadań. Na każdym poziome hierarchii eksperci dokonują porównań parami czynników strategicznych. Są one podstawą do wyznaczenia ich priorytetów globalnych. Proponowana metoda pozwala - dokładniej aniżeli w podejściu klasycznym (AHP) - uwzględnić rozkłady wartości ocen ekspertów poprzez dekompozycję liczb rozmytych na α-poziomy. Proponowane podejście zostało zilustrowane przykładem dotyczącym oceny ważności celów i zadań strategicznych gminy Rokietnica w województwie wielkopolskim.(abstrakt oryginalny)
3
100%
Czynnikowa metoda odległości probabilistycznej (Factor Probability Distance Clustering), tworząc liniową kombinację oryginalnych zmiennych, prowadzi do mniejszej liczby ortogonalnych czynników, a następnie dokonuje podziału obiektów przy zastosowaniu metody odległości probabilistycznej (Probability Distance Clustering). Metoda ta może w znaczący sposób poprawić dokładność rozpoznawania rzeczywistej struktury grup; ponadto w przypadku dużych zbiorów danych może się przyczynić do podniesienia stabilności rozwiązania. Głównym celem artykułu będzie zbadanie stabilności czynnikowej metody odległości probabilistycznej. Przyjęte w pracy kryterium stabilności można sformułować następująco: metodę grupowania uznaje się za stabilną, jeżeli uzyskane przy wielokrotnym jej zastosowaniu wyniki grupowania nie różnią się między sobą(abstrakt oryginalny)
Podczas stosowania metod taksonomicznych w jakimkolwiek zagadnieniu klasyfikacji ważną kwestią jest zapewnienie wysokiej poprawności wyników grupowania. Od niej bowiem zależeć będzie skuteczność wszelkich decyzji podjętych na ich podstawie. Stąd też w literaturze wciąż proponowane są nowe rozwiązania, które mają przynieść poprawę dokładności grupowania w stosunku do tradycyjnych metod (np. k-średnich, metod hierarchicznych). Przykładem mogą tu być metody polegające na zastosowaniu podejścia zagregowanego, czyli łączenia wyników uzyskanych w wyniku wielokrotnego grupowania (cluster ensemble) oraz taksonomiczna metoda propagacji podobieństwa (affinity propagation clustering). Głównym celem artykułu jest porównanie dokładności zagregowanych algorytmów taksonomicznych opartych na idei metody bagging oraz taksonomicznej metody propagacji podobieństwa.(abstrakt oryginalny)
Wszelkie hierarchie są definiowane w sposób scentralizowany i odgórny. Jest to model niezbyt przydatny do zdecentralizowanej, współuczestniczącej i mocno usieciowionej rzeczywistości cybernetycznej, szczególnie w wersji Web 2.0. Folksonomia, w odróżnieniu od tradycyjnej taksonomii, jest procesem spontanicznym i oddolnym, polegającym na zespołowej kategoryzacji witryn internetowych przy wykorzystaniu tagów, czyli dowolnie dobranych słów kluczowych. Folksonomia jest to neologizm powstały ze zbitki dwóch wyrazów: folks (ludzie, lud) i taksonomii, a oznacza "[...] generowaną przez użytkownika klasyfikację, wyłaniającą się na drodze oddolnego konsensusu".(fragment tekstu)
W ostatnich latach dużo uwagi poświęca się zagadnieniu stabilności metod taksonomicznych, czyli odpowiedzi na pytanie o to, na ile struktura odkryta przez daną metodę rzeczywiście jest obecna w danych. W literaturze zaproponowano wiele różnych sposobów pomiaru stabilności. W ślad za rozważaniami teoretycznymi w tym zakresie idzie także rozwój narzędzi informatycznych pozwalających na praktyczne zastosowanie zaproponowanych sposobów badania stabilności. Wśród tych narzędzi jest także kilka bibliotek w programie R, np. clValid, clv, fpc, ClusterStability, pvclust. Celem artykułu jest porównanie wyników badania stabilności grupowania za pomocą wybranych bibliotek w programie R. (abstrakt oryginalny)
W artykule w syntetycznej formie przedstawiono rys historyczny konferencji taksonomicznych oraz statystykę wygłoszonych i opublikowanych referatów w podziale na poszczególne lata i ośrodki akademickie. W zakończeniu przedstawiono fakty i refleksje płynące z 20 dotychczasowych konferencji taksonomicznych. (abstrakt oryginalny)
W niniejszej pracy prezentujemy rozważania, które można zaliczyć do trzeciego typu zadań w podanej poprzednio systematyce. Zasadniczym celem rozprawy jest analiza efektywności wybranych bezwzorcowych procedur taksonomicznych i określenie ich przydatności w zależności od pewnych, a priori ustalonych własności strukturalnych rozpatrywanego zbioru obiektów. (fragment tekstu)
W pracy opracowano syntetyczny wykaz możliwości zastosowań rozważanych współczynników do diagnozowania współliniowości. Ponadto zbadano, czy wykorzystanie metod doboru zmiennych objaśniających, powszechnie stosowanych w polskiej literaturze ekonometrycznej, eliminuje problem współliniowości. Rozpatrzono metodę eliminacji zmiennych quasi-stałych, metodę badania pojemności nośników informacji oraz metodę analizy grafów. (fragment tekstu)
Analiza głównych składowych jest metodą transformacji zmiennych pier-wotnych w zbiór nowych wzajemnie nieskorelowanych zmiennych zwanych głównymi składowymi. Składowe nieskorelowane nie gwarantują niezależności ukrytych zmiennych. Składowe niezależne wyznacza się za pomocą niezależnej analizy głównych składowych (independent component analysis). W artykule przedstawione zostaną podstawowe podo-bieństwa i różnice klasycznej i niezależnej analizy głównych składowych. Walor oryginal-ności pracy polega na przedstawieniu przykładu zastosowania niezależnej analizy głównych składowych(abstrakt oryginalny)
12
Content available remote Skierowane liczby rozmyte versus wypukłe liczby rozmyte w metodzie FSAW
80%
Celem badania jest porównanie wykorzystania trójkątnych liczb rozmytych skierowanych (OFNs) i wypukłych (CFNs) w rozmytej metodzie SAW (FSAW). Dodatko-wo badano wykorzystanie, w celu otrzymania uporządkowania liniowego obiektów, dwóch metod wyostrzania: metody środka ciężkości (CoG) oraz metody opartej na transformacie Mellina. Praca zawiera podstawę teoretyczną prowadzonych badań oraz poglądowy przy-kład numeryczny. W wyniku analiz stwierdzono, że użycie trójkątnych OFNs w metodzie FSAW nie daje dodatkowych korzyści, gdyż nie wpływa na wyniki uporządkowania obiek-tów. Ponadto w wyniku agregacji mogą się pojawić niewłaściwe OFNs, co z kolei nie po-zwala na zastosowanie metody wyostrzania opartej na transformacie Mellina, która jak po-kazano jest metodą bardziej precyzyjną od metody CoG(abstrakt oryginalny)
Podejście wielomodelowe w dyskryminacji i regresji zyskało duże uznanie ze względu na poprawę stabilności modeli oraz ich dokładności przewidywań. Agregowanie klasyfikatorów k najbliższych sąsiadów (kNN) napotyka jednak poważne problemy. Metoda kNN, wykorzystująca w klasyfikacji wyłącznie odległości między obiektami, jest względnie stabilna, przez co zróżnicowanie klasyfikatorów bazowych można osiągnąć, jedynie wybierając różne podprzestrzenie. Tu z kolei napotykamy problem zmiennych zakłócających (noisy variables), to jest takich, które nie mają wpływu na zmienną objaśnianą, a które w metodzie kNN znacznie obniżają dokładność klasyfikacji. W artykule dokonano przeglądu zaproponowanych w literaturze metod agregowania klasyfikatorów kNN oraz zweryfikowano je z własną propozycją algorytmu. W badaniach wykorzystano zbiory danych rzeczywistych z dołączonymi zmiennymi zakłócającymi(abstrakt oryginalny)
14
Content available remote Q uniwersalna miara odległości
80%
W zadaniach taksonomicznych coraz częściej mamy do czynienia z danymi zawierającymi zmienne mierzone w różnych skalach. Jedną ze strategii jest wykonanie analizy osobno dla jednorodnej grupy cech, a potem scalenie wyników. Druga strategia to zastosowanie miary odległości, która ze swej natury umożliwia jednoczesne wykorzystanie cech mierzonych w różnych skalach. Najbardziej dojrzałą propozycją jest tu miara Walesiaka GDM. W proponowanym artykule przede wszystkim wykraczamy poza tradycyjny podział cech ze względu na skalę pomiaru - na nominalne, porządkowe, przedziałowe i ilorazowe. Wyróżniono 15 rodzajów cech statystycznych. Następnie zaproponowano takie przekształcenia tych cech (lub odległości), że składowe sumy w odległości typu Manhattan przyjmują wartości z przedziału [0,1] i są niemianowane. To umożliwia policzenie odległości ogólnej.(abstrakt oryginalny)
15
80%
Przedstawiono rozważania o rozkładzie odległości od punktów kratowych w rozkładzie równomiernym.
16
80%
Unię Europejską tworzą kraje o zróżnicowanym poziomie rozwoju. W artykule zaprezentowano wyniki badań rozwoju społeczno-ekonomicznego 27 krajów Unii Europejskiej przeprowadzonych z zastosowaniem taksonomicznej miary rozwoju Z. Hellwiga. W analizie uwzględniono szereg zmiennych, a szczególnie przyrost naturalny, śmiertelność niemowląt, dynamikę PKB, PKB per capita według PPP, stopę inflacji, wskaźnik zatrudnienia, stopę bezrobocia, udział sektora usług w zatrudnieniu oraz tworzeniu PKB, eksport per capita, deficyt/nadwyżkę sektora finansów publicznych oraz poziom długu publicznego w relacji do PKB, odsetek osób z wyższym wykształceniem w grupie ludności w wieku 30-34 lata. W badaniach wykorzystano głównie dane Głównego Urzędu Statystycznego. Analizę przeprowadzono dla roku 2010. (abstrakt oryginalny)
17
Content available remote Syntetyczna ocena dysproporcji zrównoważonego rozwoju krajów Unii Europejskiej
80%
Równomierny rozwój społeczno-gospodarczy stanowi jeden ze strategicznych celów funkcjonowania Unii Europejskiej (UE). Prezentowane w literaturze przedmiotu wyniki badań z tego zakresu koncentrują się głównie na przedstawieniu pozycji zajmowanej pod tym względem przez poszczególne kraje UE w stosunku do pozostałych państw członkowskich. Tymczasem istotne jest również zagadnienie równomierności rozwoju UE i oceny wielkości dysproporcji rozwojowych występujących pomiędzy państwami członkowskimi. Celem opracowania jest określenie skali dysproporcji pomiędzy krajami UE w zakresie zrównoważonego rozwoju; wykorzystano wskaźniki zrównoważonego rozwoju za lata 2008-2014 dostępne w bazie Eurostatu. W badaniu zastosowano dynamiczną wersję taksonomii relatywnej zaproponowaną przez Stanisława Wydymusa. Przeprowadzona analiza wykazała silne dysproporcje rozwojowe krajów członkowskich UE - okazało się, że w każdym regionie geograficznym Europy znajdują się kraje zajmujące wysokie pozycje w rankingu, jak i te na niskich pozycjach. Liderem w całym analizowanym okresie była Szwecja, a ostatnie miejsce zajęła Malta. (abstrakt oryginalny)
We współczesnych rozważaniach z dziedziny taksonomii w literaturze często poruszane są dwa pojęcia: podejście zagregowane oraz stabilność metod grupowania. Do tej pory te były one rozważane osobno. Natomiast ciekawą propozycję w zakresie połączenia tych dwóch pojęć przedstawili Y. Șenbabaoğlu, G. Michailidis i J.Z. Li, którzy zasugerowali podejście zagregowane w taksonomii, połączone z zaproponowaną przez siebie miarą stabilności jako kryterium wy-boru optymalnej liczby grup (k). Celem artykułu jest porównanie wyników wyboru wartości parametru k za pomocą wspomnianej miary stabilności oraz klasycznych indeksów (np. Calińskiego-Harabasza, Dunna). (abstrakt oryginalny)
Artykuł poświęcony jest podziałowi zbioru obiektów ze względu na wiele odrębnych kryteriów, tak aby otrzymane w wyniku podziału podzbiory obejmowały jednostki podobne jednocześnie ze względu na wszystkie kryteria. Mając na uwadze istotne cechy tych kryteriów wzięto pod uwagę dwie różne sytuacje: 1) zbiór kryteriów podziału można traktować jako jedno "nadkryterium”; 2) zbiór kryteriów podziału nie może być uważany za jedno "nadkryterium”.
20
Content available remote The Identity of the Political Language, Compared to Other Types of Language
80%
The existence of a political language implies recognising a stability of the linguistic code, outside the concrete situations of communication. Anyone who listens to the speech of a politician ascertains that he uses particular wording and phrases, manifests fondness for specific topics, makes appeal to a specific rhetoric, employs an adequate intonation, all aimed at facilitating the achievement of his objectives. The audience recognises immediately this type of language, which means that the political language has a distinctive identity, at the level of the content and of the expression as well, compared to the other types of language, even if, often, it valorises the contents and the expressions specific to these languages. In our study, we present a contrastive analysis of the political language, compared to other types of language (scientific, philosophical, religious, legal, artistic), aimed at identifying the defining notes, but also the convergence area that exist among them.(original abstract)
first rewind previous Strona / 16 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.