Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 32

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Efektywność algorytmów
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
Treścią referatu jest optymalizacja algorytmów przesyłu informacji pomiędzy elementami systemu przetwarzania równoległego pod kątem minimalizacji całkowitego czasu komunikacji pomiędzy tymi elementami. Rozważania prowadzą do przedstawienia przykładowego algorytmu realizującego marszrutę All-to-All Broadcast w dwuwymiarowej topologii torusa 2dx2d z przełączaniem typu wormhole. Zaletą proponowanego algorytmu jest minimalizacja czasu rozruchu.
W pracy tej rozważany jest algorytm obliczeniowy DHT oparty na metodzie tabeli algorytmicznej. Stosowanie zasady elementów obliczeniowych algorytmu i biorąc pod uwagę właściwości matrycy przekształceniowej kosinusa i sinusa DHT daje duże możliwości sprzętowe i czasowe dla tego rodzaju przekazu. (streszcz.)
Selekcja zmiennych jest typowym zadaniem data mining, gdzie prowadzący analizę poszukuje interesujących i nieoczekiwanych relacji w danych bez wiedzy początkowej na temat badanego zjawiska. W liniowym modelu regresji, zamiast popularnej procedury krokowej czy też eliminacji zmiennych testem istotności współczynników, do selekcji zmiennych zastosować można metody iteracyjnej estymacji parametrów modelu (np. LARS Efrona i in. [2004]). Celem artykułu jest zbadanie zdolności metody LARS do identyfikowania zmiennych nieistotnych, szczególnie gdy zachodzą między nimi zależności liniowe. Dokonano w nim też porównania z wybranymi metodami selekcji zmiennych.(abstrakt oryginalny)
Obszarem poszukiwanie lepszych, bardziej uniwersalnych algorytmów grupowania stały się rozpoznane zasady funkcjonowania kolonii mrówek. Analiza wybranych implementacji różnych rodzajów mechanizmów zbiorowej inteligencji jest przedmiotem referatu. (abstrakt oryginalny)
W opracowaniu przedstawiono możliwość wykorzystania komputerowego algorytmu optymalizacji "Małe Światy" (AMS) do zarządzania przestrzenną alokacją zasobów, na przykładzie wyznaczenia optymalnego rozmieszczenia w terenie patroli interwencyjnych Policji. Zaproponowano matematyczny model dyslokacji, będący połączeniem dwóch celów optymalizacyjnych. Pierwszy ukierunkowany na objęcie nadzorem jak największego obszaru działania jednostki oraz drugi na minimalizację łącznego czasu obsługi wszystkich zgłoszonych interwencji. Przeprowadzono symulacje na rzeczywistych danych i porównano z obecnie funkcjonującymi rozwiązaniami w Policji. Uzyskane wyniki wskazują, że wykorzystanie zaprezentowanego modelu może zwiększyć skuteczność działania jednostek Policji, a także przynieść wymierne korzyści ekonomiczne. (abstrakt oryginalny)
6
Content available remote Evaluation of the PageRank Algorithm Effectiveness
75%
In this paper the challenges in building good search engines are discussed. Many of the search engines use well-known information retrieval algorithms and techniques. They use Web crawlers to maintain their index databases amortizing the cost of crawling and indexing over the millions of queries received by them. Web crawlers are programs that exploit the graph structure of the Web to move from page to page. Paper analyses the PageRank algorithm one of these Web crawlers. The results of the impact of the PageRank parameter value on the effectiveness of determining the so-called PageRank vector are considered in the paper. Investigations are illustrated by means of the results of a some simulation experiments to analyze the PageRank algorithm efficiency for different density graph (representing analyzed part of www) coefficient values. (original abstract)
W literaturze można znaleźć wiele różnych algorytmów optymalizacji czasowo-kosztowej projektu. W ramach wspomnianej optymalizacji najczęściej poszukuje się wektora czasów trwania czynności wchodzących w skład przedsięwzięcia, który minimalizuje czas całego projektu przy dostępnych środkach finansowych (tzw. Budget Problem) lub który minimalizuje koszt realizacji przy przyjętym czasie dyrektywnym (tzw. Deadline Problem). Niektóre algorytmy są dokładne, czyli pozwalają uzyskać optymalne rozwiązanie, lecz zazwyczaj działają wolno. Inne natomiast są heurystyczne, a więc niekoniecznie prowadzą do uzyskania najlepszego rozwiązania, lecz za to są mniej czasochłonne. Proponowany w pracy algorytm, zwany metodą skracania przekrojów ścieżek niedopuszczalnych sieci (metoda SPSN), pozwala bezpośrednio rozwiązywać problem minimalizacji kosztu przy danym czasie, a pośrednio - problem minimalizacji czasu przy dostępnych środkach finansowych. Można go stosować zarówno wtedy, gdy jednostkowe koszty skracania są stałe, jak i wówczas, gdy te koszty są zmienne. Algorytm SPSN został już wcześniej opisany w innym artykule. Natomiast w tej pracy przedstawiono bardziej sformalizowany, szczegółowy i kompleksowy opis procedury. Ponadto zwrócono uwagę na różne kwestie związane z jego komputerową implementacją i efektywnością. (abstrakt oryginalny)
Przedstawiona w opracowaniu metoda opiera się na założeniu, że inwestor określa swoje preferencje w stosunku do zawartości portfela w taki sposób, że podaje procentowy udział określonej akcji w preferowanych przez niego portfelach. Znana implementacja algorytmu genetycznego zostanie poszerzona o Wektory Rozkładu Wag (Weight Distribution Vectors), co pozwoli na uwzględnienie podanych przez inwestora wymagań co do składu portfela. Klasyczny algorytm genetyczny jest probabilistycznym algorytmem przeszukiwania przestrzeni rozwiązań. (fragment tekstu)
Metody analizy input-output wykorzystane są w opracowaniu jako symulacyjna technika pomiaru efektów zwiększenia wydatków na określone cele. Narzędziem prezentowanych analiz mnożnikowych jest statyczny model polskiej gospodarki, będący odzwierciedleniem macierzy rachunkowości społecznej. Interpretacja wybranych mnożników input-output pozwala na ocenę efektywności określonych form inwestycji finansowych sektora przedsiębiorstw w skali makroekonomicznej, to jest w odniesieniu do wzrostu przychodów na rachunkach podmiotowych i przedmiotowych, wyszczególnionych w systemie rachunków narodowych.(abstrakt oryginalny)
W ciągu ostatnich trzydziestu lat wiele pracy i uwagi poświęcono dziedzinie algorytmów genetycznych (AG), przytaczając choćby słynne badania prowadzone przez Johna Hollanda. W dzisiejszych czasach wiadomym jest, że algorytmy genetyczne istnieją i czym są. Jednak obok tej podstawowej wiedzy i schematu AG nie do końca zrozumiałe jest ich działanie i możliwości stosowania. Główną ideą tego artykułu jest przedstawienie klasycznego schematu AG, ale z praktycznego punktu widzenia. Aby sprostać temu wyzwaniu niektóre przykłady z prawdziwego życia zostały umieszczone w różnych częściach artykułu. Ponadto, artykuł podkreśla także pewne cechy rzeczywistych problemów, które niemal wymagają stosowania AG. W celu uproszczenia idei algorytmów genetycznych w ostatniej części artykułu AG został przedstawiony za pomocą techniki wizualizacji.
W artykule badana jest efektywność algorytmu do wyboru zmiennych w analizie skupień zaproponowanego przez Autora na zbiorach danych ze świata realnego. Ocena tego algorytmu na syntetycznych zbiorach danych w postaci mieszanin rozkładów normalnych była przedmiotem innego badania - algorytm spisał się dobrze. Ideą algorytmu jest wybieranie jako istotnych tych zmiennych, których wariancja nie zmniejsza się tak bardzo jak wariancja zmiennych maskujących po zastosowaniu jednego kroku procedury średniego przesunięcia do wszystkich obserwacji zbioru danych. (abstrakt oryginalny)
Supersoniczne tempo rozwoju nowych technologii, w tym sztucznej inteligencji, umożliwia ich coraz szersze i bardziej efektywne zastosowanie do wspomagania pracy człowieka. Powstaje pytanie, czy nowe technologie, w szczególności sztuczna inteligencja, mogą być wykorzystane przez zainteresowane podmioty, np. przez podatników, organy podatkowe, sądy, do adresowania wyzwań związanych ze stosowaniem coraz to bardziej skomplikowanych i złożonych regulacji podatkowych. Celem artykułu jest próba odpowiedzi na to pytanie badawcze poprzez przedstawienie potencjału zastosowania sztucznej inteligencji wobec jednej z najbardziej istotnych norm prawnych o zasięgu globalnym, która jest skierowana przeciwko unikaniu opodatkowania, tj. klauzuli testu głównego celu (ang. principal purpose test) - dalej PPT. Autor finalnie stawia hipotezę, zgodnie z którą stworzenie bardzo skutecznego oprogramowania do wykrywania i zapobiegania zjawisku unikania opodatkowania i zapobiegania mu w skali krajowej i globalnej jest możliwe, a jego wdrożenie będzie zmianą "zasad gry", które nie tylko poprawią wydajność doradców podatkowych i władz podatkowych z różnych państw (niezależnie od stopnia rozwoju państw, wystarczy dostęp do Internetu), ale także wydajność systemów podatkowych na całym świecie. (abstrakt oryginalny)
Today's world is characterised by competitive environments, optimal resource utilization, and cost reduction, which has resulted in an increasing role for metaheuristic algorithms in solving complex modern problems. As a result, this paper introduces the gold rush optimizer (GRO), a population-based metaheuristic algorithm that simulates how gold-seekers prospected for gold during the Gold Rush Era using three key concepts of gold prospecting: migration, collaboration, and panning. The GRO algorithm is compared to twelve well-known metaheuristic algorithms on 29 benchmark test cases to assess the pro- posed approach's performance. For scientific evaluation, the Friedman and Wilcoxon signed-rank tests are used. In addition to these test cases, the GRO algorithm is evaluated using three real-world engineering problems. The results indicated that the proposed algorithm was more capable than other algorithms in proposing qualitative and competitive solutions. (original abstract)
Efektywny mechanizm międzyprocesorowego trasowania komunikatów jest jedyną z najważniejszych części współczesnego systemu równoległego. Efektywność zależy od typu wymiany wiadomości jak również od topologii sieci komunikowania wewnątrz procesorowego. W artykule przedstawiono algorytm odporny na błędy trasowania komunikatów.
W pierwszej części artykułu przedstawiony zostanie algorytm rozwiązujący przedstawione zagadnienie (tzn. stworzenie systemu informatycznego, który pozwalałby na modyfikację planów zajęć uczelni przeprowadzaną bezpośrednio przez pracowników i studentów), początkowo wersja wyszukująca rozwiązanie dokładne (optymalne), następnie wersja wyszukująca rozwiązania heurystyczne. W dalszej kolejności przeanalizowane zostaną wyniki działania algorytmu dla różnych wartości parametrów - cały proces osiągania coraz lepszych rozwiązań na losowych grafach. (fragment tekstu)
16
Content available remote A Comparative Study of FastICA and Gradient Algorithms for Stock Market Analysis
63%
In this paper we proved that a fast fixed point algorithm known as FastICA algorithm depending on maximization the nongaussianity by using the negentropy approach is one of the best algorithm for solving ICA model. We compare this algorithm with Gradient algorithm. The Abu Dhabi Islamic Bank (ADIB) used as illustrative example to evaluate the performance of these two algorithms. Experimental results show that the FastICA algorithm is more robust and faster than Gradient algorithm in stock market analysis. (original abstract)
17
Content available remote Effectiveness of Decomposition Algorithms for Multi-class Classification Problems
63%
Problem predykcji etykiety klasy (grupy, populacji) na podstawie obserwacji wektora cech jest nazywany klasyfikacją, analizą dyskryminacyjną lub uczeniem się pod nadzorem. Zbiór etykiet składa się z K>2 elementów w przypadku zagadnie wieloklasowych oraz z K=2 elementów w przypadku zagadnie dwuklasowych (binarnych). Ponieważ zagadnienia dwuklasowe są z reguły o wiele prostsze od zagadnie wieloklasowych (co więcej, niektóre algorytmy klasyfikacyjne dają się zastosować jedynie w przypadku dwuklasowym) wielu autorów proponuje dekompozycje zagadnie wieloklasowych do zagadnie binarnych. Do szczególnie znanych algorytmów tego typu należą: one-per-class (OPC). pairwise coupling (PWC) oraz error-correcting output codes (ECOC). Dualnym do zagadnienia dekompozycji jest zagadnienie łączenia informacji uzyskanych z klasyfikatorów binarnych. Klasyczne algorytmy bazują na minimalizacji odległości Hamminga, technice głosowania lub sumowania prawdopodobieństw a posteriori. W pracy porównano różne algorytmy dekompozycyjne oraz zarówno klasyczne jak i nowe metody łączenia informacji z klasyfikatorów binarnych. Wyniki tych porównań wskazują jednoznacznie, że zwłaszcza w przypadku niestabilnych" procedur klasyfikacyjnych takich jak drzewa klasyfikacyjne czy sieci neuronowe, poza uproszczeniem samych procedur uzyskujemy równie znaczną poprawę jakości klasyfikacji. Stąd metody te zaliczyć można do technik wzmacniania klasyfikatorów. (abstrakt oryginalny)
Artykuł jest podsumowaniem badań nad algorytmami heurystycznymi stosowanymi do rozwiązywania problemu układania tras pojazdów . W teoretycznej części artykułu scharakteryzowano problem układania tras oraz algorytmy przybliżone wykorzystywane do jego rozwiązywania. W części praktycznej wybrane algorytmy zaimplementowano w autorskiej aplikacji komputerowej. Na przykładzie obliczeniowym testowano szybkość wykonywania obliczeń przez te algorytmy oraz jakość zwrac anych przez nie rozwiązań. (abstrakt oryginalny)
19
51%
Przedmiot i cel pracy: Fałszywe wiadomości i dezinformacja prowadzą do skażenia środowiska informacyjnego. Dlatego w niniejszym artykule zaproponowano metodologię wykrywania fałszywych wiadomości za pomocą połączonych dokładności ważonych siedmiu algorytmów uczenia maszynowego. Materiały i metody: Artykuł ten wykorzystuje przetwarzanie języka naturalnego do analizy zawartości tekstowej listy próbek wiadomości, a następnie przewiduje, czy są one FAŁSZYWE, czy PRAWDZIWE. Wyniki: Wykazano, że algorytmiczne podejście do dokładności ważonej zmniejsza nadmierne dopasowanie. Wykazano, że indywidualne działanie różnych algorytmów poprawiło się po wyodrębnieniu danych z serwisów informacyjnych i filtrowaniu danych "jakościowych" przez mechanizm ograniczeń opracowany w eksperymencie. Wnioski: Model ten różni się od istniejących mechanizmów w tym sensie, że automatyzuje proces doboru algorytmów i jednocześnie bierze pod uwagę działania wszystkich zastosowanych algorytmów, w tym tych mniej wydajnych, zwiększając tym samym średnią dokładność wszystkich dokładności algorytmów. (abstrakt oryginalny)
W czasach dzisiejszych Facebook jest już zupełnie innym serwisem, aniżeli jeszcze kilka lat temu. Na przestrzeni lat zmienił się bowiem nie do poznania, głównie wskutek mechanizmów działających w tle. Obecnie ze względu na algorytm decydujący o tym, co można ujrzeć na firmowej tablicy wskaźników sprzedażowych, nie ma już miejsca na zbyt rozbudowaną viralowość. Facebook de facto ukrył liczbę fanów w swoich profilach. Poza spektakularnymi zdarzeniami, dla marketerów ważny jest fakt, iż to niekoniecznie liczba użytkowników tego medium decyduje o rozpoznawalności i sukcesie marek. (abstrakt autora)
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.