Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 239

Liczba wyników na stronie
first rewind previous Strona / 12 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Operations research
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 12 next fast forward last
1
Content available remote Rozwiązania stabilne w trójstronnym zagadnieniu przydziału
100%
W pracy zdefiniowana została nowa rodzina trójstronnych zagadnień przydziału, dla których istnieją przydziały stabilne. Rodzina ta jest różna od zdefiniowanych wcześniej, choć przedstawiony rezultat nawiązuje wyników zawartych w pracy Danilova. (fragment tekstu)
2
Content available remote Efektywne metody wyznaczania mediany Kemeny'ego
100%
Istnieje wiele sposobów upraszczania zadania wyznaczania mediany Kemeny'ego, które w przypadku ogólnym stanowi problem NP-trudny. W pracy przedstawiono jedną z takich metod. Zaproponowana metoda wykorzystuje twierdzenie Litvaka [3] podające warunek konieczny i dostateczny, który musi spełniać uporządkowanie, aby stanowiło medianę. (fragment tekstu)
3
100%
W niniejszej pracy zaproponowaliśmy sposób konstrukcji nowej skali werbalnej, pozwalającej na ocenę wariantu decyzyjnego w sposób lingwistyczny. Problem niskiej precyzji skali werbalnej, powiązany z brakiem realnych możliwości (interpretacyjnych) wprowadzania większej liczby termów lingwistycznych, został rozwiązany poprzez wprowadzenie integracji dwóch skal werbalnych, skali pierwszej, pozwalającej na zgrubną ocenę wariantu oraz skali drugiej, doprecyzowującej ocenę skali pierwszej. Poprzez integrację dwóch skal werbalnych otrzymano możliwość oceny wariantu na 37 stopniowej skali werbalnej. W pracy przedyskutowano wady i zalety skali werbalnej jak również przedstawiono mechanizm odwzorowania skali werbah1ej w skalę numeryczną po uprzednim odwzorowaniu dwóch skal składowych w skale numeryczne. (fragment tekstu)
4
Content available remote Wybrane metody szacowania funkcji użyteczności i funkcji wartości
100%
W pracy dokonano przeglądu wybranych metod określania funkcji użyteczności oraz funkcji wartości. Podejście teoretyczne zostało wzbogacone przykładem praktycznego wykorzystania jednej z metod. (fragment tekstu)
Celem niniejszej pracy jest przedstawienie wyników badań symulacyjnych w tym zakresie. Obejmują one określenie rozkładów częstości skalarnych błędów estymacji obu rozważanych estymatorów, w przypadku wybranych rozkładów prawdopodobieństw błędów porównań parami. Podstawę badań stanowi zbiór 9-elementowy, w którym określono trzy postacie relacji porządku oraz trzy rozkłady błędów porównań. Wykonano 200 symulacji każdego rozważanego przypadku. Wnioski z badań umożliwiają: wyznaczenie liczby porównali każdej pary elementów, która zapewnia niezbędną precyzję estymacji, a w szczególności błąd zerowy. (fragment tekstu)
W opracowaniu przedstawiono aplikację komputerową, która wykonana została na potrzeby systemu oceny projektów funkcjonującego w ramach RPO WK-P 2007-2013. Aplikacja posiada wszystkie wymagane przez zamawiającego funkcje pozwalające między innymi na wprowadzanie, przeglądanie i modyfikowanie danych dotyczących ocenianych projektów europejskich, tworzenie list wniosków ocenionych pozytywnie, negatywnie, skierowanych do ponownej oceny formalnej lub do wyjaśnienia, drukowanie protokołów oceny, a także sporządzanie rankingów wniosków przedkładanych Zarządowi Województwa. (fragment tekstu)
7
Content available remote Metody pomiaru osiągnięć na kolejnych szczeblach edukacji
100%
Celem opracowania jest zwrócenie szczególnej uwagi na. wkład szkół i uczelni w rozwój kapitału ludzkiego danej osoby oraz opis metod pomiaru wartości kapitału ludzkiego. Metody te wykorzystują wyniki państwowych egzaminów zewnętrznych w szkołach oraz wyniki na studiach liczone w punktach ECTS (European Credit Trausfer System) - Europejskiego Systemu Transferu Punktów. W opracowaniu podajemy również krótką charakterystykę i opis działania sztucznej sieci neuronowej, którą wykorzystano w obliczeniach i analizie danych. Omówiono w skrócie regresję liniową, jako jedną z metod analizy współzależności zjawisk masowych. Na koniec przedstawimy analizę wyników 156 osobowej grupy studentów/uczniów, na przykładzie której pokażemy, jak ta teoria powinna być stosowana w praktyce. (fragment tekstu)
W harmonogramowaniu procesów budowlanych bardzo istotne jest wyznaczanie zapasów czasu. Tworzone są bufory czasu wyznaczane standardowo, np. Goldratt wyznacza bufor projektowy, który zawsze ma wartość 25% pierwotnie ustalonego czasu trwania procesu. Znajomość rzeczywistych wartości buforów czasu jest bardzo istotna. Mając rzeczywiste dane proces decyzyjny może osiągnąć wyższy poziom prawidłowości planowania. Dotychczas w budownictwie nie używano dużych baz danych. Jest to jednak możliwe, co wykazano w niniejszej pracy. Dane coraz częściej zbierane są przez filmy budowlane oraz przez filmy związane z budownictwem. Kontynuacją niniejszej pracy będzie prognozowanie czasu awarii koparek kołowych z podziałem na marki. (fragment tekstu)
Metoda symulacji Monte Carlo jest efektywnym narzędziem analizy sieci zależności czynności o dowolnych rozkładach czasu ich trwania, bez konieczności wprowadzania dodatkowych założeń upraszczających. W ten sam sposób mogą być analizowane modele proste (obejmujące jedynie zależności kolejnościowe), jak i modele z ograniczeniami w dostępności zasobów lub ograniczeniami czasowymi (np. polityka railway). O jakości uzyskanych rezultatów decyduje sposób prowadzenia badań symulacyjnych. Zastosowanie metod redukcji wariancji może zarówno skrócić czas prowadzenia badań (zmniejszenie liczby replikacji), jak i podnieść wiarygodność oszacowania wybranych charakterystyk badanego modelu. Efektywność poszczególnych metod redukcji wariancji zależy przede wszystkim od konfiguracji sieci zależności i stosowanych typów oraz para- metrów rozkładów czasu trwania czynności, ale także od doświadczenia i umiejętności badacza. Na podstawie przeprowadzonych eksperymentów symulacyjnych można wnioskować, że zastosowanie metody liczb antytetycznych prowadzi do znacznej redukcji wariancji. Porównywalną efektywnością charakteryzuje się metoda losowania warstwowego Latin Hypercube Sampling, ale w tym przypadku zaprojektowanie symulatora i przeprowadzenie badań symulacyjnych jest bardziej złożone. Kierunkiem przyszłych badań będzie analiza większej liczby modeli testowych oraz stosowanie łączne kilku metod redukcji wariancji, np. metody LHS i losowania przeciwstawnego. (fragment tekstu)
Zaprezentowana metoda (IMGP - interaktywne wielokryterialne programowanie celowe) cechuje się dużą prostotą, przez co może być łatwo zrozumiana przez decydenta (ubezpieczyciela). Pozwala na uzyskiwanie rozwiązań dla zadań z wieloma celami, dla których nie umiemy jednoznacznie określić hierarchii. Z powodzeniem może być stosowana przy rozwiązywaniu problemów związanych z działalnością zakładu ubezpieczeń. (fragment tekstu)
Artykuł przedstawia, że dwie wersje algorytmu simplex powszechnie stosowanego w rozwiązywaniu zadań "problemu LP"; metoda kar lub metoda dwóch faz są równoważne. Równoważność jest tu rozumiana jako rozpoczęcie od tego samego pierwszego rozwiązania bazowego, wykonania takiej samej liczby iteracji potrzebnych do otrzymania optymalnego rozwiązania bazowego oraz przebieganie przez te same wierzchołki. Osiągamy równoważność obu metod jeśli: I. w konstrukcji tabeli simplex zastosujemy MKb w metodzie kar oraz tablicę DFb w metodzie dwóch faz; II. w przypadku kilku kandydatur w selekcji nowej zmiennej bazowej wyróżniamy kandydaturę zmiennej o najniższym możliwym numerze.
12
Content available remote Zastosowanie analizy cojoint do badania preferencji muzycznych
80%
Analiza conjoint została stworzona z myślą o prowadzeniu badań marketingowych i w tym obszarze znajduje najwięcej zastosowań. W niniejszym opracowaniu wykorzystano ją do oceny preferencji muzycznych. Podjęto tu próbę kwantyfikacji trudno mierzalnych kategorii, na które składają się między innymi piękno i harmonia brzmienia muzyki, artyzm języka dźwiękowego, głębia wyrazu dzieła muzycznego czy ponadczasowość treści przekazywanych poprzez muzykę. Ich ocena zależy między innymi od cech osobowościowych respondenta, jego wrażliwości muzycznej, wcześniejszego przygotowania edukacyjnego z zakresu muzyki i innych. Dlatego też melomani stanowią grupę w znacznym stopniu niejednorodną pod względem upodobań muzycznych. Połączenie wyników analizy conjoint z metodą grupowania k-średnich pozwoliło na wyodrębnienie jednorodnych pod względem preferencji segmentów respondentów i szczegółową prezentację ich gustów i preferencji muzycznych. Wydaje się, że otrzymane wyniki mogą być interesujące zarówno dla psychologów, socjologów, jak i osób związanych ze środowiskiem muzycznym. Do pewnego stopnia mogą być również pomocne w dalszych badaniach służących dostosowaniu oferty uczestników rynku muzycznego do oczekiwań melomanów.(fragment tekstu)
Niniejsze opracowanie poświęcone jest badaniom nad tym, czy rozumowania intuicyjne przebiegają zgodnie z zasadami dedukcyjnymi logiki formalnej i rachunku prawdopodobieństwa. Badania przedstawione w tym artykule stanowią kontynuacje badań Sosnowskiej opisanych w artykułach Sosnowskiej [12; 13; 14]. (fragment tekstu)
14
Content available remote Time Buffers in the Open Shop Problem
80%
A stability concept for the open shop schedule is proposed. The underlying aim is to protect an organisation against serious problems caused by accumulation of delays in various processes realised in the organisation at the same time. The stability criterion is coupled with that of schedule makespan minimisation. Buffers are used as a tool of ensuring schedule stability. A fuzzy model determining the optimal schedule with respect to both criteria is formulated based on expert opinions as to the desired buffer size and the desired planned makespan. The model is expressed as a mixed integer linear programming model. The approach is illustrated by means of an example. (original abstract)
15
Content available remote Wzorzec modelu oczekiwanej użytecznosci a rozwój teorii decyzji
80%
Tradycyjnie w literaturze z zakresu teorii decyzji, ze względu na odmienne założenia o podejmującym decyzje, mówi się o podziale na nurt normatywny i deskryptywny. Jednak teorie takie nie są wzajemnie niezależne i nie można ich rozdzielać w sposób radykalny. Dobry model deskryptywny opisujący zahowanie decydentów w sytuacji wyboru wariantu ryzykownego, ze względu na swoją wartość predykcyjną, staje się modelem normatywnym. I odwrotnie, przyjmowany przez osoby jakiś model normatywny spełnia funkcje deskryptywne, a zatem pozwala przewidywać rzeczywiste zachowania jednostek. Istniejący podział na teorie normatywne i deskryptywne jest nieostry i proponuje się rozróżniać inne dwa podejścia: konwencjonalne i niekonwencjonalne. Podział taki uwzględnia indywidualną racjonalność w procesie wyboru, a więc to, co z punktu widzenia podejmującego decyzje stanowi o jego istocie. (fragment tekstu)
16
Content available remote Wieloczynnikowe hybrydowe modele market-timing polskich funduszy inwestycyjnych
80%
Głównym celem pracy była konstrukcja portfela naśladującego WML, reprezentującego czynnik momentum na polskim rynku oraz analiza istotności wpływu tego czynnika jako zmiennej niezależnej w modelach market-timing grupy agresywnych funduszy inwestycyjnych. Otrzymano wynik negatywny, czyli brak istotnego wpływu czynnika WML na stopy zwrotu z portfeli funduszy. Wynik ten różni się od wniosków Carharta dla rynku amerykańskiego [4], zatem kolejnym etapem badań powinna być analiza odporności uzyskanych wyników estymacji na zmianę długości przedziału czasowego, np. poprzez analizę stabilności parametrów otrzymanych modeli ekonometrycznych. (fragment tekstu)
Autorzy proponują zastosowanie w procesie grupowego podejmowania decyzji rozmytego rozszerzenia metody AHP, które umożliwi ustalenie istotności kryteriów poprzez agregację ocen grupy ekspertów. (fragment tekstu)
18
Content available remote Twierdzenie Pitagorasa w naukach społecznych
80%
Ten artykuł można traktować jako początek nowego działu matematyki, który proponujemy nazwać matematyką relacji tu i teraz lub w skrócie matematyką titów. Jak pokazaliśmy, potraktowanie powszechnie znanej prawdy, że w gospodarce rynkowej popyt równa się podaży, jako relacji (równości) tu i teraz dało wiele ciekawych i oryginalnych wniosków. W powszechnej opinii prawdziwa matematyka rozpoczęła się od twierdzenia Pitagorasa, które ma bardzo głęboki sens filozoficzny i estetyczny. Twierdzenie to mówi, że to co w naszym życiu jest piękne (racjonalne, proste, ortogonalne, rozłączne itp.) ma elegancką postać matematyczną. Ktoś może powiedzieć, że Krzywa Wieża w Pizie jest też piękna, ale to jest wyjątek, który tu i teraz potwierdza poprzednie zdanie. Matematyka titów ma swój odpowiednik twierdzenia Pitagorasa, podobnie jak teoria liczb, teoria prawdopodobieństwa czy statystyka. Autor jest gorącym zwolennikiem tezy, że nauka, jako poszukiwanie prawdy, jest jedna, a podział na dyscypliny, takie jak matematyka, ekonomia czy psychologia, acz dziś nieunikniony, poszedł w wielu przypadkach zbyt daleko, nieraz ocierając się o granice absurdu. W tym kontekście możemy spojrzeć na naukę jako poszukiwanie reguł bądź to reguł decyzyjnych, takich jak w zasadzie ortogonalności, które pozwalają nam lepiej opisać i zrozumieć świat albo reguł gry (rynkowej), które pozwalają nam rozsądniej ten świat tu i teraz zorganizować. (fragment tekstu)
19
Content available remote Bin Packing with Restricted Item Fragmentation
80%
In this paper we consider a generalization of the bin packing problem, in which it is permitted to fragment the items while packing them into bins. There is, however, a restriction that the size of each piece of the fragmented item cannot be smaller than a given parameter β. An interesting aspect of such a model is that if β = 0, then the problem can be easily solved optimally. If β is large enough, meaning, in fact, that the fragmentation is not allowed, we get the classical bin packing problem, which is NP-hard in the strong sense. We present approximation algorithms for solving the problem and analyse their properties. The results of computational experiments and conclusions relating to the effectiveness of the algorithms are also presented. (original abstract)
20
Content available remote Wpływ ryzyka długowieczności na ubezpieczenia na życie
80%
Przedstawione w opracowaniu wyniki pokazują, jaki wpływ ma wybór tablic trwania życia na kalkulację składki netto w ubezpieczeniach na życia. Można stąd wysnuć wniosek, że aby zmniejszyć ryzyko niewłaściwego oszacowania wartości produktów i rezerw przez zakłady ubezpieczeń na życie, należałoby rozważyć możliwość wprowadzenia do wyceny produktów ubezpieczeniowych zamiast tradycyjnych tablic trwania życia - dynamiczne tablice trwania życia Ważne jest, aby tablice stosowane do kalkulacji składki netto wykorzystywały informacje z prognoz O umieralności, gdyż jest to dynamicznie zmieniający się w czasie proces. Zaznaczyć należy także, iż w praktyce poza umieralnością uwzględnia się jeszcze wiele innych uwarunkowań. (fragment tekstu)
first rewind previous Strona / 12 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.