Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 12

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Analiza logiczna
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
Praca przedstawia formalną weryfikację procesów biznesowych wyrażonych w notacji BPMN. Weryfikacja jest oparta na wnioskowaniu logicznym. Została wprowadzona automatyczna transformacja wzorców procesowych BPMN do formuł logiki temporalnej. Formuły te składają się na logiczną specyfikację całego systemu i następnie są przetwarzane z wykorzystaniem metody tablic semantycznych. W ogólności, takie podejście do wnioskowania logicznego ma wiele zalet w porównaniu do podejścia tradycyjnego, opartego na metodzie rezolucji. W pracy pokazano automatyczną transformację formuł logicznych dla pięciu podstawowych wzorców procesowych BPMN, a także przedstawiono na diagramie BPMN pewien prosty model biznesowy. Odpowiednie formuły logiki temporalnej uzyskiwane są w sposób automatyczny, po czym proces wnioskowania logicznego z wykorzystaniem metody tablic semantycznych pozwala poddać weryfikacji sam model biznesowy. (abstrakt oryginalny)
2
Content available remote General Logical Systems of Functor-Argument Decomposition
100%
We consider general logical systems of functor-argument decomposition. The defined notion of contexts as introduced here plays a crucial role in defining central logical notions such as satisfiability, consequence relations and validity. We outline the most important possibilities which in turn lead to different logical systems. (original abstract)
Opracowanie "Analiza logiczna w ekonometrii" w swej pierwszej części przygotowuje problemy ekonometrii do dyskusji w celu zaakcentowania konieczności ich rozwiązywania z wykorzystaniem badań logicznych.
Niniejsza praca jest próbą przedstawienia problemów, które rodzi każda próba analizy stosunku prawnego za pomocą kategorii logicznych, a w szczególności logiki deontycznej. Rozważania rozpoczniemy od przypomnienia podstawowych problemów stosunku prawnego. Banalnym jest dzisiaj stwierdzenie, że na społeczną rzeczywistość składają się relacje istniejące między ludźmi, które - gdy są prawnie regulowane - nazywamy stosunkami prawnymi. Zachowanie ludzkie jest zatem nakazane, zakazane albo dozwolone tylko w pewnym sensie, tj. ze względu na pewną osobę w jej relacjach do innych osób. Prawa i obowiązki są ze sobą skorelowane. Można jednak pojmować tę korelatywną naturę praw i Obowiązków w różny sposób, również w zależności od przedmiotu stosunku, który wchodzi w danym wypadku w grę. Jak wiadomo, istnieje szereg koncepcji przedmiotu stosunku prawnego. (fragment tekstu)
Głównym celem niniejszego artykułu była prezentacja bayesowskiej konstrukcji i testowania modeli dwumianowych opartych na rozkładzie t-Studenta, zilustrowana przykładem dotyczącym analizy nieopłacalności kredytów detalicznych. Omówiono podstawowe problemy związane z estymacją za pomocą metody największej wiarygodności. Przedstawiono konstrukcję rozkładów a priori, zwracając uwagę, że wyłącznie właściwe rozkłady gwarantują istnienie rozkładów a posteriori. W celu bayesowskiej estymacji wykorzystano jedną z metod Monte Carlo łańcuchów Markowa, tj. algorytm Metropolisa i Hastingsa. Testowanie modeli bayesowskich przeprowadzono w oparciu o czynniki Bayesa i prawdopodobieństwa a posteriori. Zaproponowane uogólnienie polegało na przyjęciu rozkładu dopuszczającego grube ogony oraz zastosowaniu aproksymacji kwadratowej dla zależności między nieobserwowalną zmienną reprezentującą użyteczność decyzji kredytobiorcy (spłaty w terminie rat kapitałowo-odsetkowych bądź nie) a czynnikami egzogenicznymi, wyjaśniającymi ryzyko kredytowe. W świetle wyników przeprowadzonych testów okazało się ono zasadne. Wprowadzenie dodatkowego parametru - liczby stopni swobody v - pozwoliło także na równoczesne testowanie dwóch najczęściej stosowanych modeli dwumianowych: probitowego i logitowego. Dane solidnie świadczą na rzecz modelu logitowego i zdecydowanie odrzucają model probitowy. Model t-Studenta o nieznanej, podlegającej estymacji, liczbie stopni swobody jest interesującą alternatywą dla obu wspomnianych modeli, gdyż wnioskowanie na jego podstawie odpowiada bayesowskiemu łączeniu wiedzy, gdy rozważamy te dwa, najczęściej stosowane w literaturze modele. (abstrakt oryginalny)
Celem pracy było określenie czynników różnicujących wysokość rekompensaty w przypadku uniemożliwienia korzystania z Wielkopolskiego Parku Narodowego. Materiały źródłowe do realizacji postawionego problemu pozyskano podczas badań w formie wywiadu standaryzowanego, przeprowadzonego w latach 2012-2013 wśród mieszkańców miejscowości położonych w obrębie gmin, w których zlokalizowany jest WPN oraz mieszkańców Poznania bezpośrednio sąsiadujących z tymi gminami. Zakres pracy obejmował analizę materiału zebranego od 1400 respondentów podczas wywiadów standaryzowanych. Ankieta składała się z trzech części. W pierwszej pytania dotyczyły ogólnych informacji o WPN (stan wiedzy, częstotliwość odwiedzin, znaczenie WPN dla odwiedzających, preferowany typ lasu), druga zawierała pytania dotyczące skłonności respondentów do ponoszenia kosztów na rzecz środowiska (dobrowolne przeznaczenie środków pieniężnych za możliwość korzystania z walorów WPN lub ewentualna rekompensata za uniemożliwienie z korzystania z Parku, alternatywnie jeżeli respondent nie zadeklarował żadnej kwoty to czy byłby skłonny pracować na rzecz WPN w formie wolontariatu). Natomiast trzecia część obejmowała charakterystykę socjoekonomiczną ankietowanych (płeć, wiek, zawód, dochód netto na osobę w rodzinie, wykształcenie, miejsce zamieszkania). Zebrane wyniki poddane zostały weryfikacji, w wyniku której wyeliminowano ankiety nie zawierające odpowiedzi na kluczowe pytania. Ostatecznie przygotowano uporządkowaną, zweryfikowaną macierz z odpowiedziami ankietowanych, w skład której weszły rezultaty z 577 wywiadów. W pracy zastosowano model logitowy do określenia czynników różnicujących skłonność do ponoszenia kosztów na rzecz parku. Z otrzymanych rezultatów wynika, że rekompensaty za uniemożliwienie korzystania z WPN nie oczekują turyści odwiedzający i świadomi jego walorów przyrodniczych, natomiast oczekują rekompensaty osoby starsze, które mieszkają w bliskiej odległości, oraz charakteryzują się niskim dochodem netto na osobę. (abstrakt oryginalny)
W niniejszym artykule wprowadza się pojęcie rozmytych przestrzeni 2-metrycznych jako strukturalne uogólnienie przestrzeni 2-metrycznych i bada się ich własności. Rozmyte przestrzenie metryczne znalazły liczne zastosowania zarówno w naukach matematycznych (np. topologie rozmyte), jak i w naukach przyrodniczych i ekonomicznych. Wprowadzone w artykule narzędzia matematyczne mogą posłużyć do kontynuacji badań teoretycznych oraz do budowy modeli w naukach eksperymentalnych i ekonomicznych, tj. wszędzie tam, gdzie gromadzimy dane statystyczne. W prezentowanym artykule bada się własności rozmytych przestrzeni 2-metrycznych, przy czym uogólnienie to polega na zamianie funkcji odległości d pewnym zbiorem rozmytym. Pierwszy punkt artykułu ma charakter przygotowawczy. Bada się w nim własności rozmytych przestrzeni 2-metrycznych, wynikające bezpośrednio z definicji. W drugim punkcie przedstawiono przykłady rozmytych przestrzeni 2-metrycznych i pewne ich własności. W trzecim rozważa się niektóre topologiczne własności przestrzeni 2-metrycznych i charakteryzuje się warunki zbieżności i ciągłości w tych przestrzeniach. (fragment tekstu)
Logika modalna bada pod względem poprawności te typy rozumowań, które opierają się na pojęciach "konieczność" i "możliwość". Jest to najczęstsze i najwęższe pojmowanie logiki modalnej. Logika ta bada modalność aletyczną (dotyczy konieczności prawdziwości zdania). Niektórzy logikę modalną pojmują szerzej, zaliczając do niej modalność epistemiczną (dotyczy wiedzy koniecznej) oraz modalność deontyczną (dotyczy obowiązku w kontekście konieczności). W niniejszym opracowaniu przyjęte zostało to obszerniejsze znaczenie. Powyższa charakterystyka dotyczy modalności de dicto - chodzi o modalność całych zdań. Jest też modalność de re - wówczas chodzi o modalność czasowników. (fragment tekstu)
Problematyka niniejszego artykułu mieści się w filozofii nauk o zarządzaniu. Celem artykułu jest określenie statusu epistemologicznego prognozowania w naukach o zarządzaniu na gruncie ontologii deterministycznej. Zważywszy, że cel opracowania ma charakter systematyzująco-poznawczy, posłużono się metodą logicznej analizy oraz konstrukcji pojęciowej. Efektem artykułu jest sformułowanie definicji pojęć, takich jak: dane, informacje, wiedza, prognoza oraz prognozowanie. Skonstatowano, że w odróżnieniu od nauk przyrodoznawczych status epistemologiczny prognozowania w naukach o zarządzaniu ma charakter negatywny. Opisano oraz wyjaśniono przyczyny takiego stanu rzeczy.(abstrakt oryginalny)
Myślenie logiczne, zwane także analitycznym lub dyskursywnym, podlega ograniczeniom i niejednokrotnie zawodzi wobec złożoności nieustannie zmieniającego się świata. Alternatywą dla niego jest myślenie lateralne, odsłaniające nowe horyzonty i twórcze idee. Termin ten został wprowadzony przez Edwarda de Bono w roku 1967, w jednej z jego książek i oznacza myślenie kreatywne, wykorzystujące różne akty pobudzania umysłu (ucieczka, działanie bodźców, odwracanie uwagi) w celu generowania nowych pomysłów. Wykształcenie umiejętności takiego myślenia nie jest trudne, wymaga jednak systematycznych ćwiczeń umysłowych. Pomocą w tym zakresie mogą służyć specjalne metody i techniki. Jedną z nich jest metoda sześciu myślowych kapeluszy, która bazuje na założeniu, że ludzki mózg analizuje dany problem w wielu różnych kategoriach. W każdej z tych kategorii mózg identyfikuje i prowadzi do świadomej myśli jedynie pewne aspekty rozważanego zagadnienia (np. emocje, fakty, pesymistyczne wizje, pozytywne aspekty), co pozwala na uporządkowanie procesu myślenia, a tym samym opracowanie najbardziej efektywnej taktyki rozwiązania problemu. Artykuł prezentuje główne założenia metody sześciu kapeluszy i kontrastuje ją z trzema innymi metodami heurystycznymi: tradycyjną burzą mózgów, metodą morfologiczną oraz analizą SWOT. (abstrakt oryginalny)
Liczba rodzajów benchmarkingu przytaczanych w literaturze przedmiotu dowodzi nie tylko dużego zainteresowania badaczy tym zagadnieniem, lecz także nieusystematyzowania zagadnień teore********tycznych w obszarze klasyfikacji i typologii benchmarkingu. Podziały benchmarkingu cechuje pewien brak spójności i naruszenie obowiązujących reguł logicznych. Skutkiem tego jest duża liczba jego klasyfikacji i typologii utrudniająca prawidłowe zrozumienie istoty poszczególnych jego rodzajów i wykorzystanie teorii benchmarkingu w praktyce gospodarczej. Celem artykułu było uporządkowanie klasyfikacji i typologii benchmarkingu z zastosowaniem zasad poprawności podziału logicznego pojęć. Wykorzystano dedukcyjne metody pracy naukowej, które pozwoliły na rekonstrukcję wiedzy wywodzącej się z badanej literatury i wyprowadzanie wniosków istotnych do osiągnięcia celu. Ze względu na ograniczenia objętościowe został pokazany mechanizm tworzenia poprawnych podziałów logicznych. Najprostszym podziałem benchmarkingu zapewniającym ex definitione poprawność jest podział dychotomiczny. Opracowano dychotomiczne podziały logiczne benchmarkingu według wybranych kryteriów, tj. podmiotu, branży, przedmiotu, rodzaju danych, stopnia sformalizowania, zewnętrznego wsparcia, częstotliwości oraz relacji między partnerami w benchmarkingu. Biorąc po uwagę dużą liczbę klasyfikacji i typologii benchmarkingu w literaturze przedmiotu, uznano za właściwe wyróżnienie benchmarkingu wewnętrznego i zewnętrznego jako dwóch podstawowych klas. Pozostałe rodzaje benchmarkingu mieszczą się w tych dwóch kategoriach. Benchmarking wewnętrzny i zewnętrzny (podzakresy otrzymane w wyniku podziału logicznego według kryterium podmiotu) można poddać następnym podziałom ze względu na kolejne kryteria podziału, otrzy********mując wielostopniową klasyfikację lub typologię benchmarkingu. Przedstawione w artykule propozycje uporządkowania zagadnień związanych z rodzajami benchmarkingu mogą przyczynić się do rozwoju teorii benchmarkingu dzięki kształtowaniu prawidłowej wiedzy w tym zakresie.(abstrakt oryginalny)
Transformacja gospodarcza w krajach Europy Środkowej i Wschodniej była jednym z najważniejszych wydarzeń w historii gospodarczej świata w drugiej połowie XX wieku. Nie miałaby ona jednak miejsca, gdyby nie kryzys gospodarczy, który wystąpił w tych państwach. Celem artykułu jest zrekonstruowanie na podstawie literatury mechanizmów i zależności występujących w gospodarce centralnie zarządzanej, powodujących jej nieefektywność. W artykule przyjęta została teza, że przyczyną kryzysu gospodarczego państw socjalistycznych był istniejący w nich ustrój gospodarczy - gospodarka centralnie zarządzana. Cechy charakterystyczne tego ustroju były źródłem jego niesprawności. Zakres merytoryczny artykułu obejmuje charakterystykę gospodarki centralnie zarządzanej, ocenę tego ustroju oraz analizę przyczyn jego niesprawności. Ze względu na teoretyczny charakter artykułu wykorzystano metodę analizy logicznej i opisowej. Artykuł składa się z trzech części. W pierwszej części podjęto próbę zidentyfikowania charakterystycznych cech gospodarki centralnie zarządzanej. Część druga poświęcona jest ocenie tego ustroju gospodarczego w świetle kryteriów dobroci. W części trzeciej przedstawiono rekonstrukcję mechanizmów prowadzących do kryzysu gospodarczego. (fragment tekstu)
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.