Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 25

Liczba wyników na stronie
first rewind previous Strona / 2 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Data processing system
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 2 next fast forward last
This paper concerns the design and physical construction of an emotion monitor stand for tracking human emotions in Human-Computer Interaction using multi-modal approach. The concept of the stand using cameras, behavioral analysis tools and a set of physiological sensors such as galvanic skin response, blood-volume pulse, temperature, breath and electromyography is presented and followed by details of Emotion Monitor construction at Gdansk University of Technology. Some experiments are reported that were already held at the stand, providing observations on reliability, accuracy and value the stand might provide in human-systems interaction evaluation. The lessons learned at this particular stand might be interesting for the other researchers aiming at emotion monitoring in human-systems interaction. (original abstract)
W artykule przedstawiono wdrożenie systemu klastrowego do zarządzania aplikacją bankową Zorba 3000 w Oddziale Regionalnym PKO BP SA w Katowicach. System ten opiera się na połączeniu wielu komputerów lub innych jednostek obliczeniowych w jedną całość.
Przedstawiona w pracy problematyka dotyczy koncepcji budowy systemu oprogramowania, które może stanowić narzędzie prowadzenia komputerowo wspartej analizy zależności wyrażanych obiektami rozmytymi takimi jak: zbiory rozmyte, liczby rozmyte, rozmyte relacje i funkcje. (abstrakt oryginalny)
4
75%
The article contains a presentation of the method of optimal estimation of the metallic charge in a foundry applying the computer technique. It starts with a short description of the technological process in a foundry, which provides an insight into the important problem being a subject of this study. The author points at two methods of the metallic charge estimation: - method of linear programming, - simulation method. Both methods can be relatively easily computerized. Thanks to that the process of the charge estimation becomes shortened while the results obtained ensure good quality of cast iron possessing the best economical and qualitative characteristics. The linear programming method possesses many advantages and disadvantages briefly analyzed in the article. For this reason we are presenting a method which allows for elimination of drawbacks attributed to the linear programming method. The method, we mean here, is the simulation method. Joint application of the linear programming and simulation methods allows to achieve a solution guaranteeing production of cast iron characterized with a relatively best quality and lowest production costs. Application of the simulation method assumes submitting many acceptable variants obtained on the way of the linear programming method to the simulation procedure and selection of the best variant. That, however, does not afford any bigger difficulties as the application of an electronic digital machine for calculation makes it possible to perform this task within a short time. The presented methods of metallic charge estimation can be applied not only in every foundry but also in steel works etc.(original abstract)
Business Process Maturity Model, podobnie jak inne modele dojrzałości, nie wskazuje na żadne konkretne technologie informatyczne15. Jest tak, ponieważ przyjmuje się, że technologia jest czymś wtórnym w stosunku do działań biznesowych, a prawdziwe problemy urzędów administracji publicznej i samorządowej nie leżą w warstwie technologii, lecz w organizacji procesów, więc i działania naprawcze nie mogą być technologicznie zależne. Pojawiają się jednak sugestie16, że do osiągnięcia wyższych poziomów dojrzałości narzędzia IT są niezbędne. Niniejszy artykuł jest próbą dokonania określonych ustaleń w tym zakresie. (fragment tekstu)
Celem pracy jest ocena różnych systemów indukcji reguł ze względu na ich przydatność do rozwiązywania konkretnych problemów decyzyjnych. Porównania różnych algorytmów indukcyjnych z dziedziny uczenia maszynowego, statystyki i sieci neuronowych na wielu zbiorach danych dokonano w ramach projektu StatLog [Michie, Spiegelhalter, Taylor, 1994] a także m.in. w pracy [Lim, Loh, Shih, 1997]. W naszym artykule w przeprowadzonych analizach porównawczych ograniczamy się do systemów indukcji reguł, ale zestaw uwzględnionych algorytmów rozszerzamy o te, których konstrukcja bazowała na teorii zbiorów przybliżonych [Pawlak, 1991] lub była przez nią inspirowana (ProbRough [Piasta, Lenarcik, 1996]). Zastosowane w analizach algorytmy porównywane są ze względu na: zakładane przeznaczenie, cechy wynikowego zbioru reguł, zależność wynikowego zbioru reguł od kolejności obiektów, atrybutów i decyzji w tablicy decyzyjnej, możliwość automatycznego eliminowania atrybutów nadmiarowych, dopuszczalność istnienia brakujących obserwacji, możliwość uwzględnienia zróżnicowanych priorsów i kosztów decyzji oraz złożoność obliczeniową. (fragment tekstu)
W artykule omówiono komputeryzację prac biurowych oraz jej wpływ na kształtowanie się stosunków społecznych w przedsiębiorstwie.
Ciągłe poszukiwanie rozwiązań technologicznych poprawiających efektywność przetwarzania, a zarazem stanowiących bardziej naturalne wykorzystanie zasobów informacyjnych doprowadziło do opracowania tzw. przetwarzania siatkowego (grid computing). W artykule zostanie scharakteryzowana typowa (dla tego rodzaju przetwarzania) architektura informacyjna wraz z istotnymi w tym układzie własnościami i potencjalnymi ograniczeniami postrzeganymi we współczesnych przedsiębiorstwach. Rozważania są ilustrowane przykładami odnoszącymi się do środowiska Oracle - jako rozwiązania aktualnie najbardziej zaawansowanego. (abstrakt oryginalny)
Autorzy omówili kilka struktur systemów dla testowania. System MATLAB pozwala modelować procesy zawirowanego bieżącego testowania. Systemy oferują szeroki zakres opcji konfiguracyjnych i mogą być użyte dla mierzenia i testowania wielu parametrów obiektu przewodzącego takich jak przewodność materiału, przepuszczalność, geometria, warunki powierzchniowe, grubość warstwy, powierzchnia oraz szczeliny podpowierzchniowe.
Opracowanie jest prezentacja komputerowego systemu służącego do interakcyjnego przetwarzania danych rozmytych. W tym celu zostały przedstawione podstawowe moduły programu. Ponadto w artykule została zaprezentowana wykorzystana w programie metoda przechowywania danych rozmytych zarówno w pamięci wewnętrznej komputera Jak też nośnikach pamięci zewnętrznej. Znajduje się też omówienie algorytmów numerycznych opracowanych dla komputerowej implementacji podstawowych operacji mnogościowych na zbiorach rozmytych. (abstrakt oryginalny)
Big Data jako kompleks zagadnień informatycznych stanowi jedno z najważniejszych wyzwań współczesnego świata cyfrowego. W obecnych czasach, przy ciągłym napływie dużej ilości informacji pochodzących z różnych źródeł, a zatem o różnej charakterystyce, wymaga się wprowadzenia nowych technik analizy danych oraz rozwiązań technologicznych. W szczególności Big Data wymaga stosowania równoległego przetwarzania danych oraz odejścia od klasycznego schematu przechowywania danych. Zatem w niniejszej pracy dokonano przeglądu podstawowych zagadnień związanych z tematyką Big Data. Przedstawiono różne definicje Big Data, problemy badawcze i technologiczne oraz wyzwania dotyczące wolumenu danych, ich zróżnicowania, redukcji wymiaru, jakości danych i możliwości wnioskowania. Wskazano także dalszy kierunek prac w zakresie rozpoznania możliwości Big Data w różnych obszarach zarządzania.(abstrakt oryginalny)
12
Content available remote Zarządzanie jakością danych w systemach informatycznych przedsiębiorstwa
63%
Zarządzanie jakością danych stanowi istotne zagadnienie, które powinno być uwzględnione w strategii każdej rozwijającej się i konkurującej na rynku firmie. Należy jednak pamiętać, że zarządzanie jakością danych nie ogranicza się jedynie do korygowania błędów, które pojawiły się lokalnie w danych transakcyjnych, ale jest filozofią zarządzania, opartego na prawdziwej, kompletnej i aktualnej informacji, dostępnej w ramach całej organizacji. W celu osiągnięcia wysokiej jakości danych i czerpania z nich wymiernych korzyści biznesowych, niezbędne jest rozwijanie kultury jakości zarządzania informacją oraz wdrożenie filozofii zarządzania jakością informacji. W artykule zostały przedstawione: strategia OODA, 14 punktów jakości Deminga w odniesieniu do jakości danych oraz metodyka TIQM (ang. Total Information Quality Management). Kluczowym elementem zarządzania informacją jest proces czyszczenia danych, którego pierwszym etapem jest diagnoza stanu baz danych, czyli profilowanie danych. W artykule zaprezentowano autorski projekt narzędzia, wykonanego na zlecenie firmy SAS Institute, który automatyzuje i standaryzuje proces profilowania danych klienta, bez względu na typ bazy danych czy systemu operacyjnego. Narzędzie PROFIL stanowi cenne rozszerzenie standardowych narzędzi czyszczenia danych, podnosi efektywność procesu czyszczenia danych oraz znacząco skraca czas przygotowywania i realizacji projektu czyszczenia danych. W zamyśle stanowił rozszerzenie funkcjonalności narzędzia PowerStudio firmy DataFlux, ale z powodzeniem może być wykorzystany jako narzędzie profilowania danych w dowolnych zastosowaniach procesu zarządzania jakością danych. (fragment tekstu)
13
63%
In order that data warehouses can accomplish their role in integrated management support computer systems, they must reproduce the state of a company at any point in time and take into account an evolutionary character of a company and its environment, time-variable needs of their users. To reproduce on-line the state of the company, its environment and needs of the data warehouse 's users, it is to extend the function in the data warehouse and make it possible to carry out systematically the measurement as well as to evaluate how the data warehouse is conformed to the needs of its users, to the company, and how the company is conformed to its environment. Owing to that it will be possible to conform iteratively the data warehouse to new company's states, its environment and new needs of the data warehouse 's users (decision-makers). A concept of such method is presented in this article. (original abstract)
Modele predykcyjne budowane na podstawie zgromadzonych danych opisujących przypadki medyczne mogą być istotnym wsparciem diagnostyki medycznej. Historyczne dane mogą stanowić zasób, który posłuży do wyodrębnienia wiedzy dotyczącej reguł diagnozowania czy najskuteczniejszych sposobów terapii. Repozytoria Big Data stwarzają możliwość gromadzenia i przetwarzania dużych wolumenów danych. Większa liczba rekordów może prowadzić do wypracowania modeli predykcyjnych, które będą cechowały się większą dokładnością, jednak wiąże się to jednocześnie z większą złożonością architektury systemu. (fragment tekstu)
Prowadzenie złożonych badań, w których często zachodzi konieczność korzystania z tego samego zestawu informacji w różnych etapach analizy lub też niezbędne jest powtarzanie tego samego cyklu obliczeń przy zmienionych parametrach, staje się o wiele łatwiejsze w przypadku dysponowania jednorazowo założonym, kompleksowym zbiorem danych. Omówiono etapy budowy banku danych oraz ich strukturę. Na koniec przedstawiono przykłady komputerowych zbiorów danych.
Artykuł przedstawia biometryczne technologie stosowane w systemach, podsystemach zabezpieczeń informacji lub innych zasobów. Rozpatrywane technologie dokonują identyfikacji osób po przez fizjologiczne charakteryzowanie cech ludzkich. (abstrakt oryginalny)
W artykule przedstawiono możliwości wykorzystania pakietu Lotus 1-2-3 do przekształcania struktur danych, do obliczeń numerycznych oraz scharakteryzowano język programowania Lotus 1-2-3. (abstrakt oryginalny)
O konkurencyjności przedsiębiorstwa decyduje m.in. aktualna i w miarę możliwości pełna, pewna oraz kompletna wiedza pozyskiwana z hurtowni danych (HD) różnymi metodami oraz jej wdrożenie. Ekstrakcja danych, czyli proces wyboru danych z różnych systemów źródłowych, jest jednym z najważniejszych etapów tworzenia HD. W artykule zasygnalizowane zostały techniki i metody procesu ETL odpowiadającego za etap przenoszenia danych ze źródła do środowiska HD, jako ekstrakcji danych dla przedsiębiorstwa bazującego na wiedzy.
Warunki rynkowe charakteryzuje duża zmienność i konieczność poszukiwania elementów przewagi konkurencyjnej. Konieczne jest stałe obserwowanie przez kadrę zarządzającą kluczowych wskaźników działania przedsiębiorstwa wraz z szybkim podejmowaniem właściwych decyzji biznesowych. Możliwość natychmiastowego otrzymania wiarygodnej informacji w oparciu o wszystkie dostępne dane gromadzone przez przedsiębiorstwo stała się kluczowym czynnikiem bezpieczeństwa podejmowanych decyzji. Obecnie na rynku wiele firm realizuje już projekty hurtowni danych i buduje systemy raportowo analityczne klasy Business Intelligence. BI jest zbiorem koncepcji, metod i procesów mających na celu optymalizację decyzji biznesowych. Rozwiązania BI wykorzystując dane zawarte w zasobach informacyjnych przedsiębiorstwa oraz doświadczenie i wiedzę uczestników biznesu, pozwalają lepiej zrozumieć jego dynamikę. Dzięki BI monitorowanie na bieżąco zmieniającej się sytuacji pozwala przedsiębiorstwom szybko zaadaptować się i zyskać przewagę konkurencyjną. Oferując narzędzia do eksploracji danych, Business Intelligence pozwala na odkrywanie możliwości, identyfikowanie tendencji i intuicyjne wykrywanie zdarzeń istotnych dla biznesu. BI to również zbieranie i zarządzanie danymi oraz analizowanie i dystrybuowanie informacji(fragment tekstu)
Autor przedstawił metody oceny eksploatacji mikrokomputerowych systemów rachunkowości oraz ich wpływ na jakość informacji wykorzystywanych w zarządzaniu przedsiębiorstwem. Ocenił efektywność tych systemów i wskazał kierunki ich rozwoju.
first rewind previous Strona / 2 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.