Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 168

Liczba wyników na stronie
first rewind previous Strona / 9 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Przetwarzanie danych
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 9 next fast forward last
Prawidłowe funkcjonowanie państwa w zakresie ustalania i weryfikacji danych technicznych pojazdów na potrzeby ich rejestracji, ewidencjonowania, czy przeprowadzania badań technicznych, uzależnione jest przede wszystkim od jakości systemu stanowiącego podstawę w realizacji tychże procesów. Katalog marek i typów pojazdów opracowywany przez Instytut Transportu Samochodowego to kompleksowa baza danych technicznych, dotycząca pojazdów dopuszczonych do ruchu na terytorium Polski, która stanowi jednocześnie uniwersalny system, który może być wykorzystywany wielopłaszczyznowo. Celem nadrzędnym Katalogu ITS jest dbałość o jednolite przestrzeganie zasad stosowania zawartych w nim słowników (np. odnośnie marek, modeli, rodzajów, podrodzajów i przeznaczeń, kategorii, czy paliw), dzięki czemu wszystkie podmioty z niego korzystające, posługują się parametrami technicznymi w sposób spójny. Pozwala to uniknąć rozbieżności oraz umożliwia ocenę prawidłowości lub kontrolę danych technicznych pojazdów dla wybranych celów.(abstrakt oryginalny)
Celem tego artykułu jest przedstawienie prac nad wykorzystaniem systemu automatycznego wczytywania danych (OCR) w radomskim OIS. Przedstawiona zostanie również analiza jakości danych wczytanych w ten sposób. (fragment tekstu)
Współcześnie podejmując jakąkolwiek aktywność związaną z nabywaniem dóbr i usług pozostawiamy po sobie ślad - głównie dane osobowe. Biorąc pod uwagę szybkość wymiany informacji można dojść do wniosku, że relacje interpersonalne nabierają doniosłości prawnej przy ocenie motywacji lub przyczyn przyjęcia takiego, a nie innego stanowiska jednego podmiotu wobec drugiego. Informacje o podmiotach i ich zachowaniu na rynku mają znaczenie dla procesu decyzyjnego należącego do autonomicznej sfery każdego podmiotu prawa. W tekście dąży się do ustalenia jaki interes lub dobro zostaje naruszone, gdy uczestnicy rynku nie chcą nawiązywać relacji prawnych z określonym podmiotem, opierając się wyłącznie na nieprawdziwych danych. Uznano również, że "wiarygodność kontrahenta" stanowi istotny prawnie atrybut podmiotów uczestniczących w obrocie gospodarczym, który może być bezprawnie naruszony przez przetwarzanie danych osobowych. Wkroczenie w sferę wartości nierozerwalnie związanych z człowieczeństwem albo podmiotowością prawną innych bytów prowadzi do problematyki pojęcia i ochrony dóbr osobistych. Jakakolwiek nieścisłość lub uchybienie w zakresie przetwarzania danych osobowych może wywołać niewspółmiernie wielkie szkody w niemajątkowych interesach podmiotu, którego dane dotyczą. Zaś na skutki wadliwego przetwarzania danych osobowych i powiązane z tym roszczenia osoby, której dobra naruszono, należy popatrzeć z perspektywy dwuaspektowej konstrukcji ochrony dóbr osobistych.(abstrakt oryginalny)
W niniejszym opracowaniu główną uwagę skoncentrowano na jednym z etapów przetwarzania danych w wiedzę - eksploracji danych. Podstawowym celem jest wskazanie uniwersalnych technik eksploracji danych i ich najważniejszych własności oraz przedstawienie wyników badań odkrywania struktury zbioru danych przy ich użyciu na przykładzie analizy problemu dotyczącego wdrożenia telepracy. W pracy wykorzystano systemy DeTreex i Neuronix, będące częścią pakietu Sphinx. (fragment tekstu)
W przetwarzaniu danych statystycznych można wyróżnić kilka kluczowych operacji, takich jak: wprowadzanie, symbolizacja, redagowanie czy imputacja. Każda z nich wiąże się z ryzykiem popełnienia błędów. Celem artykułu jest zwrócenie uwagi na ten fakt i wykazanie, że jednym ze składników błędu całkowitego, o którym pisze Mirosław Szreder, może być błąd generowany przez niektóre z tych operacji. (fragment tekstu)
W tym opracowaniu podchodzimy do problemu oszacowania pełnej struktury populacji z perspektywy problemu brakujących danych. W tym celu stosujemy model latentnych klas w analizie tabel kontyngencji, w którym niektóre komórki tabeli są obserwowalne jedynie dla niektórych podgrup z populacji. W efekcie niektóre zmienne tworzące tabelę kontyngencji są zmiennymi latentnymi (brakującymi) dla niektórych grup obserwacji i są zmiennymi obserwowalnymi dla pozostałych grup. Zaproponowane podejście jest teoretycznie uzasadnione i praktycznie implementowalne. Model latentnych klas może być oszacowany za pomocą estymatora największej wiarygodności, z wykorzystaniem jednego z szeroko dostępnych pakietów statystycznych umożliwiających analizę wielogrupową. (fragment tekstu)
|
|
5
|
nr 3
75-88
This article organizes knowledge on cloud computing presenting the classification of deployment models, characteristics and service models. The author, looking at the problem from the entrepreneur's perspective, draws attention to the differences in the benefits depending on the cloud computing deployment models and considers an effective way of selection of cloud computing services according to the specificity of organization. Within this work, a thesis statement was considered that in economic terms the cloud computing is not always the best solution for your organization. This raises the question, "What kind of tools should be used to estimate the usefulness of the model cloud computing services in the enterprise?" (original abstract)
|
2000
|
nr 551
17-30
W artykule opisano analizę głównych składowych (PCA) w odniesieniu do zagadnienia wstępnej transformacji danych dla sieci neuronowych typu perceptron. Zaprezentowano przy tym funkcjonowanie opierającej się na regule Sangera i realizującej taką transformację sieci neuronowej typu PCA, jako narzędzia alternatywnego dla metody klasycznej. Następnie przedstawiono wyniki badań doboru optymalnej ilości stosowanych głównych składowych oraz czasu uczenia sieci PCA w zagadnieniu wstępnego przetwarzania danych dla sieci neuronowych, wykorzystywanych do prognozowania dynamiki zmian indeksu giełdowego WIG 20. Wykazano celowość stosowania analizy PCA w wybranych zagadnieniach oraz sformułowano szereg wniosków dotyczących tej metody. (abstrakt oryginalny)
Unmanned aerial vehicles (UAVs) are used to acquire measurement data for an increasing number of applications. Photogrammetric studies based on UAV data, thanks to the significant development of computer vision techniques, photogrammetry, and equipment miniaturization, allow sufficient accuracy for many engineering and non-engineering applications to be achieved. In addition to accuracy, development time and cost of data acquisition and processing are also important issues. The aim of this paper is to present potential limitations in the use of UAVs to acquire measurement data and to present measurement and processing techniques affecting the optimisation of work both in terms of accuracy and economy. Issues related to the type of drones used (multi-rotor, fixed-wing), type of shutter in the camera (rolling shutter, global shutter), camera calibration method (pre-calibration, self-calibration), georeferencing method (direct, indirect), technique of measuring the external images orientation parameters (RTK, PPK, PPP), flight design methods and the type of software used were analysed. (original abstract)
SAP stanowi przykład wykorzystania technologii internetowej do budowy systemu wspomagania decyzji, będącego jednocześnie portalem informacyjnym, narzędziem analitycznym oraz hurtownią danych.Obecnie prace nad systemem dotyczą zmiany platformy bazodanowej i operacyjnej oraz rozbudowy możliwości analitycznych o kolejne modele (np. ARIMA), a także elementy statystycznej analizy i klasyfikacji danych. (fragment tekstu)
|
|
nr 2
56-67
W artykule omówiono problematykę dowodu z czynności detektywa w postępowaniu administracyjnym. Autor przedstawił różne aspekty czynności detektywa w kontekście prawa dowodowego, w tym dowodowy charakter pisemnego sprawozdania detektywa oraz możliwość przesłuchania detektywa w charakterze świadka w postępowaniu administracyjnym. Poruszył także problematykę działań sprzecznych z prawem i - co za tym idzie - niemożność wykorzystania informacji zdobytych w taki sposób jako dowodów w analizowanym postępowaniu. W szczególności autor zwrócił uwagę na ewentualne stosowanie przez detektywów lokalizatorów GPS oraz wykonywanie fotografii osób w miejscach publicznych i prywatnych z ukrycia w kontekście możliwości uzyskania dowodu dla toczącego się postępowania administracyjnego ogólnego. Omówił też problematykę przetwarzania danych osobowych szczególnych kategorii (wrażliwych) przez detektywów i możliwość wykorzystania takich danych jako dowodu w postępowaniu administracyjnym.(abstrakt oryginalny)
Dane stają się informacją, kiedy ich użytkownik pozyskuje dodatkowo ich znaczenie. Dzieje się tak m.in. ze względu na występowanie pewnych regularności w otaczającym nas świecie. Fizyka informacji nosi nazwę teorii sytuacyjnej. W tym podejściu informacja zawsze przyjmuje postać stwierdzenia, że pewien obiekt jest określonego rodzaju. Owe regularności i powtarzalność, pozwalające na ściśle określone konfiguracje obiektów, są określane mianem "constraints" (nazwa nieprzetłumaczalna najeż, polski). Constraints są to pewne ukryte wątki, pozwalające łączyć informację z jej reprezentacją. Trzy zasadnicze składniki pozwalające na pozyskanie informacji to określone: sytuacje, typy i wątki (constraints). Kiedy dana osoba przyswaja określoną informację w sposób indywidualny, następuje transformacja tej informacji w wiedzę. Według teorii sytuacyjnej, posiadanie pewnych umiejętności może być przyrównane do stopnia pozyskania informacji. Poziom nowicjusza to poziom pozyskania danych, poziom zaawansowanego nowicjusza i pracownika wykwalifikowanego to poziom informacji. Poziom wiedzy to poziom ekspercki. Prawdziwie ekspercki poziom można osiągnąć jedynie poprzez praktykę i doświadczenie. (abstrakt oryginalny)
13
61%
|
|
nr 3
13-23
Idea powołania osoby odpowiedzialnej za ochronę danych osobowych w organizacji nie jest koncepcją nową. Ustawodawca europejski wskazał taką możliwość przepisami dyrektywy 95/46/WE, a praktyka ta, pomimo nieobligatoryjnego charakteru, wykształciła się w szeregu państw członkowskich (Francja, Niemcy, Holandia, Szwecja). Celem niniejszego opracowania jest przedstawienie genezy ustanowienia oraz powodów transformacji funkcji "urzędnika" zajmującego się ochroną danych w organizacji. Artykuł zawiera analizę podstawowych zadań, które ustawowo zostały przypisane administratorom bezpieczeństwa informacji, a od 25 maja 2018 r. zostaną powierzone DPO (Data Protection Officer). Przedmiotem pracy jest również przegląd wymagań oraz zasobów, w które należy "urzędnika" wyposażyć by zapewnić rozliczalność procesów zarządzania danymi osobowymi w jednostce, adekwatnie do potrzeb organizacji i wymagań nowego Ogólnego Rozporządzenia o ochronie danych osobowych. (abstrakt oryginalny)
Aktywność zawodowa człowieka wiąże się z koniecznością pozyskiwania, składowania i przetwarzana danych. Pomiędzy procesami tworzenia zasobów cyfrowych i ich wykorzystania pojawia się etap pośredni - przygotowanie danych do analiz. Fundamentalną jego częścią jest ocena jakości danych a następnie implementacja procedur naprawy danych zanieczyszczonych. Ponieważ zagadnienie jest ważne, a jego aktualność stale rośnie, w pracy podjęto zadanie zaprezentowania całości problemu w sposób syntetyczny. Omówiono klasyfikację błędów w danych i mechanizmy generowania tych błędów. Dyskusję zilustrowano na przykładach - wskazano zabrudzenia w danych oraz sposoby ich czyszczenia. (abstrakt oryginalny)
15
Content available remote Jakie dane osobowe może przetwarzać pracodawca i jak długo
61%
W artykule przedstawiono jakie dane i na jakiej podstawie mogą być przetwarzane przez pracodawcę jako Administratora Danych. Przedstawiono także wskazówki, które należy uwzględnić w wdrażaniu monitoringu wizyjnego. Zwrócono uwagę na konieczność uregulowania obszaru retencji danych oraz problemów w tym zakresie. (abstrakt oryginalny)
Humans can interact remotely with each other through computers. Systems supporting this include teleconferencing, games and virtual environments. There are delays from when a human does an action until it is reflected remotely. When delays are too large, they will result in inconsistencies in what the state of the interaction is as seen by each participant. The delays can be reduced, but they cannot be removed. When delays become too large the effects they create on the human-to-human remote interaction can be partially masked to achieve an illusion of insignificant delays. The MultiStage system is a human-to-human interaction system meant to be used by actors at remote stages creating a common virtual stage. Each actor is remotely represented by a remote presence created based on a stream of data continuously recorded about the actor and being sent to all stages. We in particular report on the subsystem of MultiStage masking the effects of delays. The most advanced masking approach is done by having each stage continuously look for late data, and when masking is determined to be needed, the system switches from using a live stream to a pre-recorded video of an actor. The system can also use a computable model of an actor creating a remote presence substituting for the live stream. The present prototype uses a simple human skeleton model.(original abstract)
Digitalization and sustainability are important topics for manufacturing industries as theyare affecting all parts of the production chain. Various initiatives and approaches are setup to help companies adopt the principles of the fourth industrial revolution with respectsustainability. Within these actions the use of modern maintenance approaches such asMaintenance 4.0 is highlighted as one of the prevailing smart & sustainable manufacturingtopics. The goal of this paper is to describe the latest trends within the area of maintenancemanagement from the perspective of the challenges of the fourth industrial revolution andthe economic, environmental and social challenges of sustainable development. In this work,intelligent and sustainable maintenance was considered in three perspectives. The first per-spective is the historical perspective, in relation to which evolution has been presented in theapproach to maintenance in accordance with the development of production engineering. Thenext perspective is the development perspective, which presents historical perspectives onmaintenance data and data-driven maintenance technology. The third perspective, presentsmaintenance in the context of the dimensions of sustainable development and potential opportunities for including data-driven maintenance technology in the implementation of theeconomic, environmental and social challenges of sustainable production.(original abstract)
18
61%
Niniejszy artykuł ukazuje możliwości wynikające z wykorzystywania narzędzi internetowych do pozyskiwania cennych danych marketingowych oraz wskazuje na zasadnicze problemy, jakie wiążą się z zapewnieniem ich bezpieczeństwa oraz legalnym wykorzystywaniem. W szczególności dotyczą one przedsiębiorstw obsługujących rynki konsumenckie, których strategie zakładają prowadzenie działań opartych na marketingu bezpośrednim czy marketingu baz danych. (fragment tekstu)
Celem publikacji jest przedstawienie stanu badań i prac prowadzonych w Polsce nad zagadnieniem automatycznego streszczania tekstów. Przedstawiono podstawowe zagadnienia teoretyczne i metodologiczne związane z automatycznym generowaniem streszczeń dokumentów tekstowych. Na tle tych rozważań dokonano opisu wybranych prac dotyczących automatycznego generowania streszczeń tekstów polskojęzycznych. Zaprezentowano również przykłady narzędzi informatycznych generujących streszczenia tekstów w języku polskim (Summarize, Resoomer, NICOLAS) oraz dokonano oceny jakości generowanych streszczeń z wykorzystaniem miar ROUGE-N. Wyniki badań literaturowych i przeprowadzonego eksperymentu wskazały na niedobór narzędzi pozwalających na generowanie streszczeń tekstów polskojęzycznych, zwłaszcza w podejściu abstraktowym. Większość zaproponowanych rozwiązań pozwala na generowanie streszczeń w podejściu ekstrakcyjnym, polegającym na wykorzystywaniu w tworzonym streszczeniu fragmentów oryginalnego tekstu. Widoczny jest również niedobór narzędzi pozwalających na wygenerowanie jednego streszczenia wielu tekstów oraz narzędzi wyspecjalizowanych, pozwalających na generowanie streszczeń tekstów dotyczących konkretnych obszarów tematycznych. Ponadto konieczne jest zintensyfikowanie prac w obszarze tworzenia korpusów streszczeń polskojęzycznych tekstów, które będą mogły być wykorzystane do ewaluacji nowo tworzonych narzędzi.(abstrakt oryginalny)
The Register of Real Estate Prices and Values (RREPV) is among the sources of information used in the process of real estate value estimation. Pursuant to § 74 of the Regulation on the Land and Property Register, the register is kept by the head of the county. Currently there are 380 counties in Poland, including 66 city counties. Such a big number of administrative units within the country, combined with different information and communication system providers, results in a great diversity of software used for keeping RREPV nationwide. The purpose of the article is to present the spatial distribution of information and communication systems in which RREPV is kept. The article describes parameters that characterize the market share of specific programs existing on the market with regard to the number of implementations, estimated number of transactions entered in the system, the coverage area of the specific system and the population handled by the specific system. (original abstract)
first rewind previous Strona / 9 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.