Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 177

Liczba wyników na stronie
first rewind previous Strona / 9 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Data Mining
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 9 next fast forward last
W artykule przedstawiono dyskusję metod eksploracji danych, modeli i technik, dzięki którym przedsiębiorstwa mogą lepiej konkurować na światowym rynku, lepiej przygotować oferty produktów i usług. Skuteczność i korzyści wynikające z zastosowania wybranych rozwiązań Data Mining przedstawiono na podstawie studium zagranicznych przypadków z sektora finansowego i telekomunikacyjnego. (oryginalny abstrakt)
Artykuł przedstawia jedną z metodyk realizacji Data Mining zwaną SEMMA. Metodyka ta w prosty i skuteczny sposób wspomaga przeprowadzanie złożonego procesu, jakim jest eksploracja danych. Została opracowana i zaimplementowana przez producenta oprogramowania do eksploracji danych Enterprise Miner, amerykańską firmę SAS Institute, Inc.. Opisano tutaj dokładnie kroki postępowania, które składają się na tą metodologię czyli Sample, Explore, Modify, Model, Assess. Do każdego z tych etapów przedstawiono poszczególne narzędzia operowania danymi. Dla Sample są to Input Data Source, Sampling, Data Partition. Narzędzia Explore to Distribution Explorer, Multiplot, Insight, Association, Variable Selection, Link Analysis. Do etapu Modify zaliczamy narzędzia Data Set Attributes, Transform Variables, Filter Outliers, Re-placement, Clustering, SOM/Kohonen, Tim Series. Narzędzia Model to Regression, Tree, Neural Network, Princomp/Dmneural, User Defined Model, Ensemble, Memory-Based Reasoning, Two Stage Model. Narzędzia ostatniego etapu Assess to Assessment i Reporter. Oprócz narzędzi należących do kroków metodyki SEMMA opisano także narzędzia z dwóch grup węzłów: Scoring i Utility. Zaprezentowano także reguły, których należy przestrzegać przy budowie diagramów analizy danych. Dla ilustracji przetwarzania według metodyki SEMMA przedstawiono przykład analizy Data Mining za pomocą narzędzi SAS Enterprise Miner. Przykład dotyczy prognozowania posiadania komputera z dostępem do Internetu w gospodarstwach domowych na podstawie wybranych cech gospodarstwa. Porównywana jest jakość dwóch modeli predyktywnych: regresji logistycznej i sieci neuronowych. (abstrakt oryginalny)
3
Content available remote Data Collection Through Web Harvesting for Real Estate Market Research
80%
Web harvesting to nowa technika używana do zbierania, ekstrakcji i integracji danych z różnych źródeł internetowych poprzez wykorzystanie robotów indeksujących, wspomaganych technologią filtrowania danych z użyciem wyrażeń regularnych. W sytuacji gdy zaistnieje konieczność zgromadzenia danych pochodzących z różnych stron internetowych, które mają niejednorodną budowę, strukturę i nazwę, typowe dostępne na rynku oprogramowanie web harvesting działające automatycznie lub półautomatycznie nie jest już wystarczające. Artykuł przedstawia architekturę systemu stworzonego przez Instytut Gospodarki z Rzeszowa, która służy do zbierania danych z portali rynku nieruchomości. W dalszej jego części zaprezentowano analizy oraz potencjalne zastosowanie aplikacji w naukach społecznych. (oryginalny abstrakt)
This paper considers Data Mining and its relations to statistical data analysis. Data Mining is defined as an extraction of implicit, previously unknown and potentially useful information from data. Its techniques: data summarization, learning classification rules, deriving causal dependencies, etc. are described. The paper also presents a list of several data mining computer systems and shows methods they use to discover knowledge about data. In addition, some examples of statistical methods used in data mining are included. (original abstract)
Artykuł ma na celu przedstawienie metody integracji rezultatów wielu modeli. Jeśli powstają one w metodyce Data Mining, to zazwyczaj nie ma przesłanek do wyboru struktury, która najlepiej reprezentuje rozważane zależności. Konstruuje się kilka modeli, testuje je, a następnie "najlepszy" jest implementowany. "Najlepszy" oznacza, że jest to model dominujący pozostałe ze względu na pewne kryterium. Zauważmy jednak, że różne kryteria dotyczą odmiennych własności modeli i mogą wskazywać na różne rozwiązania jako optymalne. Aby uniknąć tego problemu, proponujemy dekompozycję i integrację modeli poprzez analizę składowych niezależnych (ang. Independent Component Analysis). Taka transformacja pozwoli uchwycić komponenty odpowiedzialne za jakość modeli. (abstrakt oryginalny)
Zadanie data mining (drążenie danych) to otrzymywanie użytecznej wiedzy ze znacznej ilości danych. Do głównych zadań data mining należą: klasyfikacja, klasteryzacja (grupowanie) i odkrywanie reguł asocjacji (czyli znajdowanie związków pomiędzy grupami elementów). W artykule przedstawiono zastosowania metod wzorowanych na naturze (algorytmy ewolucyjne i mrówkowe, sieci neuronowe) w zadaniach data mining.
The article describes several basic data mining fundamentals and their application in logistics and it consists of two sections. The first one is a description of different parts of data mining process: preparing the input data, completing the missing data, classification method using k-nearest neighbours algorithm with theoretical examples of usage conducted in opensource software called R and Weka. The second section of the article focuses on theoretical application of data mining methods in logistics, mainly in solving transportation problems and enhancing customer's satisfaction. This section was strongly influenced by data provided by DHL enterprise report on Big Data. The data used in theoretical examples is of own elaboration. (original abstract)
Pierwszy algorytm do generowania reguł skojarzeniowych powstał w 1994 r. pod nazwą Apriori. Wyszukiwał jedynie boolowskie reguły skojarzeniowe, ale jednocześnie nie wymagał dużej mocy obliczeniowej komputerów. Większość późniejszych prac dotyczących algorytmów do reguł skojarzeniowych bazowała właśnie na Apriori. Kolejnym krokiem usprawniającym wynajdywanie asocjacji był algorytm z 1996 r. o nazwie "Rozszerzony Apriori" (Extended Apriori Algorithm). Modyfikacja była znaczna, pozwalała bowiem na generowanie reguł ilościowych. W tym samym roku opracowano algorytmy do generowania reguł wielowymiarowych oraz zaczęto prace nad algorytmami równoległymi, znacznie przyspieszającymi obliczenia. W chwili obecnej reguły skojarzeniowe doczekały się kilkunastu implementacji. Oprogramowanie dostępne na rynku to m.in.: Apriori, ARtool, Azmy SuperQuery, CBA, IBM Intelligent Miner, IREX, Magnum Opus, SPSS Clementine, SRA KDD Explorer Suite, STATISTICA Data Miner, Wiz Rule, XAffinity, Xpertrule Miner. (fragment tekstu)
9
Content available remote Intelligent data analysis - support for development of SMEs sector
61%
The paper studies possibilities of intelligent data analysis application for discovering knowledge hidden in small and medium-sized enterprises' (SMEs) data, on the territory of the province of Vojvodina. The knowledge revealed by intelligent analysis, and not accessible by any other means, could be the valuable starting point for working out of proactive and preventive actions for the development of the SMEs sector. (original abstract)
Artykuł ma charakter przeglądowy, jego celem jest analiza wybranych aspektów eksploracji danych i odkrywania wiedzy w kontekście ich rosnącej roli w społeczeństwie informacyjnym. Przeanalizowano podejścia różnych badaczy do najważniejszych pojęć w eksploracji danych, podjęto się konfrontacji interpretacji etapów procesu KDD proponowanych przez wybranych specjalistów, analizując metodologię CRISP-DM, regułową reprezentacją wiedzy i zadania eksploracji danych.(abstrakt oryginalny)
Informatyzacja służby zdrowia jak też umiejętne wykorzystywanie informacji zgromadzonych w medycznych bazach danych odgrywa kluczową rolę w podwyższaniu standardów leczenia jak również w procesie zarządzania wiedzą w organizacji. W pracy przeanalizowano koncepcję zastosowania narzędzi Business Intelligence w służbie zdrowia w celu ustalenia relacji między zdarzeniami medycznymi, a ich skutkami. Opisano kluczowe elementy tworzenia Struktury Wymiany Danych (SWD), Hurtowni Danych (HD) oraz stosowania technologii OLAP (On Line Analytical Processing). (abstrakt oryginalny)
Companies information systems ERP (Entrepreneur Resource System) automate company's processes linked to orders of customers. It allows very complex process of the order - from the tender to its dispatch. Order processing looks like the flash through organisation. All employees in a company have the same possibility to use information stored in the ERP system for their decision. The assumption is to put all information on-line. ERP system can be sometimes used like magic tool for managing of main company's processes but only under condition that the stochastic behaviour is ignored. It could be no problem for some business processes but for some services or for production processes is the stochastic behaviour very important influence factor and should be included in planning. The development of ERP systems was rapid. There is possible to use a lot of methods and tools for decision support. The models implemented into ERP systems are usually mathematical models of various spinosity. Sometimes it is very difficult to project a mathematical model because all parameters are reciprocally impact. Analytical methods get at limit of their ability. It means that the dynamic environment needs complex access to solution of a production system. These all failings eliminate computer simulation of discrete systems. (fragment of text)
Przekształcenie danych z social media jest w zainteresowaniu wielu naukowców, większość z publikacji skupia się na platformie Twitter. Twitter może być źródłem informacji dla użytkowników portalu (np. o wydarzeniach, produktach). Z drugiej strony platforma to źródło informacji dla przedsiębiorstw i badaczy o opinii i interakcjach użytkowników portalu. W artykule przeprowadzono przegląd literatury w której wykorzystane zostały dane z portalu Twitter w obszarze polityki oraz zarządzania. Autor stara się odpowiedzieć na pytanie jaką wartość wprowadza uwzględnienie danych z social media do prowadzonych analiz. (abstrakt oryginalny)
Zapewnienie bezpieczeństwa pracy i utrzymanie ciągłości wydobycia to kluczowe zadania systemów telekomunikacyjnych w górnictwie głębinowym. Systemy te, pomimo nowoczesnych i innowacyjnych rozwiązań monitorowania infrastruktury, nie są wolne od wad. Praktycznym problemem jest występowanie fałszywych alarmów o uszkodzeniu infrastruktury. W publikacji wskazano źródła danych, opisano dane, metody ich przekształcenia oraz doboru zmiennych do budowy klasyfikatora. Następnie zaproponowano metodę wykrywania fałszywych alarmów w systemie telekomunikacyjnym kopalni oraz zaprezentowano niektóre reguły dostarczające użytecznej wiedzy z danych. Eksperymenty zostały przeprowadzone na rzeczywistych danych pochodzących z systemu telekomunikacyjnego funkcjonującego w kopalni KGHM Polska Miedź SA.(abstrakt oryginalny)
W pracy przedstawiono przykład zastosowania systemu generowania klasyfikatorów przybliżonych ProbRough do określenia współzależności między wartościami atrybutów charakteryzujących podmioty gospodarcze zarejestrowane w bazie REGON.Wybierając do przeprowadzenia badań rejestr REGON kierowaliśmy się licznością zbioru, dynamiką zmian zapisów w bazie skorelowaną z rzeczywistymi procesami w gospodarce (z mocy ustawy), dostępnością zbioru danych.Ograniczenia ustawowe uniemożliwiły nam uzyskanie bazy wraz z atrybutem "ilość zatrudnionych" - co mogło ograniczyć ilość uzyskanych reguł.Pozyskana wiedza jest zaprezentowana w postaci łatwo dających się interpretować zbiorów reguł decyzyjnych: Omawiając poszczególne przypadki zaprezentowaliśmy interpretacje, które potwierdzają sens ekonomiczno-gospodarczy wydobytej przy pomocy ProbRough wiedzy z rejestru REGON. Odbyte prawidłowości potwierdzają wzrost aktywności gospodarczej w regionie w warunkach gospodarki wolnorynkowej. (fragment tekstu)
W Katedrze Podstaw Konstrukcji Maszyn Politechniki Śląskiej w Gliwicach, w ramach projektu KBN nr 8T11F 02009 pt. "Aktywizacja wiedzy dla potrzeb diagnostyki technicznej" były prowadzone badania nad rozwojem m.in. oprogramowania do pozyskiwania wiedzy dla diagnostycznych systemów doradczych.Jednym z kierunków tych badań było opracowanie "formularza - edytora elektronicznego" do pozyskiwania reguł empirycznych od specjalistów z zakresu diagnostyki technicznej wybranych grup maszyn. W wyniku powyższych badań powstał m.in. "formularz - edytor elektroniczny" (nazwany EMPREG). Zostanie on omówiony w referacie - szczególnie pod względem budowy i możliwości praktycznego zastosowania. (fragment tekstu)
Przedstawione w niniejszej pracy wyniki badań dotyczą weryfikacji zależności istniejących pomiędzy budową strukturalną związków chemicznych a ich właściwościami. Do ustalenia tych korelacji wykorzystuje się bazę przykładów, zawierającą kody struktur i wyrażone liczbowo właściwości związków. Wynikiem badań jest system ekspertowy do identyfikacji związków chemicznych na podstawie ich eksperymentalnie zmierzonych właściwości. (fragment tekstu)
Niniejszy artykuł opisuje zastosowanie reguł asocjacyjnych w analizie koszyka zakupów. Na wstępie została podana definicja przytoczonego pojęcia, łącznie z przykładami aplikacji komputerowych, w których została ona zaimplementowana. W całej pracy autor przytacza ekonomiczne korzyści z zastosowania analizy podobieństw przez sieci sklepów detalicznych. Pracę kończy podsumowanie, gdzie wskazuje się kierunek dalszych prac i możliwości rozszerzenia analizy poprzez integrację z hurtowniami danych. (abstrakt oryginalny)
Artykuł jest poświęcony jednemu z etapów budowy modeli data mining - przygotowaniu danych do analizy. Po krótkim wprowadzeniu w etapy procedury obróbki danych omówiono zasady uzupełniania zbioru obserwacji o zmienne pochodne. Autor opisuje sposoby przekształcania zmiennych odnoszących się do czasu, zmiennych kategorialnych oraz sygnalizuje problemy dotyczące nieprecyzyjnego definiowania zmiennych, braku danych i obserwacji nietypowych. (abstrakt autora)
Przygotowanie każdego elementu strategii marketingowej należy poprzedzić zebraniem dostępnych informacji i oceną ich przydatności. Zadania te powinien realizować system informacyjny marketingu (SIM), którego elementami są ludzie, środki techniczne, procedury pozyskiwania, analizy, oceny i udostępnianie okresowej i dokładnej informacji na potrzeby podejmowania decyzji marketingowych [Sojkin 2009, s. 65]. Budowa SIM powinna odpowiadać aktualnym potrzebom przedsiębiorstwa, uwzględniać najnowsze rozwiązania technologiczne, a także koszty pozyskania informacji. Podstawowe cztery moduły SIM, wymienione przez Ph. Kotlera, to podsystem archiwalny, podsystem monitorowania rynku, podsystem badań marketingowych oraz podsystem analityczny. (abstrakt oryginalny)
first rewind previous Strona / 9 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.