Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 152

Liczba wyników na stronie
first rewind previous Strona / 8 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Machine learning
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 8 next fast forward last
Feature selection plays vital role in the processing pipeline of today's data science applications and is a crucial step of the overall modeling process. Due to multitude of possibilities for extracting large and highly structured data in various fields, this is a serious issue in the area of machine learning without any optimal solution proposed so far. In recent years, methods based on concepts derived from information theory attracted particular attention, introducing eventually general framework to follow. The criterion developed by author et al., namely IIFS (Interaction Information Feature Selection), extended state-of-the-art methods by adopting interactions of higher order, both 3-way and 4-way. In this article, careful selection of data from industrial site was made in order to benchmark such approach with others. Results clearly show that including side effects in IIFS can reorder output set of features significantly and improve overall estimate of error for the selected classifier. (original abstract)
Machine learning has received increased interest by both the scientific community and the industry. Most of the machine learning algorithms rely on certain distance metrics that can only be applied to numeric data. This becomes a problem in complex datasets that contain heterogeneous data consisted of numeric and nominal (i.e. categorical) features. Thus the need of transformation from nominal to numeric data. Weight of evidence (WoE) is one of the parameters that can be used for transformation of the nominal features to numeric. In this paper we describe a method that uses WoE to transform the features. Although the applicability of this method is researched to some extent, in this paper we extend its applicability for multi-class problems, which is a novelty. We compared it with the method that generates dummy features. We test both methods on binary and multi-class classification problems with different machine learning algorithms. Our experiments show that the WoE based transformation generates smaller number of features compared to the technique based on generation of dummy features while also improving the classification accuracy, reducing memory complexity and shortening the execution time. Be that as it may, we also point out some of its weaknesses and make some recommendations when to use the method based on dummy features generation instead.(original abstract)
This paper presents an overview of the effects of applying Cognitive Automation in the area of tasks which do not require physical activity. The influence of intelligent algorithms was presented in terms of building and maintaining competitive advantage on the marketplace. The following methods were listed as the stages of the development of research concerning Artificial Intelligence: Machine Learning, Natural Language Processing, Deep Learning, Neural Networks, which allow to exceed the algorithm sequencing. It was indicated that Cognitive Computing, conclusions made by algorithms, technologies and systems which operate like a human mind change the rules of the market game. They allow for predictive conclusions by offering verifiable hypotheses concerning the expected development of the situation. In summation, the analysed results of the study regarding the changes on the job market confirm empirically that robotic automation of service processes has reached into the tasks which so far have been of authentically human, mental nature. The potential for the further algorithmization of non-manual tasks has been created.(original abstract)
4
Content available remote Komputerowe wspomaganie identyfikacji talentów w sporcie
100%
W niniejszej pracy przedstawiono koncepcje systemu do komputerowego wspomagania identyfikacji talentów w sporcie. W koncepcji założono wykorzystanie metody badania podobieństwa opartej na optymalizacji wielokryterialnej oraz nadzorowanym algorytmie klasyfikacji z obszaru uczenia maszynowego: lesie drzew decyzyjnych. Dane do budowy wzorców dyscyplin sportowych pozyskano z publikacji (Santos, Dawson, Matias i in 2014). Dane te również posłużyły do wygenerowania testowego zestawu danych sportowców do przeprowadzenia eksperymentów badawczych. Badania przeprowadzono w autorskim programie oraz w środowisku chmurowym Microsoft Azure Machine Learning Studio. Przeprowadzone eksperymenty wykazały, że analizowane metody z powodzeniem można zastosować w procesie identyfikacji talentów sportowych.(abstrakt oryginalny)
Współczesne przedsiębiorstwa przemysłowe i usługowe aby sprostać rosnącym wymaganiom rynkowym, muszą oferować coraz szerszy asortyment oferowanych usług lub produktów, a także zapewnić ich wymaganą ilość i szybkość realizacji. Można tego dokonać poprzez zastosowanie uniwersalnych maszyn lub pracowników, którzy potrafią realizować różne zadania. Z drugiej strony, istnienie czynnika ludzkiego powoduje występowanie efektu uczenia. W związku z tym w niniejszej pracy analizowany jest powiązany problem harmonogramowania na identycznych maszynach równoległych przy kryterium minimalizacji długości uszeregowania oraz przy zmiennych czasach przezbrojeń wynikających z efektu uczenia pracowników. W celu opracowania efektywnego harmonogramu zaproponowano algorytmy metaheurystyczne. Zakres ich zastosowania został zweryfikowany w oparciu o analizę numeryczną.(abstrakt autora)
While we would like to predict exact values, the information available, being incomplete, is rarely sufficient - usually allowing only conditional probability distributions to be predicted. This article discusses hierarchical correlation reconstruction (HCR) methodology for such a prediction using the example of bid-ask spreads (usually unavailable), but here predicted from more accessible data like closing price, volume, high/low price and returns. Using HCR methodology, as in copula theory, we first normalized marginal distributions so that they were nearly uniform. Then we modelled joint densities as linear combinations of orthonormal polynomials, obtaining their decomposition into mixed moments. Then we modelled each moment of the predicted variable separately as a linear combination of mixed moments of known variables using least squares linear regression. By combining these predicted moments, we obtained the predicted density as a polynomial, for which we can e.g. calculate the expected value, but also the variance to determine the uncertainty of the prediction, or we can use the entire distribution for, e.g. more accurate further calculations or generating random values. 10-fold cross-validation log-likelihood tests were conducted for 22 DAX companies, leading to very accurate predictions, especially when individual models were used for each company, as significant differences were found between their behaviours. An additional advantage of using this methodology is that it is computationally inexpensive; estimating and evaluating a model with hundreds of parameters and thousands of data points by means of this methodology takes only a second on a computer. (original abstract)
7
Content available remote Selekcja zmiennych w klasyfikacji - propozycja algorytmu
100%
Selekcja zmiennych w klasyfikacji obiektów ze zbiorem uczącym jest ważna zarówno w przypadku metod pojedynczych, jak i zagregowanych. Najprostszym sposobem selekcji jest sprawdzenie korelacji każdej zmiennej z prawidłową klasyfikacją obiektów na zbiorze uczącym. Ten naturalny sposób ma jednak poważne ograniczenia wynikające z tego, że im słabsza skala pomiaru wartości zmiennej, tym trudniej mierzyć siłę korelacji. W arty-kule zaproponowana jest metoda pomiaru siły korelacji za pomocą współczynnika korelacji liniowej pomiędzy odległościami pomiędzy parami obiektów na badanej zmiennej i na zmiennej reprezentującej etykiety klas. Zmienne, które mają siłę korelacji poniżej ustalone-go progu, są eliminowane. Efektywność takiej metody selekcji jest zbadana na zbiorach danych empirycznych z repozytorium UCI Uniwersytetu Kalifornijskiego (UCI Machine Learning Repository). Wyniki są porównane z wynikami procedur stepclass oraz Boruta dostępnymi w języku R.(abstrakt oryginalny)
Zapotrzebowanie transportowe z roku na rok zwiększa się. Dzieje się tak z powodu wzrostu produkcji i konsumpcji. Czym dłuższy jest łańcuch dostaw, tym większe są możliwości wystąpienia w nim zakłóceń, gdyż wszystkie operacje wiążą się z ryzykiem. Jednakże o ryzyku w kontekście łańcucha dostaw i zarządzania nim mówi się od niedawna. Niestety żadna branża nie jest odporna na przewidywalne i nieprzewidywalne zakłócenia, które wywołują straty (np. zaginięcie towaru). Z punktu widzenia przewoźników istotna byłaby możliwość przewidzenia wystąpienia np. uszkodzenia towaru. Artykuł koncentruje się na wykorzystaniu metod uczenia maszynowego do przewidzenia ryzyka uszkodzeń to- warów (takich jak sprzęt RTV, AGD czy telefony/komputery) w transporcie drogowym. W ramach badań wykorzystano pięć inteligentnych metod: regresję logistyczną, maszynę wektorów nośnych (SVM); drzewo decyzyjne; naiwny klasyfikator bayesowski; AdaBoost. Natomiast celem jest przedstawienie koncepcji oraz wymienionych metod uczenia maszynowego, miar oceniających wydajność modeli oraz wyników związanych z przeprowadzonym badaniem. Postawiony cel zdeterminował wybór metod badawczych - wykorzystano analizę literatury oraz programowanie. W ostatniej części artykułu przedstawiono wyniki otrzymane z analizy pięciu modeli. W ramach badań ustalono, że najlepszą zdolność predykcyjną ma AdaBoost.(abstrakt oryginalny)
The paper contributes to the problem solving in semantic browsing and analysis of scientific articles. With reference to presented visual interface, four - the most popular methods of mapping including own approach - MDS with spherical topology, have been compared. For a comparison quantitative measures were applied which allowed to select the most appropriate mapping way with an accurate reflection of the dynamics of data. For the quantitative analysis the authors used machine learning and pattern recognition algorithms and described: clusterization degree, fractal dimension and lacunarity. Local density differences, clusterization, homogeneity, and gappiness were measured to show the most acceptable layout for an analysis, perception and exploration processes. Visual interface for analysis how computer science evolved through the two last decades is presented on website. Results of both quantitative and qualitative analysis have revealed good convergence.(original abstract)
How do socio-economic change and technological revolution change the way we manage people. How does the development of AI (Artificial Intelligence) affect the process of talent acquisition? The author will present the concepts of technological unemployment, creative class, millennials (generation Y), humanistic management, sustainable development, CSR and new managerial models in light of current social changes. Humanistic management as a broader concept, and humanistic talent attraction as its direct implication, will be presented as an answer to the current technological development. The author presents a narrower topic of human resources management but sees potential in the topic to develop a discussion on future of work in a broader sense. (original abstract)
Badanie opinii konsumentów stanowi interesujący i dynamicznie rozwijający się trend badawczy. Skutkuje to intensywnym rozwojem specjalistycznych metod i technik analizy danych. Ich wykorzystanie w obszarach czy to analizy opinii czy też analizy sentymentu wspomaga decydenta ograniczając nakłady niezbędne do analizy zgromadzonycch danych. Artykuł prezentuje probe systemazycaji i kategoryzacji podejść metodycznych wykorzystywanych w obszarze opinion mining zawierając jednocześnie zestaw wytycznych niezbednych do poprawnego wyboru odpowiedniej metody dla analizowanego problemu.(abstrakt oryginalny)
W niniejszym artykule przedstawimy problematykę zastosowań analizy składowych niezależnych na rynku finansowym w kontekście algorytmicznej i statystycznej charakterystyki tej metody. Wskażemy, że specyfika uczenia maszynowego oraz problemowy kontekst ślepej separacji, w jakim osadzona jest analiza składowych niezależnych, ma zasadniczy wpływ na możliwości i ograniczenia interpretacji statystycznej uzyskanych wyników. Przedstawimy także propozycję algorytmu, bardziej zorientowanego na spełnienie warunku niezależności, niż algorytmy ukierunkowane na separację.(abstrakt oryginalny)
Real estate valuation uses 3 main approaches: income, cost and comparative. When applying the comparative method, correction coefficients based on similar real estate transactions are determined. In practice, the coefficients and similar real estate objects are usually determined by using qualitative approach based on the valuators' experience. The paper provides an analytical method for the determination of correction coefficient, which limits subjectivity when using the comparative method for valuation. The provided analytical approach also integrates macroeconomic indicators in the calculation process. It also addresses issues when available historical real estate transaction data is limited. A machine learning approach was applied to determine the average price of real estate in the region, with the possibility of using this information to obtain correction coefficients where historical data was unavailable. Alternative research usually focuses on final price estimation of the selected real estate object; however, the valuation standard of Tegova released in 2018 does not allow for applying analytically based approaches for individual real estate object evaluation; these approaches can be used only as a supportive tool for valuators. (original abstract)
Credit scores are critical for financial sector investors and government officials, so it is important to develop reliable, transparent and appropriate tools for obtaining ratings. This study aims to predict company credit scores with machine learning and modern statistical methods, both in sectoral and aggregated data. Analyses are made on 1881 companies operating in three different sectors that applied for loans from Turkey's largest public bank. The results of the experiment are compared in terms of classification accuracy, sensitivity, specificity, precision and Mathews correlation coefficient. When the credit ratings are estimated on a sectoral basis, it is observed that the classification rate considerably changes. Considering the analysis results, it is seen that logistic regression analysis, support vector machines, random forest and XGBoost have better performance than decision tree and k-nearest neighbour for all data sets. (original abstract)
The paper deals with the topic of modelling the probability of bankruptcy of Polish enterprises using convolutional neural networks. Convolutional networks take images as input, so it was thus necessary to apply the method of converting the observation vector to a matrix. Benchmarks for convolutional networks were logit models, random forests, XGBoost, and dense neural networks. Hyperparameters and model architecture were selected based on a random search and analysis of learning curves and experiments in folded, stratified cross-validation. In addition, the sensitivity of the results to data preprocessing was investigated. It was found that convolutional neural networks can be used to analyze cross-sectional tabular data, especially for the problem of modelling the probability of corporate bankruptcy. In order to achieve good results with models based on parameters updated by a gradient (neural networks and logit), it is necessary to use appropriate preprocessing techniques. Models based on decision trees have been shown to be insensitive to the data transformations used. (original abstract)
The present paper describes a methodological framework developed to select a multi-label dataset transformation method in the context of supervised machine learning techniques. We explore the rectangular 2D strip-packing problem (2D-SPP), widely applied in industrial processes to cut sheet metals and paper rolls, where high-quality solutions can be found for more than one improvement heuristic, generating instances with multi-label behavior. To obtain single-label datasets, a total of five multi-label transformation methods are explored. 1000 instances were generated to represent different 2D-SPP variations found in real-world applications, labels for each instance represented by improvement heuristics were calculated, along with 19 predictors provided by problem characteristics. Finally, classification models were fitted to verify the accuracy of each multi-label transformation method. For the 2D-SPP, the single-label obtained using the exclusion method fit more accurate classification models compared to the other four multi-label transformation methods adopted. (original abstract)
Vibration signals sampled with a high frequency constitute a basic source of information about machine behaviour. Few minutes of signal observations easily translate into several millions of data points to be processed with the purpose of the damage detection. Big dimensionality of data sets creates serious difficulties with detection of frequencies specific for a particular local damage. In view of that, traditional spectral analysis tools like spectrograms should be improved to efficiently identify the frequency bands where the impulsivity is most marked (the so-called informative frequency bands or IFB). We propose the functional approach known in modern time series analysis to overcome these difficulties. We will process data sets as collections of random functions to apply techniques of the functional data analysis. As a result, we will be able to represent massive data sets through few real-valued functions and corresponding parameters, which are the eigenfunctions and eigen-values of the covariance operator describing the signal. We will also propose a new technique based on the bootstrap resampling to choose the optimal dimension inrepresenting big data sets that we process. Using real data generated by a gearbox and a wheel bearings we will show how these techniques work in practice. (original abstract)
Celem artykułu jest wskazanie korzyści płynących z zastosowania sztucznej inteligencji (AI) w badaniu sprawozdań finansowych. Posłużono się kwestionariuszem ankiety. Próbą badawczą objęto 206 praktyków i studentów audytu i rachunkowości. Zastosowano analizę czynnikową metodą głównych składowych z rotacją Promax. Wyniki wskazują, że w opinii respondentów zastosowanie sztucznej inteligencji zwiększa efektywność audytu. Sztuczna inteligencja usprawnia komunikację i obsługę klienta. Ponadto AI może zautomatyzować czasochłonne i rutynowe zadania. Powyższe trzy czynniki odpowiadają za 62,223% wariancji. Wyniki badania wskazują na korzyści płynące z implementacji sztucznej inteligencji w audycie i mogą wspierać menedżerów we wdrażaniu nowych technologii w ich organizacjach. Ograniczeniem badawczym jest fakt, że badanie koncentruje się na respondentach jedynie z Polski.(abstrakt oryginalny)
19
Content available remote Wpływ elektoratu negatywnego na wynik polskich wyborów parlamentarnych 2007 roku
75%
Na podstawie analizy kampanii wyborczej zidentyfikowano cechy charakteryzujące tę kampanię i utworzono bazę wiedzy. Uwzględnienie wyników przedwyborczego badania opinii społecznej spowodowało rozszerzenie bazy wiedzy. Analiza obydwu baz wiedzy umożliwiła zidentyfikowanie istotnych - z punktu widzenia wyników wyborów - cech kampanii wyborczej. Umożliwiła również sformułowanie hipotetycznych wniosków dotyczących sukcesu lub porażki w wyborach. (abstrakt oryginalny)
The objective of this paper is to find new trends in the literature using machine learning and reference management systems within the theme of the Internationalization of Small and Medium Enterprises (SMEs). With help of topic modeling software 857 articles on the topic "Internationalization of SMEs from 2012 to 2021 were analyzed and ranked (citation index) through Endnote® library management systems. The search was focused only on the fields of social science and management. 85 documents were shortlisted from the original cluster to proceed with the text mining. Results show promising areas of research within the Internationalization of SMEs. Stand-out topics include Resource-based Theory, Dynamics Capabilities, International Entrepreneurship, and Ambidexterity among others. Endnote® Subject Bibliography found the most popular words and topics in the original database. Results showed that using Endnote® and MALLET topic modeling tool it is possible to analyze large amounts of publications and find new trends within a specific field. However, MALLET software needs experts in the field to identify and translate results into meaningful ideas. Endnote® seems to have a higher level of sophistication and a better visual interface, but among the disadvantages are the price of the tool and that it works better with their libraries or partner journals. (original abstract)
first rewind previous Strona / 8 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.