Ograniczanie wyników
Czasopisma help
Autorzy help
Lata help
Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 50

Liczba wyników na stronie
first rewind previous Strona / 3 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  Aproksymacja
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 3 next fast forward last
Jeśli funkcja aproksymowana wielu zmiennych nie zależy od wybranej grupy zmiennych, to powstaje pytanie: kiedy aproksymujący ją wielomian również nie zależy od tych zmiennych? Problem ten, zwany problemem Flatto, w ekonometrii związany jest ze specyfikacją modelu. L. Habiniak przedstawił rozwiązanie problemu Flatto w pewnym szczególnym przypadku, używając metod teorii aproksymacji niezmienniczej. W niniejszej pracy podajemy krótki i elementarny dowód twierdzenia L. Habiniaka. (fragment tekstu)
Artykuł ten jest próbą odpowiedzi na następujące zagadnienia: Co oznacza określenie optymalna lokalizacja i jak taką optymalną lokalizację wyznaczyć? Gdzie ulokować nowy ośrodek działalności gospodarczej, jeśli istnieją już podobne, konkurencyjne ośrodki? Gdzie ulokować dwa lub kilka nowych ośrodków jednocześnie? Zagadnienia te są ze sobą wzajemnie powiązane. W artykule tym pokazuje się, jak rozwiązanie pierwszego zagadnienia wykorzystać do rozwiązania zagadnienia drugiego i odpowiednio rozwiązanie zagadnienia drugiego do rozwiązania trzeciego. (fragment tekstu)
3
Content available remote Distribution Approximations for Cusum and Cusumsq Statistics
100%
The cumulative sum (cusum) is an important statistics in testing for a change point. This paper is concerned with the distribution approximations to the cusum statistic under the null and alternative hypotheses. We also consider distribution approximations for the cumulative sum of squares (cusumsq) test statistics. Finally, a discussion section is given. (original abstract)
W artykule przedstawiono jak dzięki metodzie polegającej na aproksymowaniu układu punktów równaniem F(x,y)=0, zamiast funkcją y=f(x), można rozważać i rozwiązywać zagadnienia bardziej skomplikowane, takie jak aproksymowanie układu punktów dwoma punktami. Szczególnie interesujący jest problem aproksymacji dwoma punktami układu punktów płaszczyzny. W artykule omówiono sposób rozwiązania tego problemu oraz zamieszczono przykłady rozwiązań.
Artykuł poświęcony jest kwestii: jak zweryfikować założenie, że dany zbiór punktów z wielowymiarowej przestrzeni liczb rzeczywistych, rozpada się na dwa rozłączne zbiory.
Flatto w [1] sformułował warunki gwarantujące zachowanie niezależności od pewnej zmiennej w aproksymacji wielomianowej funkcji wielu zmiennych. W niniejszej pracy zagadnienie Flatto jest rozpatrywane przy użyciu metod aproksymacji inwariantnej, co pozwoliło istotnie zredukować warunki postawione w pracy [1]. (fragment tekstu)
Efekt podziału zależy nie tylko od ustalenia kryteriów podziału, ale także od wyboru metody dzielenia. Standardowy algorytm klasyfikacji wielowymiarowych danych ISODATA dzieli wyjściowy zbiór na ustaloną liczbę rozłącznych podzbiorów tak, aby podział ten jak najkorzystniej spełniał przyjęte kryteria. Alternatywą wobec niego jest algorytm oparty na metodzie aproksymacji ustaloną liczbą punktów, którego efektem jest wskazanie obszarów zbioru o dużym stopniu zagęszczenia elementów. Artykuł zawiera porównanie efektów użycia tych metod ze wskazaniem zalet i wad. Omawia też pewne własności klasyfikacji wynikające z konsekwencji wyboru jednej z dwóch omawianych metod. (abstrakt oryginalny)
Non-classical logic via approximation of self-referential sentences by dynamical systems are consistently presented. The new 6-valued truth values (here A=Liar, V=TruthTeller) are presented as a function of the classical truth values x_i∈{0,1}, which resulted in a philosophical standpoint known as Suszko's Thesis. Three-valued truth tables were created corresponding to Priest's tables of the same name. In the process of constructing 4-valued truth tables, two more new truth values (va, av) were revealed that do not coincide with the four original ones. Therefore, the closed tables turned out to be 6-valued. Prof Dunn's 4-valued truth tables arecompared with our 4-valued truth tables. De Morgan's laws are confirmed by six-valued truth tables. Constructed 3-, 4- and 6-valued lattices obeying De Morgan's laws. (original abstract)
10
75%
Ideą skalowania wielowymiarowego jest rozmieszczenie analizowanych obiektów na płaszczyźnie (rzadziej w przestrzeni trójwymiarowej) w taki sposób, aby odległości tam wyznaczane jak najlepiej oddawały relacje odległości w oryginalnej przestrzeni wielowymiarowej. W dynamicznym skalowaniu wielowymiarowym proponujemy takie postępowanie, które uwzględnia relacje (w sensie odległości) między punktami w ramach tej samej jednostki czasu, ale również dla różnych jednostek czasu. Kluczowym zabiegiem jest tu przekształcenie kostki danych Y w macierz X oraz zastosowanie tzw. standaryzacji globalnej. Wyniki można przedstawić na jednej płaszczyźnie, ale ciekawszym zabiegiem jest śledzenie ciągu płaszczyzn odpowiadających kolejnym jednostkom czasu oraz przemieszczania się konkretnych punktów. W pracy proponujemy dopasowanie trendów wielomianowych. Przykład empiryczny pokazuje trajektorie rozwoju 28 krajów Unii Europejskiej opisanych pięcioma zmiennymi makroekonomicznymi, w latach 2004-2015(abstrakt oryginalny)
Dla większości postaci rozkładów liczby wypłat oraz wielkości indywidualnych wypłat generowanych z portfela ubezpieczeniowego postać rozkładu zagregowanych szkód jest zbyt skomplikowana obliczeniowo. W takich przypadkach złożony rozkład przybliża się rozkładem o prostszej postaci. W artykule zostanie przedstawiona metoda punktu siodłowego (saddlepoint approximation) i jej zastosowanie do aproksymacji rozkładu zagregowanej wielkości wypłat, przy założeniu, że wielkości indywidualnych wypłat są niezależnymi zmiennymi losowymi o jednakowych rozkładach. (fragment tekstu)
Finansowe szeregi czasowe wykazują charakterystyczne własności. Wśród nich można wymienić m.in.: występowanie zjawiska grupowania wariancji, leptokurtyczność rozkładów stóp zwrotu (tzw. grube ogony rozkładu) oraz ujemną korelację pomiędzy stopami zwrotu a zmiennością ich wariancji. Zjawiska te powodują, że w wielu przy padkach stosowanie standardowych metod estymacji parametrów i prognozowania nie przynosi zadowalających rezultatów. Ważną cechą finansowych szeregów czasowych jest fakt, że szeregi finansowe charakteryzują się długimi próbkami, co powoduje, że stosowane do ich estymacji modele mogą być bardziej rozbudowane. Celem artykułu jest aproksymacja i predykcja szeregów finansowych z falkami z uwzględnieniem tzw. efektów brzegowych. W artykule opisano autorski model prognozowania finansowych szeregów czasowych oraz przedstawiono podstawowe informacje o falkach niezbędne do właściwego zrozumienia proponowanego algorytmu falkowego. W autorskim algorytmie wykorzystano falkę Daubechies. (abstrakt oryginalny)
Nieparametryczny test Manna-Whitneya (1947) należy do najczęściej stosowanych testów dla dwóch prób. W tym artykule prezentujemy dokładny aproksymację wartości krytycznych statystyki Manna-Whitneya w porównaniu z aproksymacją za pomocą rozkładu normalnego. Tablice 2 i 3 zawierają błędy aproksymacji dla 14 poziomów istotności. Obliczone kwantyle interpolowane, ich aproksymację za pomocą rozkładu normalnego oraz błędy aproksymacji dla czterech poziomów istotności prezentujemy w tablicach 4-7. (abstrakt oryginalny)
15
Content available remote Stability Analysis of Variational Inequalities for Bang-Singular-Bang Controls
75%
The paper is related to parameter dependent optimal control problems for control-affine systems. The case of scalar reference control with bang-singular-bang structure is considered. The analysis starts from a variational inequality (VI) formulation of Pontryagin's Maximum Principle. In a first step, under appropriate higher-order sufficient optimality conditions, the existence of solutions for the linearized problem (LVI) is proven. In a second step, for a certain class of right-hand side perturbation, it is show that the controls from LVI have bang-singular-bang structure and, in L1 topology, depend Lipschitz continuously on the data. Applying finally a common fixed-point approach to VI, the results are brought together to obtain existence and structural stability results for extremals of the original control problem under parameter perturbation. (original abstract)
Głównym celem niniejszego opracowania jest ocena skuteczności aproksymacji przyrostowej oraz składnikowej wartości zagrożonej za pomocą marginalnej wartości zagrożonej. (...) Wartość zagrożona jest jedną z najpowszechniej stosowanych miar ryzyka. Została spopularyzowana przez amerykański bank inwestycyjny J.P. Morgan, który w październiku 1994 r. wprowadził do zarządzania ryzykiem model RiskMetrics. Najprościej wartość zagrożoną portfela możemy określić jako maksymalną stratę, na którą może zostać narażony portfel, przy określonym poziomie ufności, podczas określonego okresu przetrzymywania, w ciągu którego skład pozostaje niezmieniony. Podczas wyznaczania potencjalnych strat portfela, wartość zagrożona dostarcza informacji na temat słabości i ekspozycji portfela na czynniki zewnętrzne. Informacje te mogą być przydatne dla menedżerów zarządzających ryzykiem. (fragment tekstu)
Zadaniom identyfikacji modeli ekonometrycznych, tj. określenia ich struktury i parametrów na podstawie obserwacji poświęcono poważną ilość prac różniących się nie tylko typami modeli, które należy zidentyfikować, ale także metodami i algorytmami identyfikacji. Zasady formułowania algorytmów identyfikacji są ściśle związane z wyborem równania wykorzystującego obserwowane dane i aproksymującego równanie modelu oraz z wyborem kryterium jakości tej aproksymacji, a także z wyborem metody optymalizacji kryterium. Te zasady są w znacznej mierze dowolne i zależą w większości od upodobań i możliwości badacza. Są one opracowywane i aprobowane na podstawie rozmaitych założeń heurystycznych. (fragment tekstu)
W artykule przedstawiono model regresji logistycznej Firtha w kontekście wag przypisywanych przez metodę poszczególnym obserwacjom ze zbioru danych. Następnie dokonano przekształcenia modelu HLM do podobnej postaci. Na podstawie wniosków płynących z alternatywnego spojrzenia na model Firtha oraz HLM zaproponowano dwie metody aproksymacji modelu Firtha. Symulacyjnie zbadano jakość aproksymacji oraz omówiono praktyczne korzyści płynące z jej stosowania. (abstrakt oryginalny)
Artykuł przedstawia podstawyteoretyczne teorii ruiny oraz opis klasycznego modelu procesu nadwyżki. Przedstawiono analityczne obliczenia prawdopodobieństwa ruiny w szczególnych przypadkach rozkładu wysokości pojedynczej szkody (wykładniczy, gamma, mieszanina rozkładów wykładniczych]. Główną częścią pracy jest analiza dostępnych metod aproksymacji prawdopodobieństwa ruiny w horyzoncie nieskończonym w modelu z czasem ciągłym. Jakość aproksymacji jest badana poprzez porównanie oszacowanego prawdopodobieństwa ruiny z prawdopodobieństwem wyznaczonym analitycznie (tam, gdzie to możliwe] lub przybliżonym numerycznie za pomocą formuły Pollaczka-Chinczyna. Błędy aproksymacji (w ujęciu bezwzględnym i względnym] przedstawiono dla wybranych rozkładów lekkoogonowych (mieszanina rozkładów wykładniczych, rozkład gamma] i rozkładów gruboogonowych (Pareto, lognormalny, Weibulla i Burra]. Celem pracy jest ocena możliwości wykorzystania metod aproksymacji prawdopodobieństwa ruiny w działalności zakładów ubezpieczeń, z uwzględnieniem takich obszarów, jak taryfikacja czy wypłacalność zakładów ubezpieczeń, zwłaszcza w kontekście reżimu Wypłacalność II. Przeprowadzone analizy pozwalają zauważyć, że w większości przypadków wyniki aproksymacji można uznać za dość satysfakcjonujące (błąd względny nieprzekraczający 5%], przy czym najmniejsze błędy uzyskano dla aproksymacji Cramera-Lundberga i de Vyldera w przypadku rozkładów lekkoogonowych oraz dla aproksymacji Beekmana-Bowersa i de Vyldera w przypadku rozkładów gruboogonowych. Jakość dopasowania, mierzona błędem względnym, generalnie maleje wraz ze spadkiem zakładanego prawdopodobieństwa ruiny, szczególnie dla rozkładów gruboogonowych. (abstrakt oryginalny)
W artykule tym dokonamy przeglądu aktualnych wyników związanych z problemem aproksymacji prawdopodobieństwa ruiny firmy ubezpieczeniowej, przy założeniu, że proces nadwyżki żądań modelowany jest przez gaussowski proces stochastyczny o stacjonarnych przyrostach. W punkcie 2 wprowadzimy oznaczenia oraz podstawowe wielkości. W punktach 3 i 4 podane zostaną oszacowania i asymptotyki prawdopodobieństw ruiny dla odpowiednio skończonego i nieskończonego horyzontu czasu. Punkt 5 poświęcony jest analizie własności stałych Pickandsa, które odgrywają istotną rolę w dokładnych asymptotykach uzyskanych w części 4. (fragment tekstu)
first rewind previous Strona / 3 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.