PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2011 | nr 96 Modelowanie preferencji a ryzyko '11 | 329--338
Tytuł artykułu

Zastosowanie procesów decyzyjnych Markowa do ustalenia optymalnej ilości zapasów w przedsiębiorstwie

Treść / Zawartość
Warianty tytułu
Application of Markov Decision Processes to Determine the Optimal Amount of Stock in a Company
Języki publikacji
PL
Abstrakty
W niniejszym opracowaniu przedstawiono teoretyczne podstawy MDP oraz model zarządzania zapasami w przedsiębiorstwie. Model może być stosowany zarówno w przedsiębiorstwach handlowych, jak i produkcyjnych. Dzięki przeliczeniu rzeczywistej wielkości sprzedaży i zapasów na dziesięć przedziałów może być stosowany niezależnie od skali obrotu przedsiębiorstwa. W przypadku dysponowania dłuższą historią sprzedaży można zwiększyć liczbę stanów, z zastrzeżeniem, że dane sprzed lat nie muszą mieć dużego związku z sytuacją obecną, co zmniejszy, zamiast zwiększyć, dokładność metody. Trzy przykłady numeryczne pokazują, że stosowanie MDP pozwala na ustalenie prostej do użycia i zgodnej z intuicją polityki zarządzania zapasami. (fragment tekstu)
EN
Markov decision processes (MDP) allow a decision maker to choose optimal solution to a given problem under uncertainty. In every state there is a set of actions, which can be taken by the decision maker. The consequences are twofold: decision maker receives an instant reward, and the system goes to another state in accordance with a transition probability function. The objective of decision-maker is to collect maximum sum of rewards in the chain of states. The article "Application of Markov decision processes to determine the optimal amount of stock in a company" shows how to use MDP to optimize use of resources in the company. (original abstract)
Twórcy
  • Uniwersytet Mikołaja Kopernika w Toruniu
Bibliografia
  • Ching W., Ng M. (2006). Markov Chains: Models, Algorithms and Applications. Springer, New York.
  • Kadota Y., Kurano M., Yasuda M. (2006). Discounted Markov Decision Processes. An International Journal Computers & Mathematics With Applications, 51.
  • Puterman M. (2005). Markov Decision Processes: Discrete Stochastic, Dynamic Programming. John Wiley and Sons, New Jersey.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171232675

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.