Markov Decision Processes with Multiple Long-Run Average Objectives (2014)výskyt výsledku
Identifikační kód | RIV/00216224:14330/14:00074494 |
---|---|
Název v anglickém jazyce | Markov Decision Processes with Multiple Long-Run Average Objectives |
Druh | J - Článek v odborném periodiku |
Jazyk | eng - angličtina |
Obor - skupina | I - Informatika |
Obor | IN - Informatika |
Rok uplatnění | 2014 |
Kód důvěrnosti údajů | S - Úplné a pravdivé údaje o výsledku nepodléhající ochraně podle zvláštních právních předpisů. |
Počet výskytů výsledku | 1 |
Počet tvůrců celkem | 5 |
Počet domácích tvůrců | 4 |
Výčet všech uvedených jednotlivých tvůrců | Tomáš Brázdil (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 1762834) Václav Brožek (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 5532787) Krishnendu Chatterjee (státní příslušnost: IN - Indická republika) Vojtěch Forejt (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 2477912) Antonín Kučera (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 9872655) |
Popis výsledku v anglickém jazyce | We study Markov decision processes (MDPs) with multiple limit-average (or mean-payoff) functions. We consider two different objectives, namely, expectation and satisfaction objectives. Given an MDP with k limit-average functions, in the expectation objective the goal is to maximize the expected limit-average value, and in the satisfaction objective the goal is to maximize the probability of runs such that the limit-average value stays above a given vector. We show that under the expectation objective, in contrast to the case of one limit-average function, both randomization and memory are necessary for strategies even for epsilon-approximation, and that finite-memory randomized strategies are sufficient for achieving Pareto optimal values. Under the satisfaction objective, in contrast to the case of one limit-average function, infinite memory is necessary for strategies achieving a specific value (i.e. |
Klíčová slova oddělená středníkem | Markov decision processes; mean-payoff reward; multi-objective optimisation; formal verification |
Stránka www, na které se nachází výsledek | http://www.lmcs-online.org/ojs/viewarticle.php?id=1109&layout=abstract |
DOI výsledku | 10.2168/LMCS-10(1:13)2014 |
Údaje o výsledku v závislosti na druhu výsledku
Název periodika | Logical Methods in Computer Science |
---|---|
ISSN | 1860-5974 |
Svazek periodika | 10 |
Číslo periodika v rámci uvedeného svazku | 1 |
Stát vydavatele periodika | DE - Spolková republika Německo |
Počet stran výsledku | 29 |
Strana od-do | 1-29 |
Kód UT WoS článku podle Web of Science | 000333744700001 |
EID výsledku v databázi Scopus | - |
Ostatní informace o výsledku
Předkladatel | Masarykova univerzita / Fakulta informatiky |
---|---|
Dodavatel | GA0 - Grantová agentura České republiky (GA ČR) |
Rok sběru | 2015 |
Specifikace | RIV/00216224:14330/14:00074494!RIV15-GA0-14330___ |
Datum poslední aktualizace výsledku | 12.05.2015 |
Kontrolní číslo | 152518338 |
Odkazy na výzkumné aktivity, při jejichž řešení výsledek vznikl
Projekt podporovaný GA ČR v programu GP | GPP202/12/P612 - Formální verifikace stochastických systémů s reálným časem (2012 - 2014) |
---|