Organizace U  S Kód
hodnocení
Skupina
oborů
Body
výsledku
Body
upravené
Podíl VOBody VOBody VO
upravené
H14
Masarykova univerzita / Fakulta informatiky1415 Jimp 414.53411.5460.88912.91910.264
Výsledky hodnocení dříve prezentovala speciální podoba stránek výskytů výsledků doplněná informacemi o hodnocení daného výskytu a výsledku. To zde supluji doplněním kopií stránek z rvvi.cz/riv z 18.12.2017 o relevantní údaje z dat H16. Najetí myší na kód či skupinu zobrazí vysvětlující text (u některých vyřazených není k dispozici). Čísla jsou oproti zdroji zaokrouhlena na 3 desetinná místa.

Markov Decision Processes with Multiple Long-Run Average Objectives (2014)výskyt výsledku

Identifikační kódRIV/00216224:14330/14:00074494
Název v anglickém jazyceMarkov Decision Processes with Multiple Long-Run Average Objectives
DruhJ - Článek v odborném periodiku
Jazykeng - angličtina
Obor - skupinaI - Informatika
OborIN - Informatika
Rok uplatnění2014
Kód důvěrnosti údajůS - Úplné a pravdivé údaje o výsledku nepodléhající ochraně podle zvláštních právních předpisů.
Počet výskytů výsledku1
Počet tvůrců celkem5
Počet domácích tvůrců4
Výčet všech uvedených jednotlivých tvůrcůTomáš Brázdil (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 1762834)
Václav Brožek (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 5532787)
Krishnendu Chatterjee (státní příslušnost: IN - Indická republika)
Vojtěch Forejt (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 2477912)
Antonín Kučera (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 9872655)
Popis výsledku v anglickém jazyceWe study Markov decision processes (MDPs) with multiple limit-average (or mean-payoff) functions. We consider two different objectives, namely, expectation and satisfaction objectives. Given an MDP with k limit-average functions, in the expectation objective the goal is to maximize the expected limit-average value, and in the satisfaction objective the goal is to maximize the probability of runs such that the limit-average value stays above a given vector. We show that under the expectation objective, in contrast to the case of one limit-average function, both randomization and memory are necessary for strategies even for epsilon-approximation, and that finite-memory randomized strategies are sufficient for achieving Pareto optimal values. Under the satisfaction objective, in contrast to the case of one limit-average function, infinite memory is necessary for strategies achieving a specific value (i.e.
Klíčová slova oddělená středníkemMarkov decision processes; mean-payoff reward; multi-objective optimisation; formal verification
Stránka www, na které se nachází výsledekhttp://www.lmcs-online.org/ojs/viewarticle.php?id=1109&layout=abstract
DOI výsledku10.2168/LMCS-10(1:13)2014

Údaje o výsledku v závislosti na druhu výsledku

Název periodikaLogical Methods in Computer Science
ISSN1860-5974
Svazek periodika10
Číslo periodika v rámci uvedeného svazku1
Stát vydavatele periodikaDE - Spolková republika Německo
Počet stran výsledku29
Strana od-do1-29
Kód UT WoS článku podle Web of Science000333744700001
EID výsledku v databázi Scopus-

Ostatní informace o výsledku

PředkladatelMasarykova univerzita / Fakulta informatiky
DodavatelGA0 - Grantová agentura České republiky (GA ČR)
Rok sběru2015
SpecifikaceRIV/00216224:14330/14:00074494!RIV15-GA0-14330___
Datum poslední aktualizace výsledku12.05.2015
Kontrolní číslo152518338

Odkazy na výzkumné aktivity, při jejichž řešení výsledek vznikl

Projekt podporovaný GA ČR v programu GPGPP202/12/P612 - Formální verifikace stochastických systémů s reálným časem (2012 - 2014)