Údaje o výsledku |
Identifikační kód | RIV/00216224:14330/13:00072859 |
Název v původním jazyce | Multi-objective Discounted Reward Verification in Graphs and MDPs |
Druh | D - Článek ve sborníku |
Jazyk | eng - angličtina |
Obor | IN - Informatika |
Rok uplatnění | 2013 |
Kód důvěrnosti údajů | S - Úplné a pravdivé údaje nepodléhající ochraně podle zvláštních právních předpisů |
Počet výskytů výsledku | 1 |
Údaje z Hodnocení výsledků výzkumných organizací 2014 |
Výsledek byl hodnocen v Pilíři I |
Rozsah vyřazení výsledku | Tento výskyt výsledku není vyřazen |
Zařazení výsledku v hodnocení | D - Článek ve sborníku |
Skupina oboru v hodnocení | 04 - Technické a informatické vědy |
Konkrétní způsob(y) hodnocení výsledku | Článek ve sborníku evidovaném v databázi Scopus bodovaný podle SJR zdroje typu Book Series nebo Conference Proceedings |
Bodové ohodnocení | 46,181 |
Faktor korekce | 50,1 % |
Body (upravené podle přílohy č. 8 Metodiky) | 23,141 |
Rozdělení výsledku mezi předkladatele |
Organizace | Výzkumná organizace? | Podíl | Body | Body (upravené podle přílohy č. 8 Metodiky) |
Masarykova univerzita / Fakulta informatiky | ano | 50,0 % | 23,090 | 11,570 |
|
Tvůrci výsledku |
Počet tvůrců celkem | 3 |
Počet domácích tvůrců | 1 |
Tvůrce | Chatterjee Krishnendu (státní příslušnost: IN - Indická republika) |
Tvůrce | Forejt Vojtěch (státní příslušnost: CZ - Česká republika; A - domácí tvůrce; vedidk: 2477912) |
Tvůrce | Wojtczak Dominik (státní příslušnost: PL - Polská republika) |
Údaje blíže specifikující výsledek |
Popis v původním jazyce | We study the problem of achieving a given value in Markov decision processes (MDPs) with several independent discounted reward objectives. We consider a generalised version of discounted reward objectives, in which the amount of discounting depends on the states visited and on the objective. This definition extends the usual definition of discounted reward, and allows to capture the systems in which the value of different commodities diminish at different and variable rates. We establish results for two prominent subclasses of the problem, namely state-discount models where the discount factors are only dependent on the state of the MDP (and independent of the objective), and reward-discount models where they are only dependent on the objective (but not on the state of the MDP). For the state-discount models we use a straightforward reduction to expected total reward and show that the problem whether a value is achievable can be solved in polynomial time. |
Klíčová slova | multi-objective verification; markov decision processes; graphs |
Název sborníku | Logic for Programming, Artificial Intelligence, and Reasoning |
Rozsah stran | 228-242 |
Forma vydání | P - Tištěná verze „print“ |
ISSN | 0302-9743 |
ISBN | 9783642452208 |
Počet stran výsledku | 15 |
Název nakladatele | Springer-Verlag |
Místo vydání | Berlin, Heidelberg |
Místo konání akce | Stellenbosch, South Africa |
Rok konání akce | 2013 |
Typ akce podle státní příslušnoti účastníků | WRD - Světová |
DOI výsledku | 10.1007/978-3-642-45221-5_17 |
Údaje o tomto záznamu o výsledku |
Předkladatel | Masarykova univerzita / Fakulta informatiky |
Dodavatel | MSM - Ministerstvo školství, mládeže a tělovýchovy (MŠMT) |
Rok sběru | 2014 |
Systémové označení dodávky dat | RIV14-MSM-14330___/01:1 |
Specifikace | RIV/00216224:14330/13:00072859!RIV14-MSM-14330___ |
Kontrolní kód | [414B1E6A2B31] |
Jiný výskyt tohoto výsledku se v RIV nenachází |
Odkazy na výzkumné aktivity, při jejichž řešení výsledek vznikl |
Projekt | LG13010 - Zastoupení ČR v European Research Consortium for Informatics and Mathematics (2013-2015, MSM/LG) |
I - Instit. podpora na rozvoj výzkumné organizace |