RIV/00216224:14330/13:00072859 - Multi-objective Discounted Reward Verification in Graphs and MDPs (2013)

Údaje o výsledku
Identifikační kódRIV/00216224:14330/13:00072859
Název v původním jazyceMulti-objective Discounted Reward Verification in Graphs and MDPs
DruhD - Článek ve sborníku
Jazykeng - angličtina
OborIN - Informatika
Rok uplatnění2013
Kód důvěrnosti údajůS - Úplné a pravdivé údaje nepodléhající ochraně podle zvláštních právních předpisů
Počet výskytů výsledku1
Údaje z Hodnocení výsledků výzkumných organizací 2014
Výsledek byl hodnocen v Pilíři I
Rozsah vyřazení výsledkuTento výskyt výsledku není vyřazen
Zařazení výsledku v hodnoceníD - Článek ve sborníku
Skupina oboru v hodnocení04 - Technické a informatické vědy
Konkrétní způsob(y) hodnocení výsledkuČlánek ve sborníku evidovaném v databázi Scopus bodovaný podle SJR zdroje typu Book Series nebo Conference Proceedings
Bodové ohodnocení46,181
Faktor korekce50,1 %
Body (upravené podle přílohy č. 8 Metodiky)23,141
Rozdělení výsledku mezi předkladatele
OrganizaceVýzkumná organizace?PodílBodyBody (upravené podle přílohy č. 8 Metodiky)
Masarykova univerzita / Fakulta informatikyano50,0 %23,09011,570
Tvůrci výsledku
Počet tvůrců celkem3
Počet domácích tvůrců1
TvůrceChatterjee Krishnendu (státní příslušnost: IN - Indická republika)
TvůrceForejt Vojtěch (státní příslušnost: CZ - Česká republika; A - domácí tvůrce; vedidk: 2477912)
TvůrceWojtczak Dominik (státní příslušnost: PL - Polská republika)
Údaje blíže specifikující výsledek
Popis v původním jazyceWe study the problem of achieving a given value in Markov decision processes (MDPs) with several independent discounted reward objectives. We consider a generalised version of discounted reward objectives, in which the amount of discounting depends on the states visited and on the objective. This definition extends the usual definition of discounted reward, and allows to capture the systems in which the value of different commodities diminish at different and variable rates. We establish results for two prominent subclasses of the problem, namely state-discount models where the discount factors are only dependent on the state of the MDP (and independent of the objective), and reward-discount models where they are only dependent on the objective (but not on the state of the MDP). For the state-discount models we use a straightforward reduction to expected total reward and show that the problem whether a value is achievable can be solved in polynomial time.
Klíčová slovamulti-objective verification; markov decision processes; graphs
Název sborníkuLogic for Programming, Artificial Intelligence, and Reasoning
Rozsah stran228-242
Forma vydáníP - Tištěná verze „print“
ISSN0302-9743
ISBN9783642452208
Počet stran výsledku15
Název nakladateleSpringer-Verlag
Místo vydáníBerlin, Heidelberg
Místo konání akceStellenbosch, South Africa
Rok konání akce2013
Typ akce podle státní příslušnoti účastníkůWRD - Světová
DOI výsledku10.1007/978-3-642-45221-5_17
Údaje o tomto záznamu o výsledku
PředkladatelMasarykova univerzita / Fakulta informatiky
DodavatelMSM - Ministerstvo školství, mládeže a tělovýchovy (MŠMT)
Rok sběru2014
Systémové označení dodávky datRIV14-MSM-14330___/01:1
SpecifikaceRIV/00216224:14330/13:00072859!RIV14-MSM-14330___
Kontrolní kód[414B1E6A2B31]
Jiný výskyt tohoto výsledku se v RIV nenachází
Odkazy na výzkumné aktivity, při jejichž řešení výsledek vznikl
ProjektLG13010 - Zastoupení ČR v European Research Consortium for Informatics and Mathematics (2013-2015, MSM/LG)
I - Instit. podpora na rozvoj výzkumné organizace