Organizace U  S Kód
hodnocení
Skupina
oborů
Body
výsledku
Body
upravené
Podíl VOBody VOBody VO
upravené
H14
Masarykova univerzita / Fakulta informatiky1314 D 446.18123.1410.523.09011.570
Výsledky hodnocení dříve prezentovala speciální podoba stránek výskytů výsledků doplněná informacemi o hodnocení daného výskytu a výsledku. To zde supluji doplněním kopií stránek z rvvi.cz/riv z 18.12.2017 o relevantní údaje z dat H16. Najetí myší na kód či skupinu zobrazí vysvětlující text (u některých vyřazených není k dispozici). Čísla jsou oproti zdroji zaokrouhlena na 3 desetinná místa.

Multi-objective Discounted Reward Verification in Graphs and MDPs (2013)výskyt výsledku

Identifikační kódRIV/00216224:14330/13:00072859
Název v anglickém jazyceMulti-objective Discounted Reward Verification in Graphs and MDPs
DruhD - Článek ve sborníku
Jazykeng - angličtina
Obor - skupinaI - Informatika
OborIN - Informatika
Rok uplatnění2013
Kód důvěrnosti údajůS - Úplné a pravdivé údaje o výsledku nepodléhající ochraně podle zvláštních právních předpisů.
Počet výskytů výsledku1
Počet tvůrců celkem3
Počet domácích tvůrců1
Výčet všech uvedených jednotlivých tvůrcůKrishnendu Chatterjee (státní příslušnost: IN - Indická republika)
Vojtěch Forejt (státní příslušnost: CZ - Česká republika, domácí tvůrce: A, vedidk: 2477912)
Dominik Wojtczak (státní příslušnost: PL - Polská republika)
Popis výsledku v anglickém jazyceWe study the problem of achieving a given value in Markov decision processes (MDPs) with several independent discounted reward objectives. We consider a generalised version of discounted reward objectives, in which the amount of discounting depends on the states visited and on the objective. This definition extends the usual definition of discounted reward, and allows to capture the systems in which the value of different commodities diminish at different and variable rates. We establish results for twoprominent subclasses of the problem, namely state-discount models where the discount factors are only dependent on the state of the MDP (and independent of the objective), and reward-discount models where they are only dependent on the objective (but not on the state of the MDP). For the state-discount models we use a straightforward reduction to expected total reward and show that the problem whether a value is achievable can be solved in polynomial time.
Klíčová slova oddělená středníkemmulti-objective verification; markov decision processes; graphs
Stránka www, na které se nachází výsledek-
DOI výsledku10.1007/978-3-642-45221-5_17

Údaje o výsledku v závislosti na druhu výsledku

Název sborníkuLogic for Programming, Artificial Intelligence, and Reasoning
ISBN9783642452208
ISSN0302-9743
Počet stran výsledku15
Strana od-do228-242
Název nakladateleSpringer
Místo vydáníBerlin, Heidelberg
Místo konání akceStellenbosch, South Africa
Datum konání akce2013
Typ akce podle státní příslušnosti účastníkůWRD - Celosvětová
Kód UT WoS článku podle Web of Science-

Ostatní informace o výsledku

PředkladatelMasarykova univerzita / Fakulta informatiky
DodavatelMSM - Ministerstvo školství, mládeže a tělovýchovy (MŠMT)
Rok sběru2014
SpecifikaceRIV/00216224:14330/13:00072859!RIV14-MSM-14330___
Datum poslední aktualizace výsledku29.05.2014
Kontrolní číslo56541106

Odkazy na výzkumné aktivity, při jejichž řešení výsledek vznikl

Projekt podporovaný MŠMT v programu LGLG13010 - Zastoupení ČR v European Research Consortium for Informatics and Mathematics (2013 - 2015)
Podpora / návaznostiInstitucionální podpora na rozvoj výzkumné organizace