Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Wyszukujesz frazę "Bellman equation" wg kryterium: Temat


Wyświetlanie 1-4 z 4
Tytuł:
Ergodic control of partially observed Markov processes with equivalent transition probabilities
Autorzy:
Stettner, Łukasz
Powiązania:
https://bibliotekanauki.pl/articles/1340658.pdf
Data publikacji:
1993
Wydawca:
Polska Akademia Nauk. Instytut Matematyczny PAN
Tematy:
partial observation
long run average cost
stochastic control
Bellman equation
Opis:
Optimal control with long run average cost functional of a partially observed Markov process is considered. Under the assumption that the transition probabilities are equivalent, the existence of the solution to the Bellman equation is shown, with the use of which optimal strategies are constructed.
Źródło:
Applicationes Mathematicae; 1993-1995, 22, 1; 25-38
1233-7234
Pojawia się w:
Applicationes Mathematicae
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Optimal control problems with upper semicontinuous Hamiltonians
Autorzy:
Misztela, Arkadiusz
Powiązania:
https://bibliotekanauki.pl/articles/729281.pdf
Data publikacji:
2010
Wydawca:
Uniwersytet Zielonogórski. Wydział Matematyki, Informatyki i Ekonometrii
Tematy:
Hamilton-Jacobi-Bellman equation
Bolza problem
viscosity solution
bilateral solution
monotonic approximation
semicontinuous Hamiltonian
Opis:
In this paper we give examples of value functions in Bolza problem that are not bilateral or viscosity solutions and an example of a smooth value function that is even not a classic solution (in particular, it can be neither the viscosity nor the bilateral solution) of Hamilton-Jacobi-Bellman equation with upper semicontinuous Hamiltonian. Good properties of value functions motivate us to introduce approximate solutions of equations with such type Hamiltonians. We show that the value function is the unique approximate solution.
Źródło:
Discussiones Mathematicae, Differential Inclusions, Control and Optimization; 2010, 30, 1; 71-99
1509-9407
Pojawia się w:
Discussiones Mathematicae, Differential Inclusions, Control and Optimization
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Discrete approximations of the Hamiltonian-Jacobi equation for an optimal control problem of a differential-algebraic system
Dyskretne przybliżenia równania Hamiltona-Jacobiego dla zadania sterowania optymalnego układem różniczkowo-algebraicznym
Autorzy:
Bonnans, J. F.
Chartier, P.
Zidani, H.
Powiązania:
https://bibliotekanauki.pl/articles/206725.pdf
Data publikacji:
2003
Wydawca:
Polska Akademia Nauk. Instytut Badań Systemowych PAN
Tematy:
sterowanie optymalne
układ różniczkowo-algebraiczny
równanie Hamiltona-Jacobiego-Bellmana
programowanie dynamiczne
procedury aproksymacji
różnice skończone
rozwiązania lepkościowe
optimal control
differential-algebraic system
Hamilton-Jacobi-Bellman equation
dynamic programming
approximation schemes
finite differences
viscosity solutions
Opis:
This paper discusses the numerical resolution of the Hamilton-Jacobi-Bellman equation associated with optimal control problem when the state equation is of algebraic differential type. We discuss two numerical schemes. The first reduces to the standard framework, while the second does not suppose any knowledge of the Jacobian of the data. We obtain some error estimates, and display numerical results obtained on a simple test problem.
Artykuł rozpatruje rozwiązanie numeryczne równania Hamiltona-Jacobiego-Bellmana, związanego z zagadnieniem sterowania optymalnego w przypadku, gdy równanie stanu jest algebraiczno-różniczkowe. Rozważane są dwie procedury numeryczne. Pierwsza z nich sprowadza się do postępowania standardowego, podczas gdy druga nie zakłada znajomości Jakobianu danych. Otrzymano pewne oceny błędu, a na końcu artykułu pokazano wyniki numeryczne dla prostego zadania testowego.
Źródło:
Control and Cybernetics; 2003, 32, 1; 33-56
0324-8569
Pojawia się w:
Control and Cybernetics
Dostawca treści:
Biblioteka Nauki
Artykuł
Tytuł:
Modeling shortest path games with Petri nets: A Lyapunov based theory
Autorzy:
Clempner, J.
Powiązania:
https://bibliotekanauki.pl/articles/908393.pdf
Data publikacji:
2006
Wydawca:
Uniwersytet Zielonogórski. Oficyna Wydawnicza
Tematy:
Nash equilibrium point
shortest path game
game theory
Lyapunov equilibrium point
Bellman’s equation
Lyapunov-like fuction
stability
teoria gier
funkcja Lapunowa
równanie Bellmana
stabilność
Opis:
In this paper we introduce a new modeling paradigm for shortest path games representation with Petri nets. Whereas previous works have restricted attention to tracking the net using Bellman’s equation as a utility function, this work uses a Lyapunov-like function. In this sense, we change the traditional cost function by a trajectory-tracking function which is also an optimal cost-to-target function. This makes a significant difference in the conceptualization of the problem domain, allowing the replacement of the Nash equilibrium point by the Lyapunov equilibrium point in game theory. We show that the Lyapunov equilibrium point coincides with the Nash equilibrium point. As a consequence, all properties of equilibrium and stability are preserved in game theory. This is the most important contribution of this work. The potential of this approach remains in its formal proof simplicity for the existence of an equilibrium point.
Źródło:
International Journal of Applied Mathematics and Computer Science; 2006, 16, 3; 387-397
1641-876X
2083-8492
Pojawia się w:
International Journal of Applied Mathematics and Computer Science
Dostawca treści:
Biblioteka Nauki
Artykuł
    Wyświetlanie 1-4 z 4

    Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies