Percorso della pagina
Insegnamento
Course full name
Mathematical Methods For Economic Analysis - Optimal Control
Course ID number
2122-1-F4001Q094
Course Syllabus
Obiettivi
Coerentemente con gli obiettivi formativi del Corso di Studio, l'insegnamento si propone di fornire allo studente le conoscenze riguardanti le definizioni e gli enunciati fondamentali del controllo ottimo sia con la tecnica variazionale che con la programmazione dinamica. Questi strumenti poi verranno applicati alla teoria dei giochi differenziali. Verranno altresì fornite le competenze necessarie a comprendere e analizzare le principali tecniche e metodi dimostrativi connessi alla teoria, e le abilità utili ad applicarle per risolvere esercizi e affrontare modelli economici e non.
Contenuti sintetici
Problemi di controllo ottimo con il metodo variazionale: teoria e modelli economici. Problemi di controllo ottimo con la programmazione dinamica: teoria e modelli economici. Introduzione ai giochi differenziali.
Programma esteso
1. INTRODUZIONE AL CONTROLLO OTTIMO
a. Alcuni problemi
introduttivi
In barca con Pontryagin,
un modello di consumo ottimo, ”the lady in the lake”.
b. Formulazione di
un problema di controllo ottimo
Definizioni di
controlli, dinamica, traiettorie, insieme di controllo, target set.
Funzioni assolutamente continue. Soluzione di una equazione differenziale ordinaria con funzioni misurabili: definizione e teorema di esistenza e unicità. Controlli ammissibili. Importanza del caso della
dinamica lineare. Insieme dei
punti raggiungibili.
2. Il CONTROLLO OTTIMO CON METODO
VARIAZIONALE
a. Il problema più semplice di controllo ottimo
Il teorema di
Pontryagin (DIM nel caso di insieme di controllo U=R, DIM anche del lemma
tecnico): definizione di Hamiltoniana e conseguenze del principio del Massimo.
Controllo estremale, moltiplicatore associato. Controllo normale e abnormale: un
esempio di controllo ottimo abnormale. Proprietà dell’Hamiltoniana lungo il
cammino ottimo (DIM).
Problemi autonomi: proprietà
dell’Hamiltoniana lungo il cammino ottimo.
Condizioni
sufficienti di ottimalità: la condizione di Mangasarian (DIM). Funzioni concave, sopragradiente, sopragradiente di funzioni
differenziabili, cenni al Teorema di Rockafellar: la condizione sufficiente
di Arrow (DIM).
Condizioni di transversalità per i
problemi con punti iniziali/finali fissati. Sui problemi di minimo.
A two sector model with investment and
consumption goods.
b. Il problema più
semplice di calcolo delle variazioni
Il teorema di
Eulero (DIM come caso particolare del teorema di Pontryagin). Condizioni di
transversalità per i problemi con punti iniziali/finali fissati. Condizioni sufficienti per il problema più semplice usando
concavità/convessità.
Curva di
lunghezza minima.
c. Controlli
singolari e bang-bang
Definizioni di controlli bang-bang, istanti di commutazione e controlli singolari. La costruzione
di una strada di montagna a costo minimo.
d. Problema più generali di controllo ottimo
Problemi di Mayer, di Bolza e Lagrange:
loro equivalenza (DIM).
Problemi a tempo finale fisso: condizione
necessaria e condizione sufficiente per il problema di Bolza, problemi
autonomi. Problemi a tempo finale libero: nozione di tempo di uscita, condizione
necessaria per il problema di Bolza, problemi autonomi.
Problemi
di time optimal:
condizione necessaria. In barca con Pontryagin. Problemi
di time optimal singolari: the Dubin car.
Problemi
ad orizzonte infinito:
controesempio di Halkin; condizione sufficiente (DIM). Hamiltoniana corrente e moltiplicatore corrente e loro condizioni
necessarie (DIM) e sufficienti. Modelli di crescita economica: preferenze, funzioni di
utilità: un modello di consumo ottimo con utilità logaritmica.
e. Problemi di esistenza e controllabilità
Esempi di classe di controlli vuota o di classe di controlli non vuota e
senza controllo ottimo (controesempio di Bolza). Disuguaglianza di Gronwall (DIM). Teorema di esistenza del controllo ottimo per
i problemi di Bolza: il caso con insieme di controllo chiuso e il caso con
insieme controllo compatto.
3. CONTROLLO OTTIMO CON IL METODO DELLA PROGRAMMAZIONE DINAMICA
a.
La funzione valore e le sue proprietà per il problema più semplice di controllo
ottimo.
Definizione della funzione valore. Il
principio di ottimalità di Bellman (DIM).
Le
proprietà della funzione valore: la condizione (necessaria) finale sulla funzione valore (DIM), l’equazione di Bellmann-Hamilton-Jacobi
(BHJ) per funzioni valori differenziabili (DIM). L’Hamiltoniana della
Programmazione Dinamica. Condizioni sufficienti di ottimalità (DIM). L’equazione
di BHJ lungo la traiettoria ottima. Sui problemi di minimo.
Soluzione del problema di strategia aziendale di
produzione/vendita.
Problemi
Affini-Quadratici e Lineari-Quadratici-omogenei: loro funzione valore.
Equazioni differenziali di Ricatti.
La funzione
valore del problema a tempo finale fisso e valore finale libero (sotto opportune ipotesi), è Lipschitz
(DIM per problemi autonomi). Cenni al teorema di Rademacher: la funzione valore
ammette derivate q.o.
Definizione di
soluzione viscosa per l’equazione di BHJ; la funzione valore come unica
soluzione viscosa per l’equazione di BHJ; un esempio di problema di controllo
ottimo la cui funzione valore è soluzione viscosa per l’equazione di BHJ.
b. Problemi
più generali di controllo otttimo.
Condizioni
necessarie e sufficienti per problemi di controllo ottimo più generali.
Modello di produzione e gestione del magazzino.
Problemi
autonomi, ad orizzonte illimitato: la sua funzione valore corrente e la
relativa equazione di BHJ (DIM). Un modello di consumo ottimo con utilità HARA. Cenni al
modello stocastico di Merton.
c. Legami tra i metodi variazionali e la Programmazione Dinamica.
Interpretazione del moltiplicatore come prezzo ombra (DIM).
4. GIOCHI DIFFERENZIALI
a. Nozioni introduttive
Formulazione
di un gioco differenziale a 2 giocatori. Giochi simmetrici, giochi completamente cooperativi,
giochi a somma zero. Concetti di soluzioni: equilibrio di Nash, equilibrio di
Stackelberg. Tipi di strategie: a ciclo aperto e feedback.
b. Soluzioni di equilibrio di Nash
*Strategie
open loop. Uso dell’approccio variazionale: condizioni necessarie e sufficienti
per avere un equilibrio di Nash open-loop. Il modello lavoratori-capitalisti di
Lancaster.
**Strategie
feedback. Perché la tecnica variazione non è particolarmente
utile (DIM). Definizione di funzione valore su un equilibrio di Nash feedback. Condizioni
necessarie e sufficienti con l’uso della programmazione dinamica per un
equilibrio di Nash feedback. Le funzioni valore per problemi giochi
differenziali Affini-Quadratici a due giocatori. La funzioni valore corrente
per giochi a orizzonte infinito e scontati. Un problema di produzione per due
aziende in competizione.
c. Soluzioni di equilibrio di Stackelberg
Giocatore
leader e giocatore gregario, insieme di miglior risposta. Ricerca di soluzioni
open-loop con l’approccio variazionale.
Padre e figlio al lago.
d. Giochi a somma zero
Equilibrio di Nash come punto di sella. Insieme dei controlli e insieme delle strategia
non anticipative: esempio della strategia non anticipativa costante.
Definizione di funzione valore inferiore V- , funzione valore superiore V+ e loro relazione; un esempio di gioco
con V+ > V-. Definizione di funzione valore V.
Hamiltoniana
inferiore della Programmazione Dinamica H-PD (superiore H+PD): H-PD≤H+PD (DIM); un esempio di
gioco con H-PD<H+PD. Condizione di Isaacs (o di minimax) e definizione di Hamiltoniana della
Programmazione Dinamica HPD.
Risultati con funzioni valore regolari. Equazione di Isaacs inferiore e superiore: V+ (V-) è soluzione dell’equazione di Isaacs superiore
(inferiore). Una dimostrazione geometrica che V soddisfa l’equazione di Isaacs (DIM).
Equazioni di Isaacs per V e condizioni
sufficienti con la PD per un equilibrio di Nash con strategia feedback. Condizioni
necessarie e sufficienti con approccio variazionale con strategia open-loop
Risultati per funzioni valore in generale. V- (V+) è Lipschitz (sotto opportune ipotesi). V- (V+) è l’unica soluzione viscosa dell’equazione di Isaacs inferiore
(superiore). La condizione di Issacs
implica V+=V-=V. War of
attrition and attack
e. Giochi di cattura ed
evasione
Formulazione di
un gioco di cattura-evasione, target set, exit time. La funzione valore e
l’equazione di Isaacs per problemi autonomi (DIM). Lady in the
lake.
Prerequisiti
Le conoscenze acquisite nei corsi della laurea triennale sono una base sufficiente.
Modalità didattica
Normalmente, lezioni frontali con esercitazioni.
Materiale didattico
[C1] A. Calogero “Notes on optimal control theory”, disponibile gratuitamente in
rete.
[C2] A. Calogero “A very short tour on differential games”, disponibile
gratuitamente in rete.
[C3] A. Calogero “Exercises of dynamic optimization”, disponibile gratuitamente in rete.
Ulteriore
materiale didattico:
[BO] T.
Başar, G.O. Olsder “Dynamic
noncooperative game theory”, SIAM Classic in Applied Mathematics, 1998
[B] A. Bressan “Noncooperative differential games. A Tutorial”, Milan Journal
of Nathematics, vol 79, pag 357-427, 2011.
[E] L.C. Evans “An
introduction to mathematical optimal control theory”, disponibile gratuitamente in rete.
[FR] W.H.
Fleming, R.W. Rishel "Deterministic
and stochastic optimal control", Springer-Verlag, 1975
[KS] M.I.
Kamien, N.L. Schwartz “Dynamic
optimization” Elsevier, second edition, 2006
[SS] A.
Seierstad, K Sydsæter “Optimal control
theory with economics applications” Elsevier Science, 1987
Periodo di erogazione dell'insegnamento
Primo semestre
Modalità di verifica del profitto e valutazione
L’esame consiste in una prova scritta e una prova orale facoltativa: senza orale non si registrano voti superiori ai 27/30; l’ammissione alla prova orale è possibile solo con un voto non inferiore a 27/30.
PROVA SCRITTA (3 ore, a cui è necessario iscriversi) consiste in una prova sui seguenti argomenti:- definizioni, teoremi, dimostrazioni (le dimostrazioni sono indicate con DIM) come da programma dettagliato;
- modelli economici e non, come da programma dettagliato;
- esercizi di controllo ottimo con metodo variazionale e con la programmazione dinamica. Gli esercizi dell’esame scritto verranno scelti rigorosamente dalla lista [C3] presente sulla pagina del corso (escludendo gli esercizi del punto 1.8): si consiglia di verificare periodicamente la lista.
PROVA ORALE (in data da concordare, ma entro un anno dalla prova scritta) è un approfondimento dell’elaborato scritto.
- definizioni, teoremi, dimostrazioni (le dimostrazioni sono indicate con DIM) come da programma dettagliato;
- modelli economici e non, come da programma dettagliato;
- esercizi di controllo ottimo con metodo variazionale e con la programmazione dinamica. Gli esercizi dell’esame scritto verranno scelti rigorosamente dalla lista [C3] presente sulla pagina del corso (escludendo gli esercizi del punto 1.8): si consiglia di verificare periodicamente la lista.
E' facoltà dello studente rifiutare il voto finale e ripetere la prova d'esame, per non più di 2 volte.
Orario di ricevimento
Su appuntamento con il docente.
Aims
In line with the educational objectives of the Master Degree in Mathematics, the course aims at providing the knowledge about the fundamental concepts and statements of the theory of optimal control using the varionational approach and using the dynamic programming. Moreover, we will introduce the students to the theory of the differential games. It will also build the skills needed to understand and use the most important proving arguments and techniques in the theory and the ability to solve exercises and deal with several models and applications.
Contents
Optimal control problems with the variational approach: theory and economic models. Optimal control
problems with dynamic programming: theory and economic models. Introduction to differential games.
Detailed program
1. INTRODUCTION TO THE OPTIMAL
CONTROL
a. Some problems.
The moon landing problem, in boat with Pontryagin, a model of optimal
consumption, the “lady in the lake”.
b. Statement of an optimal
control problem
Definition of control, dynamics, trajectory, control set. Admissible
control. Importance of the case of linear dynamics.
2. THE OPTIMAL CONTROL WITH
THE VARIATIONAL APPROACH
a. The simplest problem of
optimal control
The theorem of Pontryagin (PROOF in the case of control set U = R):
comments and consequences of the Maximum principle. Extremal control,
associated multiplier. Normal and abnormal controls. Sufficient conditions of
optimality: the condition of Mangasarian (PROOF). Concave functions,
upgradient, upgradiente for differentiable function, theorem of Rockafellar. The
sufficient condition of Arrow (PROOF). Transversality conditions for problems with
fixed initial/final points. On the minimum problems. An example of abnormal
control. A two sector model with investment and consumption
goods. A model of inventory and production I.
b. The simplest problem of the
calculus of variations
Euler's theorem (PROOF as a particular case of the theorem of Pontryagin).
Transversality conditions for problems with fixed initial/final points.
Sufficient conditions for the simplest problem using concavity/convexity. Curve of minimal
length.
c. Singular and bang-bang
controls.
Definition of bang-bang control, switching time and singular controls. The construction
of a mountain road with minimal cost.
d. More general problem of
optimal control
Problems of Mayer, Bolza and Lagrange: their equivalence (PROOF). A
necessary condition for the problem of Bolza with final time fixed/free. The adjustment
model of labor demand (Hamermesh).
Time optimal problems: In boat with Pontryagin. Singular time optimal
problems: The
Dubin car.
Problems with infinite horizon: counterexample of Halkin; sufficient
condition (PROOF). Current Hamiltonian and current multiplier. Models of
economic growth: the utility functions. A model of optimal consumption with log-utility.
e. Problems of existence and controllability
Examples. Gronwall inequality. Theorem of existence of optimal control for
the problems of Bolza: the case of closed control set and the case of compact
control set.
3. OPTIMAL CONTROL WITH THE
METHOD OF DYNAMIC PROGRAMMING
a. The value function of its
properties in the simplest problem of optimal control.
Definition of the function value. The first necessary condition for the
value function (PROOF). Bellman’s principle of optimality (PROOF). The
properties of the value function: the equation of Hamlton-Jacobi-Bellmann
(PROOF). The Hamiltonian of Dynamic Programming. Sufficient conditions of
optimality (PROOF). On the problems of minimum.
The value function for problem with fixed final time and free final value,
is Lipschitz (PROOF). Definition of viscosity solution; the vaue function is
the unique viscosity solution of BHJ equation. Problem of business strategy of production
/ sale II.
b. More general problem of
optimal control
Necessary and sufficient conditions for more general optimal control
problems. A
model of inventory and production II.
Infinite horizon problems: the current value function and its BHJ equation.
A problem of
optimal consumption with HARA utility. An idea of the stochastic
situation: the
model of Merton.
c. Relations between the variational approach and Dynamic Programming
Interpretation of the
multiplier as a shadow price (PROOF).
4. DIFFERENTIAL GAMES
a. Introduction
Statement of a differential game with two players. Symmetric games, fully
cooperative games, zero-sum games. Concepts of solutions: Nash equilibrium,
Stackelberg equilibrium. Types of strategies: open-loop and Markov.
b. Nash equilibrium
* Open loop
strategies. Definition, use of the variational approach and sufficient
condition for an open-loop strategy. The model “workers versus capitalists” of Lancaster. Two
fishermen at the lake I. A
model on international pollution.
** Markovian strategies. Because
the variation technique is not particularly useful. Definition of the value
function on a Nash feedback equilibrium. Necessary and sufficient conditions
with dynamic programming. Value Functions for Affine-Quadratic Two-Player
Differential Game Problems. The current value functions for infinite and
discounted horizon games. A problem of production for two competing companies. Two fishermen at
the lake II.
c. Stackelberg
equilibrium.
Leader
and follower players, the set of best replies. Open-loop solution with the
variational approach. A model on International pollution with hierarchical
relations.
d. Zero sum games
Nash equilibrium optimal control as a saddle point. Non anticipative
strategies. Upper value function V+, lower value V- and their relation.
Upper Hamiltonian
of Dynamic Programming H+PD
and Lower H-PD: their relation (PROOF). Properties of V+ and V+:
Lipschitz properties ans viscosity solution for the Isaacs’s equations.
Isaacs
condition (minimax condition) and the Hamiltonian of Dynamic Programming HPD. Definition of value function V. A geometric proof that V satisfies the Isaacs
equation (PROOF). War of attrition and attack.
e. Pursuit and
evasion games.
Statement, target set, exit time. The value function and the Isaacs’
equation for the autonomous case (PROOF). Lady in the lake.
Prerequisites
The tools and the knowledge of the courses of the first degree are a sufficient basis.
Teaching form
Lectures with exercises.
Textbook and teaching resource
[C1] A. Calogero “Notes on optimal control theory”, avaible in web site.
[C2] A. Calogero “A very short tour on differential games”, avaible in web site.
[C3] A. Calogero “Exercises of dynamic optimization”, avaible in web site.
Other references:
[BO] T. Başar, G.O. Olsder “Dynamic noncooperative game theory”, SIAM Classic in Applied Mathematics, 1998
[B] A. Bressan “Noncooperative differential games. A Tutorial”, Milan Journal of Nathematics, vol 79, pag 357-427, 2011.
[E] L.C. Evans “An introduction to mathematical optimal control theory”, disponibile gratuitamente in rete.
[FR] W.H. Fleming, R.W. Rishel "Deterministic and stochastic optimal control", Springer-Verlag, 1975
[KS] M.I. Kamien, N.L. Schwartz “Dynamic optimization” Elsevier, second edition, 2006
[SS] A. Seierstad, K Sydsæter “Optimal control theory with economics applications” Elsevier Science, 1987
Semester
First semester.
Assessment method
The examination starts with a written test. The evaluation will be in thirty: it is possible to take the oral examination only with evalutation major then 26 in the written part.
WRITTEN TEST: (3 hours) contains the following arguments:- definitions, theorems and proofs (the proofs required are denoted with PROOF in the program of the course);
- economic and more general models, as in the program of the course;
- exercises of optimal control, using the variational approach and the dynamic programming: Such exercises will be chosen in the list of exercise [C3] located in the page of the course.
ORAL TEST: (the date will be fixed together with the student). It consists in a discussion starting to the written part.
The student can reject a sufficient evaluation at most 2 times.
Office hours
On appointment.
Key information
Field of research
SECS-S/06
ECTS
8
Term
First semester
Activity type
Mandatory to be chosen
Course Length (Hours)
56
Language
Italian