Course Syllabus
Obiettivi
Coerentemente con gli obiettivi formativi del Corso di Studio, l'insegnamento si propone di fornire allo studente le conoscenze riguardanti le definizioni e gli enunciati fondamentali del controllo ottimo sia con la tecnica variazionale che con la programmazione dinamica. Questi strumenti poi verranno applicati alla teoria dei giochi differenziali. Verranno altresì fornite le competenze necessarie a comprendere e analizzare le principali tecniche e metodi dimostrativi connessi alla teoria, e le abilità utili ad applicarle per risolvere esercizi e affrontare modelli economici e non.
Contenuti sintetici
Problemi di controllo ottimo con il metodo variazionale: teoria e modelli economici. Problemi di controllo ottimo con la programmazione dinamica: teoria e modelli economici. Introduzione ai giochi differenziali.
Programma esteso
1. INTRODUZIONE AL CONTROLLO OTTIMO
a. Alcuni problemi introduttivi In barca con Pontryagin, un modello di consumo ottimo, ”the lady in the lake”.
b. Formulazione di un problema di controllo ottimo Definizioni di controlli, dinamica, traiettorie, insieme di controllo, target set.
Funzioni assolutamente continue. Soluzione di una equazione differenziale ordinaria con funzioni misurabili: definizione e teorema di esistenza e unicità. Controlli ammissibili. Importanza del caso della dinamica lineare. Insieme dei punti raggiungibili.
2. Il CONTROLLO OTTIMO CON METODO VARIAZIONALE
a. Il problema più semplice di controllo ottimo Il teorema di Pontryagin (DIM nel caso di insieme di controllo U=R, DIM anche del lemma tecnico): definizione di Hamiltoniana e conseguenze del principio del Massimo. Controllo estremale, moltiplicatore associato. Controllo normale e abnormale: un esempio di controllo ottimo abnormale. Proprietà dell’Hamiltoniana lungo il cammino ottimo (DIM).
Problemi autonomi: proprietà dell’Hamiltoniana lungo il cammino ottimo.
Condizioni sufficienti di ottimalità: la condizione di Mangasarian (DIM). Funzioni concave, sopragradiente, sopragradiente di funzioni differenziabili, cenni al Teorema di Rockafellar: la condizione sufficiente di Arrow (DIM).
Condizioni di transversalità per i problemi con punti iniziali/finali fissati. Sui problemi di minimo.
A two sector model with investment and consumption goods.
b. Il problema più semplice di calcolo delle variazioni Il teorema di Eulero (DIM come caso particolare del teorema di Pontryagin). Condizioni di transversalità per i problemi con punti iniziali/finali fissati. Condizioni sufficienti per il problema più semplice usando concavità/convessità.
Curva di lunghezza minima.
c. Controlli singolari e bang-bang Definizioni di controlli bang-bang, istanti di commutazione e controlli singolari. La costruzione di una strada di montagna a costo minimo.
d. Problema più generali di controllo ottimo Problemi di Mayer, di Bolza e Lagrange: loro equivalenza (DIM).
Problemi a tempo finale fisso: condizione necessaria e condizione sufficiente per il problema di Bolza, problemi autonomi. Problemi a tempo finale libero: nozione di tempo di uscita, condizione necessaria per il problema di Bolza, problemi autonomi.
Problemi di time optimal: condizione necessaria. In barca con Pontryagin. Problemi di time optimal singolari: the Dubin car.
Problemi ad orizzonte infinito: controesempio di Halkin; condizione sufficiente (DIM). Hamiltoniana corrente e moltiplicatore corrente e loro condizioni necessarie (DIM) e sufficienti. Modelli di crescita economica: preferenze, funzioni di utilità: un modello di consumo ottimo con utilità logaritmica.
e. Problemi di esistenza e controllabilità Esempi di classe di controlli vuota o di classe di controlli non vuota e senza controllo ottimo (controesempio di Bolza). Disuguaglianza di Gronwall (DIM). Teorema di esistenza del controllo ottimo per i problemi di Bolza: il caso con insieme di controllo chiuso e il caso con insieme controllo compatto.
3. CONTROLLO OTTIMO CON IL METODO DELLA PROGRAMMAZIONE DINAMICA
a. La funzione valore e le sue proprietà per il problema più semplice di controllo ottimo. Definizione della funzione valore. Il principio di ottimalità di Bellman (DIM).
Le proprietà della funzione valore: la condizione (necessaria) finale sulla funzione valore (DIM), l’equazione di Bellmann-Hamilton-Jacobi (BHJ) per funzioni valori differenziabili (DIM). L’Hamiltoniana della Programmazione Dinamica. Condizioni sufficienti di ottimalità (DIM). L’equazione di BHJ lungo la traiettoria ottima. Sui problemi di minimo.
Soluzione del problema di strategia aziendale di produzione/vendita. Problemi Affini-Quadratici e Lineari-Quadratici-omogenei: loro funzione valore. Equazioni differenziali di Ricatti.
La funzione valore del problema a tempo finale fisso e valore finale libero (sotto opportune ipotesi), è Lipschitz (DIM per problemi autonomi). Cenni al teorema di Rademacher: la funzione valore ammette derivate q.o.
Definizione di soluzione viscosa per l’equazione di BHJ; la funzione valore come unica soluzione viscosa per l’equazione di BHJ; un esempio di problema di controllo ottimo la cui funzione valore è soluzione viscosa per l’equazione di BHJ.
b. Problemi più generali di controllo otttimo. Condizioni necessarie e sufficienti per problemi di controllo ottimo più generali.
Modello di produzione e gestione del magazzino. Problemi autonomi, ad orizzonte illimitato: la sua funzione valore corrente e la relativa equazione di BHJ (DIM). Un modello di consumo ottimo con utilità HARA. Cenni al modello stocastico di Merton.
c. Legami tra i metodi variazionali e la Programmazione Dinamica.
Interpretazione del moltiplicatore come prezzo ombra (DIM).
4. GIOCHI DIFFERENZIALI
a. Nozioni introduttive Formulazione di un gioco differenziale a 2 giocatori. Giochi simmetrici, giochi completamente cooperativi, giochi a somma zero. Concetti di soluzioni: equilibrio di Nash, equilibrio di Stackelberg. Tipi di strategie: a ciclo aperto e feedback.
b. Soluzioni di equilibrio di Nash *Strategie open loop. Uso dell’approccio variazionale: condizioni necessarie e sufficienti per avere un equilibrio di Nash open-loop. Il modello lavoratori-capitalisti di Lancaster. **Strategie feedback. Perché la tecnica variazione non è particolarmente utile (DIM). Definizione di funzione valore su un equilibrio di Nash feedback. Condizioni necessarie e sufficienti con l’uso della programmazione dinamica per un equilibrio di Nash feedback. Le funzioni valore per problemi giochi differenziali Affini-Quadratici a due giocatori. La funzioni valore corrente per giochi a orizzonte infinito e scontati. Un problema di produzione per due aziende in competizione.
c. Soluzioni di equilibrio di Stackelberg Giocatore leader e giocatore gregario, insieme di miglior risposta. Ricerca di soluzioni open-loop con l’approccio variazionale. Padre e figlio al lago.
d. Giochi a somma zero Equilibrio di Nash come punto di sella. Insieme dei controlli e insieme delle strategia non anticipative: esempio della strategia non anticipativa costante.
Definizione di funzione valore inferiore V⁻ , funzione valore superiore V+ e loro relazione; un esempio di gioco con V⁺ > V⁻*.* Definizione di funzione valore V.
Hamiltoniana inferiore della Programmazione Dinamica H⁻PD (superiore H⁺PD): H⁻PD≤H+PD (DIM); un esempio di gioco con H⁻PD*<H⁺PD. Condizione di Isaacs (o di minimax) e definizione di Hamiltoniana della Programmazione Dinamica HPD.
Risultati con funzioni valore regolari. Equazione di Isaacs inferiore e superiore: V⁺ (V⁻) è soluzione dell’equazione di Isaacs superiore (inferiore). Una dimostrazione geometrica che V soddisfa l’equazione di Isaacs (DIM).
Equazioni di Isaacs per V e condizioni sufficienti con la PD per un equilibrio di Nash con strategia feedback. Condizioni necessarie e sufficienti con approccio variazionale con strategia open-loop
Risultati per funzioni valore in generale. V⁻ (V⁺) è Lipschitz (sotto opportune ipotesi). V⁻ (V⁺) è l’unica soluzione viscosa dell’equazione di Isaacs inferiore (superiore). La condizione di Issacs implica V⁺=V⁻=V. War of attrition and attack*
e. Giochi di cattura ed evasione Formulazione di un gioco di cattura-evasione, target set, exit time. La funzione valore e l’equazione di Isaacs per problemi autonomi (DIM). Lady in the lake.
Prerequisiti
Le conoscenze acquisite nei corsi della laurea triennale sono una base sufficiente.
Modalità didattica
Normalmente, lezioni frontali con esercitazioni. Il corso è previsto in lingua italiana ma potrebbe essere tenuto in lingua inglese in presenza di studenti stranieri.
Materiale didattico
[C1] A. Calogero “Notes on optimal control theory”, disponibile gratuitamente in rete.
[C2] A. Calogero “A very short tour on differential games”, disponibile gratuitamente in rete.
[C3] A. Calogero “Exercises of dynamic optimization”, disponibile gratuitamente in rete.
Ulteriore materiale didattico: [BO] T. Başar, G.O. Olsder “Dynamic noncooperative game theory”, SIAM Classic in Applied Mathematics, 1998
[B] A. Bressan “Noncooperative differential games. A Tutorial”, Milan Journal of Nathematics, vol 79, pag 357-427, 2011.
[E] L.C. Evans “An introduction to mathematical optimal control theory”, disponibile gratuitamente in rete.
[FR] W.H. Fleming, R.W. Rishel "Deterministic and stochastic optimal control", Springer-Verlag, 1975
[KS] M.I. Kamien, N.L. Schwartz “Dynamic optimization” Elsevier, second edition, 2006
[SS] A. Seierstad, K Sydsæter “Optimal control theory with economics applications” Elsevier Science, 1987
Periodo di erogazione dell'insegnamento
Primo semestre
Modalità di verifica del profitto e valutazione
L’esame consiste in una prova scritta e una prova orale facoltativa: senza orale non si registrano voti superiori ai 27/30; l’ammissione alla prova orale è possibile solo con un voto non inferiore a 27/30.
PROVA SCRITTA (3 ore, a cui è necessario iscriversi) consiste in una prova sui seguenti argomenti:
- definizioni, teoremi, dimostrazioni (le dimostrazioni sono indicate con DIM) come da programma dettagliato;
- modelli economici e non, come da programma dettagliato;
- esercizi di controllo ottimo con metodo variazionale e con la programmazione dinamica.
Gli esercizi dell’esame scritto verranno scelti rigorosamente dalla lista [C3] presente sulla pagina del corso (escludendo gli esercizi del punto 1.8): si consiglia di verificare periodicamente la lista.
PROVA ORALE (in data da concordare, ma entro un anno dalla prova scritta) è un approfondimento dell’elaborato scritto.
E' facoltà dello studente rifiutare il voto finale e ripetere la prova d'esame, per non più di 2 volte.
Orario di ricevimento
Su appuntamento con il docente.
Sustainable Development Goals
Aims
In line with the educational objectives of the Master Degree in Mathematics, the course aims at providing the knowledge about the fundamental concepts and statements of the theory of optimal control using the varionational approach and using the dynamic programming. Moreover, we will introduce the students to the theory of the differential games. It will also build the skills needed to understand and use the most important proving arguments and techniques in the theory and the ability to solve exercises and deal with several models and applications.
Contents
Optimal control problems with the variational approach: theory and economic models. Optimal control
problems with dynamic programming: theory and economic models. Introduction to differential games.
Detailed program
1. INTRODUCTION TO THE OPTIMAL CONTROL
a. Some problems. The moon landing problem, in boat with Pontryagin, a model of optimal consumption, the “lady in the lake”.
b. Statement of an optimal control problem Definition of control, dynamics, trajectory, control set. Admissible control. Importance of the case of linear dynamics.
2. THE OPTIMAL CONTROL WITH THE VARIATIONAL APPROACH
a. The simplest problem of optimal control The theorem of Pontryagin (PROOF in the case of control set U = R): comments and consequences of the Maximum principle. Extremal control, associated multiplier. Normal and abnormal controls. Sufficient conditions of optimality: the condition of Mangasarian (PROOF). Concave functions, upgradient, upgradiente for differentiable function, theorem of Rockafellar. The sufficient condition of Arrow (PROOF). Transversality conditions for problems with fixed initial/final points. On the minimum problems. An example of abnormal control. A two sector model with investment and consumption goods. A model of inventory and production I.
b. The simplest problem of the calculus of variations Euler's theorem (PROOF as a particular case of the theorem of Pontryagin). Transversality conditions for problems with fixed initial/final points. Sufficient conditions for the simplest problem using concavity/convexity. Curve of minimal length.
c. Singular and bang-bang controls. Definition of bang-bang control, switching time and singular controls. The construction of a mountain road with minimal cost.
d. More general problem of optimal control Problems of Mayer, Bolza and Lagrange: their equivalence (PROOF). A necessary condition for the problem of Bolza with final time fixed/free. The adjustment model of labor demand (Hamermesh). Time optimal problems: In boat with Pontryagin. Singular time optimal problems: The Dubin car. Problems with infinite horizon: counterexample of Halkin; sufficient condition (PROOF). Current Hamiltonian and current multiplier. Models of economic growth: the utility functions. A model of optimal consumption with log-utility.
e. Problems of existence and controllability Examples. Gronwall inequality. Theorem of existence of optimal control for the problems of Bolza: the case of closed control set and the case of compact control set.
3. OPTIMAL CONTROL WITH THE METHOD OF DYNAMIC PROGRAMMING
a. The value function of its properties in the simplest problem of optimal control. Definition of the function value. The first necessary condition for the value function (PROOF). Bellman’s principle of optimality (PROOF). The properties of the value function: the equation of Hamlton-Jacobi-Bellmann (PROOF). The Hamiltonian of Dynamic Programming. Sufficient conditions of optimality (PROOF). On the problems of minimum.
The value function for problem with fixed final time and free final value, is Lipschitz (PROOF). Definition of viscosity solution; the vaue function is the unique viscosity solution of BHJ equation. Problem of business strategy of production / sale II.
b. More general problem of optimal control Necessary and sufficient conditions for more general optimal control problems. A model of inventory and production II. Infinite horizon problems: the current value function and its BHJ equation. A problem of optimal consumption with HARA utility. An idea of the stochastic situation: the model of Merton.
c. Relations between the variational approach and Dynamic Programming Interpretation of the multiplier as a shadow price (PROOF).
4. DIFFERENTIAL GAMES
a. Introduction Statement of a differential game with two players. Symmetric games, fully cooperative games, zero-sum games. Concepts of solutions: Nash equilibrium, Stackelberg equilibrium. Types of strategies: open-loop and Markov.
b. Nash equilibrium * Open loop strategies. Definition, use of the variational approach and sufficient condition for an open-loop strategy. The model “workers versus capitalists” of Lancaster. Two fishermen at the lake I. A model on international pollution. ** Markovian strategies. Because the variation technique is not particularly useful. Definition of the value function on a Nash feedback equilibrium. Necessary and sufficient conditions with dynamic programming. Value Functions for Affine-Quadratic Two-Player Differential Game Problems. The current value functions for infinite and discounted horizon games. A problem of production for two competing companies. Two fishermen at the lake II.
c. Stackelberg equilibrium. Leader and follower players, the set of best replies. Open-loop solution with the variational approach. A model on International pollution with hierarchical relations.
d. Zero sum games Nash equilibrium optimal control as a saddle point. Non anticipative strategies. Upper value function V⁺, lower value V- and their relation.
Upper Hamiltonian of Dynamic Programming H⁺PD and Lower H⁻PD*:* their relation (PROOF). Properties of V⁺ and V⁺: Lipschitz properties ans viscosity solution for the Isaacs’s equations.
Isaacs condition (minimax condition) and the Hamiltonian of Dynamic Programming HPD. Definition of value function V. A geometric proof that V satisfies the Isaacs equation (PROOF). War of attrition and attack.
e. Pursuit and evasion games. Statement, target set, exit time. The value function and the Isaacs’ equation for the autonomous case (PROOF). Lady in the lake.
Prerequisites
The tools and the knowledge of the courses of the first degree are a sufficient basis.
Teaching form
Lectures with exercises. The course is scheduled in Italian but could be held in English in the presence of foreign students.
Textbook and teaching resource
[C1] A. Calogero “Notes on optimal control theory”, avaible in web site.
[C2] A. Calogero “A very short tour on differential games”, avaible in web site.
[C3] A. Calogero “Exercises of dynamic optimization”, avaible in web site.
Other references: [BO] T. Başar, G.O. Olsder “Dynamic noncooperative game theory”, SIAM Classic in Applied Mathematics, 1998
[B] A. Bressan “Noncooperative differential games. A Tutorial”, Milan Journal of Nathematics, vol 79, pag 357-427, 2011.
[E] L.C. Evans “An introduction to mathematical optimal control theory”, disponibile gratuitamente in rete.
[FR] W.H. Fleming, R.W. Rishel "Deterministic and stochastic optimal control", Springer-Verlag, 1975
[KS] M.I. Kamien, N.L. Schwartz “Dynamic optimization” Elsevier, second edition, 2006
[SS] A. Seierstad, K Sydsæter “Optimal control theory with economics applications” Elsevier Science, 1987
Semester
First semester.
Assessment method
The examination starts with a written test. The evaluation will be in thirty: it is possible to take the oral examination only with evalutation major then 26 in the written part.
WRITTEN TEST: (3 hours) contains the following arguments:
- definitions, theorems and proofs (the proofs required are denoted with PROOF in the program of the course);
- economic and more general models, as in the program of the course;
- exercises of optimal control, using the variational approach and the dynamic programming.
The exercises will be chosen in the list of exercise [C3] located in the page of the course.
ORAL TEST: (the date will be fixed together with the student). It consists in a discussion starting to the written part.
The student can reject a sufficient evaluation at most 2 times.
Office hours
On appointment.