Skip to main content
If you continue browsing this website, you agree to our policies:
  • Condizioni di utilizzo e trattamento dei dati
Continue
x
If you continue browsing this website, you agree to our policies:
  • Condizioni di utilizzo e trattamento dei dati
Continue
x
e-Learning - UNIMIB
  • Home
  • More
Listen to this page using ReadSpeaker
You are currently using guest access
 Log in
e-Learning - UNIMIB
Home
Percorso della pagina
  1. Science
  2. Master Degree
  3. Artificial Intelligence for Science and Technology [F9103Q - F9102Q]
  4. Courses
  5. A.A. 2024-2025
  6. 2nd year
  1. Statistical Mechanics of Neural Networks
  2. Summary
Insegnamento Course full name
Statistical Mechanics of Neural Networks
Course ID number
2425-2-F9102Q027
Course summary SYLLABUS

Course Syllabus

  • Italiano ‎(it)‎
  • English ‎(en)‎
Export

Obiettivi

Da un lato, le Reti Neurali (RN) sono sistemi complessi paradigmatici, caratterizzati da un
comportamento collettivo emergente. Dall'altro, la meccanica statistica fornisce il quadro teorico naturale per
descrivere la fenomenologia dei sistemi fisici complessi. Alla luce di questo collegamento,
molti strumenti e concetti teorici introdotti nella fisica statistica sono stati successivamente applicati per analizzare il comportamento delle RN. Lo scopo di questo corso è quello di portare gli
studenti a comprendere alcuni di questi approcci, valutandone criticamente la rilevanza in
il quadro delle direzioni di ricerca contemporanee.

Contenuti sintetici

In primo luogo, verrsnno introdotti alcuni modelli paradigmatici e risultati chiave della meccanica statistica, a partire da un punto di vista della teoria dell'informazione e del calcolo statistico. Quindi, applicheremo questi strumenti all'analisi di diversi tipi di RN.
Il corso coprirà anche
alcuni temi speciali selezionati (vedi anche relativo modulo didattico), che illustrano come le RN possono essere
impiegate per studiare la dinamica di sistemi fisici complessi, prendendo sistemi macromolecolari di interesse biologico come esempi paradigmatici.

Programma esteso

Capitolo 1: Dalla teoria dell'informazione alla meccanica statistica

Il teorema di Bayes. Distribuzioni a priori e a posteriori.
Informazione di Shannon ed entropia
Inferenza e modellizzazione: l'approccio di maximum likelyhood e maximum entropy alla modellazione dei dati
Derivazione della meccanica statistica dal principio di massima entropia: derivazione degli insiemi statistici di Gibbs-Boltzmann. Modello di Ising e sua risoluzione a livello di campo medio. Transizioni di fase nel modello di Ising. Dinamica stocastica nei sistemi complessi. Intrinsic manifold nello spazio dei dati e delle configurazioni.

Capitolo 2: Reti neurali (RN)

Il percettrone
Singolo neurone come classificatore
Reti profonde e loro allenamento. Il problema dell'overfitting
Affrontare il problema dell'overfitting con l'approccio Maximum-Entropy
Apprendimento come processo di inferenza. Generalizzazione

Capitolo 3: Applicazioni della meccanica statistica alle RN

Memoria associativa e reti di Hopfield. Collegamento con il modello di Ising
Capacità di un modello Hopfield
Volume Gardner e capacità di storing
Le macchine di Boltzmann

Capitolo 4: Apprendimento

Un'applicazione di apprendimento supervisionato: l'interpolazione
Un'applicazione di apprendimento non supervisionato: il clustering
Reinforcement learning

TEMI SPECIALI:

Stima di Machine Learning della dimensionalità della varietà intrinseca di un sistema multidimensionale
Inferire la struttura dei dati dalla dinamica stocastica: mappe di diffusione
L' Uncharted exploration problem
Interpolazione di paesaggi a energia libera con RN.
Clustering nello spazio di configurazione: k-means vs density peak clustering
Enhanced sampling da reinforcement learning.

Prerequisiti

Un background rudimentale nella meccanica statistica classica e in particolare nella teoria di Boltzmann-Gibbs degli insiemi statistici all'equilibrio è ben accetto ma non sarà assunto. Tutti i concetti essenziali verranno forniti durante il corso. Sono richieste competenze di base di calcolo a molte variabili

Modalità didattica

Gli argomenti centrali del corso saranno trattati in lezioni frontali alla lavagna. Gli argomenti speciali selezionati saranno discussi in modalità mista, coinvolgendo sia gli studenti che il docente. Gli studenti saranno divisi in piccoli gruppi, ognuno dei quali presenterà al resto della classe una panoramica su uno o più argomenti speciali. Il docente fornirà l'introduzione generale e il collegamento con l'argomento trattato con il resto del corso. Il docente condurrà inoltre una discussione con gli studenti volta a valutare i punti di forza ei limiti di ciascun approccio.

Materiale didattico

Haiping Huang, Statistical Mechanics of Neural Networks, Springer 2021. ISBN: 978-981-16-7570-6

David J.C. MacKay, Information Theory, Inference, and Learning Algorithms, Cambridge University Press 2003.

John Hertz, A. K. & Palmer, R. G. Introduction to the theory of neural computation. isbn: 9780201515602 (CRC Press, 2018).

Christopher M. Bishop: Pattern recognition and Machine Learning, Springer ISBN-10: 0-387-31073-8. ISBN-13: 978-0387-31073-2.

Katerina Gratsea, V. K. & Lewenstein, M. Storage properties of a quantum perceptron2021. https://arxiv.org/abs/2111.08414.

Periodo di erogazione dell'insegnamento

Primo semestre, secondo anno

Modalità di verifica del profitto e valutazione

Il voto verrà assegnato sulla base di una prova orale finale, tenuto anche conto del contributo dello studente alle sessioni tematiche e relative discussioni.

Orario di ricevimento

In qualsiasi momento, previo accordo con il docente via email

Sustainable Development Goals

IMPRESE, INNOVAZIONE E INFRASTRUTTURE
Export

Aims

Neural Networks (NNs) are paradigmatic complex systems, characterised by an emergent
collective behaviour. Statistical mechanics provides the natural theoretical framework to
describe the phenomenology of complex physical systems. In view of this connection,
many theoretical tools and concepts introduced in statistical physics have been later
proven very useful to analyze the behaviour of NNs. The main aim of this course is to bring the
students to understand some of these approaches, critically assessing their relevance in
the framework of contemporary research directions. A second goal of the course is familiarize with example of applications of NN and Machine Learning to simulate dynamics of complex systems, taking biomolecules as paradigmatic examples.

Contents

First, we shall introduce some key results and models of statistical mechanics, starting from
an information theory and statistical computing standpoint. Then, we shall apply these tools
to the analysis of different types of NNs.
Depending on time availability, student participation and interest, the course will also cover
some selected special topics (see also teaching form, below), which illustrate how NNs are
being employed to investigate the dynamics of complex physical systems, using macromolecules of biological relevance as paradigmaric examples.

Detailed program

Chapter 1: From Information Theory to Statistical Mechanics

Bayes’s theorem. Prior and posterior distributions.
Shannon information content and entropy
Inference & Modelling: Maximum likelihood and Maximum Entropy approach to data modelling
Statistical Mechanics from Maximum Entropy Principle: Derivation of the Gibbs-Boltzmann’s statistical ensembles
Ising Model and its mean-field solution. Phase transitions in the Ising Model
Stochastic dynamics in complex systems. Intrinsic manifold in the data and configuration space.

Chapter 2: Neural Networks (NNs)

The perceptron
Single neuron as a classifier
Deep networks and their training. The overfitting problem
Taming the overfitting problem by the Maximum-Entropy approach
Learning as an inference process. Generalization

Chapter 3: Applications of statistical mechanics to NNs

Associative memory and Hopfield networks. Connection with the Ising Model
Capacity of a Hopfield model
Gardner volume and storage capacity
Boltzmann’s machines

Chapter 4: Learning

A case for supervised learning: interpolation
A case for unsupervised learning: clustering
Reinforcement learning.

SPECIAL TOPICS:

Machine Learning estimate of the dimensionality of the intrinsic manifold
Inferring data structure from stochastic dynamics: diffusion maps
Uncharted exploration of the intrinsic manifold
Interpolating free-energy landscapes with NNs.
Clustering in configuration space: k-means vs density-peak clustering
Reinforcement learning for enhanced sampling methods.

Prerequisites

A rudimental background in classical statistical mechanics and in particular of Boltzmann - Gibbs’ theory of equilibrium statistical ensembles is welcome but will not assumed. All the essential concepts will be provided in the course. Rudimental background in multi-dimensional calculus will be assumed.

Teaching form

The core topics of the course will be covered in conventional lectures on the black board. The selected special topics will be discussed in a mixed mode, involving both students and lecturer. Students will be divided in small groups, each presenting to the rest of the class an overview one or more special topics. The lecturer will provide the general introduction and connection with the topic discussed with rest of the course. The lecturer will also lead a discussion with the students aiming at assessing the strength and limitations of each approach.

Textbook and teaching resource

Haiping Huang, Statistical Mechanics of Neural Networks, Springer 2021. ISBN: 978-981-16-7570-6

David J.C. MacKay, Information Theory, Inference, and Learning Algorithms, Cambridge University Press 2003.

John Hertz, A. K. & Palmer, R. G. Introduction to the theory of neural computation. isbn: 9780201515602 (CRC Press, 2018).

Christopher M. Bishop: Pattern recognition and Machine Learning, Springer ISBN-10: 0-387-31073-8. ISBN-13: 978-0387-31073-2.

Katerina Gratsea, V. K. & Lewenstein, M. Storage properties of a quantum perceptron2021. https://arxiv.org/abs/2111.08414.

Semester

First semester, second year

Assessment method

The grade will be assigned on the basis of a final oral examination, also taking in consideration the student’s contribution to the special topic sessions and related discussion.

Office hours

The lecturer will be available any time, previous arranging the time and date by email.

Sustainable Development Goals

INDUSTRY, INNOVATION AND INFRASTRUCTURE
Enter

Key information

Field of research
FIS/02
ECTS
6
Term
First semester
Activity type
Mandatory to be chosen
Course Length (Hours)
60
Degree Course Type
2-year Master Degreee
Language
English

Staff

    Teacher

  • PF
    Pietro Faccioli

Students' opinion

View previous A.Y. opinion

Bibliography

Find the books for this course in the Library

Enrolment methods

Manual enrolments
Self enrolment (Student)

Sustainable Development Goals

INDUSTRY, INNOVATION AND INFRASTRUCTURE - Build resilient infrastructure, promote inclusive and sustainable industrialization and foster innovation
INDUSTRY, INNOVATION AND INFRASTRUCTURE

You are currently using guest access (Log in)
Policies
Get the mobile app
Powered by Moodle
© 2025 Università degli Studi di Milano-Bicocca
  • Privacy policy
  • Accessibility
  • Statistics