Section outline

  • Percezione per robotica autonoma mobile / Perception for autonomous mobile robotics

    • Il testo di riferimento per il materiale presentato in questa sezione è: S. Thrun, D. Fox, W. Burgard, "Probabilistic Robotics", con l'eccezione dei due primi argomenti.

      Per il primo argomento ("sistema di riferimento intrinseco ad una curva nello spazio 3D") si faccia riferimento ad un testo di analisi matematica oppure alla pagina https://it.wikipedia.org/wiki/Curvatura oppure ai primi paragrafi di http://www.mat.unimi.it/users/alzati/personale/dtesi/tesimol.pdf.

      Per il secondo argomento ("rassegna cinematiche e ruote") si faccia riferimento al testo: R. Siegwart, I. R. Nourbakhsh, D. Scaramuzza, "Introduction to Autonomous Mobile Robots", paragrafi 2.1 e 2.3; il testo nella prima edizione (che è ancora ok per quanto riguarda questo argomento) si può trovare ad esempio qui: http://home.deib.polimi.it/gini/robot/docs/siegwart.pdf.

      Per l'argomento "velocity model" si faccia riferimento a "Probabilistic Robotics".

      Per l'argomento "odometry model" si faccia riferimento a "Probabilistic Robotics".

      Per l'argomento "review sistemi di range sensing" (LIDAR, camere 3D a triangolazione, camere 3D a tempo di volo) si faccia riferimento alle lezioni su aspetti tecnologici, oltre al video.

      Per l'argomento "beam model" si faccia riferimento a "Probabilistic Robotics".

      Per l'argomento "auto localizzazione" (tassonomia, EKF-based, grid-based, PF-based) si faccia riferimento a "Probabilistic Robotics".

      Per l'argomento "SLAM" non visuale si faccia riferimento a "Probabilistic Robotics" ed al video di Stachniss.

      Per l'argomento Visual SLAM si faccia riferimento solo alle slides.

      Il materiale è apparentemente tantissimo, quindi vorrei chiarire che il livello richiesto è limitato alla sola comprensione della struttura dei problemi ed alla conoscenza grossolana dei principi delle varie tecniche, non sono richieste conoscenze dettagliate come, ad esempio, quali sono i parametri della rappresentazione UID ("Unified Inverse Depth") delle point features; va invece capito, sempre sullo stesso esempio, perché si usi UID.

    • Localizzazione
    • Ulteriori slides che riassumono parte di ciò che si è detto a lezione e forse qualcosa di più, nella speranza possano essere utili.

    • Link alle lezioni del corso di intelligenza artificiale del sito Udacity, dove potete trovare l'esempio di localizzazione visto (quello tipo histogram filter). Sono lezioni molto ben fatte che riassumono il "come" fare localizzazione, gli elementi alla base, ma non descrivono i vari algoritmi a particelle (che però trovate sul libro).

    • SLAM ekf-based (testo cap 10), parte della lezione del 08.02.13 D.R. Simone Ceriani
    • SLAM pf-based, parte della lezione del 11.02.13 D.R. Simone Ceriani.
    • In allegato le slide su FASTSLAM 1.0 e la sua variante 2.0. Le slides sono quelle di Cyrill Stachniss che potete anche trovare online, qui sono commentate un poco inserendo ciò che abbiamo detto durante le lezioni.

      Non ci sono slides sulla pur usatissima versione GRID, ma ricordate che FASTSLAM può essere trasformato in versione GRID con relativamente piccole modifiche. La più usata versione grid rao-blackwellized di SLAM è gmapping, il cui sito di riferimento è http://www.openslam.org/gmapping.html (oltre che http://wiki.ros.org/gmapping per la sua implementazione in ROS).

    • Visual SLAM
    • Approcci basati su DNN per problemi di computer and robot vision