Salta ai contenuti. | Salta alla navigazione

Strumenti personali

Metodi di ottimizzazione numerica A.A. 2020-2021

Docente: Prof. Valeria Ruggiero


ORARIO DELLE LEZIONI (2° Semestre) - Inizio lezioni dal 24 febbraio 2020:

Mercoledì, ore 11:30-13:30; dal 21  aprile 2021, ore 9:00-11:00

Venerdì ore 9:00-11:00

 

Ricevimento:  previo appuntamento via e-mail.


Per informazioni, comunicazioni veloci e problemi relativi al corso: rgv@unife.it


Modalità di esame:

orale


 

CALENDARIO DELLE LEZIONI

Le lezioni si terranno via Meet in streaning.

Il materiale è reperibile su Classroom (codice e4i7dwd)


24 febbraio 2021 (2 ore) - Introduzione al corso e possibili applicazioni. Definizione di ottimizzazione numerica. Esempi di problemi di ottimo.

26 febbraio 2021 (2 ore) - Richiami di algebra e analisi multivariata, esempi e rappresentazione Matlab. Funzioni convesse e loro caratterizzazione (I  ordine e II ordine). Definizione di minimo.  Esistenza di minimi.

3 marzo 2021 (2 ore) - Condizioni necessarie  e condizioni sufficienti del I e II ordine. Metodi numerici per problemi non vincolati: introduzione ai metodi di discesa. Classe dei metodi del gradiente.

5 marzo 2021 (2 ore) - Condizioni di Wolfe. Teorema di Zoutendijk. Direzioni gradient related. Realizzazione in Matlab del metodo del gradiente con line search inesatta.

10 marzo 2021 (2 ore) - Convergenza dei metodi del gradiente con ricerca del passo esatta, inesatta e limitata. Ulteriori risultati di convergenza. Applicazioni in Matlab del teorema della cattura.  Definizioni di velocità di convergenza.

12 marzo 2021 (2 ore) -  Caso quadratico: metodo di discesa ripida e velocità di convergenza. Interpretazione geometrica del metodo di discesa ripida del caso quadratico. Tecniche di accelerazione di SD: precondizionamento.

17 marzo 2021 (2 ore) - Implementazione di SD precondizionato nel caso quadratico. Tecniche di accelerazione di SD: regole di Barzilai Borwein. Analisi spettrale. Applicazioni numeriche nel caso quadratico. Applicazioni numeriche nel caso generale. Realizzazione di metodi con regole BB alternate.

La lezione del giorno 19 marzo è sospesa, per concomitante sessione di laurea.

24 marzo 2021 (2 ore) - Metodi delle direzioni coniugate. Teorema di terminazione finita. Metodo CG. Proprietà del  metodo CG.

26 marzo 2021 (2 ore) - Discretizzazione del modello lineare di ricostruzione di immagini distorte e rumorose per risoluzione come problema di minimo di minimi quadrati regolarizzato con Hypersurface potential. Errore nel metodo CG. Precondizionamento di CG.

31 marzo 2021 (2 ore) Sperimentazione del metodo CG e CG precondizionato. Metodo di Newton: convergenza e velocità di convergenza. Metodi quasi Newton: velocità di convergenza.

9 aprile 2021 (2 ore) - Regole SR1. Regole DFP e BFGS. Invarianza dei metodi quasi-Newton. Implementazione del metodo di Newton e della regola BFGS.

14 aprile 2021 (2 ore) - Le tecniche trust region: scelta del raggio, punto di Cauchy, tecnica dogleg. Metodo CG-Steinaugh.

16 aprile 2021 (2 ore) - Implementazione della tecnica trust region in Matlab (con dogleg e con CG-Steinaugh); proprietà dei metodi TR e convergenza.

21 aprile 2021 (2 ore) - Introduzione alla programmazione vincolata. Condizioni di ottimalità del I ordine per programmazione vincolata. Esempi.

28 aprile 2021 (2 ore) - Sensitività dei moltiplicatori di Lagrange. Esempi ed esercizi. Condizioni di ottimalità del II ordine per programmazione non lineare. Dualità.

30 aprile 2021 (2 ore) - Alcuni casi di proiezione per vincoli semplici. Metodi per problemi di programmazione quadratica con vincoli di uguaglianza lineari: metodo dello spazio immagine. Metodo dello spazio nullo. Tecniche di fattorizzazione per il metodo dello spazio nullo.

5 maggio 2021 (2 ore) - Metodi per problemi di programmazione quadratica con vincoli di disuguaglianza lineari: metodo dell'insieme attivo.

7 maggio 2021 (2 ore) - Metodi SQP. Metodi di penalizzazione, metodo della Lagrangiana aumentata e metodi ADMM.

12 maggio 2021 (2 ore) - Una applicazione: un problema lasso. Metodo del gradiente proiettato, tecniche di scalatura variabile e di scelta del passo.

14 maggio 2021 (2 ore) - Implementazione del metodo del gradiente proiettato per problemi quadratici con vincoli box. Una applicazione: la metodologia delle Support Vector Machines: caso di classi linearmente separabili e debolmente linearmente separabili.

19 maggio 2021 (2 ore) -  SVM per classi con separazione non lineare nella classificazione binaria. Implementazione per classificazione binaria SVM. Classificazione multiclasse,

21 maggio 2021 (2 ore) - Regressione lineare e non lineare con SVM. Tecniche di decomposizione in ambito SVM e software disponibile. Esempi di applicazioni.  Introduzione alle reti neurali. Metodi di ottimizzazione stocastica: motivazioni del loro uso e problematiche connesse.

24 maggio 2021 (2 ore) - Introduzione alle reti neurali e all'ottimizzazione stocastica