Integrazione di reti deep e machine learning per explainability

FSE logo.png

Dottorato di ricerca POR FSE 2014-2020 Operazione RIF/PA 2019-11286/RER approvato da Dgr 462/2019 OBIETTIVO TEMATICO 10 - PROGETTI DI FORMAZIONE ALLA RICERCA PRESENTATI A VALERE SULL'INVITO APPROVATO CON PROPRIA DELIBERAZIONE N. 39/2019

Dottorando: Dott. Michele Fraccaroli

Responsabile scientifico: Prof.ssa Evelina Lamma e Prof. Fabrizio Riguzzi

Coordinatore del Corso di dottorato: Prof. Stefano Trillo

Dipartimento di afferenza: Ingegneria

Corso di dottorato relativo al 35° ciclo: Scienze dell’Ingegneria

Il progetto

Il progetto formativo si è focalizzato sulla cosiddetta “eXplainable Artificial Intelligence” (XAI). L’Intelligenza Artificiale (IA) ha l’obiettivo di far svolgere ad una macchina attività tipicamente umane, quali attività normali, attività formali, o attività specialistiche. Tra le tecnologie di IA, l’apprendimento automatico (Machine Learning) e il deep learning rivestono un ruolo sempre più importante. Il ML è l’insieme di tecniche automatiche di analisi dei dati con cui - dai dati - si apprendono “modelli”, a fini classificatori, per fare previsioni, o per raggruppare dati e individuarne caratteristiche salienti. Da almeno sei anni tutte le più importanti società di ICT al mondo stanno investendo e assumendo persone con un forte background in ML. La spinta prevalente di tale interesse è il fatto che le società della Internet economy detengono una enorme quantità di dati (per questo si parla di Big Data), raccolti da ogni tipo di piattaforma connessi a Internet. E da tali dati, con il machine learning, si estraggono valore e conoscenza (sui clienti, consumers, etc.). Il deep learning, con i successi ottenuti nell'ambito del riconoscimento di immagini e del riconoscimento del linguaggio e del parlato, ha aperto la strada allo sviluppo di nuove applicazioni (si pensi al Google Assistant), dove l’IA è immersiva ed ha tanto più successo quanto più è nascosta. Tuttavia, nonostante i successi recenti del ML, dovuti in parte alla tecnologia basata su deep network, vi sono alcune indubbie lacune. La difficoltà di fornire spiegazioni (explanation) per le attività attuate dai sistemi di AI e i loro esiti è oggi, infatti, il maggior limite: non potendo a volte ottenere un modello descritto in un linguaggio formale e validabile dall’umano, i classificatori e le applicazioni sviluppate sono in questi casi “scatole nere” incapaci di fornire una spiegazione dell’attività effettuata. Partendo da tali considerazioni, il progetto formativo ha avuto l’obiettivo di formare dottorandi con le necessarie competenze atte a padroneggiare nuovi sistemi di apprendimento automatico, anche basati su deep learning, che siano expainable, ovvero in grado di fornire una spiegazione comprensibile agli esseri umani, espressa in un linguaggio di alto livello.

Parole chiave

  • Machine learning
  • Deep network
  • Intelligenza artificiale